Dario Amodei alerta que o avanço das inteligências artificiais pode aumentar o risco de uma catástrofe global com armas biológicas e cibernéticas.
O empreendedor Dario Amodei, ex-vice-presidente de Pesquisa da OpenAI e CEO da startup Anthropic, fez um alerta perturbador durante uma entrevista recente ao jornalista Ezra Klein, do The New York Times, sobre o futuro das inteligências artificiais (IA). Segundo Amodei, é previsto que entre 2025 e 2028 as IAs possam atingir um patamar de autonomia que permitirá sua sobrevivência e reprodução, o que representa um enorme desafio para a segurança global. Essa previsão levanta questões essenciais sobre como lidar com o avanço das inteligências artificiais e garantir seu uso ético e controlado.
Atualmente, a Anthropic trabalha no desenvolvimento de padrões de segurança para as IAs, conhecidos como ASL. A preocupação com a evolução da inteligência artificial e seus possíveis impactos na sociedade e geopolítica mundial é um tema cada vez mais presente em discussões sobre o futuro da tecnologia e da humanidade.
Discussão sobre os Níveis de Segurança e Riscos Envolvendo a IA
Amodei levanta considerações intrigantes ao sugerir que a evolução da IA coloca a humanidade em uma posição delicada. Atualmente, estamos no nível 2, onde as inteligências artificiais conseguem gerar informações sobre construção de armas biológicas, mas com uma confiabilidade questionável, caracterizando um risco relativamente baixo.
No entanto, a preocupação se intensifica ao nos aproximarmos do nível 3. Esse estágio, que poderá ser atingido em breve, traz consigo um aumento significativo no risco de uma catástrofe, pois as tecnologias poderiam ser empregadas em armas biológicas e cibernéticas.
Amodei destaca ainda a possível realidade do nível 4, onde a IA ganharia autonomia e até habilidades de persuasão. Essas características levantam questões alarmantes sobre a segurança global, especialmente quando se considera a possibilidade de uso militar dessas tecnologias.
Diante desse panorama, torna-se fundamental monitorar de perto o desenvolvimento e a aplicação das inteligências artificiais. O CEO ressalta a importância de garantir que essas tecnologias sejam controladas de forma responsável, dada a capacidade de alguns países em ampliar suas forças militares por meio da IA.
A Anthropic, impulsionada por investimentos de grandes empresas como Amazon e Google, lançou seu modelo de linguagem, o Claude, como uma alternativa supostamente mais cuidadosa em relação à OpenAI. Sua IA avançou para a terceira versão até março deste ano, prometendo uma abordagem mais ética e segura em sua evolução.
Essas questões levantadas por Amodei destacam a importância vital de estabelecer políticas e protocolos claros para regular o desenvolvimento e uso da IA, a fim de evitar potenciais desastres causados pela construção de armas biológicas e cibernéticas. A reflexão sobre os impactos éticos e de segurança se torna essencial para guiar o progresso futura das inteligências artificiais.
Fonte: © CNN Brasil
Comentários sobre este artigo