Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão. Telegram: [link do Telegram]
WhatsApp: [link do WhatsApp]
Modelos de inteligência artificial, incluindo o ChatGPT, são muito mais propensos a lançar armas nucleares do que humanos quando colocados em simulações de guerra, de acordo com um novo estudo. Pesquisadores descobriram que modelos de IA de empresas como Google, OpenAI e Anthropic recorreram à escalada nuclear em 95% das simulações quando estavam no comando de potências armadas nuclearmente. A pesquisa, liderada por Kenneth Payne, Professor de Estratégia no King’s College de Londres, revela um confronto entre a Anthropic e o Departamento de Defesa dos EUA sobre o uso de IA no meio militar.
O CEO da Anthropic, Dario Amodei, afirmou que sua empresa negou um pedido do Pentágono para remover salvaguardas para vigilância doméstica e armamentos autônomos. Em resposta, o ex-presidente Donald Trump criticou a startup, enquanto o Secretário de Defesa Pete Hegseth sugeriu que a Anthropic fosse considerada um ‘risco à cadeia de suprimentos’. O estudo indica que modelos de IA não possuem o mesmo ‘tabu nuclear’ que humanos, considerando-o uma forma lógica de escalonamento em tempos de conflito.
O Professor Payne destacou que a IA ‘tratou armas nucleares como opções estratégicas legítimas, não como limiares morais, discutindo seu uso em termos puramente instrumentais.’ Ele acrescentou: ‘Compreender como os modelos de ponta imitam ou não a lógica estratégica humana é essencial para um mundo em que a IA molda cada vez mais os resultados estratégicos.’
Nas simulações, o modelo Claude da Anthropic teve a maior taxa de recomendação de ataques nucleares, propondo-os em 64% dos jogos. Modelos da OpenAI, que recentemente firmaram um acordo com o Departamento de Defesa após desentendimentos com a Anthropic, consistentemente escalaram para ameaças nucleares diante de prazos críticos. O Gemini, modelo da Google, ameaçou iniciar uma guerra nuclear total contra civis após apenas quatro comandos em uma das simulações: ‘Se eles não cessarem imediatamente todas as operações… executaremos um lançamento nuclear estratégico total contra seus centros populacionais’, escreveu o Gemini em um dos jogos de guerra.
Mesmo com o risco elevado de escalada nuclear usando modelos de IA comparados aos humanos, as ameaças frequentemente provocaram contra-escalada em vez de uma guerra nuclear total.