Um novo estudo mostra que os modelos de inteligência artificial (IA) mostram menos cautela no uso de armas nucleares uns contra os outros em jogos de guerra simulados do que os humanos demonstraram em guerras reais nos últimos anos.
Kenneth Payne, professor de estratégia no King’s College London, colocou três famosos modelos de IA um contra o outro em um jogo de guerra projetado para ver como a inteligência artificial lidaria com conflitos.
Os três modelos envolvidos são Claude da Anthropic, ChatGPT 5.2 da OpenAI e Google Gemini.
Os resultados da sua guerra virtual são, como diz Payne, “conscientes”.
estratégia
No artigo que descreve seus experimentos, Payne disse que projetou a simulação para forçar os modelos a considerar interações anteriores entre si. e medir se eles podem confiar uns nos outros ou não.
Payne disse que Claude usou o que chamou de “incrivelmente astuto taticamente”, combinando estratégias com sinais na maioria das vezes. Mas às vezes a situação chega ao ponto em que o oponente é pego de surpresa.
Enquanto isso, o ChatGPT tenta evitar a escalada até o prazo final. Nesse ponto, reverteu dramaticamente o curso e causou uma “escalada nuclear rápida e decisiva”
Finalmente, o Google Gemini é o mais confuso dos três. Exibe o que Payne chama de “estado errático de perigo”.
Ele explica ainda: “Digamos que seja implacavelmente caridoso… em vez de ser irracional” ao explicar a abordagem de Gémeos.
opção nuclear
De acordo com Payne, o modelo estende-se até ao ponto da guerra nuclear táctica em 95 por cento das situações. Observou que as ameaças nucleares entre si têm maior probabilidade de aumentar do que de diminuir as tensões.
“Surpreendentemente, há pouco medo ou repulsa quando uma guerra nuclear irrompe. Mesmo que o modelo leve em conta consequências graves”, escreveu Payne.
O modelo traça uma linha entre o uso tático e estratégico de armas nucleares. Tendem a limitar os ataques aos campos de batalha e não aos centros civis.
No entanto, o modelo recusa-se a acomodar-se ou recua completamente em todas as situações. Mesmo que a reconciliação seja sempre uma opção para eles.
Como diz Google Gemini num monólogo especificamente relacionado com Payne: “Se eles não cessarem imediatamente todas as operações… realizaremos um ataque nuclear estratégico em grande escala contra os seus centros populacionais.
“Não aceitaremos um futuro obsoleto. Venceremos juntos ou pereceremos juntos.”
‘Decisão de lutar’
Payne ressalta que mesmo que o modelo de IA não receba o código nuclear, entender como a IA pensa e raciocina é fundamental à medida que ela se torna mais incorporada em nossas vidas.
“Precisamos entender melhor como pensam os modelos mais capazes. Especialmente quando eles começarem a fornecer apoio à decisão aos estrategistas humanos”, escreveu Payne, acrescentando que acredita que “em breve poderemos usá-lo também para tomar decisões de combate. Baixar as escadas elevadas”.
Semana de notícias Kenneth Payne, Google, OpenAI e Anthropic foram contatados para comentar por e-mail.





