Um clamor público entre a administração Trump e a Anthropic está a transformar-se num caos, à medida que as autoridades militares exigem que a empresa de inteligência artificial interrompa as suas políticas éticas até sexta-feira ou corre o risco de prejudicar os seus negócios.
O CEO da Anthropic, Dario Amudi, traçou uma linha vermelha nítida 24 horas antes do prazo, declarando que sua empresa “não pode, em sã consciência, ceder ao último pedido do Pentágono” para permitir o uso irrestrito de sua tecnologia.
A Anthropic, fabricante da nuvem chatbot, pode perder um contrato de defesa. Mas o ultimato desta semana do secretário da Defesa, Pete Hegseth, levantou riscos mais amplos no auge da ascensão métrica da empresa, de um laboratório de ciência da computação pouco conhecido em São Francisco para uma das startups mais valiosas do mundo.
Se Amodi não ceder, os oficiais militares alertaram que não só retirarão o contrato da Entropy, mas também “considerarão-no um risco para a cadeia de abastecimento”, uma designação normalmente aplicada a adversários estrangeiros que poderiam destruir as importantes parcerias da empresa com outras empresas.
E se Amody ceder, poderá perder a fé na florescente indústria da IA, especialmente dos principais talentos atraídos para a empresa pela sua promessa de construir de forma responsável uma IA melhor do que a humana que, sem salvaguardas, poderia representar riscos catastróficos.
A Anthropic disse que está buscando garantias limitadas do Pentágono de que a nuvem não será usada para vigilância em massa de americanos ou em armas totalmente autônomas. Mas depois de meses de negociações privadas que irromperam em debate público, afirmou num comunicado na quinta-feira que a linguagem do novo acordo foi “construída como um compromisso com uma disposição legal que permitiria que estas proteções fossem renunciadas à vontade”.
Isso aconteceu depois que o porta-voz do Pentágono, Sean Parnell, postou nas redes sociais que “não permitiremos que nenhuma empresa dite os termos de como as decisões operacionais são tomadas”, acrescentando que a empresa “tem até às 17h01 de sexta-feira para decidir” se cumpre o pedido ou enfrenta as consequências.
Emil Michaels, subsecretário de Defesa para Pesquisa e Engenharia, criticou mais tarde Amudi, acusando X de ter um “complexo de Deus” e “não querer nada mais do que tentar controlar pessoalmente os militares dos EUA e colocar em risco a segurança de nossa nação”.
Essa mensagem não ressoou em muitas partes do Vale do Silício, onde um número crescente de trabalhadores de tecnologia dos principais rivais da Anthropic, OpenAI e Google, apoiaram a posição de Amody em uma carta aberta na noite de quinta-feira.
OpenAI e Google, juntamente com xAI de Elon Musk, também têm contratos para fornecer seus modelos de IA aos militares.
“O Pentágono está negociando com o Google e a OpenAI para tentar fazer com que concordem com o que a Anthropic rejeitou.” Na carta aberta. “Eles tentam dividir cada empresa com medo de que a outra desista.”
Também levantaram preocupações sobre a abordagem do Pentágono os legisladores republicanos e democratas e o ex-chefe das iniciativas de IA do Departamento de Defesa.
O general aposentado da Força Aérea Jack Shanahan escreveu em um post nas redes sociais: “O uso de Balsey na Entropia gera manchetes picantes, mas todos perdem no final”.
Shanahan enfrentou uma onda diferente de oposição dos trabalhadores de tecnologia durante a primeira administração Trump, quando liderou o Maven, um projeto para usar tecnologia de IA para analisar imagens de drones e apontar armas. Muitos funcionários do Google se opuseram à sua participação no Projeto Maven quando a gigante da tecnologia se recusou a renovar o contrato e depois prometeu não usar IA em armas.
“Como estou entre o Project Maven e o Google, é justo presumir que ficarei do lado do Pentágono aqui”, escreveu Shanahan nas redes sociais na quinta-feira. “Mas ainda simpatizo com a posição da Anthropic. Estive mais no Google do que em 2018.”
Ele disse que a nuvem já é amplamente utilizada em todo o governo, inclusive em ambientes confidenciais, e que as linhas vermelhas da Anthropic são “apropriadas”. Ele disse que os grandes modelos de linguagem de IA que alimentam chatbots como Cloud também “não estão prontos para o horário nobre em ambientes de segurança nacional”, especialmente para armas totalmente autônomas.
“Eles não estão tentando jogar bem aqui”, escreveu ele.
Parnell enfatizou na quinta-feira que o Pentágono quer “usar o modelo Antrópico para todos os fins legais” e disse que o uso da tecnologia evitaria que a empresa “colocasse em risco operações militares críticas”, embora nem ele nem outras autoridades tenham detalhado como pretendem usar a tecnologia.
Os militares “não têm interesse em usar a IA para conduzir vigilância em massa dos americanos (o que é ilegal), nem queremos usar a IA para desenvolver armas autónomas que operem sem envolvimento humano”, escreveu Parnell.
Quando Hegseth e Amody se reuniram na terça-feira, oficiais militares alertaram que poderiam designar o Entropic como um risco na cadeia de abastecimento, cancelar o contrato ou invocar uma lei da era da Guerra Fria conhecida como Lei de Produção de Defesa para dar aos militares autoridade mais ampla para usar seus produtos, mesmo que a empresa não aprove.
“Essas duas últimas ameaças são inerentemente contraditórias: uma nos rotula como um risco à segurança; a outra chama a nuvem de essencial para a segurança nacional”, disse Amudi na quinta-feira. Ele disse que espera que o Pentágono reconsidere dado o valor da nuvem para os militares, mas, se não, a Antthropic “trabalhará para facilitar uma transição suave para outro fornecedor”.
O’Brien escreve para a Associated Press.





