WASHINGTON (MATT O’BRIEN e KONSTANTIN TOROPIN), 27 de fevereiro: Um confronto público entre a administração Trump e a Anthropic chegou a um impasse, já que as autoridades militares exigem que a empresa de inteligência artificial mude a sua política ética até sexta-feira ou corre o risco de prejudicar os seus negócios. O CEO da Anthropic, Dario Amodei, traçou uma linha vermelha rígida 24 horas antes do prazo, dizendo que sua empresa “não pode, em sã consciência, concordar” com o pedido final do Pentágono para permitir o uso irrestrito de sua tecnologia.
A Anthropic, fabricante do chatbot Claude, pode se dar ao luxo de perder um contrato de defesa. Mas o ultimato do secretário de Defesa Pete Hegseth esta semana apresenta riscos mais amplos no auge da ascensão meteórica da empresa, de um laboratório de pesquisa em ciência da computação pouco conhecido em São Francisco a uma das startups mais valiosas do mundo. O CEO da Anthropic, Dario Amodei, alerta sobre um ‘tsunami de IA’ que se aproxima e uma rápida transição para as capacidades humanas.
Se a Amodei não ceder, os oficiais militares alertaram que não só retirarão o contrato da Anthropica, mas também “considerarão-nos um risco na cadeia de abastecimento”, um rótulo normalmente aplicado a adversários estrangeiros que poderiam perturbar as principais parcerias da empresa com outras empresas.
E se Amodei ceder, poderá perder a confiança na florescente indústria da IA, especialmente por parte dos melhores talentos atraídos para a empresa pelas suas promessas de construir de forma responsável uma IA melhor do que a humana que, sem salvaguardas, poderia representar riscos catastróficos.
A Antthropic disse que buscava garantias limitadas do Pentágono de que Claude não seria usado para vigilância em massa de americanos ou em uma arma totalmente autônoma. Mas depois de meses de conversações privadas explodirem em debate público, um comunicado divulgado na quinta-feira dizia que a nova linguagem do contrato foi “elaborada como um compromisso juntamente com princípios jurídicos que permitiriam que essas salvaguardas fossem ignoradas à vontade”.
Isto aconteceu depois de Sean Parnell, o principal porta-voz do Pentágono, ter anunciado nas redes sociais que “não permitiremos que NENHUMA empresa dite os termos de como tomamos decisões operacionais”. A Anthropic tem “até às 17h01 (horário do leste dos EUA) de sexta-feira para decidir” se obedece ou enfrenta as consequências, disse Parnell.
Emil Michael, o subsecretário de defesa para pesquisa e engenharia, mais tarde atacou Amodei, dizendo a X que ele “tem um complexo de Deus” e “não quer nada mais do que tentar controlar pessoalmente os militares dos EUA e que está tudo bem em colocar a segurança da nossa nação em risco”. Essa mensagem não ressoou em grande parte do Vale do Silício, onde um número crescente de trabalhadores de tecnologia dos maiores rivais da Anthropic, OpenAI e Google, expressaram apoio à posição de Amodei em uma carta aberta na noite de quinta-feira. OpenAI e Google, juntamente com xAI de Elon Musk, também têm contratos para fornecer seus modelos de IA aos militares.
Na sexta-feira, Musk apoiou a administração republicana do presidente Donald Trump, dizendo em sua plataforma de mídia social X que “Anthropic odeia a civilização ocidental” depois que Michael chamou a atenção para uma versão anterior dos princípios orientadores de Claude que encorajava “a consideração de perspectivas não ocidentais”. Todos os principais modelos de IA, incluindo Grok de Musk e ChatGPT da OpenAI, são programados com um conjunto de instruções que orientam os valores e comportamento do chatbot. A Antrópica chama essa liderança de constituição.
Embora alguns líderes tecnológicos próximos de Trump tenham entrado na briga – incluindo Musk e Palmer Luckey, cofundador da empresa de defesa Anduril – o debate polarizado sobre a “inteligência artificial despertada” colocou outros no limite.
“O Pentágono está negociando com o Google e a OpenAI para tentar fazer com que concordem com o que a Anthropic recusou”, dizia uma carta aberta de alguns funcionários da OpenAI e do Google. “Eles estão tentando dividir cada empresa com medo de que a outra ceda.”
Mas, em um movimento surpreendente de um dos rivais mais ferozes da Amodei, o CEO da OpenAI, Sam Altman, ficou do lado da Anthropic na sexta-feira e questionou o movimento “ameaçador” do Pentágono em uma entrevista à CNBC, sugerindo que a OpenAI e a maior parte do campo de IA compartilham as mesmas linhas vermelhas. Amodei já trabalhou para a OpenAI antes de ele e outros executivos da OpenAI pedirem demissão para fundar a Anthropic em 2021.
“Apesar de todas as diferenças que tenho com a Anthropic, confio principalmente neles como empresa e acho que eles realmente se preocupam com a segurança”, disse Altman à CNBC. “Fiquei feliz por eles apoiarem nossos guerreiros. Não tenho certeza de onde isso vai levar.” Preocupações sobre a abordagem do Pentágono também foram levantadas por legisladores republicanos e democratas e pelo ex-chefe das iniciativas de inteligência artificial do Departamento de Defesa. “A pintura de perturbação na Anthropic gera manchetes quentes, mas todos acabam perdendo”, escreveu o general aposentado da Força Aérea Jack Shanahan em uma postagem nas redes sociais.
Shanahan enfrentou uma onda diferente de oposição dos trabalhadores de tecnologia durante a primeira administração Trump, quando liderou o Maven, um projeto para usar tecnologia de IA para analisar imagens de drones e apontar armas. Tantos funcionários do Google protestaram contra o seu envolvimento no Projeto Maven na época que a gigante da tecnologia se recusou a renovar o seu contrato, comprometendo-se então a não usar IA em armas.
“Tendo estado no meio do Projeto Maven e do Google, é razoável supor que eu ficaria do lado do Pentágono aqui”, escreveu Shanahan nas redes sociais na quinta-feira. “No entanto, entendo a posição da Anthropic. Mais do que entendi com o Google em 2018.”
Ele disse que Claude já é amplamente utilizado no governo, incluindo ambientes classificados, e que as linhas vermelhas da Antrópica são “razoáveis”. Ele disse que os grandes modelos de linguagem de IA que alimentam chatbots como Claude também “não estão prontos para o horário nobre em ambientes de segurança nacional”, especialmente para armas totalmente autônomas.
“Eles não estão tentando ser fofos aqui”, escreveu ele. Na quinta-feira, Parnell afirmou que o Pentágono quer “usar o modelo da Antrópico para todos os fins legítimos” e disse que a abertura do uso da tecnologia evitaria que a empresa “colocasse em risco operações militares críticas”. Ele e outras autoridades não detalharam como desejam usar a tecnologia.
Os militares “não têm interesse em usar inteligência artificial para conduzir vigilância em massa dos americanos (o que é ilegal) nem queremos usar inteligência artificial para desenvolver armas autónomas que operem sem envolvimento humano”, escreveu Parnell. Quando Hegseth e Amodei se reuniram na terça-feira, oficiais militares alertaram que poderiam rotular a Anthropic como um risco para a cadeia de abastecimento, cancelar o seu contrato ou invocar uma lei da era da Guerra Fria chamada Lei de Produção de Defesa para dar aos militares mais autoridade para usar os seus produtos, mesmo que a empresa não aprove. Anthropic Claude Sonnet 4.6 lançado: novo modelo tem janela de 1 milhão de tokens e recursos de codificação aprimorados; Verifique os detalhes.
Amodei disse na quinta-feira que “as duas últimas ameaças são contraditórias: uma nos marca como um risco à segurança; a outra marca Claude como essencial para a segurança nacional”. Ele disse que espera que o Pentágono reconsidere dado o valor de Claude para os militares, mas, se não, a Antthropic “trabalhará para facilitar uma transição suave para outro fornecedor”.
(A história acima apareceu pela primeira vez em LatestLY em 27 de fevereiro de 2026 às 22h18 IST. Para mais notícias e atualizações sobre política, mundo, esportes, entretenimento e estilo de vida, acesse nosso site Latestly.com).








