O deputado Ted Lieu (D-CA), Christopher Hale e outros expressaram frustração depois que o Departamento de Guerra fechou um novo acordo com a OpenAI que parece adotar termos anteriormente buscados pelo agora banido Antrópico.
“O Departamento de Defesa acaba de concordar com as mesmas duas condições com a OpenAI solicitadas pela Anthropic”, escreveu o congressista da Califórnia no X. “Alguém pode explicar?
Hale, um político e delegado do DNC, compartilhou que “acabou de cancelar o ChatGPT e comprou Claude Pro Max” em resposta à notícia. Ele acrescentou: “Um defende os direitos dados por Deus ao povo americano. O outro se transforma em tiranos.”
Lieu e Hale não estavam sozinhos na sua confusão e indignação, mas Emil Michael, Subsecretário de Guerra para Investigação e Engenharia, emergiu como um defensor vocal do acordo.
“Quando se trata de questões de vida ou morte para nossos combatentes, ter um parceiro confiável e estável que se envolva de boa fé fará toda a diferença à medida que entramos na era da IA”, escreveu Michael no X. “Avante (Sam Altman).”
Esses comentários vieram logo depois que o CEO da OpenAI, Sam Altman, confirmou na sexta-feira que a empresa havia chegado a um acordo “com o Departamento de Guerra para implantar nossos modelos em sua rede classificada”.
“Em todas as nossas interações, o DoW demonstrou um profundo respeito pela segurança e um desejo de trabalhar em conjunto para alcançar o melhor resultado possível”, continuou Altman. “A segurança da IA e a ampla distribuição de benefícios estão no centro da nossa missão. Dois dos nossos princípios de segurança mais importantes são a proibição da vigilância doméstica em massa e a responsabilidade humana pelo uso da força, incluindo sistemas de armas autónomos. O DoW concorda com estes princípios, reflecte-os na lei e na política, e nós incluímo-los no nosso acordo.”
Altman também observou que a OpenAI “criará salvaguardas técnicas para garantir que nossos modelos se comportem como deveriam, o que o DoW também desejava”.
No entanto, não demorou muito para que os líderes de pensamento acima mencionados e outros opinassem sobre a atualização, já que Altman havia dito anteriormente na manhã de sexta-feira que compartilhava as “linhas vermelhas” da Anthropic sobre a limitação do uso militar de IA. (Para aqueles que estão se perguntando, a posição da Anthropic levou o presidente Donald Trump a rotular a Anthropic de “malucos de esquerda” no Truth Social, acrescentando: “Portanto, estou pedindo a TODAS as agências federais do governo dos Estados Unidos que ACABEM IMEDIATAMENTE com todo o uso da tecnologia da Anthropic. Não precisamos disso, não queremos fazer negócios com eles novamente!”)
Para uma visão geral das reações às notícias, continue lendo.
O Departamento de Defesa acaba de concordar com as mesmas duas condições com a OpenAI solicitadas pela Antrópica.
Alguém pode explicar? Eu realmente não entendo. https://t.co/eLH6VBSv9q
-Ted Lieu (@tedlieu) 28 de fevereiro de 2026
Acabei de cancelar o ChatGPT e comprei o Claude Pro Max.
Um defende os direitos dados por Deus ao povo americano. O outro se transforma em tiranos.
-Christopher Hale (@ChristopherHale) 28 de fevereiro de 2026
Quando se trata de questões de vida ou morte para os nossos combatentes, ter um parceiro confiável e estável que se envolva de boa fé fará toda a diferença à medida que entramos na era da IA. E mais além @O mesmo !
– Subsecretário de Guerra Emil Michael (@USWREMichael) 28 de fevereiro de 2026
Estou ficando cada vez mais confuso e perturbado com tudo o que está acontecendo aqui. https://t.co/TJe7XtT1cX
-Tim Carney (@TPCarney) 28 de fevereiro de 2026
Então…. A Anthropic foi colocada na lista negra pelas mesmas linhas vermelhas que a OpenAI acabou de escrever em seu contrato?
Ou a OpenAI apenas aceitou a versão mais fraca das linhas vermelhas que a Anthropic não assinaria? https://t.co/jSTO42BqTo
-Deirdre Bosa (@dee_bosa) 28 de fevereiro de 2026
Para evitar dúvidas, OpenAI – @DeptofWar o contrato vem da pedra de toque de “uso totalmente legal” que a DoW insistiu corretamente e a xAI concordou. Mas, como Sam explicou, refere-se a certas autoridades legais existentes e inclui certas autoridades mutuamente acordadas… https://t.co/boVlh5kgfc
– Escriturário Sênior Jeremy Lewin (@UnderSecretaryF) 28 de fevereiro de 2026
Antrópico (1º nível): não faremos vigilância em massa do povo americano com Claude.
OpenAI (3ª camada): nós queremos!
XAI (4ª equipa): queremos!
Tire ChapGPT e Grok do seu telefone!
-Amy Siskind (@Amy_Siskind) 28 de fevereiro de 2026
Então a OpenAI assina com o Pentágono e diz que eles estão seguindo as mesmas diretrizes que a Anthropic queria? https://t.co/L4gkhvEdnf
-Hadas Gold (@Hadas_Gold) 28 de fevereiro de 2026
A Anthropic pediu que o modelo não fosse usado em robôs assassinos totalmente autônomos e na vigilância em massa de americanos. O Pentágono surtou e os puniu, então é claro que esse narcotraficante covarde decidiu que havia uma chance de ganhar mais dinheiro. https://t.co/WFSr4TAo9J
-Tommy Vietor (@TVietor08) 28 de fevereiro de 2026
Então agora estou realmente confuso. @OpenAI fez com que Hegseth concordasse com os mesmos 2 princípios que @AnthropicAI pediu? Alguém pode explicar esse resultado? https://t.co/WjmMT7EyT7
-Michael McFaul (@McFaul) 28 de fevereiro de 2026
Apenas algumas horas atrás ele estava na TV dizendo que estava ao lado da Anthropic.
Então ele os prejudica e aceita o mesmo contrato que a Anthropic acabou de perder.
Como alguém pode confiar nesse cara? https://t.co/xwBd4OSW7t
-Mark Gadala-Maria (@markgadala) 28 de fevereiro de 2026
Deixe-me ver se entendi.
– Dario mostrou integridade e quis acordo X, e se ferrou
– Sam mentiu e não mostrou integridade e conseguiu (praticamente) um acordo X
– O governo disse que o acordo X era terrível e cortou relações com o partido A, depois fez quase o mesmo acordo com o partido B… https://t.co/1GVww2U6y6-Gary Marcus (@GaryMarcus) 28 de fevereiro de 2026
A partir desta noite, existem dois laboratórios fronteiriços de IA cujos modelos foram aprovados para uso em sistemas militares classificados.
Um foi declarado uma ameaça à segurança nacional ao nível da Huawei por insistir que os modelos não deveriam ser usados para vigilância em massa em casa e totalmente autônomos…
-Kevin Roose (@kevinroose) 28 de fevereiro de 2026







