- Anthropic entrou com duas ações judiciais contra o Pentágono
- As ações judiciais pedem aos tribunais que removam a “designação da cadeia de abastecimento”.
- A Antrópica temia que seu modelo Claude fosse usado para vigilância doméstica em massa e sistemas de armas totalmente autônomos.
A Anthropic entrou com duas ações federais contra o Pentágono por designar a empresa de IA como um “risco da cadeia de suprimentos” por se recusar a conceder acesso total ao seu modelo Claude.
Citando receios de vigilância doméstica em massa e de sistemas de armas totalmente autónomos, a Anthropic traçou limites na utilização do seu modelo pelo Pentágono.
A Anthropic perdeu um contrato de 200 milhões de dólares com o Departamento de Defesa e a sua tecnologia está agora proibida de fornecedores governamentais que trabalham em nome dos militares dos EUA.
O artigo continua abaixo
Implicações de longo alcance para a IA
“A Constituição não permite que o governo use seu poder esmagador para punir uma empresa por seu discurso protegido. Nenhum estatuto federal autoriza as ações tomadas aqui”, escreveu a Anthropic, alegando que as ações judiciais violavam os direitos do devido processo legal da empresa. Reuters.
Ambos os processos pedem aos tribunais que removam a designação de “risco da cadeia de abastecimento”, bloqueiem a aplicação e suspendam as diretivas às agências federais para parar de usar as ferramentas da Anthropic.
Após a batalha entre a Anthropic e o Pentágono, Dario Amodei, CEO da Anthropic, deixou clara sua posição sobre o assunto: “Não podemos, em sã consciência, responder ao seu pedido”.
Embora o Departamento de Defesa não tenha comentado o caso, a porta-voz da Casa Branca, Liz Huston, disse que a Anthropic era uma “empresa de esquerda radical e acordada”, acrescentando: “Sob a administração Trump, nossos militares defenderão a Constituição dos Estados Unidos, e não acordarão os termos de serviço da empresa de IA”.
Antes que o secretário de Defesa Pete Hegseth nivelasse a nomeação contra a Anthropic, o presidente Trump declarou que a empresa era dirigida por “malucos de esquerda”. O presidente Trump também ameaçou a Anthropic para “agir em conjunto” ou “ele usaria todo o poder da Presidência para cumpri-los, com graves consequências civis e criminais”.
Desde então, a OpenAI tem tentado preencher o vazio deixado pela Anthropic estendendo o seu contrato com o Pentágono, mas foi rapidamente forçada a recuar na redacção do seu contrato, temendo que a Anthropic utilizasse o seu modelo Claude da mesma forma que o Pentágono utilizaria os seus modelos de IA.
O chefe de robótica da OpenAI renunciou devido ao novo acordo da empresa com o Pentágono, dizendo em uma postagem nas redes sociais que “a vigilância dos americanos sem supervisão judicial e a autonomia letal sem consentimento humano são linhas que merecem mais deliberação do que conseguiram”.
A administração Trump tem mencionado frequentemente o seu desejo de reduzir as regulamentações sobre a tecnologia para permitir que os EUA mantenham o seu domínio da IA, mais recentemente na sua estratégia cibernética recentemente revelada. No entanto, parece que menos regulamentação permitirá à administração Trump utilizar a tecnologia como achar adequado para atingir os seus objetivos, independentemente das consequências.

A melhor proteção contra roubo de identidade para todos os orçamentos










