- O antropólogo Dario Amodei não quer que o Pentágono use Claude para vigilância doméstica em massa e armas autónomas.
- Um comunicado revelou as razões da Anthropic para manter as grades de segurança de Claude
- Pete Hegseth deu à Anthropic até sexta-feira para dar acesso total ao DoD
O CEO da Antrópico, Dario Amodei, divulgou uma declaração sobre o contínuo desacordo da empresa com o Departamento de Defesa dos EUA.
Amodei disse que a Anthropic “não pode, em sã consciência, atender” ao pedido do DoD de acesso total aos seus modelos de IA, temendo que eles possam ser usados para “vigilância em massa em casa” e “armas totalmente autônomas”.
O secretário de Defesa dos EUA, Pete Hegseth, ameaçou rotular a Anthropic como um “risco da cadeia de abastecimento” e invocar a Lei de Produção de Defesa para forçar a empresa a cumpri-la.
Ameaças sem precedentes contra a Antrópica
Em sua declaração, Amodei disse que a Anthropic tem historicamente tido um relacionamento muito bom com o governo dos EUA, inclusive sendo a primeira empresa de IA a implantar seus modelos em redes do governo dos EUA, Laboratórios Nacionais e a primeira a implantar modelos para segurança nacional.
Amodei também observou que a empresa cumpriu as regulamentações dos EUA relativas ao uso e venda de modelos de IA para a China, pois optou por “desistir de vários bilhões de dólares em receitas”, impedindo o Partido Comunista Chinês de usar Claude.
“A Antrópica entende que o Departamento de Guerra, e não as empresas privadas, toma as decisões militares”, continuou Amodei. “No entanto, num conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”.
Mas as dúvidas sobre dar ao DoD acesso total a Claude cercam o potencial uso indevido do modelo para dois propósitos nefastos.
As regulamentações em torno da IA não alcançaram as capacidades de modelos de IA como o Claude, diz Amodei, o que permitiria ao governo dos EUA implantar o Claude como uma ferramenta de vigilância doméstica em massa.
Em teoria, o governo poderia comprar registos altamente detalhados e utilizar modelos de IA para criar um reflexo altamente preciso dos cidadãos dos EUA numa escala nunca vista antes.
Quanto ao uso de IA em sistemas de armas, Amodei diz que eles “poderiam ser críticos para a nossa defesa nacional”, mas os actuais modelos de IA “não são suficientemente fiáveis para alimentar armas totalmente autónomas”. Se um modelo de IA responsável por um sistema de armas autônomo sofresse uma alucinação, a responsabilidade provavelmente seria do desenvolvedor do modelo.
Hegseth também rebate as ameaças feitas pelos Amodes, dizendo que são “autocontraditórias: um nos rotula como um risco à segurança; o outro considera Claude vital para a segurança nacional”.
A declaração conclui que a “forte preferência da Anthropic é continuar a servir o Departamento e nossos combatentes com as duas garantias solicitadas”.
“Caso o departamento opte por se afastar da Anthropic, trabalharemos para permitir uma transição suave para outro fornecedor, evitando interrupções no planejamento militar em andamento, nas operações ou em outras missões críticas.
A melhor proteção contra roubo de identidade para todos os orçamentos










