HISTÓRIA: A Anthropic afirma que não concordará com o pedido do Pentágono para remover as salvaguardas dos sistemas de inteligência artificial.Isto apesar das ameaças de declarar a empresa um “risco da cadeia de abastecimento” e removê-la dos sistemas do Departamento de Defesa, colocando em risco o contrato multimilionário.A disputa decorre da recusa da AI em remover salvaguardas que impediriam a sua tecnologia de ser utilizada para apontar armas de forma independente e conduzir vigilância nos Estados Unidos.:: ArquivoEm comunicado divulgado na quinta-feira, o CEO da Anthropic, Dario Amodei, enfatizou a oposição da empresa ao uso de modelos de inteligência artificial para vigilância doméstica em massa.Ele também disse que “os sistemas de IA de fronteira simplesmente não são confiáveis o suficiente para alimentar armas totalmente autônomas”. No início do dia, o porta-voz do Pentágono, Sean Parnell, disse ao X que o departamento não está interessado em usar inteligência artificial para conduzir vigilância em massa de americanos…Também não quer usar a inteligência artificial para desenvolver armas autónomas que operem sem intervenção humana.Ele disse que eles estavam pedindo que “o Pentágono tivesse permissão para usar o modelo Antrópico para qualquer propósito legal”.Parnell disse que a empresa tem até às 17h01. ET sexta-feira para tomar uma decisão.A Anthropic, apoiada pelo Google e pela Amazon, tem um contrato com a divisão no valor de até US$ 200 milhões.Numa carta aberta, a sua posição foi apoiada por mais de 200 funcionários do Google e da OpenAI.Nenhuma das empresas respondeu imediatamente aos pedidos de comentários.