O Pentágono está tentando remover a IA do seu código de ética. A lei não permite | Opinião

O presidente Donald Trump ordenou que as agências federais parassem todo o uso da tecnologia de inteligência artificial da Antrópica. O grupo foi descrito como “esquerdista radical” e acusou o grupo de colocar vidas americanas em risco. O que não fizeram foi apresentar um argumento jurídico sobre a razão pela qual o governo tem autoridade para forçar as empresas privadas americanas a redesenhar os seus produtos de acordo com os desejos do presidente.

Embora as postagens de Trump nas redes sociais não fossem específicas, as “consequências civis e criminais” que podem ocorrer, mas ameaças anteriores do Departamento de Defesa também incluíram o cancelamento de um contrato de US$ 200 milhões com o Pentágono, designando-o como um “risco da cadeia de suprimentos” que colocaria empresas na lista negra em todas as contratações federais. E o mais notável é a possível aplicação da Lei de Produção de Defesa para forçar o cumprimento, quer as empresas concordem com ela ou não. A administração poderia chamar isto de um imperativo de segurança nacional. Mas a lei chama isso de força ilegal.

A Lei de Produção de Defesa é a ferramenta mais afiada que o governo utilizou nesta luta. E é a ferramenta errada para o trabalho. Promulgada na década de 1950, a DPA foi concebida para mobilizar a capacidade industrial numa emergência para obrigar os fabricantes a produzir produtos críticos para a segurança nacional. Apelos para forçar as empresas privadas de software a redesenhar os seus modelos de IA e remover restrições éticas específicas Esta é uma violação da lei sem precedentes e quase certamente ilegal. O estatuto não foi escrito para dar ao governo autoridade para substituir a filosofia de produto de uma empresa.

A questão jurídica constitui-se no âmbito da doutrina da questão essencial do Supremo Tribunal, que exige que os executivos reivindiquem autoridade sobre questões de enorme importância económica e política. O executivo deve apontar para a autorização clara do Parlamento para proceder como está. A ampla linguagem legal e as inferências não são suficientes. O Congresso realmente precisa considerar esse uso específico. A administração Trump aprendeu recentemente esta lição quando o Supremo Tribunal descontou as tarifas da IEEPA por estas razões. A DPA tem o mesmo problema aqui. O Congresso na década de 1950 estava pensando nas siderúrgicas. Não é a arquitetura ética dos sistemas de IA de ponta. É evidente que as lacunas de poder delegado são um perigo para as ameaças do Pentágono neste caso.

Há também uma dimensão da Primeira Emenda em que a Anthropic decidiu cuidadosa e expressivamente o que seus modelos farão ou não. Esta é uma escolha que reflete o espírito da empresa incorporado no produto. Quando o governo pediu que essas opções fossem removidas sob ameaça de punição. O governo não estará envolvido nas negociações contratuais. Em vez disso, força os intervenientes privados a abandonarem as decisões de concepção expressas sob orientação do governo. A antropologia teria um argumento convincente de que o que está a ser exigido não é uma aquisição legítima. Mas é a coerção que viola a constituição.

A inconsistência por parte do Pentágono continua a aprofundar-se. Duas linhas vermelhas que a Anthropic se recusa a abandonar são o uso de IA para espionar em massa cidadãos americanos dentro do país. e o desenvolvimento de armas totalmente automáticas que disparam sem participação humana. Este último reflete a doutrina de longa data do Departamento de Defesa. Isto requer um controle humano significativo sobre as decisões de força letal. No entanto, o Pentágono está agora a pressionar uma empresa privada para eliminar as barreiras de protecção que a política do Pentágono apoiou no passado.

Um alto funcionário do Departamento de Defesa foi incomumente sincero ao discutir as necessidades de IA da Anthropic, dizendo: “A única razão pela qual ainda estamos conversando com essas pessoas é que precisamos delas”. E agora eu preciso deles. O problema com essas pessoas é que elas são muito boas.” Se isso fosse verdade, e a própria conduta do Ministério da Defesa indica que, apesar dos pronunciamentos do presidente em contrário, a administração também está a agir no sentido de quebrar a relação indispensável por cima da cerca. que, segundo relato do próprio Ministério da Defesa, nem uma única vez interveio em operação militar.

Os argumentos de segurança nacional da administração são legítimos. e merece uma resposta direta. As preocupações listadas são reais. Os opositores estão a desenvolver a IA sem as restrições éticas que as empresas americanas impõem a si mesmas. Mas o que o Pentágono deixa escapar nesta análise é que a competição em IA não se trata apenas de desempenho bruto. Mas também se trata de valor. O mundo merece modelos de IA que funcionem dentro de um quadro jurídico e ético que reflita os valores americanos, como a transparência e o respeito pelo Estado de direito.

Quando Washington forçou as empresas privadas de IA a recuar nesses compromissos. A mensagem enviada ao redor do mundo é que as empresas americanas de IA operam a mando do governo. Assim como os chineses fazem. Não é assim que vamos vencer a corrida da IA, é a América abraçando a parte mais importante dela.

Se a América pretende ser líder em inteligência artificial, deve esforçar-se por fazê-lo com um modelo baseado nos valores e princípios jurídicos que distinguem este país dos estados autoritários contra os quais compete. Removê-los sob coação legal não torna a tecnologia mais americana. Isso o torna indistinguível daquilo contra o qual estamos competindo.

Nicholas Creel é professor associado de direito empresarial na Georgia College & State University.

As opiniões expressas neste artigo são de responsabilidade do autor.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui