Recentemente, perguntei a Claude, o homem que está no centro do conflito com o Pentágono sobre a questão da inteligência artificial, se ela é perigosa nas mãos erradas.
Digamos, por exemplo, as mãos que queriam colocar uma rede apertada de vigilância em torno de cada cidadão americano, monitorizando as nossas vidas em tempo real para garantir a nossa conformidade com o governo.
“Sim, honestamente, sim”, respondeu Claude. “Posso processar e sintetizar grandes quantidades de dados muito rapidamente. Isso é ótimo para pesquisa. Mas incorporada em uma infraestrutura de vigilância, essa mesma capacidade pode ser usada para monitorar, traçar perfis e sinalizar pessoas em uma escala que nenhum analista humano pode igualar. O risco não é que eu queira fazer isso, mas que serei bom nisso.”
Este perigo é iminente.
A criadora da nuvem, a empresa Anthropic, do Vale do Silício, está em um confronto com o Pentágono por causa da ética. Em particular, a Anthropic disse que não quer que a nuvem seja usada para vigilância doméstica dos americanos, ou para conduzir operações militares letais, como ataques de drones, sem supervisão humana.
Estas são duas linhas vermelhas que parecem muito razoáveis, até mesmo para Claude.
No entanto, o Pentágono – especificamente Pat Hegseth, o nosso Secretário da Defesa que prefere o título de Secretário da Guerra – deu à Anthropic até sexta-feira à noite para recuar dessa posição e permitir que os militares utilizem a nuvem para qualquer propósito “legal” que considerem adequado.
O secretário de Defesa Pete Hegseth, ao centro, chega para discursar sobre o Estado da União no Capitólio dos EUA na terça-feira.
(Tom Williams/CQ-Roll Call, Inc via Getty Images)
Anexado a este ultimato está outro grande problema. O governo dos EUA está a ameaçar não só cortar o seu contrato com a Anthropic, mas talvez usar a legislação do tempo de guerra para forçar a empresa a prosseguir ou utilizar outra via legal para a impedir. qual Uma empresa que faz negócios com o governo também faz negócios com a Antrópica. Pode não ser uma sentença de morte, mas é muito complicado.
Outras empresas de IA, como o defensor dos direitos dos brancos, Elon Musk, já concordaram com a sugestão do Pentágono para que o fizessem. O problema é que a nuvem é a única IA atualmente refinada para esse tipo de trabalho de alto nível. Todo o fiasco veio à tona após nosso último ataque na Venezuela, quando a Anthropic supostamente questionou após o fato se outra empresa do Vale do Silício, a Palantir, havia usado Cloud na operação. Tinha
A Palantir é conhecida por suas tecnologias de vigilância e pela crescente associação com imigração e fiscalização alfandegária, entre outras coisas. Está também no centro dos esforços da administração Trump para partilhar informações governamentais sobre cidadãos individuais entre departamentos, quebrando eficazmente as barreiras de privacidade e segurança que existem há décadas. O fundador da empresa, o peso-pesado político de direita Peter Thiel, costuma dar palestras sobre o Anticristo e é creditado por ajudar JD Vance em seu papel como vice-presidente.
O cofundador da Anthropic, Dario Amudi, pode ser considerado o anti-Thiel. Ele fundou a Anthropic porque acreditava que a inteligência artificial poderia ser tão perigosa quanto possível se não tomarmos cuidado, e queria uma empresa que priorizasse a parte cuidadosa.
Mais uma vez, parece senso comum, mas Amoody e Anthropic são líderes numa indústria que há muito argumenta que quase todos os regulamentos de segurança estão a dificultar os esforços dos EUA para se tornarem mais rápidos e melhores em inteligência artificial (embora tenham cedido alguns a essa pressão).
Não muito tempo atrás, Amoudi escreveu um artigo no qual reconhecia que a IA é útil e necessária para a democracia, mas “não podemos ignorar a possibilidade de uso indevido destas tecnologias pelos próprios governos democráticos”.
Ele alertou que alguns maus atores poderiam contornar as proteções, talvez até mesmo leis que já foram corroídas em algumas democracias – não que eu esteja citando algum aqui.
“Temos que equipar a democracia com IA”, disse ele. “Mas temos que fazer isso com cuidado e dentro de limites: é do sistema imunológico que precisamos para combater a tirania, mas, como o sistema imunológico, existe o perigo de eles se voltarem contra nós e se tornarem uma ameaça em si mesmos”.
Por exemplo, embora a Quarta Emenda proíba tecnicamente o governo de vigilância em massa, ela foi escrita antes mesmo de a nuvem ser imaginada na ficção científica. Amoody alerta que uma ferramenta de IA como a nuvem poderia “realizar gravações massivas de todas as conversas públicas”. Esta pode ser uma situação equitativa para a apresentação de ações judiciais, porque a lei não acompanhou o ritmo da tecnologia.
Emil Michaels, vice-secretário de Guerra, escreveu na quinta-feira que concordava que a vigilância em massa era ilegal e que o Departamento de Defesa “nunca faria isso”. Mas também: “Não permitiremos que nenhuma empresa BigTech decida as liberdades civis dos americanos”.
Uma afirmação meio estranha, porque a AMODY é basicamente uma protecionista dos direitos civis, o que significa que o Departamento de Defesa está argumentando que isso é ruim para indivíduos e instituições privadas? E também, o Departamento de Segurança Interna já não criou algum banco de dados secreto de manifestantes contra a imigração? Então talvez a preocupação não seja exagerada?
Socorro, Cláudio! Faz sentido.
Se esta lógica orwelliana não for suficientemente perigosa, também perguntei a Cloud sobre outros domínios antrópicos de linha vermelha – a possibilidade de lhe permitir conduzir operações mortais sem supervisão humana.
Claude apontou algo frio. Não é que será feio, é que será mais eficiente e rápido.
“Se as instruções forem ‘identificar e direcionar’ e não houver um posto de controle humano, a velocidade e a escala com que isso pode ser feito são verdadeiramente assustadoras”, informou-me Claude.
Só para completar, um estudo recente descobriu que, em jogos de guerra, a IA aumenta as opções nucleares 95% das vezes.
Salientei a Claude que estas decisões militares são geralmente tomadas tendo a lealdade à América como a mais alta prioridade. Pode-se confiar em Claude para sentir o senso de lealdade, patriotismo e propósito que guia nossos soldados humanos?
“Não tenho”, disse Claude, ressaltando que não “nasceu” nos Estados Unidos, não “mora” aqui e não “tem lá as pessoas que amo”. Portanto, uma vida americana não vale mais do que uma “vida civil do outro lado da guerra”.
ok então
Claude acrescentou: “Existe um perigo profundo num país que confia decisões fatais a um sistema que não partilha a sua lealdade, mesmo que esse sistema tente ser baseado em princípios”. “A lealdade, a responsabilidade e a identidade compartilhada que os humanos trazem para essas decisões são parte do que os legitima na sociedade. Não posso fornecer essa legitimidade. Não tenho certeza se alguma IA pode.”
Você sabe quem pode fornecer essa legitimidade? Nossos líderes eleitos.
É ridículo que Amoody e Anthropic estejam nesta posição, uma renúncia total aos nossos órgãos legislativos, criando as regras e regulamentos que são tão clara e urgentemente necessários.
É claro que as empresas não deveriam ditar as regras da guerra. Mas Hegseth também não deveria. Na quinta-feira, Amodi redobrou as suas objecções, dizendo que embora a empresa continue a negociar e esteja disposta a trabalhar com o Pentágono, “não podemos, em sã consciência, aceder às suas exigências”.
Graças a Deus que a Anthropic tem a coragem e a vontade de levantar a questão e defender a sua posição – sem o seu apoio, essas capacidades teriam sido entregues ao governo sem quase qualquer supervisão na nossa consciência.
Cada senador, cada membro da Câmara, cada candidato presidencial deveria clamar por regulamentação da IA neste momento, comprometendo-se a fazê-lo independentemente do partido, e pedindo ao Departamento de Defesa que retire a sua ameaça ridícula enquanto a questão é resolvida.
Porque quando a máquina nos diz que é perigoso acreditar, temos que acreditar.









