Está se tornando mais claro a cada dia que as únicas pessoas que estão seriamente tentando lidar com as implicações da inteligência artificial para a sociedade não são os legisladores, nem os líderes empresariais, nem os próprios desenvolvedores de IA. Eles são juízes.
Na verdade, nas últimas semanas, os juízes de dois casos federais traçaram uma linha que parece levar muito mais a pensar sobre a IA. Casos relacionados à lei de direitos autorais e privilégio advogado-cliente.
Em ambos os casos, os juízes declararam efetivamente os bots de IA não Os seres humanos não têm os direitos reservados às pessoas e os seus resultados não merecem ser tratados como se provém da inteligência humana ou como se tivessem qualquer estatuto especial de alta tecnologia.
A invenção deveria ser deixada apenas para os humanos ou os sistemas de computação autônomos podem realmente gerar ideias?
– Artista e cientista da computação Stephen Taylor
Há mais nesses casos do que isso. Ambos os casos, incluindo um que chegou ao Supremo Tribunal, destacam a determinação dos promotores da IA em utilizar a nova tecnologia para influenciar profundamente a sociedade.
Comece com o último caso. Na segunda-feira, a Suprema Corte recusou-se a aceitar um caso em que o artista e cientista da computação Stephen Taylor tentou registrar os direitos autorais de uma obra de arte que ele admitiu ter sido criada por um bot de IA de sua própria invenção. Ele manteve uma decisão do Tribunal de Apelações de Columbia no ano passado, que considerou que a arte criada por não-humanos não pode ser protegida por direitos autorais.
O caso girou em torno de uma pintura de 2012 intitulada “A Última Entrada para o Céu”, na qual um trem passa sob uma ponte e desaparece na vegetação. Em seu pedido de direitos autorais, Thaler escreveu que o “autor” da obra era sua “máquina de criatividade”, uma ferramenta de IA, e que a obra foi “criada independentemente por uma máquina”.
O despacho de recurso não se dedicava à crítica artística, mas a origem artificial da obra pode ser aparente ao olhar atento – sua paisagem ainda é movimentada, mas variedade de cores verdes e roxas, e a moldura não tem lógica artística – o olho não sabe o que é. Mas Thaler diz que foi criado por um bot de IA e não em resposta a qualquer solicitação do usuário.
De qualquer forma, para a juíza Patricia A. Millett, que redigiu o parecer para o painel de três juízes, o caso não foi encerrado. Ela apontou as regras de longa data do Copyright Office que exigem que “para que uma obra seja protegida por direitos autorais, ela deve ser de origem humana”.
Millett observou que Thaler não se preocupou em esconder a origem não-humana da “última entrada” e admitiu em documentos judiciais que a pintura “não tem autoria humana”. Ela rejeitou o argumento de Thaler, tal como o fez o juiz federal que ouviu o caso pela primeira vez, de que a insistência do Gabinete de Direitos de Autor de que o autor de uma obra deve ser humano era inconstitucional. O Supremo Tribunal concordou expressamente.
Thaler me disse que não vê a rejeição da Suprema Corte como uma “derrota legislativa”. Num post no LinkedIn sobre o caso, ele escreveu que a decisão “representa um ponto de viragem filosófico – quão profundamente o nosso sistema de propriedade intelectual luta para lidar com a criatividade das máquinas autónomas”.
Como isto sugere, Taylor acredita que não devemos diferenciar a forma como vemos as criações humanas das produções mecânicas. “Engenhosidade, criatividade e invenção não se limitam aos produtos humanos”, ele me disse por e-mail. Sistemas de computação autônomos como seu programa de IA, disse ele, “podem criar essas tarefas de forma autônoma”.
A decisão de Millet abriu realmente a porta à admissão da IA no mundo dos direitos de autor – mas apenas quando for utilizada como ferramenta por um autor humano. O que diferenciou o caso de Thaler, escreveu ela, foi sua insistência de que sua IA era “um bot”.o único O autor da obra” (insiste), “e é sem dúvida uma máquina, não um ser humano”.
Isto leva-nos ao segundo caso, que envolvia a questão de saber se o trabalho de um bot de IA deveria ser protegido pelo privilégio advogado-cliente. “A resposta é não”, decidiu sucintamente o juiz federal de Nova York Jed S. Rakoff.
Como já escrevi no passado, Rakoff é um dos nossos juristas mais conhecedores do impacto das novas tecnologias no direito. Nos seus oportunos artigos para a New York Review of Books, ele examinou como um algoritmo secreto de IA impediu a condenação de réus criminais (especialmente réus negros), como os defensores das criptomoedas complicaram as leis existentes sobre fraude e como a fraude de base cognitiva resultou em abusos.
Em outras palavras, Rickoff não é um juiz que você deva tentar fazer uma bola de neve com o flipdoodle tecnológico.
O caso envolvia Bradley Hepner, que foi indiciado por um grande júri federal por desviar US$ 150 milhões da empresa de serviços financeiros que chefiava. Hepner se declarou inocente e foi libertado sob fiança de US$ 25 milhões. O caso está sob investigação.
De acordo com uma ordem de Rickoff de 17 de fevereiro, a questão contra ele está relacionada a trocas que Hepner teve com Cloud, um chatbot criado pela empresa de IA Antropek, cujas transcrições foram apreendidas pelo FBI quando este emitiu um mandado de busca na propriedade de Hepner.
Percebendo que um ataque estava iminente, Hepner consultou Claude para obter ajuda em uma estratégia de defesa. Seus advogados afirmaram que as trocas descritas nos memorandos escritos eram semelhantes às consultas com os advogados de Hepner. Portanto, disseram seus advogados, eles eram confidenciais sob o privilégio advogado-cliente e não poderiam ser usados contra Hepner no tribunal. (Eles também citaram a doutrina relevante do produto de trabalho do Ministério Público, que confere confidencialidade às notas dos advogados e outros materiais semelhantes.)
Este foi um ponto incomum. Hepner deu a Claude as informações que obteve de seus advogados e compartilhou as respostas de Claude com seus advogados.
Rakoff resolveu rapidamente esse argumento. Primeiro, decidiu ele, os documentos da AI não eram uma comunicação entre Hepner e seus advogados, porque Claude não é advogado. Ele observou: “Entre outras coisas, requer um relacionamento humano confiável”, exigindo regras e deveres éticos entre o cliente e o profissional licenciado.
“Há pouca ou nenhuma conexão entre o usuário de IA e a plataforma semelhante à nuvem”, observou Rickoff.
Em segundo lugar, escreveu ele, a conversa entre Hepner e Claude não era confidencial. Nos Termos de Uso, a Anthropic reivindica o direito de coletar perguntas dos usuários e respostas da nuvem, usá-las para “treinar” a nuvem e exibi-las para outras pessoas.
Finalmente, ele estava pedindo aconselhamento jurídico a Claude, mas informações que ele poderia submeter aos seus advogados, caso não o fizesse. Na verdade, quando os promotores testaram Cloud perguntando se ele poderia fornecer aconselhamento jurídico, Bott os aconselhou a “consultar um advogado qualificado”.
Na sua decisão, Rakoff procurou abordar as questões gerais que os juízes tinham ao lidar com a IA. “Apenas três anos após o seu lançamento”, escreveu ele, “uma plataforma popular de IA é usada por mais de 800 milhões de pessoas em todo o mundo todas as semanas. No entanto, as implicações da IA para a lei estão apenas começando a ser exploradas.”
Ele conclui que a “inteligência artificial gerativa” apresenta uma nova fronteira no diálogo contínuo entre a tecnologia e a lei…. Mas a inovação da IA não significa que a sua utilização não esteja sujeita a princípios jurídicos de longa data, como os que regem o privilégio advogado-cliente e a doutrina do produto de trabalho.
Neste caso e em outros lugares, Rickoff demonstrou uma profunda compreensão das questões tecnológicas. Em seu artigo de 2021 sobre um algoritmo de IA capaz de enviar pessoas para a prisão, ele apontou o fator que torna o termo “inteligência artificial” um nome impróprio.
Ele escreveu, o termo “ofusca a importância do designer humano… É o designer quem determina que tipo de dados entrará no sistema e de quais fontes ele os extrairá. É o designer quem determina quais pesos serão dados às várias entradas e como o programa se ajustará a elas. E é o designer quem determina em que tipo de algoritmo tudo isso será implementado.”
ela está certa É por isso que os juízes tiveram tanta dificuldade em determinar se os engenheiros de IA que alimentavam os chatbots com dados para fazê-los parecer “criativos” e até mesmo “sensíveis” estavam infringindo os direitos autorais dos criadores originais desses dados ou criando algo novo.
O problema é que eles estão fazendo a pergunta errada. Tudo o que um bot de IA faz é, mais do que um nível básico, um produto da criatividade humana. Os bots de IA são máquinas, e retratá-los como seres pensantes, como artistas ou advogados, não muda isso, e não deveria.






