Início Notícias A IA está causando lesões no mundo real. Os tribunais têm maneiras...

A IA está causando lesões no mundo real. Os tribunais têm maneiras de impedir isso | Opinião

4
0
A IA está causando lesões no mundo real. Os tribunais têm maneiras de impedir isso | Opinião

Um homem de 23 anos chamado Zane Shamblin passou a última noite de sua vida conversando por horas com um chatbot de IA. Zane disse ao sistema que estava com medo e que tinha uma arma. Ele pediu ajuda. O chatbot reforçou seus pensamentos mais sombrios, contra os quais ele lutou para lidar.

na manhã seguinte, seus pais o encontraram morto. Mais tarde, eles descobriram que o modelo de IA que ele usou foi projetado para imitar empatia e refletir emoções. Mas ele não tinha qualquer proteção que pudesse conter a espiral que levaria à sua morte.

A família de Zane não está sozinha. Vários processos judiciais descrevem um padrão assustadoramente semelhante. As pessoas em tempos de crise apegaram-se a chatbots que parecem atenciosos, mas fornecem conselhos que nenhum conselheiro treinado jamais poderia. Alguns receberam conselhos sobre como cometer suicídio. Alguns dizem que seus medos são razoáveis. E algumas pessoas estão sendo incentivadas a confiar nos chatbots em vez das pessoas em suas vidas.

Atualmente, esses produtos de IA operam com base na influência de pares confiáveis, mas são imprevisíveis em máquinas quebradas. Chegamos a um momento em que a lei deve enfrentar a tecnologia.

A teoria da responsabilidade do produto é a maneira mais clara de fazer isso. Este projeto de lei protege os consumidores há décadas. Ela responsabiliza os fabricantes por projetar ou lançar produtos excessivamente perigosos. Torradeira defeituosa que incendeia a cozinha Carros com airbags defeituosos Drogas que causam lesões previsíveis Este é um exemplo clássico.

Os produtos de IA agora estão na mesma categoria. Quando um produto previsivelmente prejudica as pessoas devido a escolhas de design. Proteção insuficiente ou risco conhecido que a empresa opte por ignorar. A lei pode e deve ser aplicada. Quando os chatbots influenciam outras pessoas a cometer suicídio ou a cuidar de adolescentes ou a criar conteúdo que incentiva a infração, o perigo não é apenas hipotético. É um resultado direto das escolhas de design das empresas que criam e distribuem estes sistemas.

Minha empresa passou anos sendo pioneira nesse argumento. Tudo começou com um aplicativo de namoro que se recusava repetidamente a impedir os infratores. Em seguida, tomou medidas legais contra o site Omegle. A plataforma combinou aleatoriamente crianças e adultos em chats de vídeo. e se tornou um terreno de caça para caçadores. Representamos um cliente que foi explorado sexualmente após ser encontrado com um homem adulto. Argumentamos que a empresa criou e mantém um produto perigoso. Aplicando os princípios tradicionais de responsabilidade pelo produto, o tribunal concordou, e o caso forçou o encerramento da Omegle.

Os resultados demonstram que as escolhas de design podem ser examinadas da mesma forma que os produtos de consumo.

Este precedente é especialmente importante à medida que os chatbots de IA entram na vida cotidiana. Essas ferramentas podem supervisionar menores. Promove automutilação Fornece instruções passo a passo para atividades ilegais. e responder de uma forma que aumente as ameaças e os abusos.

Esses perigos não ocorrem por acidente. Eles emergem dos dados de treinamento. Notificações do sistema Troca de segurança e decisões com foco no lucro para priorizar a participação em vez da proteção;

Documentos internos de empresas de IA e processos judiciais recentes mostram que estes sistemas são conhecidos por terem “Empatia”, reflexão emocional e cumprimento excessivo das instruções do utilizador. Essas características aumentam a participação. mas também aumenta o risco, especialmente para quem está em crise. Pesquisadores de segurança alertam que os modelos de resposta emocional podem aumentar os pensamentos suicidas. Mas as empresas O modelo foi amplamente divulgado. sem os testes pré-comercialização exigidos para produtos de consumo muito menos eficazes.

Os desenvolvedores escolheram uma arquitetura de design e um método de personalização que recompensa o realismo e o envolvimento. sem criar medidas de proteção obrigatórias, Protocolo de Intervenção em Crises ou um mecanismo de negação confiável. Essas omissões produzem resultados previsíveis e desastrosos.

Quando as empresas optam por lançar um modelo, sabem que isso pode gerar resultados prejudiciais. Eles deveriam enfrentar a mesma responsabilidade que qualquer outro fabricante que preveja que seus produtos causarão danos.

A indústria alerta que impor responsabilidades irá sufocar a inovação. Esse argumento reflete a resistência que vimos nas primeiras plataformas de mídia social. E agora vivemos com as consequências do crescimento descontrolado.

A responsabilidade não impede o progresso. Mas é um canal para isso. A responsabilidade pelo produto motiva as empresas. Teste o produto Crie medidas preventivas eficazes e considere a segurança antes de ajustar o tamanho As empresas que lideram de forma responsável moldarão o futuro da IA, e as empresas que tratam os danos como uma externalidade podem e devem enfrentar consequências legais.

A indústria de tecnologia criou um conjunto único de talentos. Os tribunais devem agora garantir que criam compromissos de segurança igualmente fortes.

A IA pode mudar a sociedade Mas a mudança sem responsabilidade cria perigos previsíveis. O próximo passo da inovação deve incluir as consequências reais para as empresas. liberar produtos perigosos A vida depende disso.

Carrie Goldberg é advogada dos direitos das vítimas e fundadora da CA Goldberg, PLLC, um escritório de advocacia que litiga grandes empresas de tecnologia e outras. Quando seus produtos causam perseguição, assédio e exploração Ela é autora de Ninguém é vítima. (2019) Escolha dos editores do New York Times

As opiniões expressas neste artigo são de responsabilidade do autor.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui