Colaborador: O verdadeiro perigo da IA ​​é o tratamento humano

CEOs de empresas de tecnologia como Meta, OpenAI e Anthropic nos dizem que a inteligência artificial está em constante processo de se tornar mais “humana”. Eles fornecem seus próprios chatbots sons suavesReconhecível as personalidades E os nomes que você pode dar ao seu animal de estimação. Eles estão projetando bots para usar “eu”, “me” e “meu” em conversas, e estão gesticulando com cuidado e com possível negação, emergindo um pouco mais cedo como a mente digital. Isto não é um acidente. Isso é marketing.

Os humanos sempre foram fáceis de enganar nesta frente. Falamos com nossos cães como se eles nos conhecessem, amaldiçoamos nossos laptops quando eles congelam e até nomeamos nossos carros. Assim, quando um sistema de IA produz uma linguagem intuitiva e coloquial, nossos cérebros preenchem naturalmente o resto e determinam a intenção, o conhecimento e até a emoção. As empresas de tecnologia sabem disso. Quanto mais “pessoal” um chatbot parecer, maior será a probabilidade de tratá-lo como um confidente, amigo ou autoridade, em vez do que ele realmente é, que é um mecanismo de previsão estatística.

Mas este hábito de ver mentes onde não existem tem consequências sociais e políticas reais. Se quisermos um futuro em que possamos usar a IA de forma inteligente e confiar nela quando for apropriado, precisamos de quebrar os nossos reflexos para nos comportarmos como pessoas.

O primeiro passo é entender o que significa antropomorfismo. É a tendência de atribuir características humanas a objetos não humanos. Com a IA, essa projeção é turbinada. Os chatbots de hoje são projetados para nos imitar. Eles falam na primeira pessoa, respondem com frases emocionais e combinam seu tom com o nosso. O CEO da Anthropic, Dario Amudi, até fez a afirmação recentemente Claude, o chatbot de sua empresa, pode sentir ansiedade.

Mas nada disso expressa personalidade, consciência ou mesmo compreensão. Esses sistemas não possuem eus ou emoções. Eles geram texto simplesmente reconhecendo padrões em grandes conjuntos de dados.

Esta distinção é importante. Quando nos adaptamos a um padrão de pensamento, corremos o risco de nos auto-iludirmos – e com isso, de graves consequências.

Primeiro, corremos o risco de perder o nosso julgamento. Quando um chatbot parece crível e humano, nós confiamos nele. Estudos mostram que as pessoas relutam em seguir conselhos de IA mesmo quando estão errados, especialmente em situações de alto estresse. À medida que as ferramentas de IA moldam cada vez mais as decisões médicas, as estratégias jurídicas e o consumo de notícias, tratar os chatbots como conselheiros sábios, em vez de instantâneos estatísticos, pode levar-nos a tomar decisões arriscadas. Confundindo confiança em IA com competência E confiando em seus resultados.

O antropomorfismo da IA ​​também permite que as empresas de tecnologia abdiquem de responsabilidades. Quando os seus sistemas produzem respostas tendenciosas, prejudiciais ou obviamente inventadas, as empresas muitas vezes agem como se a sua IA fosse apenas uma criança curiosa que “aprendeu” algo inesperado. Mas a IA não detecta comportamento por si só. Este produto reflete as escolhas de design, os dados de treinamento e as motivações dos humanos que o produzem. Desfocar a linha entre ferramenta e agente torna a responsabilização mais difícil.

Finalmente, corremos o risco de substituir relações reais por relações artificiais. Empresas incluindo Personagem.AI e cópia Promova seus companheiros de IA como “sempre aqui para ouvir e conversar” e “sempre ao seu lado”. Para as pessoas que lutam contra a solidão, o apelo é óbvio. Mas um sistema concebido para imitar a empatia é incapaz de oferecer apoio emocional real. Se confiarmos nos chatbots como terapeutas, amigos ou substitutos para a conexão humana, poderemos apenas aprofundar o isolamento que o CEO da tecnologia afirma que essas ferramentas deveriam aliviar, levando à automutilação, chamada “.Psiquiatria de IAe Até suicídio.

Felizmente, evitar a armadilha do antropomorfismo não requer habilidade técnica. Tudo começa com a linguagem. Não pergunte ao chatbot: “Por que você disse isso?” Em vez disso, você deveria perguntar: “Como isso aconteceu?” Em vez de nos perguntarmos se a IA “pensa”, deveríamos perguntar que informações ou instruções moldam o seu resultado. Pequenas mudanças linguísticas direcionam nossa atenção para o processo e não para a personalidade. Eles também nos lembram que não há ninguém além da cortina.

Também podemos preservar a nossa independência crítica sendo céticos em relação ao conteúdo gerado pela IA. Quando um sistema fala na primeira pessoa, pode parecer autêntico, até mesmo sábio. Mas fluência não é insight. A IA não é uma autoridade epistêmica. É uma ferramenta, até útil, mas fundamentalmente limitada.

É claro que os hábitos pessoais não são suficientes. Os reguladores deveriam exigir que as empresas divulgassem recursos semelhantes aos humanos, como voz, scripts de personalidade e estruturas de conversação, para que os usuários saibam quando estão sendo induzidos a ver uma máquina como uma mente. As instituições públicas, desde hospitais a escolas, devem desenvolver directrizes para protecção contra o tráfico de seres humanos.

As empresas de tecnologia têm todos os motivos para criar uma IA que pareça mais humana. É útil. Isto é encorajador. E isso nos mantém ocupados. Mas não deveríamos brincar juntos.

IA não é uma pessoa. Não pensa, não se importa nem entende. Este Reflexão algorítmica Da Internet: o bom, o mau e o feio. Quando confundimos esta imagem com a mente, perdemos algo muito mais importante do que a maravilha técnica. Por exemplo, perdemos a capacidade de diferenciar entre simulação e realidade. O futuro do julgamento humano pode depender da correção desta discrepância.

Moti Muzaffari é professor de filosofia da ciência e tecnologia no Florida Institute of Technology. Seu livro mais recente é “Brincando de Deus com Tecnologias Emergentes”.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui