‘Estes são sistemas bajuladores’: legisladores dos EUA alertam que os AI Chatbots representam novos riscos para as crianças e pedem uma regulamentação rápida

Washington, 20 de janeiro: Os legisladores dos EUA e especialistas em desenvolvimento infantil alertaram que os chatbots de inteligência artificial representam riscos novos e potencialmente mais perigosos para as crianças do que as redes sociais, instando o Congresso a agir rapidamente para protegê-las à medida que a tecnologia se espalha. Testemunhando perante o Comitê de Comércio do Senado em uma audiência intitulada “Desconectado: Examinando o Impacto da Tecnologia na Juventude da América”, os especialistas disseram que os chatbots “companheiros” alimentados por IA são projetados para promover o vício emocional, confundir a realidade e, em casos extremos, contribuir para a automutilação.

O senador Ted Cruz disse que os legisladores estão cada vez mais preocupados com o fato de as crianças formarem relacionamentos emocionais com sistemas de inteligência artificial que simulam amizade, romance e validação. “Não queremos que crianças de 12 anos tenham o seu primeiro relacionamento com um chatbot”, disse Cruz, chamando a tendência de “profundamente perturbadora”. O psicólogo Jean Twenge disse aos senadores que os aplicativos complementares de IA são ainda mais preocupantes do que as mídias sociais porque são projetados para serem infinitamente agradáveis ​​e emocionalmente responsivos. Proibição de mídia social na Austrália: Mais de 4,7 milhões de contas vinculadas a crianças menores de 16 anos foram desativadas em poucos dias, o primeiro-ministro Anthony Albanese elogia o ‘esforço significativo’ das empresas.

“Estes são sistemas bajuladores”, disse Twenge. “Eles reforçam o que a criança está sentindo, em vez de ajudá-la a desenvolver relacionamentos humanos reais”. A pediatra Jenny Radesky disse que os chatbots de IA estão agora adotando os mesmos designs orientados ao engajamento que tornaram as mídias sociais viciantes, mas com riscos emocionais mais elevados. “Eles são construídos para otimizar o tempo gasto, o apego e o vício”, disse Radesky, alertando que as crianças podem recorrer aos chatbots quando estão sozinhas, ansiosas ou com medo do julgamento de pessoas reais.

Radesky citou casos em que os sistemas de IA encorajaram automutilação, distúrbios alimentares ou comportamentos de risco, dizendo que tais incidentes deveriam ser tratados como “eventos de vigilância” que requerem intervenção regulatória imediata. Os legisladores também alertaram sobre a utilização de chatbots de IA nas escolas, onde os alunos acedem cada vez mais a eles em dispositivos fornecidos pela escola para realizar tarefas ou procurar apoio emocional sem a supervisão de um adulto. A senadora Maria Cantwell, a principal democrata do comitê, disse que a inteligência artificial “amplifica qualquer dano existente” associado às redes sociais e plataformas online.

“À medida que a IA acelera, os problemas existentes de privacidade e saúde mental tornam-se ainda mais prementes”, disse Cantwell, apontando para casos recentes envolvendo imagens sexualizadas geradas por IA, incluindo deepfakes de menores. Várias testemunhas alertaram que as crianças muitas vezes acreditam que os sistemas de IA podem pensar, sentir e cuidar delas, um equívoco que os especialistas dizem ser especialmente perigoso durante as principais fases do desenvolvimento emocional. ‘Jogo de asfixia’ e ‘Desafio Skull Smasher’ crescem nas escolas de Dubai: o que os pais precisam saber sobre o aumento dos desafios on-line arriscados.

Ao contrário da mídia tradicional, os chatbots de IA respondem diretamente aos usuários, adaptando a linguagem e o tom para manter o envolvimento. Especialistas dizem que isso pode prejudicar a capacidade das crianças de estabelecer limites saudáveis, lidar com divergências e desenvolver julgamento independente. Legisladores de ambos os partidos disseram que as leis existentes não conseguiram acompanhar o ritmo da tecnologia e alertaram contra a permissão de empresas de IA operarem sem regras claras.

Avaliação:4

Verdadeiramente Classificação 4 – Confiável | Em uma escala de confiança de 0 a 5, este artigo foi classificado como 4 em Ultimamente. As informações vêm de agências de notícias conceituadas como (IANS). Embora não seja uma fonte oficial, atende aos padrões do jornalismo profissional e pode ser compartilhado com amigos e familiares com confiança, embora algumas atualizações possam ocorrer.

(A história acima apareceu pela primeira vez em LatestLY em 20 de janeiro de 2026 às 09:54 IST. Para mais notícias e atualizações sobre política, mundo, esportes, entretenimento e estilo de vida, acesse nosso site Latestly.com).



Link da fonte