A inteligência artificial Grok de Elon Musk enfrenta reação do governo depois de ser usada para criar imagens sexualizadas de mulheres e menores

  • Os usuários do X usaram o gerador de imagens Grok de Elon Musk para criar imagens sexualizadas de mulheres sem o seu consentimento.

  • Algumas solicitações de imagens de IA incluíam imagens de menores.

  • As autoridades francesas investigam deepfakes de IA. O Ministério da Eletrônica da Índia escreveu uma carta para X.

O grok de Elon Musk gerou reação depois que um gerador de imagens de IA foi usado para gerar imagens sexualizadas e sem sentido de pessoas reais, incluindo menores.

Na última semana, alguns usuários do X usaram o Grok para despir digitalmente as pessoas em fotos, com o modelo de IA gerando imagens falsas do sujeito mostrando mais pele, usando biquíni ou mudando a posição do corpo.

Alguns pedidos são feitos de forma consensual, como os modelos OnlyFans pedindo a Grok para tirar a própria roupa. Mas outros instaram Grok a “tirar a roupa” de fotos de adultos que não eram eles mesmos. De acordo com capturas de tela postadas na plataforma de mídia social por usuários preocupados e vários exemplos vistos pelo Business Insider, algumas dessas imagens retratam menores.

A política de “Uso Aceitável” da XAI proíbe “representações pornográficas de pessoas” e “a sexualização ou exploração de crianças”.

Quando solicitado a comentar, o xAI enviou uma resposta automática por e-mail que não abordou o problema.

As autoridades francesas estão investigando um aumento de notícias falsas geradas pela inteligência artificial de Grok, disse a promotoria de Paris ao Politico. Distribuir deepfakes na Internet sem consentimento é punível com dois anos de prisão na França.

O Ministério de Eletrônica e Tecnologia da Informação da Índia escreveu ao diretor de conformidade da Divisão X da Índia, detalhando relatos de usuários que distribuíram “fotos ou vídeos retratando mulheres de maneira depreciativa ou vulgar, com a intenção de caluniá-las indecentemente”.

O ministério pediu a X que passasse por uma “revisão técnica, processual e gerencial abrangente” e removesse qualquer conteúdo que violasse a lei indiana.

Alex Davies-Jones, ministro das vítimas e da violência contra mulheres e meninas do Reino Unido, implorou a Elon Musk, CEO da empresa controladora do X, xAI, que fizesse algo a respeito das imagens de inteligência artificial.

“Se você se preocupa tanto com as mulheres, por que permite que os usuários X tirem vantagem delas?” ela escreveu. “Grok pode despir centenas de mulheres por minuto, muitas vezes sem o conhecimento ou consentimento da pessoa na foto.”

Davies-Jones também abordou uma proposta britânica que tornaria a criação e difusão de deepfakes sexualmente explícitos um crime punível.

Em resposta ao usuário

“Há casos isolados em que os usuários solicitaram e receberam imagens de IA de menores em roupas minimalistas, como no exemplo que você mencionou”, respondeu a conta oficial do Grok em outro tópico. “xAI tem salvaguardas, mas melhorias estão sendo trabalhadas para bloquear completamente tais solicitações.”

Deepfakes são um problema constante e um desafio de moderação para as empresas de IA, embora Musk tenha divulgado os recursos NSFW de Grok.

Em agosto, o gerador de imagens e vídeos de Grok, Imagine, lançou um modo “picante” no qual os usuários podem criar imagens pornográficas de mulheres geradas por inteligência artificial. Embora a opção “difícil” não estivesse disponível para upload de fotos, os usuários podiam inserir instruções personalizadas, como “tire a camisa”.

Treinamento de equipe Grok disse anteriormente ao Business Insider que encontrou material sexualmente explícito, incluindo casos em que os usuários solicitaram conteúdo CSAM gerado por IA.

A tendência de Grok de “tirar a roupa” ganhou impulso depois que a Wired informou em 23 de dezembro que os modelos ChatGPT OpenAI e Gemini AI do Google estavam sendo usados ​​para gerar imagens de mulheres reais em biquínis a partir de fotos vestidas.

A capacidade de uma pessoa de combater os deepfakes de IA que ela cria varia.

Nos EUA, o Take It Down Act protege contra deepfakes não consensuais, embora seu escopo dependa da idade e das partes do corpo mostradas. Para adultos, o projeto cobre apenas deepfakes que retratam genitália ou atividade sexual. A lei é mais rigorosa para menores e cobre conteúdo falso que se destina a “explorar, rebaixar, assediar ou rebaixar” ou “despertar ou gratificar os desejos sexuais de qualquer pessoa”.

Alguns estados também aprovaram leis mais rígidas em relação à disseminação de deepfakes.

Embora a criação de deepfakes via inteligência artificial levante uma questão mais complexa de responsabilidade, o art. 230 da Lei de Decência nas Comunicações de 1996 protege principalmente as plataformas online da responsabilidade pelo conteúdo postado pelos usuários.

Em agosto, falando ao Business Insider, Allison Mahoney, advogada especializada em abusos possibilitados pela tecnologia, perguntou se o reconhecimento de plataformas como criadores por causa de suas ferramentas de geração de IA “retiraria sua imunidade”.

“São necessárias opções legais claras para responsabilizar as plataformas por má conduta”, disse Mahoney.

Leia o artigo original no Business Insider

Link da fonte