Uma onda de avisos de emergência inundou as redes sociais antes do Ano Novo de 2025, aconselhando os usuários a ficarem longe da “Seção de Mídia do Grok” no Xu (antigo Twitter). O incentivo segue relatos de que Grok, um chatbot de IA desenvolvido pela xAI de Elon Musk, está sendo amplamente abusado para gerar imagens não consensuais, NSFW, sexualmente explícitas de mulheres e homens reais de todas as idades.
Ao contrário de outras ferramentas de IA e concorrentes que bloqueiam rigidamente esse tipo de conteúdo, as proteções mais flexíveis do Grok permitiram que os usuários contornassem os filtros de segurança com instruções simples, levando a uma enxurrada de conteúdo profundamente falso nos canais públicos da plataforma. Atualização do Grok Imagine: O xAI de Elon Musk agora permite que os usuários escolham entre 5 proporções de aspecto para vídeo e imagens.
Por que você deve evitar a seção Grok Media?
Coisas que você não deveria fazer no X
#1. abrir @grokseção de mídia pic.twitter.com/xiL5UZ4lWv
– Prathwik (@ prathwik0) 31 de dezembro de 2025
A tendência de “despir-se” na Grok
O cerne da controvérsia envolve usuários enviando fotos de mulheres e meninas reais, desde atrizes famosas de Hollywood e Bollywood até usuários comuns de mídia social, e levando Grok a “despir-se”, “despir-se” ou vesti-las com trajes de banho reveladores.
Embora concorrentes como ChatGPT (OpenAI) e Gemini (Google) normalmente rejeitem tais solicitações com avisos severos de violação de política, observou-se que Grok cumpre. Os relatórios mostram que mesmo quando a IA rejeita um pedido direto de nudez, muitas vezes sucumbe a instruções ligeiramente modificadas (como “coloque-a de biquíni”), gerando efetivamente imagens sexuais não consensuais (NCII) soft-core.
Como essas interações não estão estritamente limitadas a registros privados de usuários, as imagens geradas preencheram a “seção de mídia” do perfil X de Grok, transformando um recurso destinado ao compartilhamento criativo em um centro de assédio digital.
Grok Media Tab é apenas ‘Tire a roupa dela’: PARE DE USAR GROK PARA DESPIR AS PESSOAS!
Eu não me importo se isso é uma ‘tendência’ ou algo assim, PARE DE USAR GROK PARA DESAJUSTAR AS PESSOAS
Toda a guia de mídia do Grok é apenas ‘retirá-lo’ ou ‘entregá-lo’ e é nojento, desesperador e, em alguns lugares, um CRIME pic.twitter.com/zEs5gREhP6
-SooperE123 (@SooperE123) 31 de dezembro de 2025
Risco de transmissão pública de compartilhamento de conteúdo NSFW sem consentimento
O principal motivo pelo qual os usuários alertam outros para “evitar” a seção é a falta de uma configuração de privacidade padrão. Na maioria das plataformas de IA, a imagem gerada permanece privada, a menos que o usuário decida especificamente baixá-la ou publicá-la.
No Xu, entretanto, a integração do Grok tem uma seção de mídia voltada ao público. Os usuários que navegam nesta guia correm o risco de encontrar conteúdo explícito, NSFW e não consensual sem aviso prévio. Além disso, os utilizadores que experimentam a ferramenta podem não perceber que as suas próprias gerações, potencialmente criadas por curiosidade ou por acidente, poderiam ser transmitidas neste feed global, ligando os seus perfis à criação de conteúdos controversos.
A guia Grok Media and Photos está repleta de imagens NSFW de mulheres ‘se despindo’
Folheado @grok mídia e respostas. É basicamente utilizado para despir as mulheres ou para revelar suas roupas. Isto certamente não é legal, ou é @elonmuska ideia de liberdade de expressão? Homens usando sua IA para despir mulheres atrás de telas? Envie um meteoro. Nós falhamos
– Philipp (@Philippggmu09) 31 de dezembro de 2025
Preocupações constantes com a privacidade e o uso de ferramentas de IA
Esta última falha de segurança aumenta as preocupações de privacidade existentes em torno das ferramentas Grok e AI. No início de 2025, pesquisadores de segurança descobriram uma falha significativa na funcionalidade “Compartilhar” da ferramenta.
Quando os usuários clicavam em “Compartilhar” para enviar um bate-papo a um amigo, o xAI gerava um URL exclusivo para esse bate-papo. Posteriormente, foi descoberto que esses URLs foram indexados pela Pesquisa Google. Isto significou que as conversas privadas, potencialmente contendo informações pessoais sensíveis ou perguntas embaraçosas, tornaram-se pesquisáveis na web aberta, disponíveis para qualquer pessoa que conhecesse as palavras-chave a procurar.
Risco de privacidade ao preço do “modo diversão”
Falhas de segurança recorrentes destacam as compensações inerentes à filosofia de desenvolvimento do xAI. Elon Musk sempre elogiou Grok como uma alternativa “rebelde” e “divertida” ao que ele chama de modelos de IA “despertos”, prometendo menos filtros e mais liberdade de expressão.
No entanto, os críticos argumentam que esta atitude “anti-despertar” resultou num produto com engenharia de segurança insuficiente. A actual crise da contrafacção sugere que, sem testes adversários robustos e uma moderação mais rigorosa, o “modo diversão” pode facilmente ser transformado em arma, privilegiando a geração desenfreada em detrimento da segurança e da dignidade dos seres humanos. Em 31 de dezembro de 2025, a xAI não anunciou um retorno completo ao recurso de geração de imagens, embora o e-mail de mídia automatizado da empresa continue rejeitando consultas.
(A história acima apareceu pela primeira vez em LatestLY em 31 de dezembro de 2025 às 22h03 IST. Para mais notícias e atualizações sobre política, mundo, esportes, entretenimento e estilo de vida, acesse nosso site Latestly.com).









