Evite a seção Grok Media em meio ao ‘despir’ da crise do Deepfake

Uma onda de avisos de emergência inundou as redes sociais antes do Ano Novo de 2025, aconselhando os usuários a ficarem longe da “Seção de Mídia do Grok” no Xu (antigo Twitter). O incentivo segue relatos de que Grok, um chatbot de IA desenvolvido pela xAI de Elon Musk, está sendo amplamente abusado para gerar imagens não consensuais, NSFW, sexualmente explícitas de mulheres e homens reais de todas as idades.

Ao contrário de outras ferramentas de IA e concorrentes que bloqueiam rigidamente esse tipo de conteúdo, as proteções mais flexíveis do Grok permitiram que os usuários contornassem os filtros de segurança com instruções simples, levando a uma enxurrada de conteúdo profundamente falso nos canais públicos da plataforma. Atualização do Grok Imagine: O xAI de Elon Musk agora permite que os usuários escolham entre 5 proporções de aspecto para vídeo e imagens.

Por que você deve evitar a seção Grok Media?

A tendência de “despir-se” na Grok

O cerne da controvérsia envolve usuários enviando fotos de mulheres e meninas reais, desde atrizes famosas de Hollywood e Bollywood até usuários comuns de mídia social, e levando Grok a “despir-se”, “despir-se” ou vesti-las com trajes de banho reveladores.

Embora concorrentes como ChatGPT (OpenAI) e Gemini (Google) normalmente rejeitem tais solicitações com avisos severos de violação de política, observou-se que Grok cumpre. Os relatórios mostram que mesmo quando a IA rejeita um pedido direto de nudez, muitas vezes sucumbe a instruções ligeiramente modificadas (como “coloque-a de biquíni”), gerando efetivamente imagens sexuais não consensuais (NCII) soft-core.

Como essas interações não estão estritamente limitadas a registros privados de usuários, as imagens geradas preencheram a “seção de mídia” do perfil X de Grok, transformando um recurso destinado ao compartilhamento criativo em um centro de assédio digital.

Grok Media Tab é apenas ‘Tire a roupa dela’: PARE DE USAR GROK PARA DESPIR AS PESSOAS!

Risco de transmissão pública de compartilhamento de conteúdo NSFW sem consentimento

O principal motivo pelo qual os usuários alertam outros para “evitar” a seção é a falta de uma configuração de privacidade padrão. Na maioria das plataformas de IA, a imagem gerada permanece privada, a menos que o usuário decida especificamente baixá-la ou publicá-la.

No Xu, entretanto, a integração do Grok tem uma seção de mídia voltada ao público. Os usuários que navegam nesta guia correm o risco de encontrar conteúdo explícito, NSFW e não consensual sem aviso prévio. Além disso, os utilizadores que experimentam a ferramenta podem não perceber que as suas próprias gerações, potencialmente criadas por curiosidade ou por acidente, poderiam ser transmitidas neste feed global, ligando os seus perfis à criação de conteúdos controversos.

A guia Grok Media and Photos está repleta de imagens NSFW de mulheres ‘se despindo’

Preocupações constantes com a privacidade e o uso de ferramentas de IA

Esta última falha de segurança aumenta as preocupações de privacidade existentes em torno das ferramentas Grok e AI. No início de 2025, pesquisadores de segurança descobriram uma falha significativa na funcionalidade “Compartilhar” da ferramenta.

Quando os usuários clicavam em “Compartilhar” para enviar um bate-papo a um amigo, o xAI gerava um URL exclusivo para esse bate-papo. Posteriormente, foi descoberto que esses URLs foram indexados pela Pesquisa Google. Isto significou que as conversas privadas, potencialmente contendo informações pessoais sensíveis ou perguntas embaraçosas, tornaram-se pesquisáveis ​​na web aberta, disponíveis para qualquer pessoa que conhecesse as palavras-chave a procurar.

Risco de privacidade ao preço do “modo diversão”

Falhas de segurança recorrentes destacam as compensações inerentes à filosofia de desenvolvimento do xAI. Elon Musk sempre elogiou Grok como uma alternativa “rebelde” e “divertida” ao que ele chama de modelos de IA “despertos”, prometendo menos filtros e mais liberdade de expressão.

No entanto, os críticos argumentam que esta atitude “anti-despertar” resultou num produto com engenharia de segurança insuficiente. A actual crise da contrafacção sugere que, sem testes adversários robustos e uma moderação mais rigorosa, o “modo diversão” pode facilmente ser transformado em arma, privilegiando a geração desenfreada em detrimento da segurança e da dignidade dos seres humanos. Em 31 de dezembro de 2025, a xAI não anunciou um retorno completo ao recurso de geração de imagens, embora o e-mail de mídia automatizado da empresa continue rejeitando consultas.

Avaliação:5

Verdadeiramente Classificação 5 – Confiável | Em uma escala de confiança de 0 a 5, este artigo foi classificado como 5 em Ultimamente. Foi confirmado através de fontes oficiais (Conta Oficial Grok X). As informações são cuidadosamente cruzadas e verificadas. Você pode compartilhar este artigo com segurança com seus amigos e familiares, sabendo que ele é confiável e confiável.

(A história acima apareceu pela primeira vez em LatestLY em 31 de dezembro de 2025 às 22h03 IST. Para mais notícias e atualizações sobre política, mundo, esportes, entretenimento e estilo de vida, acesse nosso site Latestly.com).



Link da fonte