Especialistas dizem que o uso de imagens de inteligência artificial por Trump ultrapassa novos limites, minando ainda mais a confiança do público

LOS ANGELES (AP) – A administração Trump não tem tido vergonha de partilhar online imagens geradas por inteligência artificial, utilizando imagens e memes semelhantes a desenhos animados e promovendo-os nos canais oficiais da Casa Branca.

Mas a imagem editada – e realista – da advogada de direitos civis Nekima Levy Armstrong em lágrimas após a sua prisão levanta novas preocupações à medida que a administração confunde os limites entre o que é real e o que é falso.

A conta da secretária de Segurança Interna, Kristi Noem, postou a foto original da prisão de Levy Armstrong antes que a conta oficial da Casa Branca publicasse uma foto alterada mostrando-a chorando. A foto adulterada faz parte de um dilúvio de fotos editadas por IA compartilhadas em todo o espectro político desde os tiroteios fatais de Renee Good e Alex Pretti por agentes da Patrulha de Fronteira dos EUA em Minneapolis

Mas o uso da inteligência artificial pela Casa Branca preocupa os especialistas em desinformação, que temem que a propagação de imagens geradas ou editadas pela inteligência artificial prejudique a percepção pública da verdade e semeie desconfiança.

Em resposta às críticas à imagem editada de Levy Armstrong, os funcionários da Casa Branca redobraram sua posição, com o vice-diretor de comunicações Kaelan Dorr escrevendo no X que “os memes continuarão”. A vice-secretária de imprensa da Casa Branca, Abigail Jackson, também compartilhou uma postagem zombando das críticas.

David Rand, professor de ciência da computação na Universidade Cornell, diz que chamar a imagem alterada de meme “certamente parece uma tentativa de apresentá-la como uma piada ou postagem humorística, assim como seus desenhos anteriores. Isso provavelmente os protegerá de críticas por publicar mídia manipulada”. Ele disse que o propósito de compartilhar uma imagem alterada da prisão parece “muito mais ambíguo” do que as imagens de desenho animado que o governo compartilhou no passado.

Os memes sempre carregaram uma mensagem multifacetada, engraçada ou informativa para quem os entende, mas incompreensível para quem está de fora. Fotos aprimoradas ou editadas com inteligência artificial são a ferramenta mais recente que a Casa Branca está usando para envolver a parcela da base de Trump que passa muito tempo online, disse Zach Henry, consultor de comunicação republicano que fundou a Total Virality, uma empresa de marketing de influência.

“As pessoas que estão totalmente online verão isso e imediatamente o reconhecerão como um meme”, disse ele. “Seus avós podem ver isso e não entender o meme, mas porque parece realista, isso os leva a perguntar aos filhos ou netos sobre isso.”

Tanto melhor se provocar uma reação forte, ajudando-o a se tornar viral, disse Henry, que elogiou de forma geral o trabalho da equipe de mídia social da Casa Branca.

A criação e disseminação de imagens alteradas, especialmente quando partilhadas por fontes credíveis, “cristaliza a imagem do que está a acontecer em vez de mostrar o que realmente está a acontecer”, disse Michael A. Spikes, professor da Northwestern University e investigador em literacia mediática.

“O governo deve ser um lugar onde se pode confiar nas informações e onde se pode dizer que são precisas, porque tem a responsabilidade de fazê-lo”, disse ele. “Compartilhar esse tipo de conteúdo e criar esse tipo de conteúdo… corrói a confiança – embora eu sempre seja bastante cético em relação ao termo confiança – mas a confiança que deveríamos ter em nosso governo federal para nos fornecer informações precisas e verificadas. É uma perda real e realmente me preocupa muito.”

Spikes disse que já vê “crises institucionais” em torno da falta de confiança nas organizações noticiosas e no ensino superior e acredita que este comportamento por parte dos canais oficiais está a agravar estes problemas.

Ramesh Srinivasan, professor da Universidade da Califórnia, em Los Angeles, e apresentador do podcast Utopias, disse que muitas pessoas agora estão se perguntando onde podem ir para obter “informações confiáveis”. “Os sistemas de inteligência artificial apenas irão exacerbar, amplificar e acelerar os problemas relacionados com a falta de confiança, a falta de compreensão do que pode ser considerado realidade, verdade ou evidência”, afirmou.

Srinivasan disse acreditar que a Casa Branca e outros funcionários que partilham conteúdos gerados por IA não estão apenas a convidar as pessoas comuns a continuarem a publicar conteúdos semelhantes, mas também a dar permissão a outras pessoas com credibilidade e poder, como os decisores políticos, para partilharem conteúdos sintéticos não rotulados. Ele acrescentou que, dado que as plataformas de mídia social tendem a “privilegiar algoritmicamente” conteúdo extremo e conspiratório – que as ferramentas de geração de inteligência artificial podem criar facilmente – “temos um grande conjunto de desafios pela frente”.

Já existe uma quantidade crescente de vídeos gerados por IA nas redes sociais relacionados com atividades de imigração e fiscalização alfandegária, protestos e interações com cidadãos. Depois que um oficial do ICE atirou em Renee Good enquanto ela estava em seu carro, vários vídeos gerados por IA circularam mostrando mulheres se afastando dos oficiais do ICE que lhes disseram para parar. Há também vários vídeos adulterados circulando online mostrando batidas de imigração e pessoas confrontando agentes do ICE, muitas vezes gritando com eles ou jogando comida na cara deles.

Jeremy Carrasco, criador de conteúdo especializado em alfabetização midiática e desmascaramento de vídeos virais contendo inteligência artificial, disse que a maioria desses vídeos provavelmente vem de contas que “geram engajamento” ou desejam lucrar com cliques gerando conteúdo que inclui palavras-chave populares e termos de pesquisa como ICE. Mas ele também disse que os vídeos são assistidos por pessoas que se opõem ao ICE e ao DHS e podem vê-los como “fan fiction” ou baseados em “ilusões”, na esperança de ver uma oposição real às organizações e aos seus responsáveis.

Ainda assim, Carrasco também acredita que a maioria dos telespectadores não consegue dizer se o que estão assistindo é falso e se pergunta se saberão “o que é real e o que não é quando realmente importa, como quando os riscos são muito maiores”.

Mesmo que existam sinais evidentes de geração de IA, como sinais de trânsito sem sentido ou outros erros óbvios, apenas no “melhor caso” o espectador será inteligente o suficiente ou prestará atenção suficiente para registrar o uso da IA.

Esta questão, claro, não se limita às notícias sobre a fiscalização da imigração e aos protestos. Fotos fabricadas e deturpadas mostrando a captura do líder venezuelano deposto Nicolás Maduro explodiram online no início deste mês. Especialistas, incluindo Carrasco, acreditam que a disseminação de conteúdos políticos gerados pela IA se tornará cada vez mais comum.

Carrasco acredita que um passo em direção a uma solução poderia ser a implementação generalizada de um sistema de marca d’água que incorpore informações sobre a origem da mídia na camada de metadados. A Coalizão para Originação e Autenticidade de Conteúdo desenvolveu tal sistema, mas Carrasco não acredita que ele será amplamente adotado por pelo menos mais um ano.

“Será um problema eterno agora”, disse ele. “Não acho que as pessoas entendam o quão ruim isso é.”

__

Os redatores da Associated Press, Jonathan J. Cooper, em Phoenix, e Barbara Ortutay, em São Francisco, contribuíram para este relatório.



Link da fonte