Meta removeu dois vídeos postados pelo Congresso Nacional Indiano (INC) no Facebook e Instagram após receber um aviso de remoção da Polícia de Delhi. Os vídeos gerados por IA supostamente mostram o primeiro-ministro Narendra Modi e o presidente do Grupo Adani, Gautam Adani.
De acordo com informações enviadas pela Meta ao banco de dados de transparência da Lumen e revisadas pela HT, a empresa recebeu a notificação no dia 18 de dezembro e no mesmo dia restringiu o acesso às duas bobinas na Índia. O conteúdo foi postado a partir de contas verificadas do INC no Facebook e Instagram.
Em um comunicado, Lumen Meta disse que a Polícia de Delhi invocou a Seção 79(3)(b) da Lei de Tecnologia da Informação (TI) e a Regra 3(1)(d) das Regras de TI de 2021, bem como os Regulamentos Bharatiya Nyaya Sanhit de 2023 e a Seção 66C da Lei de TI.
“O risco de não cumprimento era a perda do porto seguro específico do assunto e possíveis penalidades criminais contra o pessoal local da Meta”, disse a empresa no processo da Lumen, citando proteções disponíveis para intermediários sob a Seção 79 da Lei de Tecnologia da Informação. A empresa também informou aos usuários afetados sobre as medidas tomadas.
AQUI ESTÁ UM GRAF NO CONGRESSO DE ORDENAÇÃO DO TRIBUNAL DE AHMEDABAD PARA REMOVER O VÍDEO NO APLICATIVO DO GRUPO ADANI
Meta observou na submissão da Lumen que os tambores não violam os padrões da comunidade. Um representante da Meta esclareceu que o conteúdo foi restrito “após receber uma ordem de bloqueio válida” das autoridades. A plataforma remove conteúdo que viola os padrões da própria comunidade ou leis locais. Neste caso, a Meta agiu de acordo com as obrigações legais associadas à notificação à Polícia de Deli e ao risco de perder a protecção do porto seguro.
As contas oficiais do Instagram da INC e do BJP publicam regularmente conteúdo gerado por IA, muitos dos quais aparecem na forma de memes. O recente aviso de remoção ocorre no momento em que o governo pressiona por uma melhor divulgação do conteúdo gerado por IA.
O Ministério de Eletrônica e Tecnologia da Informação (MeitY) propôs em 22 de outubro projetos de alterações às regras de TI que exigiriam que as empresas de mídia social permitissem que os usuários declarassem se o conteúdo que carregam é criado por IA. Nos casos em que os utilizadores não façam tais declarações, as plataformas devem detectar e sinalizar antecipadamente o conteúdo gerado por IA, diz a alteração.
Os dados mais recentes do Relatório de Transparência da Meta mostram que nos primeiros seis meses de 2025, a empresa restringiu o acesso a mais de 16.000 itens na Índia após pedidos de remoção das autoridades policiais, incluindo ordens através do Centro de Coordenação de Crimes Cibernéticos da Índia (I4C) do Ministério de Assuntos Internos e ordens judiciais. Esses pedidos estavam relacionados a questões como falsificação de identidade, hostilidade e assédio. A I4C desenvolveu o Portal Sahyog, uma plataforma centralizada para automatizar o processo de envio de notificações a intermediários pelo governo em questão ou sua agência, de acordo com a Seção 79(3)(b) da Lei de TI.
Durante o mesmo período, a Meta também restringiu o acesso a mais de 7.500 itens, seguindo instruções da MeitY e do Ministério da Informação e Radiodifusão ao abrigo da Secção 69A da Lei das TI e das Regras de Bloqueio de TI de 2009. Estes casos estavam relacionados com questões de ordem pública, desinformação e segurança nacional.
O número total de exclusões também aumentou. Em 2024, Meta removeu cerca de 25.600 conteúdos do Facebook e Instagram na Índia. Em 2023 e 2022, foram 13.930 e 1.800 unidades de conteúdo, respectivamente. Em 2025, esse número já ultrapassou 28 mil, segundo a empresa.








