De acordo com as alterações às Regras de Tecnologia da Informação (Diretrizes para Intermediação e Código de Ética de Mídia Digital) de 2021, que foram notificadas na terça-feira, as empresas de mídia social devem agora remover ou bloquear o acesso a determinados conteúdos ilegais ou prejudiciais dentro de três horas após o recebimento de uma ordem governamental válida, reclamação formal ou descoberta de uma violação clara.
O novo prazo — uma redução acentuada em relação à janela anterior de 36 horas ao abrigo da Regra 3, n.º 1, alínea d) — não fazia parte do projeto de alterações publicado pelo Ministério da Eletrónica e da Tecnologia da Informação (MeitY) em outubro de 2025 e só foi apresentado na notificação final. As alterações entrarão em vigor em 20 de fevereiro de 2026.
Prazos mais curtos, que exigem ações quase instantâneas de plataformas como Instagram, Facebook e YouTube, deverão enfrentar resistência por parte da indústria. Especialistas jurídicos alertam que a mudança deixa pouco espaço para escrutínio, especialmente em casos de violações subjetivas, como disputas de direitos autorais ou reivindicações de uso justo, e pode forçar as plataformas a remover primeiro o conteúdo denunciado e depois avaliá-lo, aumentando o risco de remoções excessivas.
LEIA TAMBÉM | Comércio de ‘manja chinesa’: governo de Uttar Pradesh investiga plataformas online e grupos de mídia social
O Google não respondeu às perguntas da HT no momento da publicação, enquanto a Meta Platforms disse que estava revisando as alterações internamente. X não respondeu.
Um alto funcionário da MeitY, que falou sob condição de anonimato, defendeu o prazo apertado. “A experiência tem-nos mostrado que os intermediários são realmente capazes de agir com bastante rapidez. Houve casos em que conseguiram agir em minutos. Portanto, é claro que têm a capacidade técnica para agir rapidamente”, disse o responsável.
O governo também reformulou a forma como as plataformas identificam conteúdo alimentado por IA ou “gerado sinteticamente”, abandonando os rígidos requisitos técnicos propostos no rascunho de outubro.
O rascunho exigia marcas d’água visíveis cobrindo pelo menos 10% da tela ou tags de áudio nos primeiros 10% do clipe – um requisito de tamanho fixo que agora foi removido.
Em vez de prescrever tamanhos exatos, as regras finais exigem que as plataformas utilizem medidas técnicas “razoáveis e proporcionais” para garantir que o conteúdo de IA seja “exibido de forma clara e proeminente com um rótulo ou mensagem apropriada indicando que o conteúdo é gerado sinteticamente”.
“Se eu vir um vídeo, saberei que algo foi criado por inteligência artificial”, disse outro representante da MeitY.
O responsável alertou que os intermediários poderiam perder a protecção do porto seguro ao abrigo da secção 79 da Lei de TI de 2000 se não cumprissem as obrigações de devida diligência. Os erros que podem comprometer esta proteção incluem ignorar ordens legais de remoção, não cumprir prazos como uma janela de três horas ou não sinalizar ou agir contra conteúdo sintético ilegal.
LEIA TAMBÉM | ‘Publicidade paga’: Polícia de Delhi critica o pânico de ‘garotas desaparecidas’ que se espalha nas redes sociais
A definição de informação gerada sinteticamente foi mais rigorosa para excluir atividades rotineiras de edição. A correção de cores, o corte, a formatação, a redução de ruído e o processamento básico foram agora eliminados e não serão tratados como dados multimídia gerados por IA. Isto foi apontado pela Internet and Mobile Association of India (IAMAI), cujos membros incluem Google, Meta, Snapchat e WhatsApp, nas suas submissões de outubro ao MeitY.
Dhruv Garg, parceiro do India Policy and Business Advisory Project, disse: “Restringir a definição de ‘informação gerada sinteticamente’ para excluir edição rotineira ou genuína, aprimoramento, acessibilidade e preparação de documentos reduz significativamente o risco de uso excessivo e impacto não intencional em atividades digitais comuns, expressão criativa e tecnologias assistivas”.
Quando questionado se as plataformas têm atualmente a capacidade técnica para detetar de forma fiável conteúdos gerados por IA, um dos responsáveis acima citados disse que as empresas já implementam sistemas sofisticados para gerir danos online complexos e têm os recursos para criar capacidades semelhantes para meios de comunicação sintéticos.
Além disso, a MeitY está em uma disputa contínua com a plataforma de mídia social X, de propriedade de Elon Musk, devido a preocupações de que seu chatbot de IA Grok tenha criado imagens sexualmente explícitas e ofensivas direcionadas a usuárias do sexo feminino. Os governos da Europa e da Ásia criticaram as medidas de segurança da ferramenta e iniciaram investigações, enquanto X restringiu parcialmente o recurso a usuários pagos em meio a uma reação generalizada. O governo está a considerar tomar medidas legais contra a distribuição contínua de conteúdo censurável na plataforma.








