Delhi, 10 de fevereiro: O governo da Índia emitiu um novo conjunto de mandatos exigindo que as plataformas de mídia social sinalizem de forma proeminente todo o conteúdo gerado por IA ou “sintético”. De acordo com as diretivas mais recentes, qualquer conteúdo criado ou modificado usando inteligência artificial deve ser incorporado com identificadores e metadados persistentes.
Este aperto regulatório coloca a responsabilidade diretamente sobre os intermediários e gigantes das redes sociais para garantir que as tags de IA permaneçam visíveis. O governo proibiu expressamente a remoção ou cancelamento destes rótulos depois de aplicados. Ao implementar estas características de “rastreabilidade”, as autoridades pretendem ajudar os utilizadores a distinguir informações autênticas de informações geradas por computador em tempo real. Cúpula de Impacto da IA na Índia 2026: O secretário-geral da ONU, António Guterres, dá as boas-vindas à liderança da Índia antes do evento importante.
Novas regras de IA: descoberta e moderação automatizadas
A ordem governamental exige ainda que as plataformas introduzam ferramentas automatizadas sofisticadas para monitorizar os seus ecossistemas. Estas ferramentas devem ser concebidas para detetar e impedir a circulação de conteúdos de IA considerados ilegais, exploradores sexualmente ou intencionalmente enganosos.
Esta abordagem proativa transfere a responsabilidade da moderação reativa para a tecnologia preventiva. Espera-se agora que as plataformas identifiquem meios de comunicação sintéticos de alto risco antes que estes atinjam um grande público, especialmente em casos que envolvam deepfakes não consensuais ou conteúdos que possam incitar à desordem pública. ‘O uso ético da IA não é negociável’: o primeiro-ministro Narendra Modi se reúne com CEOs para impulsionar a missão de IA da Índia antes da Cúpula AI Impact India 2026
Persistência de metadados de IA
Uma ênfase fundamental das novas regras é a “persistência” dos identificadores. As plataformas agora estão legalmente proibidas de permitir que os usuários removam metadados ou marcas d’água que indiquem que um arquivo foi gerado por inteligência artificial. Isso garante que, mesmo que um conteúdo seja compartilhado em diversas plataformas, seu status sintético permaneça anexado ao arquivo.
Os especialistas sugerem que isso resolve uma grande lacuna em que os usuários baixam vídeos marcados com IA e os reenviam em outro lugar para ignorar a detecção. De acordo com o novo mandato, a assinatura digital deve permanecer incorporada durante todo o ciclo de vida do conteúdo.
Conscientização trimestral do usuário e penalidades
Para garantir que os utilizadores estão conscientes das consequências legais do uso indevido da inteligência artificial, o governo determinou um sistema de alerta regular. As redes sociais devem agora informar os seus utilizadores, pelo menos uma vez a cada três meses, sobre as penalidades associadas à violação das regras digitais.
Estes avisos devem destacar especificamente os riscos da utilização da inteligência artificial para fins prejudiciais, como a falsificação de identidade ou a fraude. O governo pretende que estas notificações recorrentes sirvam como um impedimento à criação maliciosa de deepfakes.
Estas directivas seguiram uma série de consultas entre o Ministério da Electrónica e Tecnologia da Informação (MeitY) e várias partes interessadas na tecnologia. O surgimento de imagens e vídeos altamente realistas gerados pela inteligência artificial durante os recentes acontecimentos globais acelerou a necessidade de um quadro jurídico formal.
Embora o governo incentive a inovação na IA, manteve uma posição firme de que a segurança e a confiança devem ser uma prioridade. As plataformas que não cumpram estes novos requisitos de rotulagem e advertência podem enfrentar sanções severas ao abrigo da Lei das Tecnologias de Informação.
(A história acima apareceu pela primeira vez em LatestLY em 10 de fevereiro de 2026 às 18h02 IST. Para mais notícias e atualizações sobre política, mundo, esportes, entretenimento e estilo de vida, acesse nosso site Latestly.com).









