Novas regras de IA: as alterações de TI da Índia de 2026 explicadas e o que elas significam para phishing e conteúdo de exploração sexual

Mumbai, 11 de fevereiro: O governo indiano anunciou oficialmente alterações abrangentes às Regras de Tecnologia da Informação de 2021, criando uma estrutura regulatória formal para inteligência artificial e deepfakes. Notificadas pelo Ministério da Eletrônica e Tecnologia da Informação (MeitY) no dia 10 de fevereiro, as novas regras introduzem uma categoria legal de “informação gerada sinteticamente” e entrarão em vigor no dia 20 de fevereiro.

O objetivo principal desta intervenção é conter os riscos crescentes de falsificação de identidade e desinformação digitalmente carregada. Ao introduzir obrigações específicas de cada plataforma para sinalizar meios de comunicação sintéticos e reduzir os prazos de remoção, o governo pretende responsabilizar mais os intermediários digitais pelo conteúdo que alojam. Novas regras de IA: As plataformas de redes sociais devem sinalizar de forma proeminente o conteúdo gerado por IA e bloquear material de IA de exploração sexual.

Imagens geradas por IA que levam a mal-entendidos na vida real

De acordo com as regras alteradas, “informação gerada sinteticamente” refere-se a qualquer conteúdo áudio, visual ou audiovisual criado ou modificado utilizando ferramentas informáticas que pareça ser autêntico. Esta definição técnica foi projetada para capturar vídeos profundamente falsos, clones de voz e imagens geradas por IA que podem ser confundidas com indivíduos reais ou eventos do mundo real.

No entanto, os regulamentos incluem isenções significativas para atividades digitais de rotina. Edições de “boa-fé” – como correção de cores, redução de ruído, tradução ou melhorias de acessibilidade – estão isentas desses requisitos. Esta distinção garante que a fotografia diária de smartphones e a investigação académica não sejam penalizadas, desde que não resultem em registos eletrónicos fraudulentos.

As novas regras de inteligência artificial: padrões obrigatórios de marcação e metadados

Os intermediários que facilitam a criação ou partilha de conteúdos de IA devem agora garantir que esses meios de comunicação sejam marcados de forma “clara e visível”. O governo afastou-se de uma proposta anterior que exigia que as marcas de água cobrissem 10% da moldura, optando, em vez disso, por uma norma baseada em princípios que permite às empresas maior flexibilidade no design.

Além das tags visíveis, as plataformas devem incorporar metadados persistentes ou tags de origem em arquivos sintéticos. Essas impressões digitais ajudam a rastrear a origem da mídia mesmo depois de baixada e compartilhada novamente. Fundamentalmente, as regras proíbem as plataformas de permitir que os utilizadores removam ou suprimam estas divulgações depois de implementadas.

Prazo de conformidade de três horas

Uma das mudanças mais significativas é a redução drástica dos prazos de execução. Para violações de alto risco – incluindo falsificação de conteúdo íntimo sem consentimento, falsificação de identidade e material de abuso sexual infantil – as plataformas devem agora agir dentro de três horas após o recebimento de uma notificação. Esta é uma redução acentuada em relação ao período anterior de 36 horas permitido pelas regras de 2021.

Além disso, os prazos internos para resolução de reclamações foram reduzidos para metade. As plataformas devem agora reconhecer as reclamações dos utilizadores no prazo de duas horas e resolvê-las no prazo de sete dias, acima do limite anterior de 15 dias. Essas mudanças têm como objetivo impedir a propagação de conteúdo prejudicial, embora os críticos avisem que essas janelas restritas podem levar a remoções excessivas automatizadas sem a devida revisão humana.

Maior responsabilidade para gigantes da mídia social

Intermediários de Redes Sociais (SSMIs) importantes, como Facebook, Instagram e YouTube, enfrentam encargos ainda mais rigorosos. Essas plataformas agora devem exigir que os usuários declarem se o conteúdo é gerado por inteligência artificial antes de iniciar uma transmissão. Têm também a obrigação legal de aplicar ferramentas técnicas automatizadas para verificar estas declarações, em vez de confiar apenas na honestidade dos utilizadores. Novas regras de IA emitidas para combater Deepfakes e conteúdo de exploração sexual: Confira as diretrizes completas.

O não cumprimento destes requisitos de devida diligência poderá resultar na perda da proteção do “porto seguro”. Sem esta imunidade legal, as plataformas poderiam ser responsabilizadas por conteúdos ilegais gerados pelos utilizadores, como se fossem os editores principais. Os utilizadores também enfrentam uma responsabilidade acrescida, uma vez que as plataformas são agora obrigadas a avisá-los de três em três meses sobre as consequências legais do abuso de ferramentas de IA.

(A história acima apareceu pela primeira vez em LatestLY em 11 de fevereiro de 2026 às 22h40 IST. Para mais notícias e atualizações sobre política, mundo, esportes, entretenimento e estilo de vida, acesse nosso site Latestly.com).



Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui