Nova Delhi, 12 de fevereiro: O Google revelou que bloqueou uma grande campanha de “mineração de modelos” que visava roubar a lógica proprietária de seu sistema de inteligência artificial Gemini. De acordo com as descobertas do Google Threat Intelligence Group, os pesquisadores descobriram mais de 100.000 consultas maliciosas criadas para extrair os processos de pensamento internos dos modelos de IA.
O que é um ataque de extração de modelo?
Ao contrário dos ataques cibernéticos tradicionais que tentam violar redes seguras, a extração de modelos depende de pontos de acesso legítimos, como APIs públicas. Os invasores bombardeiam o sistema de IA com instruções especialmente projetadas, tentando forçá-lo a revelar seus caminhos de pensamento, ou seja, a lógica passo a passo por trás de suas respostas, e não apenas o resultado final. O Google emite um aviso de segurança urgente, pois o malware Arsink afeta mais de 45.000 usuários do Android em todo o mundo; Saiba mais sobre as etapas para proteger seus dados.
Ao coletar essas respostas detalhadas, os atores da ameaça podem treinar um modelo de estudante menor e mais barato que imita o comportamento de um sistema mais avançado como o Gemini. Este método permite que concorrentes ou entidades maliciosas repliquem capacidades de IA de ponta sem grandes investimentos em infraestrutura de pesquisa e poder computacional.
100.000 campanhas de emergência detectadas
O Google confirmou que seus sistemas de segurança identificaram e interromperam 100 mil campanhas imediatas em tempo real. Desde então, a empresa implementou salvaguardas adicionais para evitar técnicas de consulta automatizadas projetadas para clonar seus modelos limítrofes de IA. Título de 100 anos da Alphabet: Descubra por que a controladora do Google está emitindo um raro ‘título do século’ em 2026
O relatório também observa que, embora grupos avançados de ameaças persistentes utilizem IA generativa para roubo de identidade e desenvolvimento de malware, os esforços de extração de modelos estão frequentemente ligados a intervenientes do setor privado e investigadores independentes que procuram replicar lógica proprietária de IA.
Crescentes ameaças à segurança da IA
O incidente destaca uma mudança mais ampla na segurança cibernética. À medida que a inteligência artificial é integrada em ferramentas como e-mail e calendários, surgem novos riscos, como injeções imediatas e manipulação de dados. O Google já havia divulgado que Gemini enfrentou tentativas de injeção indireta de velocidade, onde instruções ocultas incorporadas em convites de calendário ou documentos tentam desencadear ações não autorizadas.
Em resposta, o Google DeepMind expandiu os exercícios automatizados de red teaming para identificar vulnerabilidades de forma proativa.
A mais recente avaliação de ameaças da Google sublinha uma realidade crescente: embora a inteligência artificial esteja a reforçar as defesas digitais, também se está a tornar um alvo principal para o roubo de propriedade intelectual e para tentativas de clonagem em grande escala.
(A história acima apareceu pela primeira vez em LatestLY em 12 de fevereiro de 2026 às 13h36 IST. Para mais notícias e atualizações sobre política, mundo, esportes, entretenimento e estilo de vida, acesse nosso site Latestly.com).








