- A fraude assistida por IA cresceu exponencialmente, tornando as campanhas de phishing mais credíveis
- Ataques de identidade habilitados para Deepfake causaram mais de US$ 347 milhões em perdas em todo o mundo
- Crimeware de IA baseado em assinatura cria um mercado clandestino estável e crescente
A inteligência artificial é usada por cibercriminosos para automatizar fraudes, dimensionar campanhas de phishing e industrializar a representação em um nível nunca antes visto.
Infelizmente, os ataques assistidos por IA podem ser uma das maiores ameaças à segurança que a sua empresa enfrenta este ano, mas estar atento e tomar medidas imediatas pode colocá-lo um passo à frente.
O relatório sobre IA Armada do Grupo-IB aponta para o uso crescente de IA por criminosos como uma quinta onda distinta de crimes cibernéticos, impulsionada pela disponibilidade comercial de ferramentas de IA, em vez de experimentação isolada.
A ascensão da atividade do crime cibernético impulsionada pela IA
As evidências provenientes da monitorização da dark web mostram que a atividade do crime cibernético relacionada com a IA não é uma resposta de curto prazo às novas tecnologias.
O Group-IB relata que as primeiras postagens na dark web mencionando palavras-chave relacionadas à IA aumentaram 371% entre 2019 e 2025.
A aceleração mais notável seguiu-se ao lançamento público do ChatGPT no final de 2022, após o qual os níveis de juros permaneceram constantes.
Em 2025, milhares de discussões em fóruns todos os anos referiam-se ao uso indevido da IA, indicando um mercado clandestino estável em vez de curiosidade experimental.
Os analistas do Grupo-IB identificaram pelo menos 251 mensagens focadas especificamente na exploração de grandes modelos de linguagem, com a maioria das referências relacionadas a sistemas baseados em OpenAI.
Surgiu uma economia estruturada do crime de IA, com pelo menos três fornecedores oferecendo Dark LLMs auto-hospedados sem restrições de segurança.
Os preços das assinaturas variam de US$ 30 a US$ 200 por mês, com alguns vendedores reivindicando mais de 1.000 usuários.
Um dos segmentos que mais cresce são os serviços de identidade, com menções a ferramentas deepfake relacionadas à verificação de identidade ultrapassando 233% ano após ano.
Os kits básicos de identidade sintética são vendidos por US$ 5, enquanto as plataformas deepfake em tempo real custam entre US$ 1.000 e US$ 10.000.
O Grupo-IB registrou 8.065 tentativas de fraude habilitadas por deepfake em uma única organização entre janeiro e agosto de 2025, com perdas globais verificadas atingindo US$ 347 milhões.
O malware assistido por IA e o uso indevido de APIs cresceram exponencialmente, com o phishing baseado em IA agora incorporado como malware em plataformas de serviços e ferramentas de acesso remoto.
Os especialistas alertam que os ataques alimentados por IA podem contornar as defesas convencionais, a menos que as equipes monitorem e atualizem constantemente os sistemas.
As redes devem ser protegidas contra firewalls que possam identificar tráfego incomum e tentativas de phishing geradas por IA.
Com proteção adequada de endpoint, as empresas podem detectar atividades suspeitas antes que malware ou ferramentas de acesso remoto sejam implantadas.
A remoção rápida e adaptável de malware continua crítica, pois os ataques habilitados para IA podem ser executados e propagados mais rapidamente do que os métodos padrão podem responder.
Juntamente com uma abordagem de segurança em camadas e detecção de anomalias, essas medidas ajudam a impedir intrusões, como chamadas falsas, clones de voz e tentativas falsas de login.
Siga o TechRadar no Google Notícias e adicione-nos como sua fonte padrão para receber notícias, opiniões e opiniões de nossos especialistas em feeds. Certifique-se de clicar no botão Continuar!
E é claro que você também pode Siga o TechRadar no TikTok para receber notícias, análises, unboxings de vídeos e receber atualizações regulares nossas WhatsApp também







