- O uso do GenAI SaaS triplicou, os volumes de convites aumentaram seis vezes em um ano
- Quase metade dos usuários depende de “Shadow AI” sem suporte, criando enormes lacunas de visibilidade
- As fugas de dados sensíveis duplicaram, com ameaças internas ligadas à utilização de aplicações pessoais na nuvem
A Inteligência Artificial Generativa (GenAI) pode ser ótima para a produtividade, mas traz sérias complicações de segurança e conformidade. Isso está de acordo com um novo relatório da Netskope, que afirma que à medida que aumenta o uso de GenAI no escritório, também aumentam os incidentes de violações de políticas.
Em seu Relatório de Nuvem e Ameaças: 2026, publicado no início desta semana, a Netskope disse que o uso de software como serviço (SaaS) GenAI entre empresas está “se expandindo rapidamente”, com o número de pessoas usando ferramentas como ChatGPT ou Gemini triplicando ao longo do ano.
Os usuários também passam significativamente mais tempo com as ferramentas; o número de perguntas que as pessoas enviam para os aplicativos também aumentou seis vezes nos últimos 12 meses, de 3.000 há um ano para mais de 18.000 alertas por mês hoje.
IA das sombras
Além disso, os 25% principais das organizações enviam mais de 70.000 convites por mês e o 1% superior envia mais de 1,4 milhão de convites por mês.
Mas muitas ferramentas e seus casos de uso não foram sancionados pelos departamentos e gerentes apropriados. Quase metade (47%) dos usuários do GenAI usam aplicativos pessoais de IA (chamados de “Shadow AI”) que não fornecem à organização visibilidade dos dados compartilhados e das ferramentas para ler esses arquivos.
Como resultado, o número de incidentes envolvendo utilizadores que enviam dados sensíveis para aplicações de IA duplicou no ano passado.
Agora, a organização média vê impressionantes 223 incidentes por mês. A Netscope também disse que os aplicativos pessoais são um “risco significativo de ameaça interna”, com 60% dos incidentes de ameaças internas envolvendo aplicativos pessoais baseados em nuvem.
Dados regulamentados, propriedade intelectual, código-fonte e credenciais são frequentemente enviados para instâncias de aplicativos pessoais, violando as políticas organizacionais.
“As organizações terão dificuldade em manter a governação de dados à medida que informações sensíveis fluem livremente para ecossistemas de IA não autorizados, resultando num aumento da exposição inadvertida de dados e riscos de conformidade”, conclui o relatório.
“Os invasores, por sua vez, explorarão esse ambiente fragmentado, aproveitando a IA para realizar inteligência hipereficiente e direcionar modelos proprietários e dados de treinamento para lançar ataques altamente personalizados”.
O melhor antivírus para cada orçamento
Siga o TechRadar no Google Notícias e adicione-nos como sua fonte padrão para receber notícias, opiniões e opiniões de nossos especialistas em feeds. Certifique-se de clicar no botão Continuar!
E é claro que você também pode Siga o TechRadar no TikTok para receber novidades, análises, unboxings em formato de vídeo e receber atualizações constantes nossas WhatsApp também









