Organizações de todos os setores estão investindo em IA de agência para obter ganhos de produtividade e eficiência. Na verdade, um estudo recente da PWC descobriu que 79% das empresas utilizam agentes de IA em pelo menos uma função empresarial.
Rachaduras na base
Agentic AI funciona criando agentes que coletam informações sobre seu ambiente. Esses agentes contam com Interfaces de Programação de Aplicativos (APIs) para acessar dados e tomar decisões.
O problema é que, à medida que as organizações aceleram cada vez mais as suas ambições de IA, o número de ligações aumenta. Se não for gerenciada com cuidado, cada nova conexão cria potenciais pontos cegos de segurança.
Isto representa um risco significativo, uma vez que as APIs se tornaram um importante ponto de entrada para ataques cibernéticos, causando mais de 40.000 incidentes de segurança em apenas seis meses no ano passado.
Quando os controles de segurança da API falham, as consequências podem ser imediatas e generalizadas. Os invasores podem explorar endpoints de API expostos para obter acesso a milhões de registros de usuários, que são então negociados e reutilizados em todo o ecossistema cibercriminoso, destacando as armadilhas quando medidas robustas de segurança de API não estão em vigor.
Você não pode ter certeza do que não pode ver
Embora a IA do agente ofereça ganhos significativos de produtividade, ela também aumenta os riscos de segurança das APIs. A implantação de IA de agência sem governança e supervisão central leva à “IA sombria” e cria pontos cegos adicionais.
A falta de visibilidade e controle rapidamente se torna uma vulnerabilidade de segurança, pois agentes autônomos podem usar APIs para acessar dados confidenciais e executar fluxos de trabalho sem supervisão humana. Por exemplo, um agente de IA que processa pedidos de clientes pode compartilhar inadvertidamente dados financeiros ou de RH externamente se seu acesso não for devidamente restrito.
Quaisquer consequências não intencionais podem sair do controle muito mais rápido do que os humanos conseguem responder, deixando as equipes de segurança lutando para juntar os cacos.
Infelizmente, os incidentes de IA sombra estão a tornar-se mais comuns, com um relatório recente revelando que 71% dos trabalhadores do Reino Unido usaram ferramentas de IA de consumo não aprovadas no trabalho, como assistentes de chatbot.
Além da IA sombra, a infraestrutura em que os agentes dependem também pode criar lacunas de segurança. ‘APIs zumbis’; As conexões que deveriam ter sido desativadas, mas ainda estão disponíveis e não são mantidas ativamente, podem ser exploradas por cibercriminosos por meio de agentes de IA.
Os invasores podem propagar entradas maliciosas em avisos para agentes que podem infectar sistemas. À medida que as empresas evoluem e os conjuntos de dados mudam, os agentes indocumentados podem expor informações confidenciais e expandir as superfícies de ataque sem que ninguém perceba, tornando-os alvos principais.
Fechando a porta dos fundos
Para garantir que as implantações de agentes de IA não aumentem os riscos de segurança, as empresas precisam de políticas fortes e de uma base tecnológica sólida. No centro disso está um data center centralizado que atua como uma única fonte de verdade.
Isso dá aos agentes de IA acesso fácil a dados aprovados usados com frequência, ao mesmo tempo que reduz o risco de conexão com informações confidenciais ou não verificadas.
Os próprios agentes de IA devem ser geridos como funcionários humanos: devem apenas ter acesso às informações de que necessitam para desempenhar a sua função, geridos adequadamente e receber orientações sobre políticas empresariais. Também exigem revisões e verificações regulares, quase como uma função de RH, para garantir que continuam a operar de forma segura e ética.
Uma plataforma centralizada de gerenciamento de IA dá às organizações visibilidade e controle sobre todos os agentes ao longo de seu ciclo de vida, reduzindo o risco de APIs “zumbis” e mantendo total visibilidade.
Isto é especialmente importante à medida que as regulamentações se tornam mais rigorosas, exigindo que as empresas demonstrem um histórico completo de implantação de IA do agente, até cada conjunto de dados que um agente acessou para executar uma tarefa.
Com uma forte governação e supervisão de como a IA dos agentes é implementada, as empresas podem exigir com segurança as suas ambições e tirar partido dos ganhos de produtividade.
Preparando-se para o futuro do agente
À medida que os agentes se tornam mais difundidos nas empresas, a segurança da API e o gerenciamento da IA nunca foram tão críticos. Sem uma governação e supervisão fortes, os sistemas autónomos podem criar riscos de segurança a uma velocidade e escala maiores do que as organizações conseguem acompanhar.
No entanto, ao implementar práticas de segurança sólidas, as organizações podem reduzir estes riscos e desbloquear a promessa de hiperprodutividade da IA. Aqueles que o fizerem estarão em melhor posição para aproveitar o potencial transformador desta tecnologia em rápida evolução e transformá-la de casos de utilização simples em algo revolucionário.
Apresentamos o melhor curso online de segurança cibernética.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes da indústria de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não necessariamente da TechRadarPro ou Future plc. Caso tenha interesse em participar, mais informações aqui:









