A IA tornou-se inevitável. O que antes era uma área de nicho de pesquisa agora está totalmente integrado à vida pessoal e profissional da pessoa comum. Portanto, a pergunta para os líderes empresariais é: “Meus funcionários estão usando IA?” (gostem ou não), “meus funcionários estão usando IA com segurança?”
Pesquisador principal de segurança cibernética da CultureAI.
Claramente, os funcionários e, por sua vez, os empregadores estão a ver o potencial da utilização da IA para ganhar produtividade. Um ponto positivo atraente para equipes com tempo e recursos limitados.
Grande parte desta mudança está sendo empurrada de baixo para cima. A pesquisa sugere que 78% dos usuários de IA já estão trazendo suas próprias ferramentas de IA para o trabalho. No entanto, essas ferramentas são frequentemente utilizadas no local de trabalho sem o conhecimento ou supervisão da empresa.
Essas ferramentas de IA não documentadas – ou IA sombra – executadas em redes corporativas ou usando dados da empresa podem representar riscos de segurança significativos.
O que está claro é que os trabalhadores continuarão a utilizar a IA sem esperar que os empregadores mantenham licenças, orientações claras e medidas de segurança. Felizmente, existem formas de os empregadores implementarem rapidamente uma governação eficaz da IA e controlos de utilização sem sufocar a inovação.
Visibilidade da IA (ou falta dela)
Provavelmente, seus funcionários estão usando IA de uma forma ou de outra. O perigo é não saber onde ou como e com que ferramenta. A pesquisa sugere que quase metade (47%) dos usuários GenAI ainda acessam ferramentas por meio de contas pessoais não gerenciadas, seja exclusivamente ou em conjunto com ferramentas aprovadas pela empresa.
Ao contrário do software tradicional, a IA de criação depende da entrada de dados. Junto com isso, existe o risco de incluir informações confidenciais, dados pessoais, avisos de IP ou código-fonte. Sem visibilidade, os empregadores enfrentam um ponto cego cada vez maior.
Compreender os riscos associados ao uso de IA no local de trabalho
Com a adoção de qualquer nova tecnologia vem o risco. Com a adoção da IA no local de trabalho, são eles:
IA sombria
Os funcionários estão cada vez mais experimentando novas ferramentas de IA no trabalho, muitas vezes porque são gratuitas, mais rápidas ou mais convenientes do que as alternativas aceitas. Embora isso possa melhorar a eficiência, o uso de aplicativos de IA não autorizados (IA sombra) expande significativamente a superfície de ataque e deixa as equipes de segurança sem visibilidade ou supervisão suficiente.
Os dados inseridos nessas ferramentas são preocupantes. Uma pesquisa recente sugere que 93% dos funcionários inserem dados da empresa em ferramentas de IA não autorizadas, com quase um terço deles admitindo compartilhar informações confidenciais de clientes.
Isto significa que a propriedade intelectual, as informações regulamentadas e os dados pessoais estão a ser processados por terceiros desconhecidos. O que eles fazem com essa informação é desconhecido.
É preocupante que muitas ferramentas de monitorização tradicionais tenham dificuldade em detetar envios que contenham dados sensíveis, especialmente quando as ferramentas de IA são acedidas através de contas não geridas ou dispositivos pessoais.
Vazamento de dados
Os funcionários tendem a inserir informações confidenciais nas ferramentas de IA, muitas vezes sem compreender totalmente os riscos. Em 2023, os engenheiros da Samsung expuseram inadvertidamente códigos proprietários e notas confidenciais de reuniões, enviando-os para o ChatGPT, colocando os dados fora do controle da empresa.
Desde então, incidentes semelhantes surgiram em todos os setores, revelando a quantidade de informação sensível que está a vazar silenciosamente para sistemas de IA de terceiros. Depois de enviados, as organizações geralmente têm capacidade limitada de remover ou controlar completamente como esses dados são armazenados ou usados.
Contas e violações imediatas
Chats de IA vazados ou alertas comprometidos podem dar aos agentes de ameaças acesso a muitas informações confidenciais e, em alguns casos, colocar mais contas em risco se os controles mais amplos de segurança cibernética forem fracos.
Dado o volume e a sensibilidade dos dados que muitas vezes vão para as ferramentas de IA, uma única conta de IA comprometida pode expor imediatamente informações privadas da empresa, incluindo credenciais, propriedade intelectual e sistemas internos.
Lacunas na conformidade e governança
À medida que a adoção da IA acelera, os reguladores examinam cada vez mais a forma como as organizações utilizam a IA, especialmente onde esta se cruza com a proteção de dados. O envio de informações de identificação pessoal (PII) para serviços de IA externos ou não controlados pode violar regulamentações como GDPR, HIPAA e requisitos de privacidade específicos do setor.
Em setores altamente regulamentados, como finanças, defesa e saúde, até mesmo um único uso não autorizado de uma ferramenta externa de IA pode criar uma exposição jurídica e de conformidade significativa.
O futuro da IA no local de trabalho
Embora a explosão da IA no local de trabalho possa parecer rápida, ela reflecte a mesma adopção “de baixo para cima” de tecnologias que veio antes dela.
A diferença entre o uso da IA e outras “novas” tecnologias é que a IA consome dados corporativos em grande escala em cada interação, o que aumenta drasticamente o risco de vazamentos, violações e problemas de conformidade. A solução não é bloquear totalmente a IA.
Os funcionários encontrarão soluções alternativas, como usar telefones pessoais para acessar dados da empresa, especialmente se considerarem essas ferramentas valiosas para sua eficiência. As equipes de segurança devem criar estratégias de segurança e TI que incluam controles de uso de IA, descoberta de IA sombra e análises de uso abrangentes.
Esses pilares são os principais impulsionadores da inovação responsável.
Pode levar algum tempo para que as regulamentações se atualizem, mas é imperativo que as organizações não esperem. Afinal, seus funcionários estão usando IA – gostem ou não – então agir agora irá ajudá-lo a entender e controlar “como” e “onde”, tornando o uso da IA mais seguro sem sufocar a inovação.
Apresentamos o melhor chatbot de IA para negócios.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes da indústria de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não necessariamente da TechRadarPro ou Future plc. Caso tenha interesse em participar, mais informações aqui:







