A OpenAI reconheceu recentemente uma violação de segurança em um fornecedor terceirizado de análise de dados que expôs informações pessoais sobre seus usuários de API, incluindo endereços de e-mail, nomes e detalhes do navegador.
O incidente em si destaca os problemas em curso em torno da cadeia de abastecimento para abordar os riscos de exposição de dados de terceiros, mas, além disso, o incidente serve como um tiro potencial para a comunidade de segurança cibernética e para o público em geral.
Diretor de Inteligência de Ameaças do LastPass.
Um tesouro de dados
As empresas de IA são um tesouro de dados. Não apenas os dados sobre os quais os modelos são treinados ou mesmo a propriedade intelectual envolvida na tecnologia real, a IA pode ser vista como um repositório de grandes quantidades de dados fornecidos pelos clientes.
O artigo continua abaixo
Como vimos no final da década de 2010, os Estados-nação e outros actores de ameaças aumentaram a sua orientação para os CSPs para maximizar o retorno do investimento, e é apenas uma questão de tempo até vermos uma violação grave de uma empresa de IA e a concomitante exposição de dados pessoais e proprietários.
Os dados são muito convincentes e os atores da ameaça são muito capazes.
Isto não prejudica em nada os programas de segurança destas empresas; pelo contrário, não há dúvida de que, especialmente entre as empresas mais avançadas, que suscitariam o maior interesse entre os actores da ameaça, os programas de segurança são de classe mundial e possuem enormes recursos e operacionais, mas é um tema clássico que os defensores devem estar certos o tempo todo e os atacantes devem estar certos apenas uma vez.
Seguro por design
Para ser claro, isto não leva em conta os recentes problemas de segurança identificados pelo Moltbook nas últimas semanas depois de ter sido rapidamente reconhecido, incluindo grandes vulnerabilidades descobertas independentemente pela Wiz, abordadas no seu excelente post no blog, e destacadas por Jameson O’Reilly 404 Media.
Embora o Moltbook seja o foco destes relatórios recentes, as questões decorrentes do desenvolvimento seguro de ferramentas de IA – especialmente à medida que as capacidades e tecnologias proliferam – são muito maiores e mais preocupantes e merecem o seu próprio estudo.
Estas questões são destacadas na velocidade de implementação, numa dependência excessiva da codificação ao vivo e na falta de implementação fundamental do mantra “seguro desde a conceção”, o que está a criar problemas de segurança que os agentes de ameaças certamente explorarão. Mas, novamente, esse é outro assunto… voltando ao assunto em questão.
O que torna tão única uma violação em grande escala de uma grande empresa de IA é a variedade e a sensibilidade dos dados. Muitas empresas não percebem que alguns dos seus dados mais sensíveis podem ser partilhados através dos seus funcionários.
De acordo com um estudo da Harmonic no início deste ano, 45,4% dos dados sensíveis que a empresa envia para aplicações de IA vieram de contas pessoais, e a Varonis descobriu que 99% das organizações possuem dados sensíveis com ferramentas de IA, incluindo aplicações não aprovadas.
Combine esses dados com as informações pessoais que as pessoas compartilham com chatbots de IA, inclusive fazendo perguntas que foram posteriormente usadas em casos criminais e aproveitando a IA para saúde mental e discussões semelhantes a terapia.
O potencial de extorsão e chantagem também se torna uma preocupação, especialmente entre aqueles que podem sentir-se pressionados a consultar terapeutas ou reportar problemas de saúde mental, como os serviços de inteligência, os socorristas ou os militares.
As pessoas estão vendo os chatbots de IA como um lugar seguro para compartilhar seus pensamentos e perguntas, mantendo ao mesmo tempo uma sensação de anonimato, quando esse não é o caso, especialmente no longo prazo.
Implementando IA forte
Levanto essas preocupações não para ser um pessimista ou um Cassandra, mas para preparar a base maior de clientes de IA para o inevitável, para que possam tomar as medidas apropriadas antes que algo aconteça.
Isto significa analisar o apetite ao risco, seja ele pessoal, profissional ou organizacional, que estão dispostos a partilhar com a IA e armazená-lo permanentemente em servidores de terceiros que são vistos como alvos ricos. Isso significa que os usuários devem considerar quais dados confidenciais, se houver, eles se sentem confortáveis em compartilhar com uma organização externa.
Para empresas que costumam ter políticas de classificação de dados, isso é mais fácil. Para usuários pessoais, isso pode ser mais difícil. Uma vez concluída esta análise, significa tomar medidas para ajustar o comportamento, novamente pessoal ou organizacional, para corresponder a esse apetite pelo risco.
Isso pode significar desenvolver, implementar e (o mais importante) aplicar políticas fortes de uso de IA em sua empresa. Isso também significa pesquisar chatbots antes de aproveitar seu uso para fazer perguntas pessoais e/ou sensíveis às quais você talvez não queira ser exposto no caso de uma violação grave.
Grande oportunidade
A IA e o seu rápido desenvolvimento contínuo têm obviamente implicações surpreendentes e maravilhosas para empresas e indivíduos. Mas o fato de essas empresas serem alvos altamente valorizados para agentes de ameaças avançados significa que é quase certo que é apenas uma questão de tempo até que ocorra uma violação grave.
É melhor que os usuários considerem agora quais dados desejam evitar no caso de uma violação grave, parando de enviá-los.
Apresentamos o melhor software de criptografia.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes da indústria de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não necessariamente da TechRadarPro ou Future plc. Caso tenha interesse em participar, mais informações aqui:








