- A legislação da UE sobre IA exige explicação e responsabilidade pela IA
- Apenas 38% dos funcionários conseguem determinar com precisão quem é o responsável pelo seu negócio
- Mais da metade (59%) não tem certeza da rapidez com que podem desligar a IA em uma crise
Apesar da rápida adoção da IA, uma nova investigação da ISACA sugere que muitas empresas entrariam nela cegamente – mais de metade (59%) das empresas do Reino Unido nem sequer saberiam até que ponto poderiam impedir a IA numa crise.
Apenas um em cada cinco (21%) afirma sentir-se confiante de que um sistema de IA pode parar em 30 minutos, destacando grandes lacunas de segurança.
E não é apenas o seu encerramento que é um problema – metade (42%) também não diz que pode explicar uma falha da IA à liderança ou aos reguladores.
O artigo continua abaixo
As empresas estão cegas aos riscos da IA?
A ISACA explicou que as lacunas não estão apenas relacionadas com as operações comerciais e a reputação, mas também com o enquadramento jurídico. A legislação da UE em matéria de IA exige explicabilidade e responsabilização.
Parte do fracasso se deve a uma responsabilização pouco clara, com 20% dos funcionários não tendo certeza de quem é o responsável pelos bugs de IA. É uma fábrica que também contribui para a baixa visibilidade, com uma em cada três organizações não sendo obrigada a divulgar a utilização de IA no trabalho, o que a ISACA considera ser um pesadelo para os pontos cegos.
O relatório explica que as empresas estão actualmente a tratar esta questão como uma questão técnica, mas deveriam, em vez disso, concentrar-se nela como um desafio de governação organizacional. “A verdadeira redução da lacuna não pode ser alcançada apenas através de mudanças nos processos”, escreveu Chris Dimitriadis, Diretor Sênior de Estratégia Global. “Em vez disso, exigirá profissionais com experiência na avaliação rigorosa do risco de IA, fornecendo supervisão durante todo o seu ciclo de vida”.
Olhando para o futuro, pede-se às empresas que definam níveis mais elevados de responsabilização e comecem a implementar melhor visibilidade e auditoria. Além disso, devem também integrar a resposta a incidentes de IA nas suas estratégias e incluí-la nas suas posturas mais amplas de segurança cibernética.
Com apenas 38% dos entrevistados identificando um conselho ou diretor como responsável no caso de um incidente de IA, fica claro que é preciso fazer mais para disseminar informações e processos através dos funcionários.
Siga o TechRadar no Google Notícias e adicione-nos como sua fonte padrão para receber notícias, opiniões e opiniões de nossos especialistas em feeds. Certifique-se de clicar no botão Continuar!
E é claro que você também pode Siga o TechRadar no TikTok para receber notícias, análises, unboxings de vídeos e receber atualizações regulares nossas WhatsApp também








