- 43% das organizações ainda não têm um plano para políticas de IA, segundo o relatório
- Neste momento, os trabalhadores estão a adotar a IA mais rapidamente do que as empresas estão a elaborar políticas
- Nexos.ai pede às PME que estabeleçam políticas básicas; eles podem evoluir a partir daí
Embora 70% dos trabalhadores jurídicos já utilizem IA de uso geral no trabalho, 43% das organizações dizem que ainda não têm uma política formal de IA (e não planeiam criar uma).
Uma nova pesquisa da Nexos.ai revelou que o maior risco associado às ferramentas de IA pode advir da falta de visibilidade e governança.
E as PME, em geral, são as que correm mais riscos por terem menos recursos, tanto em termos de colaboradores como de procedimentos.
O artigo continua abaixo
Na maioria das vezes a IA não é gerenciada
A Nexos.ai descobriu que os funcionários colavam regularmente contratos, NDAs ou correspondência jurídica em chatbots públicos para economizar tempo, colocando em risco informações confidenciais. Embora os produtos de IA de nível empresarial não tenham segurança máxima de dados e treinamento de dados do cliente, as versões públicas são menos rigorosas.
A segurança dos dados (46%) foi citada como a principal preocupação das equipas jurídicas, à frente das questões éticas (42%) e dos privilégios legais (39%), mas a forma como os funcionários interagem com os chatbots públicos não é consistente com a preocupação.
Nexos.ai também salienta que as PME já podem aproveitar os fluxos de IA sem os estabelecer e reconhecer formalmente, porque a adoção da IA é gradual e ingovernável, deixando às empresas a responsabilidade de governar a utilização correta e segura da IA depois de os funcionários começarem a utilizar as ferramentas.
“O risco para as pequenas e médias empresas não é o uso descuidado da IA, mas a mudança invisível no fluxo de trabalho”, escreveu Zilvinas Girenas, Diretor de Produto.
Mas não tem de ser difícil – o relatório explica que uma política básica de IA não tem de ser complexa. Definir ferramentas apoiadas, proibir casos de utilização e definir restrições sobre dados sensíveis poderia ser suficiente, ou pelo menos melhor do que os actuais cenários de governação.
No futuro, Nexos.ai sugere que as empresas comecem com uma política simples de IA para manter dados confidenciais fora de ferramentas não aprovadas. Antes que a IA se torne generalizada, o relatório apela às empresas para aprovarem as ferramentas antes que as equipas as possam adotar, mas uma vez implementada, Nexos.ai ainda recomenda a supervisão humana do conteúdo gerado pela IA antes de o utilizar em aplicações legais.
“Se essas ferramentas forem incorporadas antes que a empresa defina o uso aprovado, os limites de dados e as etapas de revisão, a eficiência será alcançada mais rapidamente que o governo”, concluiu Girenas.
Siga o TechRadar no Google Notícias e adicione-nos como sua fonte padrão para receber notícias, opiniões e opiniões de nossos especialistas em feeds. Certifique-se de clicar no botão Continuar!
E é claro que você também pode Siga o TechRadar no TikTok para receber novidades, análises, unboxings em formato de vídeo e receber atualizações constantes nossas WhatsApp também








