A implantação de agentes autônomos de IA cria enormes oportunidades para as organizações.
Contudo, sem a base e a visão corretas, os riscos são elevados quando não há forma de garantir que os intervenientes tomarão decisões corretas e fiáveis.
O artigo continua abaixo
Líder global de prática de IA na Informatica na Salesforce.
Quando a qualidade dos dados é ruim, um agente tomará decisões erradas e não haverá ninguém por perto para identificar e corrigir o erro.
A boa notícia é que existem estratégias de dados que podem mitigar os riscos.
Agentes do Caos
Em um sistema tradicional de aprendizado de máquina (ML) que usa automação, problemas de dados podem reduzir a precisão. Mas num ecossistema agente, as ações de um agente podem ter efeitos catastróficos a jusante.
Na pior das hipóteses, um agente malicioso pode criar uma cascata de dados onde um erro desencadeia uma reação em cadeia de erros, armazenados, tratados como verdadeiros e depois reutilizados.
Em grandes organizações, estas falhas podem não parecer dramáticas à primeira vista. Tudo parece normal.
Até que alguém perceba que o sistema está operando no quadro errado há semanas. A essa altura, já é tarde demais e outros atores estão agindo com base em seus erros a montante.
Uma mentira sussurrada no sistema torna-se um comando gritado do outro lado.
A qualidade dos dados é necessária, mas não suficiente. As partes interessadas precisam de dados de decisão de qualidade para mitigar o risco de resultados insatisfatórios
Dados versus realidade
Dada a minha função como líder de dados de IA trabalhando com empresas globais, estive pensando em um grande problema de dados em uma recente viagem a Londres. Quando parei para comer um famoso prato britânico e pedi batatas fritas, tive certeza de que não me serviriam um prato de silicone.
Dados os dados recolhidos sobre a minha situação e contexto pessoal – sentado num restaurante na capital do Reino Unido – estava confiante de que o empregado me traria algumas batatas cozidas servidas com peixe, e não algumas CPUs. A análise de dados locais me disse que tipo de comida esperar. Se eu tivesse feito um julgamento errado e coletado ou interpretado os dados incorretamente, teria sido um jantar decepcionante.
Um supermercado da Nova Zelândia forneceu recentemente outra ilustração brilhante e hilariante do desafio de interpretar dados sem as peças certas. Ele criou um criador de receitas de IA para ajudar os clientes a usar suas sobras, convidando as pessoas a digitar os ingredientes que têm em mãos e fazer com que o bot crie receitas.
Inevitavelmente, as pessoas começaram a pedir pratos com água sanitária, formigas e outros ingredientes perigosos, então a IA começou a apresentar sugestões que pareciam legais, como sanduíches de cola e torradas com sopa de metanol.
Os ingredientes estavam completos e as instruções corretas, mas a IA só entendia a estrutura de uma receita, não o propósito ou intenção de usar os ingredientes para fazer alimentos nutritivos.
Agora imagine se essa IA fosse um agente e, por exemplo, instruísse uma montadora de alimentos a criar receitas e caixas de ingredientes para enviar aos clientes. A história acima foi engraçada – não é um pesadelo com veneno sendo enviado aos clientes.
Uma fonte de verdade para agentes
Essa história é uma lição clara. A menos que as organizações tenham estabelecido uma base fiável para os seus dados, o salto para a IA do agente é extremamente arriscado. Isso não aparece magicamente quando os agentes são implantados; vem da governança, dos metadados, da linhagem e da compreensão, não apenas do que os dados dizem, mas de onde vêm e por que existem.
E como deveriam ser esses dados? Deve ser oficial e confiável, bem como abrangente e atualizado, para informar decisões oportunas e completas. Deve também ser responsável – o que significa que os intervenientes podem agir com segurança – e deve ser seguro para evitar a utilização indevida.
Finalmente, deve ser considerado em todos os contextos. É o molho secreto que une todos esses aspectos do bom gerenciamento de dados.
Decisões de big data
À medida que implementam ferramentas de IA autónomas, as organizações estão a descobrir que a precisão por si só não é suficiente. Os sistemas agênicos não apenas preveem, eles agem e combinam essas ações. Isto significa que a falta de contexto é muito mais perigosa do que nas gerações anteriores de IA.
As organizações bem-sucedidas tratarão a governação, os metadados e a linhagem não como requisitos irritantes para as suas equipas de conformidade, mas como uma base sólida para as suas partes interessadas. Quando os dados se desviam da verdade, esse movimento não para; fica pior. Construir uma forte “camada de verdade” ajudará a impedir isso e evitará que o sistema entre em colapso no futuro.
Muitas equipes de gerenciamento de TI não saberão onde está essa camada. Talvez apontem vagamente para um armazém. Mas eles precisam saber onde pode ser encontrada a verdade na qual seus agentes confiam, porque se ela não estiver lá, todo o resto estará em perigo.
No momento, parece um problema relativamente pequeno. Mas à medida que os agentes assumem papéis cada vez mais críticos, este irá tornar-se maior; portanto, acertar o básico hoje não é apenas uma decisão sábia, mas também uma proteção inevitável contra o caos futuro.
Confira as melhores ferramentas de migração de dados aqui.







