Mais uma vez, a IA foi um dos maiores temas da agenda do Fórum Económico Mundial de 2026.
Só este ano, o tom foi visivelmente mais tenso: empresas e jornalistas perguntaram ansiosamente aos líderes da tecnologia profunda sobre segurança da IA, governação, tensão nas infra-estruturas, se a temida “bolha da IA” é realmente uma bolha e quando os investimentos começarão a dar frutos. Em outras palavras, os riscos nunca foram tão altos.
Vice-presidente de engenharia da ImprovávelAI.
Dos muitos líderes de IA que falaram em Davos, o CEO da Microsoft, Satya Nadella, foi quem esteve mais perto de acertar em cheio. Ele alertou que a IA evita tornar-se uma bolha se alcançar resultados reais e amplamente distribuídos, em vez de concentrar valor entre algumas empresas e economias.
A IA não fiável (especialmente questões alucinatórias) continua a aprofundar o défice de confiança empresarial, o que prejudica o impacto económico positivo.
Por que o debate atual sobre IA começa no lugar errado
Grande parte da conversa em Davos reflecte a realidade de que os principais sistemas de IA actuais – Large Language Models (LLMs) – estão actualmente a acumular capacidade, atenção e investimento.
A regulação, o planeamento de infra-estruturas e o modelo económico estão a ser construídos em torno desta realidade. Como resultado, as alucinações são tratadas como um perigo infeliz mas inevitável que precisa de ser divulgado ou mitigado.
Os LLMs são sistemas probabilísticos, o que significa que geram resultados ao prever o futuro com base em padrões estatísticos aprendidos a partir de grandes conjuntos de dados. Isso os torna linguisticamente ágeis e flexíveis, mas também os faz ter alucinações.
Quando um LLM dá uma resposta convincente, mas falsa, isso não é um erro, é o resultado de como foi concebido.
Em Davos, as alucinações foram frequentemente discutidas como questões de governação ou de segurança, mas são intrínsecas à abordagem probabilística.
Esta distinção é importante porque determina se as alucinações são tratadas como algo para trabalhar ou como um sinal de que podem ser necessários diferentes designs de sistemas para determinados casos de utilização.
Se as alucinações forem consideradas inevitáveis, as únicas respostas disponíveis serão avisos, negações, supervisão humana e barreiras de proteção cada vez mais complexas.
Assim, grande parte da conversa em Davos centrou-se na divulgação, transferência de riscos e regulamentação – todas necessárias, mas nenhuma capaz de transformar sistemas não fiáveis em infra-estruturas fiáveis.
Combinando flexibilidade e confiabilidade
Então, qual é a alternativa? Que os modelos probabilísticos não são a única forma de construir sistemas de IA. Muito antes de a IA criativa chamar a atenção do público, sistemas de raciocínio simbólico eram usados para codificar o conhecimento como regras, factos e restrições explícitas.
Esses sistemas não adivinham. Dada a mesma entrada, eles sempre produzem a mesma saída.
A maioria das pessoas interage com sistemas simbólicos todos os dias sem pensar; planilhas são apenas um exemplo. Quando uma planilha calcula um resultado, os usuários não se preocupam com a possibilidade de ter alucinações com uma resposta alternativa que “parece correta”. As empresas querem e precisam do mesmo determinismo que a IA.
A maioria dos softwares em uso hoje são sistemas simbólicos; eles não conseguem lidar bem com o processamento de linguagem natural, e é aí que os LLMs se destacam. Mas a escolha entre neural e simbólico não é binária.
Hoje, uma classe crescente de sistemas híbridos, conhecida como IA neurossimbólica, combina deliberadamente os pontos fortes de ambas as abordagens.
As redes neurais são usadas onde a flexibilidade é necessária, como na interpretação da linguagem ou na extração de informações de documentos, enquanto as camadas de raciocínio simbólico aplicam regras, restrições e lógica explícitas para determinar os resultados.
Fundamentalmente, isto significa que os resultados não são motivados apenas pela credibilidade estatística. Os sistemas neurosimbólicos podem rastrear como uma conclusão foi alcançada, produzir o mesmo resultado para a mesma entrada e indicar claramente quando uma pergunta não pode ser respondida com segurança.
Em ambientes onde as decisões precisam ser explicadas, auditadas e defendidas, estas propriedades são essenciais.
O custo de perder alternativas
Esse foco estreito tem consequências reais. Grande parte da ansiedade expressa em Davos decorre do confronto com os limites reais dos LLMs, sistemas que oferecem capacidades extraordinárias, mas desafios essenciais de fiabilidade.
Quando estas limitações se tornam aparentes, a confiança diminui, a supervisão humana torna-se obrigatória e os ganhos de produtividade tornam-se mais difíceis de obter.
Muitas organizações podem achar difícil dimensionar projetos-piloto, especialmente quando as equipes jurídicas e de conformidade levantam preocupações sobre resultados que não podem ser defendidos ou auditados de forma confiável.
Embora os resultados do ROI sejam mistos em toda a indústria, um desafio recorrente é que os sistemas que oferecem as capacidades mais impressionantes nunca foram concebidos para justificar as suas decisões.
As empresas em Davos tiveram razão ao perguntar como a IA deveria ser governada, regulamentada e integrada na economia global. Os sistemas neurossimbólicos oferecem soluções naturais para questões de adoção empresarial, onde os sistemas somente LLM apresentam novos riscos por meio de confiabilidade e explicabilidade.
Mas estas questões não podem ser respondidas de forma significativa sem expandir a conversa sobre o que realmente é a IA.
A maioria dos profissionais entende as limitações dos LLMs e já está discutindo estratégias de mitigação. Mas há uma diferença entre mitigar as limitações inerentes e escolher arquiteturas que as evitem para casos de uso específicos.
A questão não é se os LLMs devem ser abandonados, mas se os requisitos de confiabilidade que usamos com muita facilidade sugerem o contrário.
Se a IA vai impulsionar a economia em vez de impressioná-la em demonstrações, a fiabilidade está fora de questão. O projeto deve se tornar o padrão para ser auditável, executável e confiável desde o início.
Davos 2026 levantou algumas questões urgentes, e as respostas já existem em abordagens que combinam flexibilidade LLM com raciocínio determinístico.
Grande parte do debate ainda trata as alucinações como inevitáveis, em vez de reconhecer que são inerentes aos sistemas probabilísticos e que existem alternativas para casos de utilização onde a fiabilidade é mais importante.
IA confiável não é algo que estamos esperando para descobrir. Já existe na forma de IA neurossimbólica. Até que esta realidade se reflita na implantação generalizada, o fosso entre a ambição de Davos e aquilo em que as organizações podem confiar com segurança continuará a aumentar.
Apresentamos o melhor construtor de sites de IA.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes da indústria de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não necessariamente da TechRadarPro ou Future plc. Caso tenha interesse em participar, mais informações aqui:









