Ao longo dos anos, o progresso da IA tem sido medido em escala: modelos maiores, conjuntos de dados maiores, janelas contextuais mais longas. Cada novo avanço promete que, se alimentarmos o sistema com mais dados, obteremos insights mais precisos.
No entanto, pelo menos fora do treinamento, essa suposição está enfrentando problemas. Como os modelos absorvem prompts mais longos, eles costumam ser mais confiáveis. O modelo é mais provável, o que aumenta a probabilidade de atingir a coisa errada.
Os pesquisadores chamam isso de decadência de contexto: à medida que um sistema de IA processa mais informações, detalhes irrelevantes sobrecarregam sua memória de trabalho. O resultado pode ser respostas imprecisas, custos mais elevados e uma perda gradual de confiança.
Um experimento recente da Microsoft para criar um “Magentic Marketplace” liderado por IA demonstrou como a IA pode falhar aqui. Ece Kamar, diretor administrativo do laboratório, explicou: “Estamos vendo que os modelos atuais estão realmente ficando sobrecarregados por terem muitas opções”.
Como o contexto decai
A maior parte dos dados da empresa reside em documentos: PDFs, relatórios e arquivos internos divididos em pedaços para criar recuperação aumentada (RAG). Quando um usuário faz uma pergunta, o sistema recupera passagens semanticamente semelhantes e as envia para o modelo de linguagem grande (LLM) como contexto.
A questão é que semelhança não é igual a relevância. Uma parte pode parecer corresponder, mas faltam definições importantes ou exceções. Sem contexto adicional, uma parte pode ser apenas ruído.
A IA acaba manipulando muitas informações sem entender quais partes realmente importam e quais geram mais ruído no sistema.
A solução não é inserir mais texto, mas encontrar um texto que seja mais relevante para a questão comercial em questão. Isto significa fornecer uma camada de conhecimento que reflita como o mundo da IA realmente funciona, como uma rede de entidades e relacionamentos, e não como pontos de dados desconectados.
Pense em conexões, não em documentos
O homem não raciocina em documentos, mas em relacionamentos. Um gráfico de conhecimento captura explicitamente essas conexões: pessoas, lugares, produtos e as conexões entre eles.
Quando os dados são armazenados e pesquisados como um gráfico, a recuperação passa da “correspondência mais próxima” para a “resposta melhor aceita”. Um assistente jurídico pode, por exemplo, perguntar sobre uma cláusula contratual.
Uma pesquisa por palavra-chave ou vetor pode retornar uma cláusula que parece relevante, enquanto um sistema baseado em gráfico entende a cláusula como pertencente a uma definição mais ampla e recupera todas as partes relacionadas. A resposta é mais completa e contextualizada, e isso evita o problema de tentar conectar informações em partes díspares.
O resultado final é que o modelo precisa de muito menos tokens para gerar uma resposta relevante.
Por que os gráficos geram confiança
A transparência é outra grande vantagem dos gráficos. Os embeddings vetoriais, o processo matemático que a IA usa para combinar palavras semelhantes, são poderosos para máquinas, mas completamente ilegíveis para humanos.
Por outro lado, um gráfico é fácil de ver e entender. O sistema registra a cadeia exata de eventos usados para chegar a uma conclusão, juntamente com as fontes e permissões envolvidas. Pode ser visto de uma forma que faça sentido para os humanos.
Essa rastreabilidade é essencial em ambientes regulamentados. É muito mais fácil justificar uma decisão quando você pode mostrar o caminho através dos dados e por que a decisão foi tomada, em vez de apontar para um monte de números opacos. A governança e a explicabilidade integradas tornam a IA baseada em gráficos pronta para uso empresarial e confiável.
Não espere pelo GPT-6
Alguns líderes questionam-se por que razão precisam de se preocupar com o contexto quando os modelos futuros serão inteligentes. É verdade que os grandes modelos linguísticos estão a melhorar rapidamente. Mas não importa o quão qualificados eles sejam, eles nunca serão treinados com base nos dados privados da sua empresa.
Um modelo básico também funciona como um mecanismo de busca, com capacidades avançadas de raciocínio, mas sem índice das informações da sua empresa. Pode gerar respostas, mas sem alimentá-lo com o contexto certo, não pode saber quais partes do seu conhecimento são confiáveis, atualizadas ou mais relevantes para a questão.
Mesmo quando os LLMs atingirem dois dígitos, eles precisarão de uma forma estruturada e segura de acessar o que é exclusivo de uma empresa.
Portanto, o gargalo para a adoção da IA está mudando do poder computacional para a organização de dados. A questão chave não é mais “Qual modelo devo usar?” “Quão bem organizado é o meu conhecimento?”
Gráficos mais fáceis de usar
Os bancos de dados gráficos já tiveram a reputação de serem difíceis de aprender. Isso era verdade há uma década, quando as equipes tiveram que inventar seus esquemas do zero. Ambas as mudanças os tornaram muito mais acessíveis.
Primeiro, Graph Query Language (GQL) é agora um padrão ISO internacional. É a primeira nova linguagem de banco de dados a ser padronizada desde o SQL, décadas atrás. GQL fornece aos engenheiros uma linguagem declarativa compartilhada para trabalhar com dados gráficos que complementa o SQL em vez de competir com ele.
A padronização melhora a interoperabilidade, leva a uma documentação mais clara e a um conjunto de habilidades bem definido para fins de aquisição.
Em segundo lugar, graças à IA, as plataformas gráficas modernas automatizam agora trabalhos que anteriormente exigiam conhecimentos especializados. Modelagem assistida, modelos de domínio e pesquisa híbrida, que combinam perfeitamente consultas vetoriais e gráficas, agora são alimentados por IA e acelerados por agente.
A mudança é um passo para tornar a tecnologia mais fácil de usar e implantar. As equipes gastam menos tempo criando estruturas de dados manualmente e mais tempo fazendo perguntas reais de negócios.
Vantagem da camada de conhecimento
As organizações inteligentes estão percebendo que os resultados mais poderosos da IA vêm da combinação de modelos poderosos com conhecimento bem organizado, conectado e contextual. O modelo é o motor do raciocínio; o gráfico é a estrutura que sustenta os fatos relevantes.
Quando a recuperação é impulsionada por conexões, produz contexto de maior qualidade e melhores resultados. Os LLMs podem se esforçar menos para preencher as lacunas e mais para fornecer um raciocínio detalhado e explicável. As respostas são melhoradas, a latência é reduzida e os custos são reduzidos. Mais importante ainda, os usuários começam a confiar nas respostas.
Estamos passando de uma era definida pela computação bruta para uma era definida pelo contexto organizado. Perguntas mais longas e padrões maiores serão importantes, mas a estrutura, a clareza e a conexão serão mais importantes.
Se você deseja uma IA consistente, rápida e confiável, o caminho a seguir não é “maior”. Está melhor organizado.
Apresentamos o melhor construtor de sites de IA.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes da indústria de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não necessariamente da TechRadarPro ou Future plc. Caso tenha interesse em participar, mais informações aqui:






