NOVA DELI: A inteligência artificial geral (AGI) pode estar no horizonte dentro de cinco a dez anos, mas os sistemas de inteligência artificial atuais continuam sendo uma “inteligência dentada” que se destaca em algumas tarefas e é extremamente ruim em outras, disse o CEO do Google DeepMind, Demis Hassabis, um dos principais especialistas na área, em eventos separados em Nova Delhi na quarta-feira.
“Estamos à beira da AGI – inteligência artificial geral – no horizonte”, disse Hassabis durante uma palestra de pesquisa no India AI Impact Summit. Ele definiu AGI como um sistema que pode “expor todas as habilidades cognitivas que um ser humano pode ter, incluindo criatividade, planejamento de longo prazo, etc”.
Mas para conseguir isso, será necessário colmatar lacunas fundamentais nos sistemas actuais. Identificou três pontos fracos críticos: a incapacidade de aprender continuamente após a implantação, a falta de um planeamento coerente a longo prazo e, acima de tudo, a inconsistência persistente, que chamou de o maior obstáculo.
“Os sistemas de hoje são como engrenagens. Eles são muito bons em certas coisas, mas são muito, muito ruins em outras coisas, incluindo às vezes a mesma coisa”, disse ele. Os modelos atuais podem ganhar medalhas de ouro na Olimpíada Internacional de Matemática, “mas às vezes eles ainda podem errar na matemática básica se você fizer a pergunta de uma determinada maneira”.
Leia também | A inteligência artificial geral pode existir apenas em 5 a 7 anos: Demis Hassabis
Hassabis – um neurocientista treinado que estudou o hipocampo do cérebro antes de cofundar a DeepMind – disse que uma lição da era da IA é o quão notavelmente eficiente o cérebro humano é. Os sistemas modernos de IA devem consumir toda a Internet para construir uma compreensão do mundo; o cérebro não. “Agora vejo quão eficientemente o cérebro coleta amostras.
Você não precisa usar toda a Internet para descobrir as coisas”, disse ele. Ele reconheceu que o que os pesquisadores criaram usa alguns dos mesmos princípios da inteligência biológica, mas “foi encontrado em um tipo de sistema muito diferente do que provavelmente funciona o cérebro”.
Leia também: ‘Sim, é inteligência artificial’: Macron compartilha ‘foto’ com PM Modi com nota de amizade
Para testar se o sistema atingiu de facto o AGI, Hassabis propôs uma ambiciosa experiência mental: treinar um modelo com o limite de conhecimento de 1911 e ver se consegue chegar sozinho à relatividade geral, como fez Einstein em 1915. Isto, diz ele, exigirá o mais alto nível de criatividade científica – a capacidade não só de resolver um problema, mas também de identificar a questão certa. “É muito mais difícil fazer a pergunta certa e a hipótese certa do que desvendar a hipótese”, disse ele. “Acho que os sistemas atuais claramente não serão capazes de fazer isso.” Hassabis fez seus comentários durante duas palestras na cúpula – uma sessão de abertura moderada por Balaraman Ravindran do IIT Madras e um painel de discussão apresentando o CEO da Alphabet, Sundar Pichai, e o vice-presidente sênior de pesquisa, laboratórios, tecnologia e sociedade, James Manyick.
No painel, Pichai descreveu o período atual como um ponto de inflexão que ocorre uma vez a cada geração, chamando a IA de “a maior mudança de plataforma de nossa vida”. Ele disse que a Índia está “em uma posição única” para se beneficiar, citando seu talento e sua infraestrutura pública digital.
Leia também: Moscou diz que não há razão para acreditar que a Índia tenha parado de importar petróleo russo
No caminho técnico para a AGI, Hassabis propôs uma abordagem híbrida. Ele disse que o avanço virá da combinação de ideias introduzidas no DeepMind no AlphaGo – técnicas como a busca em árvore de Monte Carlo que permitem ao sistema pensar no futuro simulando possíveis movimentos futuros – com o amplo conhecimento do mundo já codificado nos grandes modelos de base atuais, como o Gemini do Google.
“Naturalmente, precisamos combinar as ideias que tivemos com o AlphaGo com os modelos subjacentes de hoje”, disse ele, reconhecendo que a tarefa é mais difícil do que nos jogos – o AlphaGo é o primeiro programa de computador a vencer um jogador humano no Go – porque “você não tem um modelo perfeito do mundo como uma matriz de transição trivial nos jogos”.
Na prática, argumentou Hassabis, um sistema que aprende tudo do zero usando apenas aprendizado por reforço – como o AlphaZero da DeepMind fez uma vez para o xadrez e pronto – não é o caminho mais rápido para AGI. É muito mais eficiente, diz ele, começar com modelos básicos que já absorveram vastos estoques de conhecimento humano como uma espécie de modelo funcional do mundo, e depois sobrepor-lhes a aprendizagem por reforço e o planejamento. “Modelos básicos como o Gemini serão uma parte importante da solução AGI final, e então teremos muito aprendizado de reforço interessante”, disse ele. Ao mesmo tempo que delineava este potencial, Khasabis apelou à vigilância. Ele citou a biossegurança e a cibersegurança como os riscos mais prementes a curto prazo e disse que à medida que os sistemas de IA se tornam mais autónomos, o mundo necessitará de um conjunto mínimo de normas acordadas internacionalmente para os governar. Estes esforços, advertiu ele, exigirão diplomacia constante.
“Existe um desafio social que exigirá diálogo internacional e, idealmente, um conjunto mínimo de normas acordadas internacionalmente.”
A sua mensagem final traçou a linha mais nítida entre o técnico e o político. Hassabis disse estar confiante de que os pesquisadores acabarão por controlar os riscos técnicos da IA avançada. Mas a construção do consenso global necessário para gerir as suas consequências sociais, alertou, pode revelar-se um desafio maior. “Acredito na engenhosidade humana e penso que resolveremos os riscos técnicos com tempo e inteligência suficientes. Mas precisamos de o fazer a nível internacional, e os desafios sociais envolvidos podem na verdade ser um problema mais difícil do que os técnicos”, disse ele.
“Grandes modelos de linguagem carecem de compreensão real”
Grandes modelos de linguagem (LLMs) são um beco sem saída para a inteligência de nível humano, disse Yann LeCun, ex-cientista-chefe da Meta e pioneiro em aprendizado profundo, no India AI Impact Summit na quarta-feira, oferecendo uma visão que contrasta fortemente com a de Hassabis.
LeCun, que deixou a Meta no ano passado para lançar uma startup chamada Advanced Machine Intelligence Labs, disse que a indústria precisa retornar aos “modelos mundiais” – sistemas que criam simulações da realidade usando física, dados sensoriais e propriedades espaciais. “Se quisermos que os sistemas de IA compreendam o mundo real e se aproximem da inteligência de nível humano – não apenas na linguagem, na codificação ou na matemática, mas em tudo – precisamos de sistemas que realmente compreendam o mundo a um nível intuitivo, como os bebés que aprendem como o mundo funciona”, disse ele.
Ele rejeitou o próprio termo AGI. “Não temos nenhuma inteligência geral. Os humanos são extremamente especializados… Nós nos consideramos gerais porque só podemos imaginar problemas que nós mesmos podemos compreender.” Os mestres de hoje, argumentou ele, retêm um vasto conhecimento, mas carecem de uma verdadeira compreensão. “Os sistemas de agentes não podem existir sem prever as consequências das ações, e os LLMs não podem fazer isso. É por isso que precisamos de modelos mundiais. Não vejo alternativa.”









