Quando a IA entra na sala de aula, a medida do sucesso não é se os alunos a utilizam, mas se aprendem enquanto a utilizam, disse Elizabeth Kelly, que lidera a implementação eficaz na Anthropic. A abordagem de sua equipe na Índia, disse ela ao Hindustan Times no AI Impact Summit, é criar ferramentas que gerem perguntas em vez de respostas, exigindo que os alunos façam um trabalho cognitivo antes de qualquer feedback para a IA começar.
A ênfase é intencional, já que os próprios dados da Anthropic sugerem que, por padrão, o caminho é inverso. O relatório da empresa sobre a Índia, divulgado dias antes da cimeira, concluiu que os utilizadores indianos delegam mais autonomia de tomada de decisões à IA do que a média global, que um quinto da utilização do Claude indiano é para cursos e que os estudantes pedem respostas diretas ao modelo quase metade das vezes, ignorando o raciocínio que constrói a compreensão.
A empresa anunciou uma ferramenta construída com Pratham. A “Ferramenta de teste a qualquer momento” de Claude gera perguntas que correspondem ao currículo. Os alunos escrevem as respostas à mão, carregam-nas e recebem feedback que se adapta ao seu ritmo de aprendizagem. Atualmente, está sendo implementado para 1.500 alunos e planeja chegar a 100 escolas e 5.000 estudantes do sexo feminino até o final do ano por meio do programa Segunda Chance da Pratham.
A necessidade, diz Kelly, decorre da realidade subjacente na sala de aula. “Muitas vezes há turmas de 60 alunos em diferentes níveis. Os professores simplesmente não conseguem fornecer feedback em tempo real para todos os alunos ao mesmo tempo.”
Mas desenvolver uma ferramenta contra o comportamento do usuário não resolve o modelo mais amplo. O relatório nacional da Anthropic concluiu que o uso padrão da IA na educação indiana já se inclina para a delegação em vez da expansão — e esse padrão está a ser dimensionado num ambiente político onde o governo planeia integrar a IA no currículo a partir do terceiro ano.
Questionada sobre se a Anthropic está a desenvolver uma base de evidências para distinguir o envolvimento do impacto – um desafio levantado na cimeira pelos investigadores económicos da J-PAL, que alertaram para uma “armadilha do envolvimento” onde as altas taxas de utilização podem mascarar o fracasso na obtenção de resultados reais – Kelly disse que a sua equipa mede o sucesso pelo impacto, não pela implementação. “Não se trata apenas de quantas pessoas utilizam os nossos produtos. É onde vemos melhorias mensuráveis nos resultados educacionais e na saúde pública”, disse ela, acrescentando que a parceria é construída em torno de organizações que “realmente testam e iteram para melhorar o produto para aumentar o impacto”.
A equipe de Kelly também está investindo para que Claude trabalhe em línguas indianas – um pré-requisito para qualquer reivindicação de implantação lucrativa em grande escala. A Anthropic anunciou uma parceria com Karya, uma cooperativa de dados com sede em Bengaluru, para criar conjuntos de dados educacionais e avaliações nas áreas de saúde e agricultura para línguas indianas. “A menos que essas linguagens façam parte do conjunto de dados, funcionem bem para os modelos e reflitam o contexto local, não alcançaremos efetivamente nosso propósito como corporação de benefício público”, disse Kelly.










