Os alunos que não querem ser vistos usando IA para escrever redações universitárias estão recorrendo a uma estratégia contra-intuitiva para obter boas notas: escrever com atenção, mas mal.
Em uma postagem no fórum Reddit r/teacher, Dr. Sam Illingworth, professor da Universidade Napier de Edimburgo, na Escócia, disse ter notado uma tendência preocupante em seus alunos.
De acordo com Illingworth, seus alunos incluíram intencionalmente palavras com erros ortográficos e gramática inadequada para garantir que os mecanismos de detecção não sinalizassem seu trabalho como IA.
“Algumas pessoas estão trabalhando (escrito por um humano) por meio da ferramenta ‘humanizador de IA’ apenas para evitar falsos positivos”, escreveu Illingworth em seu post.
“Criamos um sistema que trata a escrita competente como questionável.”
‘As apostas são muito altas’
na postagem do blog em anexo. Illingworth observou que muitos alunos foram disciplinados injustamente. Tudo isso tem um impacto significativo em seus estudos.
Illingworth aponta para um estudo de 2023 sobre 14 sistemas diferentes de detecção de IA conduzido por uma equipe internacional de pesquisadores.
O estudo descobriu que nenhum dos 14 sistemas de detecção de IA atingiu 80% de precisão, descobriram os pesquisadores. Ele descreveu “sérias limitações” nos sistemas de detecção de IA e os considerou “inadequados” para detectar trapaceiros de IA na sala de aula.
“Nossas descobertas indicam claramente que não existe (e pode nem existir) uma ‘solução simples’ para detectar texto gerado por IA”, escreveram os pesquisadores.
As ferramentas de detecção de IA são especialmente ruins para identificar trabalhos escritos por humanos quando o falante não é um falante nativo de inglês.
Um estudo de abril de 2023 conduzido pela Universidade de Stanford descobriu que 61% dos artigos escritos por escritores não nativos de inglês foram sinalizados por sete detectores de IA diferentes e 97% foram sinalizados por pelo menos um detector de IA.
“O detector não é muito confiável neste momento. E os riscos são muito altos para que os estudantes confiem nessas tecnologias. Sem avaliação rigorosa e refinamento significativo”, adverte James Su, autor sênior do estudo.
Viés institucional
em um e-mail para Semana de notíciasIllingworth disse que sua maior preocupação com a ferramenta é o preconceito.
“A taxa de falsos positivos não é suficientemente boa por si só. Mas quando esses falsos positivos se enquadram na raça, na nacionalidade e na língua nativa, não estamos a falar de uma ferramenta falha”, explica.
“Estamos falando de viés institucional automático e de índices de confiança.”
Illingworth acrescentou que não acredita que possa ver com segurança a escrita da IA usando rastreamento ocular. E esta tecnologia é boa o suficiente neste momento. (Rastreamento ocular) é perigoso.”
‘Sem treinamento’
“A IA tem benefícios reais na educação. Como parceira na elaboração de ferramentas de pensamento e na forma de testar argumentos”, continuou ele.
“A questão não é se os alunos irão usá-lo ou não. Mas eles entendem o que ele está fazendo e onde está falhando. Isso requer um conhecimento significativo de IA, não uma proibição.
“A maioria dos funcionários não tem formação sobre como ensinar ou sobre IA. Pedimos-lhes que assumam o controlo de algo que ainda não estão preparados para compreender.”
‘beco sem saída’
Por sua vez, Illingworth acredita que a solução é “Total de Educadores”, ou seja, conceber novas avaliações e testes. além de investir na educação dos funcionários
É importante ressaltar que ele também acredita que os educadores precisam “parar de enquadrar isso como uma questão disciplinar”.
“Os alunos estão se adaptando logicamente às ferramentas à sua disposição”, disse ele. “A questão é se estamos ajudando-os a fazer isso de forma crítica e ética. Ou estamos apenas tentando pegá-los?”
“A detecção é o fim.”




