- A solicitação pull média gerada por IA tem 10,83 problemas em comparação com 6,45 para código humano, de acordo com o relatório.
- A qualidade pode ser melhor com base em erros, deixando espaço para revisores humanos
- Os patches de código da Microsoft estão em alta, mas provavelmente o resultado geral também
O código gerado por IA está sujeito a mais vulnerabilidades do que o código gerado por humanos, e novos dados do CodeRabbit levantam questões sobre a confiabilidade de algumas ferramentas.
As solicitações pull feitas com ferramentas de IA tiveram em média 10,83 problemas, em comparação com 6,45 problemas para solicitações pull geradas por humanos, o que, em última análise, permite revisões mais longas e mais erros para chegar ao produto final.
Além de 1,7x mais problemas no geral, as solicitações pull geradas por IA também tiveram 1,4x mais problemas críticos e 1,7x mais problemas importantes, portanto, não são apenas problemas menores.
O código gerado por IA não é tão seguro quanto você imagina
Erros de lógica e correção (1,75x), qualidade e manutenção do código (1,64x), segurança (1,57) e desempenho (1,42x) registraram erros de código acima da média, já que o relatório criticou a IA por introduzir erros mais sérios para os revisores humanos corrigirem.
Alguns dos problemas que a IA mais introduziu são gerenciamento inadequado de senhas, referências de objetos inseguras, vulnerabilidades XSS e desserialização insegura.
“As ferramentas de codificação de IA aumentam drasticamente a produtividade, mas também introduzem vulnerabilidades previsíveis e mensuráveis que as organizações devem mitigar ativamente”, disse David Loker, diretor de IA da CodeRabbit.
No entanto, isso não é necessariamente uma coisa ruim, a IA melhora a eficiência nos estágios iniciais da geração de código. A tecnologia também introduziu 1,76 vezes menos erros ortográficos e 1,32 vezes menos problemas de testabilidade.
Assim, embora a investigação destaque algumas das falhas da IA, também serve um propósito importante ao mostrar como os humanos e os agentes da IA poderão interagir uns com os outros no futuro. Em vez de deslocar trabalhadores humanos, estamos a transferir o trabalho humano para a gestão e revisão da IA; os computadores simplesmente realizam algumas das tarefas tediosas que tornam os humanos lentos.
Embora a Microsoft diga que corrigiu 1.139 CVEs em 2025, tornando-o o segundo ano mais alto já registrado, isso não significa necessariamente uma coisa ruim. Com a IA, os desenvolvedores estão criando mais código para começar, então a porcentagem geral de código duvidoso pode não ser tão ruim quanto esses números sugerem inicialmente.
Então, os modelos de IA, como a família GPT da OpenAI, são constantemente aprimorados para produzir resultados mais precisos e menos sujeitos a erros.
Siga o TechRadar no Google Notícias e adicione-nos como sua fonte padrão para receber notícias, opiniões e opiniões de nossos especialistas em feeds. Certifique-se de clicar no botão Continuar!
E é claro que você também pode Siga o TechRadar no TikTok para receber notícias, análises, unboxings de vídeos e receber atualizações regulares nossas WhatsApp também








