A codificação apoiada por IA ou ‘vibe coding’ é uma tendência que dominou o ano passado, tanto que foi eleita a palavra do ano em 2025.
Desde que o fundador da OpenAI, Andrej Kaparthy, cunhou o termo, os desenvolvedores estão entusiasmados com a perspectiva de reduzir as tarefas de codificação.
Embora os LLMs possam prever a sintaxe, eles não conseguem compreender a segurança cibernética. A semântica como o risco está fora do seu controlo e a sua janela contextual limitada – ou memória de curto prazo – significa que os LLMs no seu estado actual podem perder o panorama geral, incluindo vulnerabilidades de segurança.
Mesmo os modelos maiores não conseguem conter o tipo de memória necessária para compreender quais dados estão em risco e por quê.
Problema de vulnerabilidade do código AI
O código gerado pela IA pode parecer correto e seguro superficialmente, mas vulnerabilidades sutis estão quase sempre ocultas.
O treinamento LLM tem um histórico de priorizar a precisão em detrimento da segurança cibernética. Embora muito esforço seja feito para melhorar a correção, à medida que modelos maiores e mais novos agora produzem código altamente funcional, muito menos atenção é dada para saber se esse código é realmente seguro.
O principal problema é que os desenvolvedores não precisam especificar nenhuma restrição de segurança nas consultas de IA para obter o código que desejam.
Por exemplo, um desenvolvedor pode solicitar a um modelo que crie uma consulta ao banco de dados especificando se o código deve preparar a consulta (seguro) ou usar concatenação de strings (inseguro). A escolha é, portanto, deixada ao modelo.
Para algumas vulnerabilidades, o modelo pode não ser capaz de determinar quais variáveis específicas devem ser limpas (ou seja, quais variáveis estão “contaminadas” por dados controlados pelo usuário).
Essas fraquezas não são inesperadas, elas vêm de limitações fundamentais na forma como os grandes modelos de linguagem entendem o contexto, a intenção e o risco.
Os limites da compreensão do LLM e o que isso significa para a segurança
O progresso em direção ao código seguro gerado por IA diminuiu, com pesquisas recentes descobrindo que os principais fornecedores de LLM fizeram pouco ou nenhum progresso em segurança, apesar do desenvolvimento contínuo no setor.
Por exemplo, os modelos da Anthropic, Google e xAI estavam todos dentro de uma taxa de aprovação de segurança de 50 a 59 por cento, o que é muito baixo para os grandes players de tecnologia. Mas por que o desempenho da segurança não melhora mesmo quando a digitação e a precisão do modelo melhoram?
Grande parte da resposta está nos dados de treinamento. Os LLMs aprendem a consumir grandes quantidades de dados e informações na Internet, muitos dos quais apresentam vulnerabilidades de segurança ocultas ou não resolvidas.
Por exemplo, projetos como o WebGoat incorporam intencionalmente modelos seguros para ensinar segurança de aplicações web por meio de exercícios práticos com vulnerabilidades intencionais. Esses dados não são rotulados como seguros ou inseguros, portanto o modelo trata ambos os tipos igualmente. Para IA, a consulta segura ao banco de dados são apenas duas maneiras válidas de concluir sua solicitação.
Os LLMs também não separam os dados das instruções. Em vez disso, eles processam tudo como um fluxo de tokens. Isso abre a porta para injeções instantâneas, onde os invasores podem injetar instruções maliciosas no que parece ser uma entrada normal do usuário. Se um modelo não consegue perceber a diferença, ele pode se comportar de maneiras que o desenvolvedor nunca imaginou.
É importante compreender que os riscos de segurança aparecem em diferentes camadas. Algumas das fraquezas vêm do próprio modelo, com falhas na forma como a IA interpreta ou gera conteúdo.
Outros são criados na camada de aplicação, onde os desenvolvedores integram o LLM em sistemas reais. Nesses casos, o risco vem da maneira como o sistema lida com entradas externas, permissões de usuários e interações com outros componentes.
Para os desenvolvedores, as ferramentas criativas de IA têm o potencial de transformar a eficiência, mas nunca devem ser usadas como assistentes para melhorar a produtividade em tarefas específicas, e não no lugar das habilidades humanas.
Como tal, os desenvolvedores devem aplicar o mesmo nível de controle às questões de segurança e à precisão da codificação. Cada sugestão de IA, por mais polida que pareça, deve ser confiável até ser comprovada como segura. Isso significa validar como a entrada do usuário é tratada, garantir que práticas como autenticação e autorização sejam executadas corretamente e sempre presumir que a IA usará atalhos.
As organizações também devem adotar uma ferramenta de “segurança por padrão” em torno da IA para garantir que a segurança seja integrada desde o início. Isso inclui análise estática em tempo real que sinaliza o código como seguro à medida que é gerado, aplicação de políticas que bloqueia a não conformidade com padrões seguros e implementação de processos de proteção que limitam o modelo de IA a bibliotecas e padrões de codificação seguros conhecidos.
Em vez de depender de treinamentos existentes que dependem de códigos escritos por humanos, as organizações precisam adotar treinamentos personalizados para ajudar os desenvolvedores a se adaptarem a esta nova realidade. Este treinamento especializado irá ensiná-lo a reconhecer modos de falha comuns do LLM, compreender métodos maliciosos, como injeção ou vazamento de dados e, talvez o mais importante, saber quando não usar IA, especialmente em domínios de alto risco, como criptografia.
A segurança ainda requer julgamento humano
A IA criativa pode acelerar totalmente a entrega e aumentar os níveis de habilidade, mas também aumenta os riscos. A indústria precisa aceitar uma verdade incômoda: à medida que os LLMs continuam a se tornar mais rápidos, mais fluentes e mais úteis, não se pode confiar neles para criar código seguro. Eles não conseguem raciocinar sobre padrões de ameaças, julgar intenções ou reconhecer quando uma lógica inofensiva produz efeitos colaterais perigosos.
Se as organizações não implementarem salvaguardas adequadas, ferramentas seguras padrão e supervisão humana, correm o risco de expor vulnerabilidades perigosas em escala e velocidade.
Em última análise, mudou a forma como construímos software de IA. Mas, a menos que mudemos a forma como os protegemos, estaremos a dar aos cibercriminosos uma superfície de ataque maior, mais eficaz do que nunca.
Confira nossa lista das melhores plataformas sem código.







