- OpenAI alerta que futuros LLMs podem apoiar desenvolvimento de dia zero ou ciberespionagem avançada
- A empresa está investindo em ferramentas defensivas, controles de acesso e um programa de segurança cibernética em níveis
- O Conselho de Risco da Nova Fronteira orientará as salvaguardas e a capacidade responsável em todos os modelos de fronteira
Os futuros modelos de linguagem grande (LLMs) da OpenAI podem representar maiores riscos de segurança cibernética, pois poderiam, teoricamente, ser capazes de desenvolver explorações remotas de dia zero contra sistemas bem defendidos ou ajudar significativamente em campanhas de ciberespionagem complexas e secretas.
De acordo com a própria OpenAI, em uma postagem recente no blog, as capacidades cibernéticas em seus modelos de IA estão “avançando rapidamente”.
Embora isso possa parecer sinistro, a OpenAI está olhando para isso de um ângulo positivo, dizendo que os avanços também trazem “benefícios significativos para a defesa cibernética”.
Falhando o navegador
Para se preparar antecipadamente para futuros modelos que possam ser abusados desta forma, a OpenAI disse que está “criando ferramentas que fortalecem modelos para tarefas defensivas de segurança cibernética e permitem que os defensores simplifiquem fluxos de trabalho, como inspecionar códigos e corrigir vulnerabilidades”.
A melhor forma de fazer isso, segundo o blog, é por meio de controles de acesso, reforço de infraestrutura, controles de saída e monitoramento.
Além disso, a OpenAI anunciou um programa que em breve deverá oferecer aos usuários e clientes que trabalham em tarefas de segurança cibernética acesso a recursos aprimorados, em níveis diferenciados.
Finalmente, a gigante da IA apoiada pela Microsoft disse que planeja criar um grupo consultivo chamado Frontier Risk Council. Esta equipa deverá ser constituída por especialistas e profissionais com experiência em segurança cibernética e, após um foco inicial na segurança cibernética, deverá expandir-se para outros locais.
“Os membros aconselharão sobre os limites entre capacidade utilizável e responsável e potencial uso indevido, e esses aprendizados informarão diretamente nossas avaliações e salvaguardas. Em breve os compartilharemos no conselho”, diz o blog.
A OpenAI afirmou ainda que o uso indevido cibernético pode ser viabilizado a partir de “qualquer modelo de fronteira da indústria”, razão pela qual faz parte do Frontier Model Forum, onde partilha conhecimentos e melhores práticas com parceiros da indústria.
“Neste contexto, a modelagem de ameaças ajuda a mitigar riscos, identificar como as capacidades de IA podem ser transformadas em armas, onde existem gargalos críticos para diferentes atores de ameaças e como os modelos de limites podem fazer uma diferença significativa.”
Através Reuters
O melhor antivírus para cada orçamento
Siga o TechRadar no Google Notícias e adicione-nos como sua fonte padrão para receber notícias, opiniões e opiniões de nossos especialistas em feeds. Certifique-se de clicar no botão Continuar!
E é claro que você também pode Siga o TechRadar no TikTok para receber novidades, análises, unboxings em formato de vídeo e receber atualizações constantes nossas WhatsApp também








