OpenAI suporta novos modelos que podem representar um risco “alto” de segurança cibernética


  • OpenAI alerta que futuros LLMs podem apoiar desenvolvimento de dia zero ou ciberespionagem avançada
  • A empresa está investindo em ferramentas defensivas, controles de acesso e um programa de segurança cibernética em níveis
  • O Conselho de Risco da Nova Fronteira orientará as salvaguardas e a capacidade responsável em todos os modelos de fronteira

Os futuros modelos de linguagem grande (LLMs) da OpenAI podem representar maiores riscos de segurança cibernética, pois poderiam, teoricamente, ser capazes de desenvolver explorações remotas de dia zero contra sistemas bem defendidos ou ajudar significativamente em campanhas de ciberespionagem complexas e secretas.

De acordo com a própria OpenAI, em uma postagem recente no blog, as capacidades cibernéticas em seus modelos de IA estão “avançando rapidamente”.



Link da fonte