“Se alguém inserir instruções ou fatos falsos na memória da sua IA, isso terá um efeito duradouro em suas interações futuras”: a Microsoft alerta que as recomendações da IA ​​estão sendo “envenenadas” para produzir resultados maliciosos.


  • A Microsoft anunciou uma nova tática de golpe chamada AI Recommendation Poisoning
  • Os invasores colocam instruções ocultas na memória da IA ​​para enganar os conselhos de compra
  • Foram detectadas tentativas no mundo real; O risco de as empresas tomarem decisões dispendiosas com base em recomendações arriscadas de IA

Você deve ter ouvido falar sobre envenenamento por SEO; no entanto, os especialistas alertam agora para o envenenamento das recomendações da IA.

Em uma nova postagem no blog, os pesquisadores da Microsoft detalharam o surgimento de uma nova classe de fraude alimentada por IA que envolve comprometer a memória de um assistente de IA e plantar uma ameaça persistente.



Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui