Os pesquisadores envenenam seus dados quando uma IA os rouba para corromper os resultados


  • Pesquisadores da China e de Cingapura propuseram AURA (Redução de Utilidade Ativa via Adulteração) para proteger os sistemas GraphRAG.
  • A AURA envenena deliberadamente gráficos de conhecimento proprietários, de modo que os dados roubados criam alucinações e respostas incorretas
  • As saídas diretas requerem uma chave secreta; testes mostraram 94% de eficácia na degradação de utilitários KG roubados

Pesquisadores de universidades da China e de Cingapura criaram uma maneira criativa de prevenir o roubo de dados usados ​​na IA generativa.

Entre outros, existem dois elementos importantes nos Grandes Modelos de Linguagem (LLMs) atuais: dados de treinamento e geração aumentada de recuperação (RAG).



Link da fonte