Araştırmacılar, sonuçları mahvetmek için bir yapay zeka tarafından çalındığında kendi verilerini zehirliyorlar




  • Çin ve Singapur’dan araştırmacılar, GraphRAG sistemlerini korumak için AURA’yı (Tağşiş Yoluyla Aktif Fayda Azaltma) önerdi
  • AURA, özel bilgi grafiklerini kasıtlı olarak zehirler, böylece çalınan veriler halüsinasyonlara ve yanlış yanıtlara neden olur
  • Doğru çıktılar gizli bir anahtar gerektirir; testler, çalınan KG hizmetinin kalitesinin düşürülmesinde ~%94 etkililik gösterdi

Çin ve Singapur’daki üniversitelerden araştırmacılar, kullanılan verilerin çalınmasını önlemenin yaratıcı bir yolunu buldu. Üretken Yapay Zeka.

Diğer şeylerin yanı sıra günümüzün Büyük Dil Modellerinde (LLM) iki önemli unsur vardır: eğitim verileri ve erişimle artırılmış nesil (RAG).





Kaynak bağlantısı