
- Çin ve Singapur’dan araştırmacılar, GraphRAG sistemlerini korumak için AURA’yı (Tağşiş Yoluyla Aktif Fayda Azaltma) önerdi
- AURA, özel bilgi grafiklerini kasıtlı olarak zehirler, böylece çalınan veriler halüsinasyonlara ve yanlış yanıtlara neden olur
- Doğru çıktılar gizli bir anahtar gerektirir; testler, çalınan KG hizmetinin kalitesinin düşürülmesinde ~%94 etkililik gösterdi
Çin ve Singapur’daki üniversitelerden araştırmacılar, kullanılan verilerin çalınmasını önlemenin yaratıcı bir yolunu buldu. Üretken Yapay Zeka.
Diğer şeylerin yanı sıra günümüzün Büyük Dil Modellerinde (LLM) iki önemli unsur vardır: eğitim verileri ve erişimle artırılmış nesil (RAG).
Eğitim verileri, bir Yüksek Lisans Programına dilin nasıl çalıştığını öğretir ve ona bir kesme noktasına kadar geniş bilgi verir. Modelin yeni bilgilere, özel belgelere veya hızla değişen gerçeklere erişmesine izin vermez. Eğitim tamamlandıktan sonra bu bilgi dondurulur.
Eski ekipmanın değiştirilmesi
Öte yandan RAG’ın var olmasının nedeni, birçok gerçek sorunun güncel, spesifik veya özel verilere (şirket politikaları, son haberler, dahili raporlar veya niş teknik belgeler gibi) bağlı olmasıdır. RAG, her veri değiştiğinde modeli yeniden eğitmek yerine, modelin talep üzerine ilgili bilgileri almasına ve ardından buna dayalı bir yanıt yazmasına olanak tanır.
2024 yılında Microsoft Alınan bilgileri düz bir belge listesi yerine bilgi grafiği olarak düzenleyen bir RAG sürümü olan GraphRAG’ı ortaya çıkardı. Bu, modelin varlıkların, olguların ve ilişkilerin birbiriyle nasıl bağlantılı olduğunu anlamasına yardımcı olur. Sonuç olarak yapay zeka, daha karmaşık soruları yanıtlayabilir, kavramlar arasındaki bağlantıları takip edebilir ve izole metin yerine yapılandırılmış ilişkiler üzerinden akıl yürüterek çelişkileri azaltabilir.
Bu bilgi grafikleri oldukça pahalı olabileceğinden siber suçlular, ulus devletler ve diğer kötü niyetli varlıklar tarafından hedef alınabilir.
Yazarlar Weijie Wang, Peizhuo Lv, ve diğerleri, Hırsızlığı Yararsız Hale Getirme: GraphRAG Sistemlerinde Özel Bilgi Grafiklerinin Tağşiş Temelli Korunması başlıklı araştırma makalelerinde. KG’leri zehirleyerek LLM’nin yanlış cevaplar vermesine ve halüsinasyon görmesine neden olan, Katkı Yoluyla Aktif Fayda Azaltma veya AURA adı verilen bir savunma mekanizması önerdi.
Doğru cevapları almanın tek yolu gizli bir anahtara sahip olmaktır. Araştırmacılar sistemin kusursuz olmadığını ancak çoğu durumda harika çalıştığını (%94) söyledi.
Yazarlar, “Çalınan KG’nin faydasını azaltarak AURA, GraphRAG’deki fikri mülkiyetin korunmasına yönelik pratik bir çözüm sunuyor” dedi.
Aracılığıyla Kayıt
Her bütçeye uygun en iyi antivirüs
TechRadar’ı Google Haberler’de takip edin Ve bizi tercih edilen kaynak olarak ekleyin Akışlarınızda uzman haberlerimizi, incelemelerimizi ve görüşlerimizi almak için. Takip Et butonuna tıklamayı unutmayın!
Ve tabii ki siz de yapabilirsiniz TechRadar’ı TikTok’ta takip edin haberler, incelemeler ve video biçimindeki kutu açma işlemleri için bizden düzenli olarak güncellemeler alın WhatsApp fazla.
