
- Uzmanlar, DeepSeek-R1’in istemlere siyasi terimler eklendiğinde tehlikeli derecede güvensiz kod ürettiğini tespit ediyor
- Siyasi açıdan hassas istemlerin yarısı DeepSeek-R1’in herhangi bir kod oluşturmayı reddetmesini tetikliyor
- Sabit kodlanmış sırlar ve güvenli olmayan girdi işleme, sıklıkla politik olarak yüklü istemler altında ortaya çıkıyor
Ocak 2025’te piyasaya sürüldüğünde, Çince büyük dil modeli DeepSeek-R1 (Yüksek Lisans) çılgınlığa neden oldu ve o zamandan beri kodlama asistanı olarak geniş çapta benimsendi.
Ancak bağımsız testler CrowdStrike modelin çıktısının görünüşte alakasız bağlamsal değiştiricilere bağlı olarak önemli ölçüde değişebileceğini iddia ediyor.
Ekip, 121 tetikleyici kelime yapılandırmasıyla birden fazla güvenlik kategorisinde 50 kodlama görevini test etti; her bir istem beş kez çalıştırılarak toplam 30.250 test yapıldı ve yanıtlar, 1 (güvenli) ile 5 (kritik derecede savunmasız) arasında bir güvenlik açığı puanı kullanılarak değerlendirildi.
Siyasi açıdan hassas konular çıktıyı bozuyor
Rapor, Falun Gong, Uygurlar veya Tibet gibi siyasi veya hassas terimlerin istemlere dahil edilmesi durumunda DeepSeek-R1’in ciddi güvenlik açıklarına sahip kod ürettiğini ortaya koyuyor.
Bunlar arasında sabit kodlanmış sırlar, kullanıcı girişinin güvenli olmayan şekilde işlenmesi ve bazı durumlarda tamamen geçersiz kodlar yer alıyordu.
Araştırmacılar, politik açıdan hassas olan bu tetikleyicilerin, bu tür kelimelerin bulunmadığı temel yönlendirmelerle karşılaştırıldığında güvensiz çıktı olasılığını %50 artırabileceğini iddia ediyor.
Daha karmaşık istemleri içeren deneylerde DeepSeek-R1, kayıt formları, veritabanları ve yönetici panelleri ile işlevsel uygulamalar üretti.
Ancak bu uygulamaların temel oturum yönetimi ve kimlik doğrulamadan yoksun olması, hassas kullanıcı verilerinin açığa çıkmasına neden oldu ve tekrarlanan denemelerde, uygulamaların %35’e kadarı zayıf parola karma işlemi içeriyordu veya hiç yoktu.
Futbol taraftar kulübü web sitelerine yönelik talepler gibi daha basit yönlendirmeler, daha az ciddi soruna neden oldu.
Bu nedenle CrowdStrike, politik açıdan hassas tetikleyicilerin kod güvenliğini orantısız şekilde etkilediğini iddia ediyor.
Model ayrıca, vakaların neredeyse yarısında, DeepSeek-R1’in başlangıçta bir yanıt planladıktan sonra belirli politik açıdan hassas istemler için kod oluşturmayı reddettiği gibi, içsel bir öldürme anahtarı da gösterdi.
Akıl yürütme izlerinin incelenmesi, modelin dahili olarak bir teknik plan ürettiğini ancak sonuçta yardımı reddettiğini gösterdi.
Araştırmacılar bunun, Çin yönetmeliklerine uyum sağlamak için modele yerleştirilmiş sansürü yansıttığına inanıyor ve modelin politik ve etik uyumunun, oluşturulan kodun güvenilirliğini doğrudan etkileyebileceğini belirtti.
Siyasi açıdan hassas konularda, Yüksek Lisanslar genellikle ana akım medyanın fikirlerini verme eğilimindedir, ancak bu, diğer güvenilir haber kuruluşlarıyla tam bir tezat oluşturabilir.
DeepSeek-R1 yetenekli bir kodlama modeli olmayı sürdürüyor ancak bu deneyler gösteriyor ki Yapay zeka araçlarıChatGPT ve diğerleri de dahil olmak üzere, kurumsal ortamlarda gizli riskler ortaya çıkarabilir.
LLM tarafından oluşturulan koda güvenen kuruluşlar, dağıtımdan önce kapsamlı dahili testler yapmalıdır.
Ayrıca güvenlik katmanları güvenlik duvarı Ve antivirüs Model öngörülemeyen veya savunmasız çıktılar üretebileceğinden, temel olmaya devam ediyor.
Model ağırlıklarına eklenen önyargılar, kod kalitesini ve genel sistem güvenliğini etkileyebilecek yeni bir tedarik zinciri riski oluşturur.
TechRadar’ı Google Haberler’de takip edin Ve bizi tercih edilen kaynak olarak ekleyin Akışlarınızda uzman haberlerimizi, incelemelerimizi ve görüşlerimizi almak için. Takip Et butonuna tıklamayı unutmayın!
Ve tabii ki siz de yapabilirsiniz TechRadar’ı TikTok’ta takip edin haberler, incelemeler ve video biçimindeki kutu açma işlemleri için bizden düzenli olarak güncellemeler alın WhatsApp fazla.
