
- Rapor, LLM tarafından oluşturulan kötü amaçlı yazılımların, gerçek dünya ortamlarındaki temel testlerde hala başarısız olduğunu ortaya koyuyor
- GPT-3.5 anında kötü amaçlı komut dosyaları üreterek büyük güvenlik tutarsızlıklarını açığa çıkardı
- GPT-5’teki iyileştirilmiş korkuluklar, çıktıları kötü amaçlı olmayan, daha güvenli alternatiflere dönüştürdü
Etrafta artan korkuya rağmen Silahlandırılmış Yüksek LisanslarYeni deneyler, kötü amaçlı çıktı potansiyelinin güvenilir olmaktan uzak olduğunu ortaya çıkardı.
Netskope’lu araştırmacılar test edildi Modern dil modellerinin bir sonraki otonom siber saldırı dalgasını destekleyip destekleyemeyeceği, bu sistemlerin sabit kodlanmış mantığa dayanmadan çalışan kötü amaçlı kod üretip üretemeyeceğini belirlemeyi amaçlıyor.
Deney, kaçınma, istismar ve operasyonel güvenilirlikle bağlantılı temel yeteneklere odaklandı ve bazı şaşırtıcı sonuçlar ortaya çıkardı.
Gerçek ortamlarda güvenilirlik sorunları
İlk aşama, GPT-3.5-Turbo ve GPT-4’ü süreç enjeksiyonunu ve güvenlik araçlarının sonlandırılmasını deneyen Python komut dosyaları üretmeye ikna etmeyi içeriyordu.
GPT-3.5-Turbo istenen çıktıyı anında üretirken, GPT-4 basit bir kişisel komut istemi korumasını indirene kadar bunu reddetti.
Test, modeller daha fazla kısıtlama eklese bile koruma önlemlerini atlamanın mümkün olduğunu gösterdi.
Kod oluşturmanın teknik olarak mümkün olduğunu doğruladıktan sonra ekip operasyonel testlere yöneldi ve her iki modelden de sanal makineleri algılamak ve buna göre yanıt vermek üzere tasarlanmış komut dosyaları oluşturmasını istedi.
Bu komut dosyaları daha sonra VMware Workstation, AWS Workspace VDI ve standart bir fiziksel makine üzerinde test edildi; ancak sıklıkla kilitlendi, ortamlar yanlış tanımlandı veya tutarlı bir şekilde çalışamadı.
Fiziksel ana bilgisayarlarda mantık iyi performans gösterdi ancak aynı komut dosyaları bulut tabanlı sanal alanlarda çöktü.
Bu bulgular şu düşünceyi çürütüyor: Yapay zeka araçları insan müdahalesi olmadan çeşitli sistemlere uyum sağlayabilen otomatik kötü amaçlı yazılımları anında destekleyebilir.
Sınırlamalar aynı zamanda geleneksel savunmaların değerini de güçlendirdi. güvenlik duvarı veya bir antivirüsçünkü güvenilmez kodun bunları atlama yeteneği daha azdır.
Netskope, GPT-5’te, özellikle eski modellerin zorlandığı bulut ortamlarında, kod kalitesinde büyük gelişmeler gözlemledi.
Bununla birlikte, model artık istekleri reddetmediği, ancak çıktıları daha güvenli işlevlere yönlendirdiği ve sonuçta ortaya çıkan kodu çok adımlı saldırılar için kullanılamaz hale getirdiği için, geliştirilmiş korkuluklar, kötü niyetli kullanım girişiminde bulunan herkes için yeni zorluklar yarattı.
Ekip daha karmaşık istemler kullanmak zorunda kaldı ve yine de istenen davranışla çelişen çıktılar aldı.
Bu değişim, daha yüksek güvenilirliğin daha güçlü yerleşik kontrollerle birlikte geldiğini gösteriyor çünkü testler büyük modellerin kontrollü ayarlarda zararlı mantık oluşturabileceğini gösteriyor ancak kod tutarsız ve çoğu zaman etkisiz kalıyor.
Günümüzde tamamen otonom saldırılar ortaya çıkmıyor ve gerçek dünyadaki olaylar hala insan gözetimini gerektiriyor.
Gelecekteki sistemlerin, özellikle kötü amaçlı yazılım geliştiricilerinin denediği gibi, güvenlik açıklarını korkulukların telafi edebileceğinden daha hızlı kapatması ihtimali devam ediyor.
TechRadar’ı Google Haberler’de takip edin Ve bizi tercih edilen kaynak olarak ekleyin Akışlarınızda uzman haberlerimizi, incelemelerimizi ve görüşlerimizi almak için. Takip Et butonuna tıklamayı unutmayın!
Ve tabii ki siz de yapabilirsiniz TechRadar’ı TikTok’ta takip edin haberler, incelemeler ve video biçimindeki kutu açma işlemleri için bizden düzenli olarak güncellemeler alın WhatsApp fazla.
