
- Tenable, ChatGPT-4o’da “HackedGPT” saldırı zinciri olarak adlandırılan yedi hızlı enjeksiyon hatası bulduğunu söyledi
- Güvenlik açıkları arasında gizli komutlar, bellek kalıcılığı ve güvenilir sarmalayıcılar aracılığıyla güvenlik atlamaları yer alır
- OpenAI, GPT-5’teki bazı sorunları düzeltti; diğerleri kalıyor ve bu da daha güçlü savunma çağrılarına yol açıyor
ChatGPT’de, tehdit aktörlerinin gizli komutlar eklemesine, hassas verileri çalmasına ve yanlış bilgileri yaymasına olanak verebilecek bir dizi güvenlik sorunu bulunmaktadır. Yapay zeka araçlarıGüvenlik araştırmacıları şunu söylüyor.
Tenable’ın güvenlik uzmanları yakın zamanda OpenAI’nin ChatGPT-4o’sunu test etti ve toplu olarak HackedGPT adını verdikleri yedi güvenlik açığı buldu. Bunlar şunları içerir:
- Güvenilir siteler aracılığıyla dolaylı istem enjeksiyonu (genel sitelerdeki komutların GPT’nin içeriği okurken farkında olmadan takip edebileceği şekilde gizlenmesi)
- Arama bağlamında 0 tıklamayla dolaylı istem ekleme (GPT web’de arama yapar ve gizli kötü amaçlı kod içeren bir sayfa bulur. Soru sormak, GPT’yi farkında olmadan talimatları izlemeye zorlayabilir)
- 1 tıklamayla hızlı enjeksiyon (Kullanıcının gizli GPT komutları içeren bir bağlantıya tıkladığı kimlik avına yönelik bir değişiklik)
- Güvenlik mekanizması atlaması (kötü amaçlı bağlantıları güvenilir paketleyicilere sarmak, GPT’yi kandırarak bağlantıları kullanıcıya göstermesini sağlamak)
- Konuşma ekleme: (Saldırganlar, ChatGPT’nin daha sonra okuyacağı gizli talimatları eklemek için SearchGPT sistemini kullanabilir ve kendisini etkili bir şekilde istem enjekte edebilir).
- Kötü amaçlı içerik gizleme (kötü amaçlı talimatlar kodun veya işaretleme metninin içinde gizlenebilir)
- Kalıcı bellek enjeksiyonu (kayıtlı sohbetlere kötü amaçlı talimatlar yerleştirilebilir, bu da modelin komutları tekrarlamasına ve sürekli olarak veri sızdırmasına neden olabilir).
Savunmanın güçlendirilmesi çağrısı
ChatGPT’nin arkasındaki şirket olan OpenAI, GPT-5 modelindeki bazı kusurları giderdi, ancak hepsini değil, milyonlarca insanı potansiyel olarak risk altında bıraktı.
Güvenlik araştırmacıları bir süredir hızlı enjeksiyon saldırıları konusunda uyarıda bulunuyor.
GoogleGemini’nin Gmail ile entegre olması nedeniyle benzer bir sorunla karşı karşıya olduğu görülüyor; kullanıcılar gizli istemler içeren e-postalar alabilir (örneğin, beyaz bir arka plan üzerinde beyaz bir yazı tipiyle yazılmış) ve kullanıcı araçtan bu e-postayla ilgili herhangi bir şey isterse, araç gizli istemi okuyabilir ve ona göre hareket edebilir.
Bazı durumlarda aracın geliştiricileri korkuluklar kurabilirken, çoğu zaman dikkatli olmak ve bu hilelere kanmamak kullanıcının sorumluluğundadır.
Tenable Kıdemli Araştırma Mühendisi Moshe Bernstein, “HackedGPT, büyük dil modellerinin hangi bilgilere güvenilmesi gerektiğine karar verme konusundaki temel zayıflığı ortaya koyuyor” dedi.
“Bu kusurlar tek tek küçük görünüyor ancak bir araya geldiklerinde enjeksiyondan veri kaçırmaya, veri hırsızlığından kalıcılığa kadar eksiksiz bir saldırı zinciri oluşturuyorlar. Bu, yapay zeka sistemlerinin yalnızca potansiyel hedefler olmadığını, günlük sohbetlerden veya gezinmelerden sessizce bilgi toplayan saldırı araçlarına dönüştürülebileceğini gösteriyor.”
Tenable, OpenAI’nin “tanımlanan bazı güvenlik açıklarını” düzelttiğini söyledi ve hangilerinin olduğunu söylemeden “birkaçının” ChatGPT-5’te aktif kaldığını ekledi. Sonuç olarak şirket, yapay zeka satıcılarına güvenlik mekanizmalarının amaçlandığı gibi çalıştığını doğrulayarak hızlı enjeksiyona karşı savunmaları güçlendirmelerini tavsiye ediyor.
Her bütçeye uygun en iyi antivirüs
TechRadar’ı Google Haberler’de takip edin Ve bizi tercih edilen kaynak olarak ekleyin Akışlarınızda uzman haberlerimizi, incelemelerimizi ve görüşlerimizi almak için. Takip Et butonuna tıklamayı unutmayın!
Ve tabii ki siz de yapabilirsiniz TechRadar’ı TikTok’ta takip edin haberler, incelemeler ve video biçimindeki kutu açma işlemleri için bizden düzenli olarak güncellemeler alın WhatsApp fazla.
