
ChatGPT’nin büyük beğeni toplayarak piyasaya sürülmesinden bu yana sadece üç yıl geçti. Ancak sektör şimdiden bir sonraki büyük yenilik dalgasını bekliyor: ajans yapay zeka.
OpenAI, kullanıcıları adına “görevleri baştan sona ele almayı” vaat eden yeni ChatGPT aracı teklifiyle yine en ileri teknolojiye sahip. Ne yazık ki, daha fazla özerklik daha büyük riskleri de beraberinde getiriyor.
Trend Micro Kıdemli Tehdit Araştırmacısı.
Kurumsal BT ve güvenlik Ekipler, işletmeyi yeni tür tehditlere maruz bırakmadan, kullanıcılarını teknolojiden yararlanma konusunda güçlendirecek.
Neyse ki bunu yapmalarına yardımcı olacak hazır bir yaklaşımları zaten var: Sıfır Güven.
Büyük kazançlar ancak ortaya çıkan riskler
Ajansal yapay zeka sistemleri, üretken yapay zekaya (GenAI) göre büyük bir ilerleme sunuyor sohbet robotları.
İkincisi, istemlere dayalı olarak içeriği tepkisel olarak oluşturup özetlerken, ilki, karmaşık, çok aşamalı görevleri tamamlamak için proaktif olarak planlamak, akıl yürütmek ve özerk bir şekilde hareket etmek üzere tasarlanmıştır. Agentic AI, yeni bilgiler sunulduğunda planlarını anında ayarlayabilir.
Teknolojiyle ilişkili potansiyel olarak büyük üretkenlik, verimlilik ve maliyet avantajlarını görmek zor değil. Gartner, 2029 yılına kadar “yaygın müşteri hizmetleri sorunlarının %80’ini insan müdahalesi olmadan otonom bir şekilde çözerek operasyonel maliyetlerde %30’luk bir azalmaya yol açacağını” öngörüyor.
Ancak ajansal yapay zekayı bu kadar heyecan verici kılan aynı yetenekler işletmeler aynı zamanda endişe kaynağı olmalıdır.
Daha az gözetim söz konusu olduğundan, kötü niyetli aktörler, kullanıcılar için herhangi bir tehlike işareti çıkarmadan bir AI aracısının eylemlerine saldırabilir ve bunları bozabilir.
Dosyaları silmek veya yanlış alıcıya e-posta göndermek gibi geri dönüşü olmayan sonuçlar doğurabilecek kararlar alma kabiliyetine sahip olduğundan, güvenlik önlemleri alınmadığı sürece daha fazla zarar meydana gelebilir.
Ek olarak, aracılar çok sayıda alanda planlama ve mantık yürütebildiğinden, rakiplerin onları dolaylı anlık enjeksiyon gibi yöntemlerle manipüle etme fırsatları daha fazladır. Bu, bir aracının ziyaret ettiği web sayfasına kötü amaçlı bir istemin yerleştirilmesiyle yapılabilir.
Aracılar daha geniş dijital ekosisteme derinlemesine entegre olduğundan, son derece hassas olanların ihlal edilmesi daha fazla potansiyele sahiptir hesaplar ve bilgi. Kullanıcılarının davranışları hakkında derinlemesine bilgi edinebildikleri için potansiyel olarak önemli gizlilik riskleri vardır.
Erişim kontrolleri neden önemlidir?
Bu zorluklarla mücadelenin kimlik ve erişimle başlaması gerekiyor yönetmek (IAM). Kuruluşlar aracılardan oluşan fiili bir dijital iş gücü yaratacaksa, bu işi yapmak için gereken kimlikleri, kimlik bilgilerini ve izinleri yönetmeleri gerekir.
Ancak günümüzde çoğu temsilci uzmandan çok genelcidir. ChatGPT aracısı harika bir örnek: toplantıları planlayabilir, e-posta gönderebilir, web siteleriyle etkileşim kurabilir ve çok daha fazlasını yapabilir.
Bu esneklik onu güçlü bir araç yapan şeydir. Ancak bu aynı zamanda açık sorumluluklara sahip insan rolleri etrafında oluşturulan geleneksel erişim kontrolü modellerinin uygulanmasını da zorlaştırıyor.
Genel bir aracı, dolaylı anlık enjeksiyon saldırısı yoluyla manipüle edildiyse, aşırı izin veren erişim hakları bir zayıflık oluşturabilir ve saldırganın bir dizi hassas sisteme potansiyel olarak geniş erişim sağlamasına neden olabilir. Bu nedenle ajansal yapay zeka çağı için erişim kontrollerini yeniden düşünmemiz gerekiyor. Kısacası Sıfır Güven mantrasını takip etmemiz gerekiyor: “asla güvenme, her zaman doğrula”.
Sıfır Güven yeniden tasarlandı
Sıfır Güven, ajansal bir yapay zeka ortamında nasıl görünüyor? İlk olarak, aracıların istenmeyen ve tahmin edilmesi zor eylemler gerçekleştireceğini varsayalım; bu, OpenAI’nin bile kabul ettiği bir şeydir. Yapay zeka aracılarını mevcut kullanıcı hesaplarının uzantıları olarak düşünmeyi bırakın. Bunun yerine, onlara kendi kimlik bilgileri ve izinleri olan ayrı kimlikler olarak davranın.
Erişim yönetimi hem aracı düzeyinde hem de araç düzeyinde, yani aracıların hangi kaynaklara erişebileceğini yöneterek uygulanmalıdır. Bunun gibi daha ayrıntılı kontroller, izinlerin her görevle uyumlu kalmasını sağlayacaktır.
Geleneksel Sıfır Güven ağ segmentasyonu anlamında olmasa da, bunu “segmentasyon” olarak düşünün
Bunun yerine, burada aracı izinlerini, yalnızca işlerini yapmak için ihtiyaç duydukları sistem ve verilere erişebilecekleri, daha fazlasına erişemeyecekleri şekilde kısıtlamayı düşünüyoruz. Bazı durumlarda zamana bağlı izinlerin de uygulanması yararlı olabilir.
Sonraki, çok faktörlü kimlik doğrulama (MFA). Ne yazık ki, geleneksel MFA acentelere pek iyi tercüme edilmiyor. Bir temsilcinin güvenliği ihlal edilirse ondan ikinci bir faktör istemek pek fazla güvenlik sağlamaz.
Bunun yerine, insan gözetimi, özellikle yüksek riskli eylemler için ikinci bir doğrulama katmanı görevi görebilir. Bu, rıza yorgunluğu riskine karşı dengelenmelidir: aracılar çok fazla onayı tetiklerse kullanıcılar refleks olarak eylemleri onaylamaya başlayabilir.
Kuruluşların ayrıca temsilcilerin ne yaptığı konusunda görünürlüğe ihtiyacı vardır. Bu nedenle, eylemlerini günlüğe kaydetmek ve olağandışı davranışları izlemek için bir tür sistem kurun. Bu aynı zamanda Sıfır Güven’in temel unsurunu da yansıtıyor ve hem güvenlik hem de hesap verebilirlik açısından gerekli olacak. Agentic AI için henüz erken günler.
Ancak kuruluşlar, teknolojinin minimum düzeyde gözetimle harekete geçme yeteneğini benimsemek istiyorsa, riskin uygun şekilde yönetildiğinden emin olmaları gerekir. Bunu yapmanın en iyi yolu varsayılan olarak hiçbir şeye güvenmemektir.
En iyi çevrimiçi siber güvenlik kursunu sunduk.
Bu makale, günümüz teknoloji endüstrisindeki en iyi ve en parlak beyinleri öne çıkardığımız TechRadarPro’nun Expert Insights kanalının bir parçası olarak üretildi. Burada ifade edilen görüşler yazara aittir ve mutlaka TechRadarPro veya Future plc’ye ait değildir. Katkıda bulunmak istiyorsanız buradan daha fazla bilgi edinin: https://www.techradar.com/news/submit-your-story-to-techradar-pro
