
Modern bir Güvenlik Operasyon Merkezi’ni (SOC) kurmak ve işletmek küçük bir başarı değildir.
Çoğu kuruluş, özellikle de orta ölçekli işletmeler, bırakın inovasyonun hızına ayak uydurmak şöyle dursun, şirket içinde bir tane oluşturacak zamana, bütçeye veya uzman personele sahip değil. Bu yüzden çoğu kişi yönetilene yöneliyor güvenlik sağlayıcılar.
Ancak hepsi eşit yaratılmamıştır; özellikle konu bunların kullanımı olduğunda. yapay zeka ve otomasyon.
Gibi siber güvenlik Tehditlerin hızı, karmaşıklığı ve ölçeği arttıkça, güvenlik operasyonları ekipleri yeteneklerini genişletmek için çok aracılı sistemlere (MAS) yöneliyor. Akıllı, otonom aracılardan oluşan bu sistemler, analistlerin yorgunluğunu ve yanıt süresini azaltırken tehdit tespitini ve yanıtını ölçeklendirmenin bir yolunu sunar.
Ancak bir MAS’ın bir SOC’ye dağıtılması önemsiz olmaktan uzaktır. Bu sadece akıllı kod yazmak veya birkaç API’yi bağlamakla ilgili değil. Doğru güvenlik önlemleri olmadan bu otonom sistemler tehlikeli bir yük haline gelebilir.
Olay müdahalesine yönelik çok aracılı sistemler, genellikle karmaşık ve düşmanca ortamlarda işbirliği içinde çalışmalı, bağımsız olarak akıl yürütmeli ve zamanında, yüksek riskli kararlar almalıdır.
MAS, zayıf noktalardan ve halüsinasyonlardan özerklik ve güvene kadar, yapay zekanın bir tehdit olmaktan ziyade siber güvenlikte gerçekten bir güç çarpanı haline gelmesi için ekiplerin çözmesi gereken yepyeni bir dizi teknik zorluk sunuyor.
İşbirliğinin düzenlenmesi: temsilcilerin gerçek zamanlı olarak koordine edilmesi
MAS’ın bir SOC ortamında etkili bir şekilde çalışabilmesi için, aracıların farklı sistemler arasında sorunsuz bir şekilde koordinasyon sağlayarak zekayı, iş yükünü ve amacı paylaşması gerekir. Bu koordinasyon karmaşıktır. Temsilcilerin, veri darboğazlarını ve yarış koşullarını önleyen güçlü iletişim protokollerine ihtiyacı vardır.
Üstelik, tamamen farklı kaynaklardan (örneğin, SIEM günlükleri, EDR telemetrisi, bulut kimlik sinyalleri). Anlamsal hizalama ve senkronizasyon olmadan aracılar silolar halinde çalışma veya daha kötüsü çelişkili sonuçlar üretme riskiyle karşı karşıya kalır.
Ölçeklendirme için tasarım: Daha fazla aracı daha fazla karmaşıklığa eşit olduğunda
MAS ölçeklenebilirlik vaat ederken aynı zamanda bir paradoksu da beraberinde getiriyor: Sistemde ne kadar çok aracı varsa, bunların etkileşimlerini yönetmek de o kadar zorlaşıyor. Ajanlar çoğaldıkça, potansiyel etkileşimlerin sayısı katlanarak artar.
Bu, sistem tasarımını, kaynak yönetimini ve hata toleransını önemli ölçüde daha zorlu hale getirir. Hızı ve güvenilirliği korumak için geliştiricilerin, sistemin ölçeklenirken kaosa sürüklenmesini önleyecek dinamik yük dengeleme, durum yönetimi ve orkestrasyon çerçeveleri oluşturması gerekir.
Kontrolden ödün vermeden özerkliği güçlendirmek
MAS’ın asıl amacı özerkliktir; ancak tam bağımsızlık, olaylara müdahale gibi riskli ortamlarda tehlikeli olabilir. Geliştiricilerin, temsilcileri kararlı bir şekilde hareket etmeleri için yetkilendirmek ile art arda gelen hataları önlemek için yeterli gözetimi sürdürmek arasında ince bir çizgide yürümesi gerekir.
Bu, aracıların ihtiyaç duyulduğunda uç durumları iletebilmesini sağlamak için sağlam karar verme çerçeveleri, mantık doğrulama ve genellikle “döngüdeki insan” arıza güvenliği gerektirir. Sistem, katılım kurallarının ve güven eşiklerinin, bir temsilcinin ne zaman tek başına hareket edebileceğini veya inceleme isteyebileceğini belirlediği politika odaklı özerkliği desteklemelidir.
Halüsinasyonların önlenmesi: Kesinlikle yanlış yapay zekanın gizli tehdidi
Çok ajanlı yapay zeka sistemlerindeki en sinsi zorluklardan biri, ajanların güvenle yanlış veya yanıltıcı çıktılar üretmesi anlamına gelen halüsinasyondur. Güvenlik operasyonları bağlamında bu, dahili bir yanlış yapılandırmanın aktif bir tehdit olarak yanlış sınıflandırılması veya bunun tersi anlamına gelebilir.
Halüsinasyonlar eksik eğitimden kaynaklanabilir verikötü ayarlanmış modeller veya aracılar arasında aktarılan hatalı mantık zincirleri.
Bunları önlemek için güçlü temellendirme teknikleri, sıkı sistem doğrulaması ve temsilcilerin birbirlerinin mantığını kontrol edebildiği veya anormallikleri denetleyici bir insan analistine işaretleyebildiği sıkı geri bildirim döngüleri gerekir.
Sistemin güvenliğini sağlama: hassas veriler konusunda aracılara güvenme
MAS’ın sıklıkla aktif saldırı altında olan ortamlarda çalışması gerekir. Her ajan potansiyel bir saldırı yüzeyi haline gelir ve eğer dış bir aktör tarafından riske atılırsa potansiyel bir iç tehdit haline gelir. Güvenlik önlemleri, aracılar arasındaki şifreli iletişimi, sıkı erişim kontrol politikalarını ve aracı düzeyinde denetim günlüğünü içermelidir.
Ek olarak MAS’ın, hassas bilgilerin GDPR veya HIPAA gibi veri koruma yasalarına uygun şekilde işlenmesini ve saklanmasını sağlayacak şekilde, tasarımı gereği gizlilik ilkesine göre inşa edilmesi gerekir. Güvenilir aracılar yalnızca etkili olmakla kalmaz, aynı zamanda varsayılan olarak güvenlidirler.
Sistemler ve standartlar arasında köprü kurma: MAS’ta birlikte çalışabilirliğin geliştirilmesi
Güvenlik teknolojisi yığınlarının çok parçalı olduğu biliniyor. MAS’ın gerçek dünyadaki bir SOC’de çalışabilmesi için aracıların her biri kendi veri şemalarına sahip çok çeşitli platformlarla birlikte çalışması gerekir. API’lerve tempoları güncelleyin.
Bu, genellikle anında verileri hem çevirebilen hem de normalleştirebilen aracıların tasarlanmasını gerektirir. Bu aynı zamanda sistemi bir bütün olarak bozmadan yeni aracıların veya bağlayıcıların eklenmesine olanak tanıyan modüler, genişletilebilir çerçeveler oluşturmak anlamına da gelir.
Yapay zekaya insan güveni oluşturmak: MAS’ı anlaşılır ve hesap verebilir kılmak
Çok etmenli sistemlerin güvenlik operasyonlarında başarılı olması için insan analistlerin, etmenlerin yaptıklarına güvenmesi gerekir. Bu güven körü körüne inançla inşa edilmez; şeffaflıktan, denetlenebilirlikten ve açıklanabilirlikten gelir. Aşağıda birkaç temel strateji verilmiştir:
Açıklanabilir çıktılar: Aracılar yalnızca yanıtları değil, aynı zamanda kullanılan kanıtların, mantığın ve karar yolunun özetlerini içeren akıl yürütme zincirlerini de sağlamalıdır.
Sürekli geri bildirim döngüleri: İnsanlar tarafından doğrulanan veya reddedilen her sonuç, zaman içinde temsilci muhakemesini geliştirmek için sisteme geri bildirimde bulunmalıdır.
Tanımlanan yükseltme yolları: MAS ne zaman harekete geçeceğini, ne zaman duraklayacağını ve ne zaman tırmanacağını bilmelidir. Güven eşikleri ve olay kritiklik puanları bunun uygulanmasına yardımcı olur.
Etik yapay zeka yönergeleri: Geliştirme ekipleri önyargıyı önlemek ve korumak için tanımlanmış bir etik çerçeveyi takip etmelidir. mahremiyetve hesap verebilirliği sağlayın.
MAS dönüştürücü olabilir; ancak yalnızca doğru şekilde tasarlandığı takdirde
Çok aracılı sistemler, siber güvenlik sektörünün güvenlik olaylarına tepki verme biçimini temelden değiştirme potansiyeline sahip; uyarı önceliklendirmesinden otonom, tam bağlamlı inceleme ve çözüme geçiş yapıyor.
Ancak bu değişim yalnızca güvenlik profesyonellerinin MAS’a titizlikle yaklaşması durumunda gerçekleşir. Bu sistemler sadece istihbarat için değil, birlikte çalışabilirlik, güven ve yıkıma karşı dayanıklılık için de tasarlanmalıdır.
Geliştiriciler, güvenlik mimarları ve yapay zeka bilim insanları için sorun, MAS’ın güçlü olup olamayacağı değil; önemli olan, ölçek ve güvenliğin öncelikli olduğu, sorumlu bir şekilde oluşturulup uygulanıp uygulanamayacağıdır.
Güvenli olmayan bir sistem, hiç sistem olmamasından daha kötü olabilir. Eğer bunu yaparsak sadece otomasyonla yetinmeyeceğiz güvenlik operasyonları. Bunu yeniden tanımlayacağız.
En iyi şifreleme yazılımını sunduk.
Bu makale, günümüz teknoloji endüstrisindeki en iyi ve en parlak beyinleri öne çıkardığımız TechRadarPro’nun Expert Insights kanalının bir parçası olarak üretildi. Burada ifade edilen görüşler yazara aittir ve mutlaka TechRadarPro veya Future plc’ye ait değildir. Katkıda bulunmak istiyorsanız buradan daha fazla bilgi edinin: https://www.techradar.com/news/submit-your-story-to-techradar-pro
