
Gölge yapay zeka yükselişte ve kuruluşlar için sorunlara neden oluyor.
MIT tarafından yakın zamanda yapılan bir araştırma, çalışanların %90’ından fazlasının kişisel kullandığını ortaya çıkardı. Yapay zeka araçları ve kuruluşların yalnızca %40’ı resmi kullanımı yönetiyor.
Ek olarak IBM’in son raporu, kuruluşların %97’sinin yapay zeka ile ilgili siber güvenlik olayları yaşadığını ancak çoğunun hâlâ yönetişimden yoksun olduğunu ortaya çıkardı.
Exabeam’de Güvenlik Araştırması ve Rekabetçi İstihbarat Kıdemli Direktörü.
Büyük bir halat çekme oyunu oynandı siber güvenlik manzaralar: Kuruluşlar gölge yapay zekanın kullanımını sınırlamalı ve potansiyel olarak onunla birlikte gelen yaratıcılığı ve fırsatları engellemeli mi, yoksa onu kontrolsüz bırakıp onunla birlikte gelen sömürü riskini yemeli mi?
Yenilik, görünürlük, uyumluluk ve uygulama arasında bir denge kurmayı amaçlayan bir orta yol olabilir mi?
Shadow AI: Nedir ve sorun nedir?
Büyük bir sorun, genel olarak gölge yapay zekanın getirdiği belirsizliktir. Shadow AI’nin evrensel bir tanımı yoktur, ancak genellikle şirketin iş işlevlerini gerçekleştirmek için farkında olmadığı kaynaklar kullanıldığında ortaya çıkar.
Gölge yapay zekayı sınırlamanın bu kadar zor olmasının bir nedeni, yalnızca endüstrilerde değil, günlük yaşamda da uygulanmasının çok kolay olmasıdır.
İnsanlar her zaman bir görevi yerine getirmenin en kolay yolunu bulacaktır. İşlerini daha verimli bir şekilde yapmak için teknolojiyi benimseyebilecekleri bir yol varsa, kuruluşları tarafından onaylanmamış olsa bile bunu yapacaklardır.
Sorun, yapay zekanın yaratıcı doğasının onu kontrol etmeyi zorlaştırmasıdır. Birey ile istem arasında risklerin ortaya çıkması için çok fazla gri alan vardır.
Kuruluşların herhangi bir sır olup olmadığını bilmelerine imkan yok bilgi kullanıcı tarafından paylaşılanların dışında tutuluyorlar ve yapay zeka tarafından oluşturulan bilgilerin doğru, hatta gerçek olup olmadığını doğrulayamıyorlar.
Acele evlat edinmenin tehlikeleri
Yeni ve heyecan verici teknolojiyi benimseme yeteneği her zaman onu anlama ve kontrol etme yeteneğinden önce gelecektir ve yapay zeka bunu benzeri görülmemiş bir ölçekte göstermektedir.
Yapay zekanın modern siber ortamda katlanarak büyümesi ve yayılması, tarihin herhangi bir noktasında bireylerin kendi yaratıcı ifadeleri üzerinde en büyük kontrole sahip olmasıyla sonuçlandı ve bununla birlikte tartışılmaz bir fırsat da geliyor.
Ancak diğer taraftan kuruluşlar yapay zekayı gerçekten anlamadan uygulayıp benimsediler. Sonuç olarak, organizasyonel ihlal potansiyeli hızla arttı ve yapılması gereken iş ve analiz miktarı da arttı. güvenlik Ekiplerin bu ihlalleri azaltmak için harekete geçmeleri gereken durumlar, tehlikeye verilen tepkinin yapay zeka büyüme hızına ayak uyduramayacağı noktaya kadar çok zorlayıcı hale geldi.
Tazminat ve sözleşmelerin yanı sıra üçüncü taraf riskini nasıl yönettiğimize de bakmalıyız. Bunun nedeni çoğu zaman bir kuruluşun AI aracısına sahip olmasına rağmen bunun başka bir şirketin yazılımı kullanılarak geliştirilmiş olmasıdır.
Temsilcinin veya potansiyelin ne kadar hisseye sahip olduğuna bağlı olarak, bir sorun ortaya çıktığında kuruluşların ne kadar yardım etmeye istekli oldukları sorunu vardır. araları açılmak olurdu.
Yapay Zeka Aracıları: Yaratıcı özgürlüğün kilidini açmanın anahtarı
Ek olarak, yapay zeka aracılarının eylemlerine daha fazla görünürlük kazandıracak bir yola ihtiyacımız var. Geçmişte bu, ağ günlükleri, uç nokta günlükleri ve veri kaybı önleme stratejiler. Sistemin girdi ve çıktılarını, hangi kimliklerin dahil olduğunu ve sorunlar ortaya çıkmaya başladığında durumun bağlamının ne olduğunu anlamamız gerekiyor.
Yanıt tarafında, bir sorun olup olmadığını hızlı bir şekilde nasıl tespit edebileceğimizi belirlememiz gerekiyor. Bununla birlikte, modern yapay zeka ajanlarının ortaya çıkardığı sorunlara çözüm bulmak için müdahale eylemlerinin güncellenmesi gerekiyor. Yapay zeka temsilcilerinin programlanmış görevlerini risk yaratmadan tamamlamalarını sağlamaktan sorumlu bir Yapay Zeka hükümet grubu kurulmalıdır.
Bu, bireylerin yapay zekadan gelen yaratıcı özgürlük ve rahatlıktan yararlanmasına olanak tanıyacak, aynı zamanda kuruluşları saldırı riskinden koruyacak ve güvenlik ekiplerinin, onları sürekli denetlemeye gerek kalmadan görevlerini yerine getirmeleri için aracılara güvenmelerine olanak tanıyacak. Güvenilir, güçlendirilmiş yapay zeka aracıları daha verimli bir güvenlik savunma sistemi sağlar.
Yapay zeka aracılarını yeniden eğittiğimiz, devre dışı bıraktığımız veya yeniden öğrenmeye zorladığımız, bugün mevcut olmayan ek bir müdahale eyleminin olması gerekiyor. Anında müdahale için SOC içerisinde bir muhatabın olması gerekiyor ve bu yapının inşasından sorumlu işletme sahipleri de olacak. Şu anda bu süreç için CMMI birinci seviyedeyiz, hatta belki sıfırdayız.
İçeriden gelen tehdit analistleri büyük ölçüde bu ayarlamalara bağlı olacaktır. Gölge yapay zekanın yarattığı aşırı bilgi yükünün üstesinden gelmek için bir yapı oluşturabilir ve bir süreç geliştirebilirsek, içeriden tehdit analistleri, tehditleri kuruluşlar için yıkıcı hale gelmeden önce ele alma konusunda daha uygun olacaktır.
Bilinen ve incelenmiş araçlarla açık ve kolayca uygulanabilir bir yapay zeka kullanım politikasına sahip olmak ve yeni yapay zeka aracılarını veya araçlarını mühendislik ve güvenlik incelemeleriyle inceleme, test etme ve uygulama sürecine sahip olmak, uygun düzeyde risk azaltma elde etmenin tek yoludur. Bu sürecin basit ve şeffaf hale getirilmesi hayati önem taşıyor. Aksi takdirde çalışanlar her zaman bunu atlatmanın yollarını arayacaktır.
Yapay zeka kullanımına yönelik ileriye giden yol, anlayış gerektirir. Kuruluşlar anlamadıkları şeyleri kontrol edemezler ve pek çok kişi görünürlük ve yönetişim yerine hızlı dağıtıma öncelik vermiştir. Yenilik ve güvenlik arasında bir denge kurabilirsek kuruluşlar, çalışanlarına yenilik yapma ve dünyayı değiştirme özgürlüğü tanırken, dış tehditlere karşı güvenliklerini en üst düzeye çıkarabilirler.
En iyi Antivirüs Yazılımlarını listeliyoruz: Uzman İncelemeleri, Testler ve Sıralamalar.
