
- GenAI SaaS kullanımı üç katına çıktı ve anlık hacimler bir yılda altı kat arttı
- Kullanıcıların neredeyse yarısı onaylanmamış “Gölge Yapay Zeka”ya güveniyor ve bu da büyük görünürlük boşlukları yaratıyor
- Kişisel bulut uygulaması kullanımına bağlı iç tehditlerle birlikte hassas veri sızıntıları iki katına çıktı
Üretken Yapay Zeka (GenAI) üretkenlik açısından harika olabilir ancak bazı ciddi güvenlik ve uyumluluk komplikasyonlarını da beraberinde getiriyor. Bu, yeni bir rapora göre Netscopeofiste GenAI kullanımı hızla arttıkça politika ihlali olaylarının da arttığını söylüyor.
Netskope, bu hafta başında yayınlanan Bulut ve Tehdit Raporu: 2026’da, işletmeler arasında GenAI Hizmet Olarak Yazılım (SaaS) kullanımının, aşağıdaki gibi araçları kullanan kişi sayısıyla birlikte “hızla arttığını” söyledi. SohbetGPT veya Yıl içinde üç kat artan İkizler burcu.
Kullanıcılar ayrıca araçlarla çok daha fazla zaman harcıyor; insanların uygulamalara gönderdiği istemlerin sayısı da son 12 ayda altı kat arttı; bir yıl önce 3.000 olan bu sayı, bugün ayda 18.000’in üzerine çıktı.
Gölge Yapay Zekası
Dahası, kuruluşların en üst %25’i ayda 70.000’den fazla istem gönderiyor ve en üst %1’i ayda 1,4 milyondan fazla istem gönderiyor.
Ancak araçların çoğu ve bunların kullanım durumları uygun departmanlar ve yöneticiler tarafından onaylanmadı. GenAI kullanıcılarının neredeyse yarısı (%47), kuruluşa paylaşılan veri türü ve bu dosyaları okuyan araçlar hakkında hiçbir görünürlük sağlamayan kişisel AI uygulamalarını (“Gölge AI” adı verilen) kullanıyor.
Sonuç olarak, kullanıcıların yapay zeka uygulamalarına hassas veriler gönderdiği vakaların sayısı geçen yıl iki katına çıktı.
Artık ortalama bir kuruluş ayda 223 gibi şaşırtıcı bir olayla karşılaşıyor. Netskope ayrıca kişisel uygulamaların “önemli bir içeriden tehdit riski” olduğunu, çünkü içeriden gelen tehdit olaylarının %60’ının kişisel bulut uygulaması örneklerini içerdiğini söyledi.
Düzenlemeye tabi veriler, fikri mülkiyet, kaynak kodu ve kimlik bilgileri sıklıkla kuruluş politikalarını ihlal edecek şekilde kişisel uygulama örneklerine gönderiliyor.
Rapor şu sonuca varıyor: “Hassas bilgiler onaylanmamış yapay zeka ekosistemlerine serbestçe aktığından ve kazara verilerin açığa çıkması ve uyumluluk risklerinde artışa yol açtığından, kuruluşlar veri yönetimini sürdürmekte zorlanacak.”
Saldırganlar ise bu parçalanmış ortamdan yararlanarak hiper verimli keşif gerçekleştirmek ve özel modelleri ve eğitim verilerini hedef alan son derece özelleştirilmiş saldırılar oluşturmak için yapay zekadan yararlanacak.”
Her bütçeye uygun en iyi antivirüs
TechRadar’ı Google Haberler’de takip edin Ve bizi tercih edilen kaynak olarak ekleyin Akışlarınızda uzman haberlerimizi, incelemelerimizi ve görüşlerimizi almak için. Takip Et butonuna tıklamayı unutmayın!
Ve tabii ki siz de yapabilirsiniz TechRadar’ı TikTok’ta takip edin haberler, incelemeler ve video biçimindeki kutu açma işlemleri için bizden düzenli olarak güncellemeler alın WhatsApp fazla.
