
Dayanıklı yapay zeka Sistem teknik performansın ötesine geçer. Arkasındaki ekibin kültürünü yansıtır.
Yapay zeka işletmelerle daha fazla bütünleştikçe ve çalışanlar ve halk tarafından kullanıldıkça, güvendiğimiz sistemlerin yönetilmesi de zorlaşıyor.
Yapay zekanın getirdiği riskler genellikle dramatik veya ani değildir. Belirsiz sahiplik, yönetilmeyen güncellemeler, eğitim eksikliği ve parçalanmış karar alma süreçleri nedeniyle yavaş yavaş ortaya çıkıyorlar.
GüvenlikBu bağlamda, kodun kendisine daha az, onun etrafında oluşturulan ekiplerin alışkanlıklarına ve koordinasyonuna daha çok bağlıdır.
Yapay zeka güvenliğini yeniden çerçevelemek
Yapay zeka güvenliği tartışıldığında, odak noktası doğrudan teknik katmana, temiz veri kümelerine, sağlam algoritmalara ve iyi yapılandırılmış modellere odaklanma eğilimindedir. Bu anlaşılabilir bir içgüdü. Bunlar görünür, somut bileşenlerdir ve önemlidirler.
Ancak pratikte risklerin çoğu mantıktaki kusurlardan değil, koordinasyondaki boşluklardan kaynaklanmaktadır. Güncellemeler günlüğe kaydedilmediğinde, modeller bağlam olmadan ekipler arasında hareket ettiğinde veya hiç kimse son değişikliği kimin yaptığından tam olarak emin olmadığında yavaş yavaş oluşma eğilimindedirler.
Birleşik Krallık’ın Siber Güvenlik ve Dayanıklılık Yasa Tasarısı, dijitalleşmenin nasıl resmileştirileceği konusunda ileri bir adımdır altyapı güvence altına alınmalıdır. Özellikle kritik sistemleri destekleyen hizmet sağlayıcılar için operasyonel güvence, sürekli izleme ve olaylara müdahale konusunda yeni gereksinimler getiriyor.
Ancak yasa tasarısı altyapıyla ilgili beklentileri keskinleştirse de yapay zekanın gerçekte nasıl geliştirildiğini ve uygulamada nasıl sürdürüldüğünü henüz ortaya koyamadı.
Sağlık ve finans gibi sektörlerde modeller halihazırda yüksek riskli kararları etkiliyor. Ve genellikle rollerin değiştiği, araçların geliştiği ve yönetimin her zaman buna ayak uyduramadığı, hızlı değişen ortamlarda oluşturulurlar.
Riskin birikme eğiliminde olduğu yer
Yapay zeka gelişimi nadiren tek bir ekipte kalır. Modeller ihtiyaçlar değiştikçe yeniden eğitilir, yeniden kullanılır ve uyarlanır. Bu esneklik değerlerinin bir parçasıdır ancak aynı zamanda karmaşıklık katmanları da ekler.
Küçük değişikliklerin geniş kapsamlı etkileri olabilir. Bir ekip eğitimi güncelleyebilir veri yeni girdileri yansıtmak için. Bir diğeri yanlış pozitifleri azaltmak için bir eşik ayarlayabilir. Üçüncüsü, daha önce nasıl yapılandırıldığını kontrol etmeden bir modeli dağıtabilir.
Bu kararların hiçbiri doğası gereği yanlış değildir. Ancak ekipler bir kararın kökenine kadar izleyemediğinde veya hiç kimse değişikliği kimin onayladığından emin olmadığında, hızlı tepki verme yeteneği kaybolur.
Bunlar kod veya mimari hataları değil, ekiplerin sistemleri oluşturma, uyarlama ve devretme yöntemlerinin, bu sistemlerin şu anda ne kadar yaygın olarak kullanıldığına ayak uyduramadığının işaretleridir. Çalışma kültürü geride kaldığında riskin görülmesi ve dolayısıyla kontrol altına alınması zorlaşır.
Kültürü bir kontrol yüzeyine dönüştürmek
Risk günlük alışkanlıklarda birikiyorsa, dayanıklılığın da aynı yerde inşa edilmesi gerekir. Kültür, iyi uygulamaları mümkün kılan bir unsur olmanın ötesinde, sistem ölçeğinde kontrolün sürdürülmesine yönelik bir mekanizma haline gelir.
Bu prensip yönetmeliğe de yansıyor. AB Yapay Zeka Yasası, uygunluk değerlendirmeleri ve gönüllü uygulama kuralları da dahil olmak üzere yüksek riskli sistemler için gereklilikleri belirler, ancak yönetişimi günlük rutinlere yerleştirme sorumluluğunun büyük kısmı hâlâ bunları uygulayan kuruluşlara aittir.
Birleşik Krallık’ta Bilim, Yenilik ve Teknoloji Bakanlığı’nın Yapay Zeka Siber Güvenlik Uygulama Kuralları da benzer bir yaklaşım izliyor ve üst düzey ilkeleri yardımcı olan pratik rehberlikle eşleştiriyor. işletmeler Politikayı çalışma normlarına dönüştürün.
Araştırma ve tanınma programları aynı yöne işaret ediyor. Birleşik Krallık’taki LASR girişimi gibi gerçek dünyadaki yapay zeka geliştirme çalışmaları, ekipler arasındaki iletişimin, devirlerin ve varsayımların güveni modellerin kendisi kadar nasıl şekillendirdiğini gösteriyor.
Ulusal Yapay Zeka Ödülleri gibi girişimler, kültürel yönetimi uygulamaya koyan ve daha net olgunluk standartları belirleyen kuruluşları öne çıkarıyor.
İşletmeler için artık görev, kültürel açıklığı operasyonel tasarımın daha entegre bir parçası haline getirmektir. Ekipler ortak normlara, görünür sahipliğe ve tutarlı karar alma süreçlerine ne kadar güvenirse, yapay zeka sistemleri de zamanla o kadar dayanıklı hale gelecektir.
İleriye bakmak
Yapay zeka günlük karar alma sürecinin bir parçası haline geldikçe, liderliğin odağı bireysel model performansından bu sistemlerin çalıştığı daha geniş ortama doğru kaymalıdır.
Bu ötesine geçmek anlamına gelir projeYapay zeka gelişimine güvenli bir şekilde ölçeklenecek yapıyı sağlayan ekipler, rutinler, forumlar ve alışkanlıklar arasındaki bağ dokusuna yatırım yapılması ve düzeltmelerin yapılması.
Bu olgunluğu oluşturmak zaman alır ama netlikle başlar. Sahiplik, değişim ve bağlamın netliği.
İlerleme kaydeden kuruluşlar, kültürü sosyal bir beceri olarak değil, çalışan bir varlık, gözden geçirilmesi, kaynak sağlanması ve sürekli olarak iyileştirilmesi gereken bir şey olarak ele alan kuruluşlar olacaktır.
Bu kültürel yapı, sonuçta güvenliği şekillendirecek olan şeydir. Yapay zeka günümüz işletmelerinin işleyişi açısından daha önemli hale gelirken, riskin görülmesini, yüzeye çıkmasını ve harekete geçilmesini kolaylaştıran yerleşik alışkanlıklar sayesinde.
En iyi çevrimiçi siber güvenlik kursunu sunduk.
Bu makale, günümüz teknoloji endüstrisindeki en iyi ve en parlak beyinleri öne çıkardığımız TechRadarPro’nun Expert Insights kanalının bir parçası olarak üretildi. Burada ifade edilen görüşler yazara aittir ve mutlaka TechRadarPro veya Future plc’ye ait değildir. Katkıda bulunmak istiyorsanız buradan daha fazla bilgi edinin: https://www.techradar.com/news/submit-your-story-to-techradar-pro
