
- OpenAI, gelecekteki yüksek lisansların sıfır gün geliştirmeye veya gelişmiş siber casusluğa yardımcı olabileceği konusunda uyarıyor
- Şirket savunma araçlarına, erişim kontrollerine ve katmanlı bir siber güvenlik programına yatırım yapıyor
- Yeni Sınır Risk Konseyi, sınır modelleri genelinde koruma önlemlerine ve sorumlu kapasiteye rehberlik edecek
Gelecekteki OpenAI Büyük Dil Modelleri (LLM), teorik olarak iyi korunan sistemlere karşı sıfır gün uzaktan çalışan saldırılar geliştirebilecekleri veya karmaşık ve gizli siber casusluk kampanyalarına anlamlı bir şekilde yardımcı olabilecekleri için daha yüksek siber güvenlik riskleri oluşturabilir.
Bu, yakın tarihli bir blogda siber yeteneklerin kendisinde olduğunu söyleyen OpenAI’nin kendisine göredir. Yapay zeka modelleri “hızla ilerliyorlar”.
Bu kulağa kötü gelse de OpenAI aslında buna olumlu bir bakış açısıyla bakıyor ve ilerlemelerin aynı zamanda “siber savunma için anlamlı faydalar” getirdiğini söylüyor.
Tarayıcının çökmesi
OpenAI, bu şekilde kötüye kullanılabilecek gelecekteki modellere önceden hazırlanmak için “savunma amaçlı siber güvenlik görevlerine yönelik modellerin güçlendirilmesine ve savunucuların kodu denetleme ve güvenlik açıklarını düzeltme gibi iş akışlarını daha kolay gerçekleştirmesine olanak tanıyan araçlar oluşturmaya yatırım yaptığını” söyledi.
Bloga göre bunu yapmanın en iyi yolu erişim kontrolleri, altyapı güçlendirme, çıkış kontrolleri ve izlemenin bir kombinasyonudur.
Ayrıca OpenAI, siber güvenlik görevleri üzerinde çalışan kullanıcılara ve müşterilere kademeli olarak gelişmiş yeteneklere erişim sağlayacak bir programı yakında tanıtacağını duyurdu.
Son olarak, Microsoftdestekli yapay zeka devi, Sınır Risk Konseyi adında bir danışma grubu kurmayı planladığını söyledi. Bu grup deneyimli siber güvenlik uzmanlarından ve uygulayıcılarından oluşmalı ve ilk başta siber güvenliğe odaklandıktan sonra erişimini başka yerlere genişletmeli.
Blogda, “Üyeler yararlı, sorumlu kapasite ile potansiyel suiistimal arasındaki sınır konusunda tavsiyelerde bulunacak ve bu bilgiler değerlendirmelerimizi ve önlemlerimizi doğrudan bilgilendirecek. Yakında konsey hakkında daha fazlasını paylaşacağız” yazıyor.
OpenAI ayrıca siber kötüye kullanımın “sektördeki herhangi bir sınır modelinde” geçerli olabileceğini, bu nedenle bilgi ve en iyi uygulamaları sektör ortaklarıyla paylaştığı Frontier Model Forum’un bir parçası olduğunu söyledi.
“Bu bağlamda tehdit modelleme, yapay zeka yeteneklerinin nasıl silah haline getirilebileceğini, farklı tehdit aktörleri için kritik darboğazların nerede bulunduğunu ve sınır modellerinin nasıl anlamlı bir artış sağlayabileceğini belirleyerek riskin azaltılmasına yardımcı oluyor.”
Aracılığıyla Reuters
Her bütçeye uygun en iyi antivirüs
TechRadar’ı Google Haberler’de takip edin Ve bizi tercih edilen kaynak olarak ekleyin Akışlarınızda uzman haberlerimizi, incelemelerimizi ve görüşlerimizi almak için. Takip Et butonuna tıklamayı unutmayın!
Ve tabii ki siz de yapabilirsiniz TechRadar’ı TikTok’ta takip edin haberler, incelemeler ve video biçimindeki kutu açma işlemleri için bizden düzenli olarak güncellemeler alın WhatsApp fazla.
