OpenAI, ‘yüksek’ siber güvenlik riski oluşturması muhtemel yeni modelleri kabul ediyor




  • OpenAI, gelecekteki yüksek lisansların sıfır gün geliştirmeye veya gelişmiş siber casusluğa yardımcı olabileceği konusunda uyarıyor
  • Şirket savunma araçlarına, erişim kontrollerine ve katmanlı bir siber güvenlik programına yatırım yapıyor
  • Yeni Sınır Risk Konseyi, sınır modelleri genelinde koruma önlemlerine ve sorumlu kapasiteye rehberlik edecek

Gelecekteki OpenAI Büyük Dil Modelleri (LLM), teorik olarak iyi korunan sistemlere karşı sıfır gün uzaktan çalışan saldırılar geliştirebilecekleri veya karmaşık ve gizli siber casusluk kampanyalarına anlamlı bir şekilde yardımcı olabilecekleri için daha yüksek siber güvenlik riskleri oluşturabilir.

Bu, yakın tarihli bir blogda siber yeteneklerin kendisinde olduğunu söyleyen OpenAI’nin kendisine göredir. Yapay zeka modelleri “hızla ilerliyorlar”.





Kaynak bağlantısı