DeepSeek’in yeni Engram tekniği, akıl yürütme gücünü artırırken ve küresel DRAM baskısını hafifletirken AI bellek maliyetlerini azaltabilir




  • DeepSeek’in Engram’ı, statik belleği hesaplamadan ayırarak büyük yapay zeka modellerinde verimliliği artırır
  • Yöntem, DeepSeek modellerinin aramaları kullanmasını sağlayarak yüksek hızlı bellek ihtiyaçlarını azaltır.
  • Engram, minimum performans yüküyle birden fazla GPU arasında eşzamansız ön getirmeyi destekler

DeepSeek, Pekin Üniversitesi ile işbirliği içinde, bellek depolamayı hesaplama süreçlerinden ayırmak için tasarlanan Engram adı verilen yeni bir eğitim yöntemini tanıttı.

Geleneksel büyük dil modelleri bilgi erişimi ve temel hesaplama için yüksek bant genişlikli belleğe ihtiyaç duyar, bu da hem performans hem de maliyet açısından bir darboğaz yaratır.





Kaynak bağlantısı