
- Arm tabanlı Neoverse CPU’lar artık Nvidia GPU’larla verimli bir şekilde doğrudan iletişim kurabiliyor
- NVLink Fusion, yapay zeka odaklı sunucu dağıtımları için PCIe darboğazlarını ortadan kaldırır
- Microsoft ve Google gibi hiper ölçekleyiciler özel Arm CPU’larını hemen kullanabilir
Nvidia duyurdu Koltabanlı Neoverse CPU’lar artık NVLink Fusion teknolojisiyle entegre olabilecek.
Bu entegrasyon, Arm lisans sahiplerinin Nvidia GPU’larla doğrudan iletişim kurabilen işlemciler tasarlamasına olanak tanır.
Daha önce NVLink bağlantıları öncelikle Nvidia’nın kendi CPU’ları veya sunucuları ile sınırlıydı. Intel Ve AMD işlemciler, dolayısıyla hiper ölçekleyiciler gibi Microsoft, AmazonVe Google Artık özel Arm CPU’larını İş İstasyonlarındaki ve AI sunucularındaki Nvidia GPU’larla eşleştirebilecekler.
NVLink’in özel CPU’ların ötesine genişletilmesi
Bu gelişme aynı zamanda Arm tabanlı yongaların, standart PCIe bağlantılarına kıyasla verileri daha verimli bir şekilde taşımasına da olanak tanıyor.
Arm, özel Neoverse tasarımlarının Nvidia GPU’larla kesintisiz veri aktarımına izin veren bir protokol içereceğini doğruladı.
Arm lisans sahipleri, NVLink IP’yi doğrudan entegre ederek Nvidia hızlandırıcılarına yerel olarak bağlanan CPU SoC’leri oluşturabilir.
Bu CPU’ları benimseyen müşteriler, yapay zeka iş yükleri için birden fazla GPU’nun tek bir CPU ile eşleştirildiği sistemleri dağıtabilecek.
Duyuru Supercomputing ’25 konferansında yapıldı ve hem CPU hem de GPU geliştiricilerinin katılımını yansıtıyor.
Nvidia’nın Grace Blackwell platformu şu anda birden fazla GPU’yu Arm tabanlı bir CPU ile eşleştirirken, diğer sunucu yapılandırmaları Intel veya AMD CPU’lara dayanıyor.
Microsoft, Amazon ve Google, altyapıları üzerinde daha fazla kontrol sahibi olmak ve operasyonel maliyetleri azaltmak için Arm tabanlı CPU’ları kullanıyor.
Arm’ın kendisi CPU üretmez ancak talimat seti mimarisini lisanslar ve Arm tabanlı işlemcilerin daha hızlı geliştirilmesi için tasarımlar satar.
Arm yongalarındaki NVLink Fusion desteği, bu işlemcilerin Nvidia CPU’lara ihtiyaç duymadan Nvidia GPU’larla çalışmasına olanak tanıyor.
Ekosistem aynı zamanda hükümetlerin veya bulut sağlayıcılarının kontrol düzlemi görevleri için Arm CPU’ları isteyebileceği egemen yapay zeka projelerini de etkiler.
NVLink, bu sistemlerin özel CPU yapılandırmalarını korurken Nvidia GPU’larını kullanmasına olanak tanır.
Daha önce Nvidia’da hisse sahibi olan Softbank, OpenAI’nin Stargate projesine destekHem Arm hem de Nvidia çiplerini kullanmayı planlıyor.
Bu nedenle NVLink Fusion entegrasyonu, Arm CPU’larını pazar lideri işlemcilerle eşleştirme seçenekleri sunar. GPU birden fazla ortamda hızlandırıcılar.
Teknik açıdan bakıldığında NVLink genişletmesi, Nvidia merkezli yapay zeka sistemlerinde kullanılabilecek CPU sayısını artırır.
Ayrıca gelecekteki Arm tabanlı tasarımların, GPU’ların ana hesaplama birimleri olduğu yapılandırmalarda Nvidia’nın Grace ve Vera işlemcilerinin yanı sıra Intel Xeon CPU’larıyla doğrudan rekabet etmesine de olanak tanıyor.
Bu gelişme, alternatif ara bağlantıların veya rakip yapay zeka hızlandırıcılarının çekiciliğini azaltabilir, ancak çip geliştirme döngüleri benimseme zamanlamasını etkileyebilir.
TechRadar’ı Google Haberler’de takip edin Ve bizi tercih edilen kaynak olarak ekleyin Akışlarınızda uzman haberlerimizi, incelemelerimizi ve görüşlerimizi almak için. Takip Et butonuna tıklamayı unutmayın!
Ve tabii ki siz de yapabilirsiniz TechRadar’ı TikTok’ta takip edin Video biçimindeki haberler, incelemeler ve kutu açma işlemleri için bizden düzenli güncellemeler alın WhatsApp fazla.
