Microsoft, Maia 200 AI çipini şirket içinde kullanacağını açıkladı


Microsoft bulut ve kurumsal başkan yardımcısı Scott Guthrie, 7 Mayıs 2018’de Seattle’daki Microsoft Build geliştirici konferansında konuşuyor. Seattle’da üst üste ikinci yılını kutlayan Build konferansının, şirketin bulut teknolojilerine ve bu hizmetler içindeki yapay zeka özelliklerine vurgu yapması bekleniyor.

Grant Hindsley | Bloomberg | Getty Images

Microsoft önde gelen işlemcilere potansiyel bir alternatif olan yapay zeka çipinin yeni neslini duyurdu Nvidia ve bulut rakiplerinin tekliflerine Amazon Ve Google.

Maia 200, Microsoft’un ilk yapay zeka çipini geliştirdiğini açıklamasından iki yıl sonra geliyor. Maya 100hiçbir zaman bulut müşterilerinin kiralamasına sunulmadı. Microsoft’un bulut ve yapay zekadan sorumlu başkan yardımcısı Scott Guthrie, Pazartesi günü bir blog yazısında yeni çip için “gelecekte daha geniş müşteri kullanılabilirliği” olacağını söyledi.

Guthrie, Maia 200’ü “Microsoft’un şimdiye kadar kullandığı en verimli çıkarım sistemi” olarak nitelendirdi. Geliştiriciler, akademisyenler, yapay zeka laboratuvarları ve açık kaynaklı yapay zeka modellerine katkıda bulunan kişiler, bir yazılım geliştirme kitinin önizlemesi için başvurabilirler.

Microsoft dedi ki süper istihbarat ekibiMustafa Süleyman liderliğindeki yeni çipi kullanacak. Ticari üretkenlik yazılım paketleri için Microsoft 365 Copilot eklentisi ve yapay zeka modellerinin üzerine inşa etmek için Microsoft Foundry hizmeti de bunu kullanacak.

Bulut sağlayıcıları, Anthropic ve OpenAI gibi üretken yapay zeka modeli geliştiricilerinden ve popüler modellerin üzerine yapay zeka aracıları ve diğer ürünleri geliştiren şirketlerden artan taleple karşı karşıya. Veri merkezi operatörleri ve altyapı sağlayıcıları, güç tüketimini kontrol altında tutarken bilgi işlem becerilerini artırmaya çalışıyor.

Microsoft, veri merkezlerinin ABD Merkez bölgesini Maia 200 yongalarıyla donatıyor ve bundan sonra ABD Batı 3 bölgesine ulaşacak ve ek konumlar da eklenecek.

Çiplerin kullanımı Taiwan Semiconductor Manufacturing Co.’nun 3 nanometre süreci. Her sunucunun içinde dördü birbirine bağlanır. InfiniBand standardından ziyade Ethernet kablolarına güveniyorlar. Nvidia, 2020’den sonra InfiniBand anahtarlarını satıyor Mellanoks kazanma.

Guthrie, çipin aynı fiyata alternatiflerine göre %30 daha yüksek performans sunduğunu yazdı. Microsoft, her Maia 200’ün, Amazon Web Services’in üçüncü nesil Trainium AI çipinden veya Google’ın yedinci nesil tensör işleme biriminden daha yüksek bant genişliğine sahip bellek barındırdığını söyledi.

Guthrie, Microsoft’un 6.144’e kadar Maia 200 yongasını birbirine bağlayarak yüksek performans elde edebileceğini, böylece enerji kullanımını ve toplam sahip olma maliyetini azaltabileceğini yazdı.

2023 yılında Microsoft’un gösterdi GitHub Copilot kodlama asistanının Maia 100 işlemcilerde çalışabileceğini söyledi.

KOL SAATİ: Çin AI modelleri Nvidia olmadan uyum sağlıyor



Kaynak bağlantısı