En iyi AI çiplerinin karşılaştırılması


Nvidia AI iş yüklerinde üstün performans sergileyen grafik işleme birimleri sayesinde Çarşamba günü artan kar raporu vererek tüm beklentilerin üzerinde performans gösterdi. Ancak daha fazla AI çip kategorisi zemin kazanıyor.

Özel ASIC’ler veya uygulamaya özel entegre devreler artık tüm büyük hiper ölçekleyiciler tarafından tasarlanıyor. Googleadlı kişinin TPU’su AmazonTrainium’u ve OpenAI’ler ile planlar Broadcom. Bu çipler daha küçük, daha ucuz, erişilebilir ve bu şirketlerin Nvidia GPU’larına olan bağımlılığını azaltabilir. Futurum Group’tan Daniel Newman, CNBC’ye, özel ASIC’lerin “önümüzdeki birkaç yıl içinde GPU pazarından daha hızlı büyüyeceğini” gördüğünü söyledi.

GPU’lar ve ASIC’lerin yanı sıra, sinyal işleme, ağ oluşturma ve yapay zeka gibi her türlü uygulamada kullanılmak üzere yapıldıktan sonra yazılımla yeniden yapılandırılabilen sahada programlanabilir kapı dizileri de vardır. Ayrıca yapay zekayı bulut yerine cihazlarda çalıştıran bir grup yapay zeka çipi de mevcut. Qualcomm, Elma ve diğerleri cihazdaki yapay zeka çiplerini savundu.

CNBC, kalabalık alanı ve mevcut çeşitli yapay zeka çiplerini ortadan kaldırmak için Büyük Teknoloji şirketlerindeki uzmanlar ve içeriden kişilerle görüştü.

Genel bilgi işlem için GPU’lar

Bir zamanlar öncelikli olarak oyun oynamak için kullanılan GPU’lar, kullanımlarının yapay zeka iş yüklerine kaymasıyla Nvidia’yı dünyanın en değerli halka açık şirketi haline getirdi. Nvidia geçtiğimiz yıl yaklaşık 6 milyon mevcut nesil Blackwell GPU’yu piyasaya sürdü.

Nvidia’nın yapay zeka altyapısı kıdemli direktörü Dion Harris, CNBC’den Katie Tarasov’a 12 Kasım 2025’te Santa Clara, Kaliforniya’daki Nvidia genel merkezinde yapay zeka için GB200 NVL72 raf ölçekli sunucu sisteminde 72 Blackwell GPU’nun nasıl birlikte çalıştığını gösteriyor.

Marc Ganley

Oyundan yapay zekaya geçiş, 2012 yılında Nvidia’nın GPU’larının araştırmacılar tarafından modern yapay zekanın büyük patlama anı olarak değerlendirilen AlexNet’i oluşturmak için kullanılmasıyla başladı. AlexNet, öne çıkan bir görüntü tanıma yarışmasına katılan bir araçtı. Yarışmadaki diğer kişiler uygulamaları için merkezi işlem birimleri kullanırken, AlexNet’in GPU’lara güvenmesi inanılmaz bir doğruluk sağladı ve rekabeti ortadan kaldırdı.

AlexNet’in yaratıcıları, GPU’ların gerçekçi grafikler oluşturmasına yardımcı olan aynı paralel işlemenin, bir bilgisayarın bir programcının koduna güvenmek yerine verilerden öğrendiği sinir ağlarının eğitimi için de harika olduğunu keşfetti. AlexNet GPU’ların potansiyelini sergiledi.

Günümüzde GPU’lar genellikle CPU’larla eşleştiriliyor ve bulutta yapay zeka iş yüklerini çalıştırdıkları veri merkezlerine yerleştirilmek üzere sunucu raf sistemlerinde satılıyor. CPU’lar sıralı genel amaçlı görevleri çalıştıran az sayıda güçlü çekirdeğe sahipken GPU’lar, matris çarpımı gibi paralel matematiğe daha dar bir şekilde odaklanmış binlerce küçük çekirdeğe sahiptir.

GPU’lar aynı anda birçok işlemi gerçekleştirebildiğinden yapay zeka hesaplamasının iki ana aşaması için idealdir: eğitim ve çıkarım. Eğitim, yapay zeka modeline büyük miktarda verideki kalıplardan öğrenmeyi öğretir; çıkarım ise yeni bilgilere dayanarak kararlar almak için yapay zekayı kullanır.

GPU’lar Nvidia’nın ve onun en büyük rakibinin genel amaçlı iş makineleridir. Gelişmiş Mikro Cihazlar. Yazılım, iki GPU lideri arasındaki önemli farklardan biridir. Nvidia GPU’ları, Nvidia’nın özel yazılım platformu olan CUDA’ya göre sıkı bir şekilde optimize edilirken, AMD GPU’ları büyük ölçüde açık kaynaklı bir yazılım ekosistemi kullanıyor.

AMD ve Nvidia, GPU’larını Amazon gibi bulut sağlayıcılara satıyor. MicrosoftGoogle, Kahin Ve CoreWeave. Bu şirketler daha sonra GPU’ları yapay zeka şirketlerine saat veya dakika bazında kiralıyor. Anthropic’ten 30 milyar dolarlık anlaşma Örneğin Nvidia ve Microsoft ile yapılan anlaşma, Nvidia GPU’larında 1 gigawatt’lık hesaplama kapasitesi içeriyor. AMD yakın zamanda büyük taahhütlerde de bulundu. OpenAI Ve Kahin.

Nvidia ayrıca yakın zamanda OpenAI’ye en az 4 milyon GPU satma anlaşması gibi yapay zeka şirketlerine ve aralarında Güney Kore, Suudi Arabistan ve İngiltere’nin de bulunduğu yabancı hükümetlere doğrudan satış yapıyor.

Çip üreticisi, CNBC’ye, 72 Blackwell GPU’nun tek bir sunucu gibi çalıştığı sunucu raflarından biri için yaklaşık 3 milyon dolar ücret aldığını ve her hafta yaklaşık 1.000 adet gönderdiğini söyledi.

Nvidia’nın yapay zeka altyapısından sorumlu kıdemli yöneticisi Dion Harris, CNBC’ye sekiz yıl önce Nvidia’ya katıldığında bu kadar çok talebi hayal edemediğini söyledi.

“İnsanlarla sekiz GPU’lu bir sistem oluşturma hakkında konuştuğumuzda bunun aşırı olduğunu düşündüler” dedi.

Özel bulut yapay zekası için ASIC’ler

Büyük dil modellerinin ilk patlama günlerinde GPU’lara ilişkin eğitim önemliydi, ancak modeller olgunlaştıkça çıkarımlar daha da önemli hale geliyor. Çıkarım, daha spesifik görevler için programlanmış daha az güçlü çipler üzerinde gerçekleşebilir. ASIC’lerin devreye girdiği yer burasıdır.

GPU, farklı AI iş yükleri için birçok türde paralel matematik yapabilen bir İsviçre Çakısı gibi olsa da, ASIC tek amaçlı bir araç gibidir. Çok verimli ve hızlıdır, ancak tek bir iş türü için tam matematik hesaplamaları yapmak için programlanmıştır.

Google, 2015 yılında AI için ilk özel ASIC’sini yaptıktan on yıl sonra, 7. nesil TPU Ironwood’u Kasım 2025’te piyasaya sürdü.

Google

“Chip War” kitabının yazarı Chris Miller, “Silikona kazındıktan sonra bunları değiştiremezsiniz ve bu nedenle esneklik açısından bir ödün verme söz konusudur” dedi.

Nvidia’nın GPU’ları birçok yapay zeka şirketinin benimsemesine yetecek kadar esnektir, ancak 40.000 dolara kadar maliyet ve olabilir elde edilmesi zor. Miller’a göre, yeni kurulan şirketler GPU’lara güveniyor çünkü özel bir ASIC tasarlamanın on milyonlarca dolardan başlayan ön maliyeti çok daha yüksek.

Analistler, bunları karşılayabilen en büyük bulut sağlayıcıları için özel ASIC’lerin uzun vadede işe yaradığını söylüyor.

Newsom, “Oluşturdukları iş yükleri üzerinde biraz daha fazla kontrole sahip olmak istiyorlar” dedi. “Aynı zamanda Nvidia ve AMD ile de çok yakın çalışmaya devam edecekler çünkü onların da kapasiteye ihtiyaçları var. Talep çok doyumsuz.”

Google, yapay zeka hızlandırması için özel bir ASIC yapan ilk Büyük Teknoloji şirketiydi ve ilk ASIC’si 2015’te çıktığında Tensör İşleme Birimi terimini türetmişti. Google, 2006’da bir TPU yapmayı düşündüğünü söylemişti ancak durum “acil” oldu 2013 yılında yapay zekanın veri merkezi sayısını iki katına çıkaracağını fark ettiğinde. TPU, 2017 yılında Google’ın Transformer’ı icat etmesine de katkıda bulundu. neredeyse tüm modern yapay zekaya güç veren mimari.

Google, ilk TPU’sundan on yıl sonra piyasaya sürülmüş Kasım ayında yedinci nesil TPU’yu piyasaya sürdü. Anthropic antrenman yapacağını duyurdu 1 milyona kadar TPU’da LLM Claude. Miller, bazı kişilerin TPU’ların teknik olarak Nvidia’nın GPU’larıyla aynı veya daha üstün olduğunu düşündüğünü söyledi.

Miller, “Geleneksel olarak Google bunları yalnızca şirket içi amaçlarla kullanırdı” dedi. “Uzun vadede Google’ın TPU’lara erişimi daha geniş bir şekilde açabileceğine dair birçok spekülasyon var.”

Amazon Web Hizmetleri Bir sonraki bulut sağlayıcısı kendi yapay zeka çiplerini tasarlayacak2015 yılında İsrailli çip girişimi Annapurna laboratuvarlarını satın aldıktan sonra. AWS duyuruldu 2018’de Inferentia ve 2022’de Trainium’u piyasaya sürdü. AWS’nin Trainium’un üçüncü neslini Aralık ayı başlarında duyurması bekleniyor.

Trainium’un baş mimarı Ron Diamant, CNBC’ye Amazon’un ASIC’inin AWS’deki diğer donanım satıcılarıyla karşılaştırıldığında %30 ila %40 daha iyi fiyat performansına sahip olduğunu söyledi.

Diamant, “Zamanla Trainium çiplerinin hem çıkarım hem de eğitim iş yüklerine oldukça iyi hizmet edebildiğini gördük” dedi.

CNBC’den Katie Tarasov, 8 Ekim 2025’te New Carlisle, Indiana’daki yeni AI veri merkezini dolduran Amazon Web Services’in Trainium 2 AI çipini elinde tutuyor.

Erin Siyah

Ekim ayında CNBC Indiana’ya gitti. Amazon’un en büyük yapay zeka veri merkezinde ilk kameralı turAnthropic’in modellerini yarım milyon Trainium2 çipi üzerinde eğittiği yer. AWS, gelen talebi karşılamak için diğer veri merkezlerini Nvidia GPU’larla dolduruyor AI müşterileri OpenAI’yi seviyor.

ASIC’leri oluşturmak kolay değil. Bu nedenle şirketler çip tasarımcılarına yöneliyor Broadcom Ve Marvell. Miller, müşterilerinin ASIC’lerini oluşturmalarına yardımcı olmak için “IP, teknik bilgi ve ağ oluşturmayı sağladıklarını” söyledi.

Miller, “Yani özellikle Broadcom’un yapay zeka patlamasından en büyük yararlananlardan biri olduğunu gördünüz” dedi.

Broadcom, Google’ın TPU’larının oluşturulmasına yardımcı oldu ve MetaEğitim ve Çıkarım Hızlandırıcısı 2023’te piyasaya sürüldüve var yeni bir anlaşma OpenAI’nin 2026’dan itibaren kendi özel ASIC’lerini oluşturmasına yardımcı olmak.

Microsoft ayrıca CNBC’ye şunu söyleyerek ASIC oyununa da giriyor şirket içi Maia 100 çipleri şu anda ABD’nin doğusundaki veri merkezlerinde konuşlandırılmıştır. Qualcomm A1200 ile, Intel Gaudi AI hızlandırıcıları ve Tesla’nın onunla AI5 çip. Ayrıca özel yapay zeka çiplerini kullanan çok sayıda start-up da var. Beyinlerdevasa tam plakalı AI çipleri üreten ve Grokçıkarım odaklı dil işleme birimleri ile.

Çin’de Huawei, ByteDance ve Alibaba özel ASIC’ler üretiyor ancak en gelişmiş ekipmanlar ve yapay zeka çipleri üzerindeki ihracat kontrolleri zorluk teşkil ediyor.

NPU’lar ve FPGA’lar ile Edge AI

Yapay zeka çiplerinin son büyük kategorisi, bulut yerine cihazlarda çalışmak üzere üretilen çiplerdir. Bu çipler tipik olarak bir cihazın ana Sistemine (SoC) entegre edilir. Edge AI çipleri, diğer bileşenler için pil ömründen ve yerden tasarruf etmelerine yardımcı olurken, cihazların AI özelliklerine sahip olmasını sağlar.

Eski Beyaz Saray yapay zekası ve yarı iletken politika danışmanı Saif Khan, “Bunu doğrudan telefonunuzda çok düşük bir gecikmeyle yapabileceksiniz, böylece veri merkezine kadar iletişim kurmanıza gerek kalmayacak” dedi. “Ve telefonunuzdaki verilerinizin gizliliğini koruyabilirsiniz.”

Nöral işlem birimleri, önemli bir uç yapay zeka çipi türüdür. Qualcomm, Intel ve AMD, kişisel bilgisayarlarda yapay zeka yeteneklerini etkinleştiren NPU’lar üretiyor.

Her ne kadar Apple NPU terimini kullanmasa da MacBook’larındaki şirket içi M serisi çipler özel bir sinir motoru içeriyor. Apple ayrıca en yeni iPhone A serisi çiplere sinirsel hızlandırıcılar da ekledi.

Apple platform mimarisi başkan yardımcısı Tim Millet, “Bizim için verimli. Hızlı tepki veriyor. Deneyim üzerinde çok daha fazla kontrol sahibi olduğumuzu biliyoruz.” Eylül ayındaki özel bir röportajda CNBC’ye söyledi.

En yeni Android telefonlarda ayrıca birincil Qualcomm Snapdragon çiplerinde yerleşik NPU’lar bulunur ve Samsung’un kendi NPU’su var Galaxy telefonlarında da. Gibi şirketlerin NPU’ları NXP ve Nvidia, arabalara, robotlara, kameralara, akıllı ev cihazlarına ve daha fazlasına gömülü yapay zekaya güç veriyor.

Miller, “Doların çoğu veri merkezine gidiyor, ancak zamanla bu değişecek çünkü telefonlarımızda, arabalarımızda, giyilebilir cihazlarımızda ve diğer her türlü uygulamada bugüne kıyasla çok daha fazla yapay zeka kullanacağız” dedi.

Ayrıca, yapıldıktan sonra yazılımla yeniden yapılandırılabilen, sahada programlanabilir kapı dizileri veya FPGA’ler var. NPU’lardan veya ASIC’lerden çok daha esnek olmasına rağmen FPGA’ler, yapay zeka iş yükleri için daha düşük ham performansa ve daha düşük enerji verimliliğine sahiptir.

AMD, en büyük FPGA üreticisi oldu Xilinx’i satın almak 2022’de 49 milyar dolar ile Intel, 16,7 milyar dolarla ikinci sırada yer alıyor. Altera’nın satın alınması 2015 yılında.

Yapay zeka çipleri tasarlayan bu oyuncular tek bir şeye güveniyor üretim yapacak şirket Alışveriş merkezi: Tayvan Yarı İletken Üretim Şirketi.

TSMC’nin Arizona’da, Apple’ın çip üretiminin bir kısmını taşımayı taahhüt ettiği dev bir yeni çip üretim tesisi var. Ekim ayında Nvidia CEO’su Jensen Huang, Blackwell GPU’larının Arizona’da da “tam üretimde” olduğunu söyledi.

Yapay zeka çip alanı kalabalık olmasına rağmen Nvidia’yı tahtından indirmek kolay olmayacak.

Newman, “Bu pozisyona sahipler çünkü bunu hak ettiler ve yıllarını onu inşa etmek için harcadılar” dedi. “Geliştirici ekosistemini kazandılar.”

Tüm AI çiplerinin nasıl çalıştığının bir dökümünü görmek için videoyu izleyin: https://www.cnbc.com/video/2025/11/21/nvidia-gpus-google-tpus-aws-trainium-comparing-the-top-ai-chips.html



Kaynak bağlantısı