
Teknoloji endüstrisi, GPU’ların yapay zeka altyapısının merkezinde yer aldığından giderek daha fazla söz ediyor, ancak hangi modelleri çalıştırabileceğinize karar veren sınırlayıcı faktör aslında bellektir.
Dünyanın ilk tek çipli USB flash sürücüsünü icat eden Phison CEO’su Pua Khein Seng, geniş kapsamlı bir röportajda şunları söyledi: TechRadar Pro Bilgi işleme odaklanma, yerel çıkarım çalıştıran dizüstü bilgisayarlardan yapay zeka veri merkezleri oluşturan hiper ölçekleyicilere kadar her yerde ortaya çıkan daha temel bir kısıtlamadan dikkati dağıttı.
Pua, “Yapay zeka modellerinde asıl darboğaz bilgi işlem gücü değil, bellektir” dedi. “Yeterli hafızanız yoksa sistem çöker.”
DRAM sınırlarının telafi edilmesi
Şirketin halka açık olarak tartıştığı Phison’un aiDAPTIV+ çalışmasının arkasında bu şey var. CES 2026ve esas olarak NAND flash’ı bellek havuzu olarak kullanarak AI işlemeyi entegre GPU sistemlerine genişletmenin bir yoludur.
Pua bunu şu şekilde tanımlıyor: SSD DRAM sınırlarını telafi edecek ve GPU’ların bellekte beklemek yerine hesaplamaya odaklanmasını sağlayacak kapasite.
“Buluşumuz SSD’leri DRAM belleğin tamamlayıcısı olarak kullanıyor” diyor. “Bunu hafıza genişletme olarak kullanıyoruz.”
Pratik bir hedef, çıkarım sırasında yanıt verme yeteneğini, özellikle de İlk Belirtece Kadar Geçen Süreyi, yani bir istemin gönderilmesi ile ilk çıktının görülmesi arasındaki gecikmeyi iyileştirmektir. Pua, uzun TTFT’nin, model sonunda görevi tamamlasa bile yerel yapay zekanın bozuk hissettirdiğini savunuyor.
“Cihazınıza bir şey sorarsanız ve ilk kelime için 60 saniye beklemek zorunda kalırsanız bekler misiniz?” diyor. “Bir şey sorduğumda iki saniye bekleyebilirim. Ancak 10 saniye sürerse kullanıcılar bunun saçma olduğunu düşünecek.”
Pua, TTFT iyileştirmelerini bellek ağırlıklı çıkarım verilerinin, özellikle de KV önbelleğinin daha iyi yeniden kullanılmasıyla ilişkilendiriyor ve bunu, ziyaretler arasında hiçbir şey kaydedilmediği için bir doktorun her hastaya aynı talimatları tekrarlaması ile karşılaştırıyor.
“Yapay zeka çıkarımında KV önbelleği adı verilen bir şey var; bu, web’de gezinme sırasındaki çerezlere benziyor” diye genişletti. “Çoğu sistemde yeterli DRAM yoktur, dolayısıyla aynı soruyu her sorduğunuzda sistemin her şeyi yeniden hesaplaması gerekir.”
Pua, Phison’ın yaklaşımının “sık kullanılan önbelleği depolama alanında depolamak” olduğunu, böylece kullanıcı bir sorguyu tekrarladığında veya tekrar ziyaret ettiğinde sistemin bunu hızlı bir şekilde alabileceğini ekledi.
Pua, birçok kuruluşun bilgi işlem verimi için değil, daha fazla VRAM toplamak için ekstra GPU satın aldığını ve bunun da silikon israfına yol açtığını belirttiğinden, bu bellek öncelikli çerçeveleme, dizüstü bilgisayarların ötesine geçerek şirketlerin GPU sunucuları oluşturma biçimini de kapsıyor.
“Çözümümüz olmadan, insanlar bilgi işlem gücü için değil, öncelikle belleği toplamak için birden fazla GPU kartı satın alıyor” diye ekliyor. “Bu pahalı GPU’ların çoğu, yalnızca hafızaları için kullanıldıkları için boşta kalıyor.”
Pua, SSD’lerin daha büyük bir bellek havuzu sunabilmesi durumunda GPU’ların satın alınabileceğini ve bunun yerine hesaplama için ölçeklendirilebileceğini söylüyor. “Yeterli belleğe sahip olduğunuzda işlem hızına odaklanabilirsiniz” diye belirtiyor, “bir GPU yavaşsa, bilgi işlem gücünü artırmak için iki, dört veya sekiz GPU ekleyebilirsiniz.”
244 TB SSD’ler
Buradan hareketle Pua, hiper ölçekleyicilerin ve yapay zeka altyapısının ekonomisini de kapsayacak şekilde lensini genişletti ve mevcut GPU harcama dalgasının gerekli ancak eksik olduğunu açıkladı, çünkü yapay zekanın iş durumu çıkarıma, çıkarım ise veri depolamaya bağlı.
“CSP’ler GPU’lara 200 milyar doların üzerinde yatırım yaptı” diyor. “Doğrudan GPU’lardan para kazanmıyorlar. Gelir, büyük miktarda veri depolama gerektiren çıkarımlardan geliyor.”
Durumu defalarca döndüğü bir cümleyle özetledi: “CSP karı, depolama kapasitesine eşittir.”
Bu argüman aynı zamanda şunu da besliyor: Phison’ın aşırı kapasiteli kurumsal SSD’lere yönelik hamlesi. Şirket 244 TB’lık bir model duyurdu ve Pua bize şunları söyledi: “Mevcut 122 TB diskimiz, 16 katmanlı NAND yığınlamalı X2 denetleyicimizi kullanıyor. 244 TB’ye ulaşmak için sadece 32 katmanlı yığınlamaya ihtiyacımız var. Tasarım tamamlandı, ancak asıl zorluk üretim verimi.”
Ayrıca ilginç bir alternatif rotanın da ana hatlarını çizdi: yüksek yoğunluklu NAND kalıpları. “4 TB NAND kalıplarını bekliyoruz, bunlarla yalnızca 16 katmanla 244 TB’a ulaşabiliriz” diyerek zamanlamanın üretim olgunluğuna bağlı olacağını ekledi.
Pua, PLC NAND’da Phison’un ürünün ne zaman geleceğini kontrol etmediğini açıkça belirtti ancak üreticiler ürünü güvenilir bir şekilde gönderebildiğinde desteklemeyi planladığını bize söyledi.
“PLC beş bitlik NAND’dır; bu öncelikle NAND üreticisinin kararıdır, bizim değil” dedi. “NAND şirketleri PLC teknolojilerini olgunlaştırdığında SSD tasarımlarımız bunu desteklemeye hazır olacak.”
Farklı bir depolama trendi konusunda daha şüpheciydi: Flash’ı doğrudan GPU tarzı bellek yığınlarına bağlamak, bazen yüksek bant genişlikli flash gibi etiketler altında tartışılıyordu. Pua, dayanıklılık uyumsuzluğunun kötü bir başarısızlık modu yarattığını savundu.
“NAND’ı doğrudan GPU’larla entegre etmenin zorluğu yazma döngüsü sınırlamasıdır” dedi. “NAND’ın sınırlı programlama/silme döngüleri var. Bunları entegre ederseniz, NAND kullanım ömrünün sonuna ulaştığında pahalı GPU kartının tamamını atmak zorunda kalırsınız.”
Phison’un tercih ettiği model modülerdir: “SSD’leri değiştirilebilir, tak ve çalıştır bileşenler olarak tutmak. Bir SSD yıprandığında, pahalı GPU’yu korurken onu değiştirmeniz yeterlidir.”
Birlikte ele alındığında, Pua’nın AI donanımının geleceğine ilişkin görüşü, giderek daha büyük GPU’ların peşinde koşmaktan çok, bellek kapasitesinin ucuz, ölçeklenebilir ve değiştirilebilir olduğu sistemler oluşturmakla ilgilidir.
Hedef ister entegre GPU’da yerel çıkarım olsun, ister hiper ölçekleyicide raf ölçeğinde çıkarım olsun, şirket depolama yoğunluğunun ve bellek genişletmenin hesaplamada başka bir sıçrama yapmadan çok önce neyin pratik olduğuna karar vereceğine inanıyor.
TechRadar’ı Google Haberler’de takip edin Ve bizi tercih edilen kaynak olarak ekleyin Akışlarınızda uzman haberlerimizi, incelemelerimizi ve görüşlerimizi almak için. Takip Et butonuna tıklamayı unutmayın!
Ve tabii ki siz de yapabilirsiniz TechRadar’ı TikTok’ta takip edin haberler, incelemeler ve video biçimindeki kutu açma işlemleri için bizden düzenli olarak güncellemeler alın WhatsApp fazla.
