Nvidia ve AMD, özelleştirilmiş HBM4 ile yeni AI dönemi başlatabilir

Nvidia ve AMD, bu hamleyle yalnızca grafik işlemcilerde değil, yapay zeka hızlandırıcılarında da pazar liderliğini sağlamlaştırmayı hedefliyor.

Yapay zekaya odaklanan donanım geliştirme yarışı hızla sürerken, Nvidia ve AMD, gelecek nesil hızlandırıcılarında özel HBM4 bellekler kullanmayı planlıyor. Şirketler, bu stratejik adımla veri işleme gecikmelerini en aza indirerek performansta önemli bir artış yakalamayı hedefliyor.

HBM4 belleklerin taban katmanı yeniden tasarlanıyor

HBM (High Bandwidth Memory) yongaları, TSV (Through-Silicon Via) bağlantılarıyla entegre edilen, üst üste dizilmiş DRAM katmanlarından oluşuyor. Bu yapı, genellikle 12 kata kadar çıkabiliyor. Bu yapı, en altta yer alan katmana eklenebilecek özel mantık devreleri sayesinde çok daha verimli bir hal alıyor. Nvidia ile AMD, bu tasarım yöntemini kullanarak HBM4’ün veri akışını optimize edecek ve gecikmeyi kritik seviyede düşürecek çözümler geliştiriyor. Böylece, hızlandırıcılar yüksek işlem gücünü daha kararlı bir şekilde koruyabilecek.

Nvidia Rubin ve AMD Instinct MI400 serisinde yeni bellekler kullanılacak

Gelen biglilere göre Nvidia ve AMD, özelleştirilmiş HBM4 bellekleri 2026 yılında piyasaya sürebilir. Nvidia, mevcut Blackwell mimarisinden çok daha yüksek performans sunması beklenen “Rubin” tasarımında bu belleklerden faydalanacak. AMD ise raf ölçeğinde çalışacak ilk hızlandırıcı ailesi olan Instinct MI400 serisinde bu teknolojiden yararlanacak. Broadcom ve MediaTek’in ise özelleştirilmiş HBM4 çözümlerini 2027 yılında tanıtması bekleniyor.

Standart HBM yerine yüksek verimlilik sunan özel siparişler veriliyor

Günümüzde üreticiler genellikle Samsung, Micron veya SK Hynix gibi tedarikçilerden standart HBM bellekler alıyor. Ancak büyük hacimli siparişler veren şirketler, tedarikçilere taban katmanına özel mantık devreleri eklenmiş modeller ürettirebiliyor. Nvidia ve AMD’nin talep ettiği bu geliştirmeler, doğrudan TeraFLOPS seviyesinde işlem gücü üretmese de veri paketlerini akıllıca yönlendirerek işlem zincirindeki gecikmeyi azaltıyor. Bu sayede, özellikle yapay zeka çıkarım süreçlerinde çift haneli oranlarda hız artışı elde edilebiliyor.

Yeni geliştirme veri merkezlerine büyük avantaj sağlayacak

Özelleştirilmiş HBM4 çözümleri, büyük yapay zeka modellerinin eğitimi ve çalıştırılması sırasında oluşan yoğun veri trafiğini daha dengeli yönetebilecek. Gecikmenin kritik olduğu işlemlerde bu yapı, veri yollarının verimliliğini artırarak donanımın uzun süreli yüksek performans göstermesine katkı sağlıyor. Nvidia ve AMD, bu hamleyle yalnızca grafik işlemcilerde değil, yapay zeka hızlandırıcılarında da pazar liderliğini sağlamlaştırmayı hedefliyor.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu