Uygulama ile Aç

Micron, Nvidia’nın yeni AI GPU’ları için HBM3E üretimine başladı

ABD'li bellek devi Micron, Nvidia’nın yeni yapay zeka çiplerinde kullanılacak olan yüksek bant genişlikli HBM3e belleklerin seri üretimine başladığını duyurdu.

Micron, yaptığı açıklamada Nvidia’nın yeni yapay zeka çipi H200’de kullanılmak üzere geliştirilmiş HBM3e belleklerin seri üretimine başladığını duyurdu. Firmaya göre yeni HBM3e, rakiplerine göre yüzde 30 daha az güç tüketimine sahip. Enerji verimliliğinin AI hızlandırıcıları için oldukça önemli olduğu bilinen bir gerçek.

Micron, HBM3E belleklerde seri üretime başladı

Micron'un 1β (1-beta) sürecinde üretilen 24GB 8H HBM3e bellekleri Nvidia'nın "H200" Tensor Core GPU'larının bir parçası olacak ve SK Hynix'in H100 GPU’lardaki tek tedarikçi olarak boy göstermesini sonlandıracak. Micron’un yeni belleğiyle birlikte Nvidia H200, 9,2GT/s veri aktarım hızlarına ve GPU başına 1,2TB/sn'nin üzerinde bellek bant genişliğine sahip 141GB bellek kapasitesine sahip olacak. HBM3 ile karşılaştırıldığında bu, bellek bant genişliğinde yüzde 44'lük bir artış anlamına geliyor.

Bu arada Nvidia'nın H200 ürünü Hopper mimarisine dayanıyor ve H100 ile aynı bilgi işlem performansını sunuyor. Ek olarak toplamda 4,8 TB/s'ye kadar bant genişliğine sahip 141 GB HBM3E bellek ile donatılıyor, böylelikle H100'de bulunan 80 GB HBM3 ve 3,35 TB/s'ye kadar bant genişliğine karşın önemli bir iyileştirme getiriyor.

Ayrıca bkz.

Samsung, sektörün ilk 36 GB HBM3E 12H belleğini geliştirdi

Micron'un yapay zekaya yönelik bellek yol haritası, Mart 2024'te 36 GB 12-Hi HBM3E ürününün piyasaya sürülmesiyle daha da güçlenecek. Ancak rekabet halen çok yüksek. Samsung, halihazırda 12 istifli/katmanlı 36 GB HBM3E belleklerini müşterilere örneklemeye başlamış durumda.

(Güncellendi: )



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş