Nvidia, sonunda Samsung'u tercih etti
Nvidia, şimdiye kadar yapay zeka için geliştirilen GPU’larında Samsung’un HBM belleklerine yer vermemişti. Ancak şimdi, H20 GPU’ları için Samsung’un dördüncü nesil yüksek bant genişlikli bellek ya da HBM3 yongalarını kullanacak. Bununla birlikte Samsung'un HBM3 çiplerinin Nvidia’nın diğer yapay zeka hızlandırıcılarında kullanılıp kullanılmayacağı şimdilik belirsiz.
HBM bellekleri sadece SK Hynix, Micron ve Samsung üretiyor. Nvidia, SK Hynix ve Micron’dan tedarik sağlasa da üretken yapay zekada talep çok büyük ve firmalar yetişmekte zorlanıyor. Samsung ise rakiplerinden çok daha büyük üretim kapasitelerine sahip. Ayrıca HBM belleklerdeki lider SK Hynix, üretimini HBM3E’ye kaydırmayı planlıyor. Dolayısıyla HBM3 ihtiyacı daha da artacak.
Dünyanın en büyük bellek çipi üreticisi olan Samsung ise geçen yıldan bu yana Nvidia'nın hem HBM3 hem de HBM3E testlerini geçmeye çalışıyor ancak ısı ve güç tüketimi sorunları nedeniyle zorlanıyor. HBM3’ün H20 için bile olsa onaylanmış olması Samsung için değerli. Ayrıca Samsung’un HBM3 tedarikine Ağustos ayında başlayacağı da belirtiliyor. Bu arada H20, Nvidia’nın H100 çözümünün Çin kısıtlamalarına uyarlanmış hali konumunda. Teorik olarak H20, yaklaşık olarak 6 kat (295 TFLOPs vs 1979 TFLOPs) daha yavaş bir ürün.
Bu haberi, mobil uygulamamızı kullanarak indirip,istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
Bana çok korkutucu geliyor bunlar.