Micron, 12-Hi HBM3E örneklemesine başladı
Micron’un 12 katmanlı HBM3E bellek çözümü, mevcut 8-Hi HBM3E bellek çözümlerine kıyasla yüzde 50 daha fazla DRAM kapasitesi sunuyor. 36 GB kapasiteye ulaşan bu yeni nesil bellek, daha büyük AI modellerinin, örneğin 70 milyar parametreye sahip Llama 2 gibi, tek bir işlemci üzerinde çalıştırılmasına olanak tanıyor. Bu da işlemci ile GPU arasında veri aktarımını azaltarak daha hızlı sonuçlar elde edilmesini sağlıyor.
Micron’un 12-Hi HBM3E çözümü, 9.2 Gb/s pin hızı ve 1.2 TB/s’lik bellek bant genişliği ile sektörün en hızlı bellek çözümlerinden biri olarak öne çıkıyor. Bu hız, veri merkezleri ve AI hızlandırıcıları için kritik olan büyük veri kümelerinin hızlı bir şekilde işlenmesine olanak tanıyor. Ayrıca, Micron’un 36 GB kapasiteli bellek çözümü, rakiplerinin sunduğu 24 GB kapasiteli çözümlerle karşılaştırıldığında daha düşük enerji tüketimi ile dikkat çekiyor.
Micron HBM3E 12-Hi bellek, tam programlanabilir MBIST özellikleri ile donatılmış. Bu sistem, bellek çözümünün gerçek kullanım senaryolarına uygun hızlarda test edilmesini sağlıyor ve bu da doğrulama sürecini hızlandırıyor.
Bu haberi, mobil uygulamamızı kullanarak indirip,istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz: