Uygulama ile Aç

Nvidia’nın yeni çipi "daha güçlü" yapay zeka için dünyada ilk kez Microsoft sunucularında

Yapay zekanın (AI) doyumsuz işlem gücünü karşılamak için geliştirilen Nvidia Blackwell AI GPU’ları dünyada ilk kez Microsoft sunucularında yer aldı. Üstelik çalışır vaziyetteler.

Nvidia'nın Blackwell tabanlı yapay zeka (AI) GPU’ları ve çipleri sektör tarafından bir süredir bekleniyor. Bu çipler ile yapay zekada kullanılan ve parametreleri artık trilyonlarla ölçülen büyük dil modellerinin (LLM) eğitimi gerçekleştirilecek. Şimdi ise Microsoft’un bulut platformu Azure, Blackwell ürünlerine halihazırda sahip olduğunu duyurdu.

Daha güçlü yapay zekalar gelecek

Microsoft Azure, Nvidia’nın en yeni Blackwell işlemcilerini kullanan sunucularını devreye soktuğunu duyurdu. Nvidia'nın Blackwell tabanlı GB200 çipleri, yapay zeka gibi yüksek performans gerektiren uygulamaların eğitiminde kullanılacak. Microsoft ise bu güçlü donanımı kullanan ilk bulut hizmet sağlayıcısı olduğunu resmen açıkladı.

Microsoft Azure tarafından yapılan duyuruda, GB200 işlemcili yapay zeka sunucularının çalışmaya başladığı ve bu sunucuların gelişmiş sıvı soğutma sistemi ile donatıldığı belirtildi.

Bilmeyenler için GB200 çipi, iki Blackwell B200 GPU ve bir Grace CPU’dan oluşan bir süper çip konumunda. Her bir GPU, 192GB HBM3E belleğe sahipken, CPU ise 512GB LPDDR5 belleğe erişiyor. Bu da toplamda 896GB birleşik bellek anlamına geliyor. Bu bileşenler, yüksek hızlı veri aktarımını mümkün kılan NVLINK ile birbirine bağlanıyor. GB200 çipi ayrıca, GB200 NVL72 platformunda bir raf olarak da sunuluyor. İçerisinde 72 adet GPU ve 36 CPU olan bu platform, tek bir NVLINK domaini içinde 512 GPU’ya kadar ölçeklenebiliyor.

Nvidia’nın B200 GPU’su, önceki nesil H100 işlemcilerine göre FP8 ve INT8 performansında 2.5 kat daha yüksek işlem kapasitesi sunuyor. 4.500 TFLOPS/TOPS seviyesine ulaşan bu işlemciler, büyük dil modellerinin daha hızlı ve verimli bir şekilde eğitilmesini mümkün kılıyor. Ayrıca, FP4 veri formatında ise inanılmaz bir performans sunarak 9 PFLOPS işlem gücüne erişiyor.

Sistemin üçte ikisi soğutma

Microsoft’un bu yeni sunucularında kullandığı sıvı soğutma sistemi de dikkat çekiyor. GB200 tabanlı NVL72 sunucularının yaklaşık 120 kW enerji tüketimi ve ısısı göz önüne alındığında, bu tür gelişmiş soğutma çözümleri büyük önem taşıyor. Zaten görsele bakacak olursanız NVL72 platformunun üçte ikisinin soğutmaya ayrıldığını görebilirsiniz.

Ayrıca bkz.

Foxconn, Nvidia için dünyanın en büyük tesisini inşa ediyor

Bu yeni donanım altyapısı, yapay zeka eğitim süreçlerini hızlandırırken aynı zamanda daha karmaşık modellerin oluşturulmasına olanak tanıyacak. Bilindiği üzere ChatGPT üreticisi OpenAI, modellerini Azure üzerinde geliştiriyor. Dolayısıyla Microsoft’un bu erken adımı OpenAI’a ve dolayısıyla Microsoft’un Copilot’una yarayacak.

Blackwell tabanlı bu sunucuların ticari kullanım için yaygınlaştırılması 2024 yılı sonunda ya da 2025’in başında gerçekleşecek. Microsoft’un 18-22 Kasım 2024 tarihlerinde düzenleyeceği Ignite konferansında daha fazla detay paylaşması bekleniyor.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş