Anlık Bildirim

Nvidia ve OpenAI’dan Çinli DeepSeek açıklaması: "Mükemmel bir ilerleme"

Nvidia, Çin'in yeni yapay zeke modeli DeepSeek R1'i "mükemmel bir ilerleme" olarak nitelendirirken OpenAI CEO’su Sam Altman ise “oldukça etkileyici bir model” söyleminde bulundu.
Nvidia ve OpenAI’dan Çinli DeepSeek açıklaması Tam Boyutta Gör
Yapay zeka dünyasında büyük bir yankı uyandıran DeepSeek’in R1 modeli, Nvidia tarafından “mükemmel bir yapay zeka ilerlemesi” olarak tanımlandı. Nvidia’nın bu açıklaması, DeepSeek’in satış dalgalarına neden olduğu ve Nvidia’nın bir günde 600 milyar dolar kaybettiği bir anda geldi. Öte yandan OpenAI CEO’su Sam Altman ise “oldukça etkileyici bir model” söyleminde bulundu.

Nvidia ve OpenAI’dan DeepSeek’e övgü

OpenAI CEO’su Altman, yaptığı açıklamada artık daha fazla bilgi işlem gücüne ihtiyaç duyduklarını ve gelecek yeni nesil modellerin şaşırtıcı olacağını söylerken, “Deepseek'in R1 modeli, özellikle fiyatına göre sundukları açısından oldukça etkileyici. Elbette biz çok daha iyi modeller sunacağız ve sahada yeni bir rakibin olması gerçekten motive edici! Yakında bazı duyurular yapacağız.” ifadelerini kullandı.

Nvidia sözcüsü yaptığı açıklamada, “DeepSeek mükemmel bir yapay zeka ilerlemesi ve test zamanı ölçeklendirmesinin (Test Time Scaling) mükemmel bir örneği. DeepSeek'in çalışması, bu tekniği kullanarak yeni modellerin nasıl oluşturulabileceğini, yaygın olarak kullanılabilen modellerden ve tamamen ihracat kontrolüne uygun bilgi işlem teknolojilerinden nasıl yararlanılabileceğini gösteriyor” dedi.

Geçtiğimiz hafta piyasaya sürülen R1 modeli, özellikle düşük maliyetiyle dikkat çekiyor. DeepSeek’in açıklamalarına göre modelin eğitim maliyeti 6 milyon doların altında kaldı. Bu rakam, Silikon Vadisi’ndeki devlerin milyarlarca dolar harcayarak geliştirdiği yapay zeka modelleriyle kıyaslandığında oldukça mütevazı.

R1 modeli, OpenAI gibi ABD merkezli firmaların en iyi modellerini performans açısından geride bırakmasıyla veya eşlemesiyle de dikkat çekiyor. Nvidia ise bu gelişmeyi, grafik işleme birimlerine (GPU) olan talebi artıracağı için olumlu bir gelişme olarak görüyor. Sözcü, “Çıkarım (inference) süreçleri, önemli miktarda Nvidia GPU’su ve yüksek performanslı ağ altyapısı gerektiriyor. Artık üç ölçeklendirme kuralımız var: devam eden eğitim öncesi, eğitim sonrası ve yeni test zamanı ölçeklendirmesi.”

Test Zamanı Ölçeklendirmesi veya Test Time Scaling (TTS), yapay zeka ve makine öğrenimi modellerinde, bir modelin çıkarım (inference) aşamasında, yani yeni veriler üzerinde tahmin yaparken ölçeklenebilirliğini veya performansını artırmaya yönelik bir yaklaşım konumunda. Bu yaklaşımı OpenAI o1, o3 ve DeepSeek R1 gibi “düşünen” modellerde görüyoruz.

Devasa yatırımlar sorgulanıyor

DeepSeek’in düşük maliyetle yüksek performans elde etmesi, büyük teknoloji firmalarının yatırımlarını sorgulatıyor. Microsoft, yalnızca 2025 yılında yapay zekâ altyapısına 80 milyar dolar harcamayı planladığını açıklamışken, Meta CEO’su Mark Zuckerberg ise aynı yıl için 60 ila 65 milyar dolarlık bir bütçe ayırdıklarını duyurdu.

Bu haberi, mobil uygulamamızı kullanarak indirip,
istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
Sorgu:

Editörün Seçtiği Sıcak Fırsatlar

Sıcak Fırsatlar Forumunda Tıklananlar

Tavsiyelerimiz

Yeni Haber
şimdi
Geri Bildirim