Uygulama ile Aç

Microsoft, ChatGPT kadar güçlü küçük AI modelini tanıttı: Telefonlarda çalışabilir

Yapay zeka araştırmalarındaki bir sonraki hedef, güçlü modelleri küçük cihazlarda çalışabilir hale getirmek. Bu bağlamda Microsoft, ChatGPT kadar güçlü küçük yapay zeka modeli Phi-3 Mini'yi tanıttı.

Günümüzde kullandığımı Microsoft Copilot, OpenAI ChatGPT veya Google Gemini gibi yapay zeka araçları ve bunlara destek veren modeller, devasa kapasitelere sahip bulutlarda barındırılıyor. Bu modeller milyarlar, hatta trilyonlarca parametrelere sahipler ve doğal olarak bu halleriyle akıllı telefonlar veya bilgisayarlarda çalışmaları mümkün değil. Microsoft ise piyasadaki en büyük dil modelleriyle benzer bir performans sunabilen küçük boyutlu Phi-3 Mini modelini tanıttı.

Microsoft Phi-3 Mini rakiplere meydan okuyor

Microsoft’un üzerinde çalıştığı üç kompakt yapay zeka dil modelinden birisi olan Phi-3 Mini, 3,8 milyar parametrelik ağırlığa sahip. Microsoft, bu aileyi yakında Phi-3 Small (7 milyar parametre) ve Phi-3 Medium (14 milyar) ile tamamlamayı hedefliyor. Microsoft, Phi-3 Mini’nin küçük olmakla birlikte kendi boyutunun 10 katı büyüklüğündeki diğer devasa modeller kadar güçlü olduğunu belirtiyor.

Microsoft tarafından paylaşılan ve üstteki görselde görebileceğiniz rakamlara göre Phi-3 Mini’nin, ChatGPT'ye güç veren 175+ milyar parametreli GPT-3.5, Mistral'in Mixtral 8x7B modeli ve Anthropic’in Claude 3 Sonnet modeli ile rekabet edebildiği görülüyor. Unutmayın, Phi-3 Mini, akıllı telefonlar gibi cihaz üzerinde çalışan, bulut bağlantısı gerektirmeyen bir AI modeli.

Ayrıca bkz.

Apple, iPhone'un yapay zekası için OpenAI ile görüşüyor

Genellikle daha “zeki” yapay zeka modelleri için daha fazla parametreye gerek duyuluyor. Yapay zekadaki parametreler, modelin eğitim sırasında öğrendiği değişkenlerdir. Bunlar, modelin tahminlerde bulunmak veya kararlar almak için kullandığı iç değişkenlerdir. Daha fazla parametre genellikle sorgularınızın daha akıllıca anlaşılması anlamına gelir. Bununla birlikte hesaplama talepleri de paralel olarak artar.

Öte yandan Microsoft'un araştırmacıları, eğitim verilerinin kendisini iyileştirerek Phi-3 Mini’de şaşırtıcı sonuçlar elde ettiklerini belirtiyor. Günümüzün devasa AI modelleri, internetteki ve kütüphanelerindeki “her şey" ilet eğitiliyor. Bu veri kümesinin içerisinde yararlı şeyler kadar yararsız şeyler de olabiliyor. Microsoft ise Phi-3 Mini’yi yüksek kaliteli web içeriği ve önceki Phi modellerinden geliştirilen sentetik olarak oluşturulmuş materyalden oluşan son derece seçkin bir veri kümesiyle eğitti. Bu da modelin performansının, boyutuna göre güçlü olmasını sağladı. Kısaca nicelikten ziyade niteliğe odaklanıldı.

Bu arada model ayrıca bir seferde 4.000 token'a kadar bağlamı işleyebiliyor ve 128k token'lık özel bir versiyonu da mevcut. Microsoft bu modeli Azure, Hugging Face ve Ollama'da açık kaynak olarak kullanıma sundu. Firma, Phi-3 Small (7B parametreleri) ve Phi-3 Medium'u (14B parametreleri) da yakında piyasaya sürmeyi planlıyor.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş

Beğenilen Yorumlar

Tümünü Gör
1 Yorumun Tamamını Gör