Anlık Bildirim

Tehlikeli yapay zekalar için yeni “AGI” ölçütü tasarlandı

Bilim insanları yeni bir “AGI” yani yapay genel zeka ölçütü üzerinde çalışıyor. Bu, gelecekteki yapay zeka modellerinin 'kötü amaçlı' etkilerini ölçmek için 75 zorlu testi barındıracak.
Tehlikeli yapay zekalar için yeni “AGI” ölçütü tasarlandı Tam Boyutta Gör
Yapay zeka alanındaki gelişmeler hız kesmeden devam ederken, OpenAI bilim insanları yeni bir ölçüt geliştirdi. "MLE-bench" adı verilen bu ölçüt, gelecekteki gelişmiş yapay zekaların kendi kodlarını değiştirme ve kendilerini geliştirme yeteneklerini değerlendirmek için tasarlanmış 75 adet son derece zor testi içeriyor.

MLE-bench ölçütü, her biri makine öğrenimi mühendisliğini test eden 75 Kaggle testinden oluşan bir derleme konumunda. Bu çalışma, yapay zeka modellerinin eğitilmesini, veri kümelerinin hazırlanmasını ve bilimsel deneylerin yürütülmesini içeriyor ve makine öğrenimi algoritmalarının belirli görevlerde ne kadar iyi performans gösterdiğini ölçmeyi amaçlıyor. Bu testlerin her birinin gerçek dünyada pratik bir karşılığı olduğunun altı çiziliyor.

OpenAI bilim insanları, MLE-bench'i "otonom makine öğrenimi mühendisliği" alanında yapay zeka modellerinin performansını ölçmek amacıyla geliştirdiklerini belirtiyor. Bu tür testler, yapay zekanın karşılaşabileceği en zorlu sınavlardan biri olarak kabul ediliyor.

Riskler ve kazançlar büyük

Tehlikeli yapay zekalar için yeni “AGI” ölçütü tasarlandı Tam Boyutta Gör
Araştırmacılar, yapay zeka ajanlarının makine öğrenimi araştırma görevlerini otonom bir şekilde yerine getirebilmesi durumunda sağlık, iklim bilimi ve diğer alanlarda bilimsel ilerlemeyi hızlandırabileceğini ifade etti. Ancak bu yeteneklerin kontrolsüz bir şekilde gelişmesi, büyük felaketlere yol açabilecek sonuçlar doğurabilir. Bilmeyenler için yapay zeka ajanları, insan müdahalesi olmadan belirli görevleri yerine getiren otonom akıllı sistemler olarak basitçe açıklanabilir.

Öte yandan araştırmacılar yapay zeka alanındaki yeniliklerin, onların etkilerini anlama yeteneğimizden daha hızlı üretilmesi halinde “yıkıcı etkileri olabilen ve kötüye kullanma” riski taşıyan modellerin ortaya çıkacağında dikkat çekiyorlar. MLE-bench'in “büyük bir kısmını” çözebilen herhangi bir modelin muhtemelen birçok açık uçlu makine öğrenimi görevini (kendi kendini geliştirme gibi) kendi başına yürütebileceğini de eklediler.

Bilim insanları OpenAI'nin şimdiye kadar tasarlanmış en güçlü yapay zeka modelini MLE-bench üzerinde de test etti. Bu kapsamda OpenAI o1 modeli, 75 testin yüzde 16.9'unda en az bir Kaggle bronz madalya seviyesine ulaştı. Daha fazla deneme yapıldıkça bu oran arttı. Bronz madalya kazanmak, Kaggle liderlik tablosundaki insan katılımcılar arasında en üst yüzde 40’lik dilime girmek anlamına geliyor. OpenAI'nin o1 modeli, MLE-bench'te ortalama yedi altın madalya kazandı ki bu, bir insanın "Kaggle Grandmaster" olarak kabul edilmesi için gerekenin iki katı seviyesinde. Bilim insanları makalede, 75 farklı Kaggle yarışmasında şimdiye kadar sadece iki insanın madalya kazandığını da yazdı.

Kaynakça https://www.livescience.com/technology/artificial-intelligence/scientists-design-new-agi-benchmark-that-may-say-whether-any-future-ai-model-could-cause-catastrophic-harm https://openai.com/index/mle-bench/ Bu haberi, mobil uygulamamızı kullanarak indirip,
istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
DH Android Uygulamasını İndir DH iOS Uygulamasını İndir
Sorgu:

Editörün Seçtiği Sıcak Fırsatlar

Sıcak Fırsatlar Forumunda Tıklananlar

Tavsiyelerimiz

Yeni Haber
şimdi
Geri Bildirim