Uygulama ile Aç

Anthropic, iki yıl içinde yapay zekanın kara kutusunu açmak istiyor

Anthropic CEO'su Dario Amodei, yapay zeka modellerinin iç işleyişi hakkında çok az şey bilindiğini ve firmanın 2027 yılına kadar modellerin “kara kutusunu” açmayı hedeflendiğini söyledi.

Yapay zeka teknolojileri her geçen gün daha güçlü hale gelirken, bu sistemlerin nasıl çalıştığı halen tam anlamıyla çözülebilmiş değil. Anthropic CEO’su Dario Amodei, yayınladığı dikkat çekici bir makalede, bu bilinmezliğin tehlikelerine dikkat çekerek şirketinin 2027 yılına kadar yapay zeka modellerindeki sorunların büyük kısmını tespit edebilecek seviyeye ulaşmayı hedeflediğini açıkladı.

Nasıl çalıştığını bilmediğimiz bir şeyi geliştiriyoruz

“The Urgency of Interpretability” başlıklı makalede Amodei, mevcut yapay zeka modellerinin nasıl karar verdiğini tam olarak anlayamamanın ciddi bir güvenlik riski oluşturduğunu ifade ediyor. Amodei, “Bu sistemler ekonomi, teknoloji ve ulusal güvenlik için kesinlikle merkezi öneme sahip olacak ve o kadar fazla özerklik kapasitesine sahip olacaklar ki, insanlığın nasıl çalıştıklarından tamamen habersiz olmasının temelde kabul edilemez olduğunu düşünüyorum” sözleriyle durumu özetliyor.

Anthropic’in kurucularından Chris Olah’ın ifadesine göre yapay zeka modelleri “inşa edilmekten ziyade büyütülüyor.” Araştırmacılar zeka seviyelerini artırabiliyor olsa da, bu gelişimin ardındaki mekanizmaları henüz açıklayamıyorlar. Bu da yapay zekanın belirli kararları neden aldığı, bir kelimeyi başka bir kelimeye göre neden tercih ettiği ya da genellikle doğru olmasına rağmen neden ara sıra hata yaptığı gibi konularda ciddi bir bilgi boşluğuna işaret ediyor.

Ayrıca bkz.

Perplexity de Google Chrome’u satın almak istiyor

Örneğin, yakın geçmişte OpenAI, daha iyi performans gösteren, ancak aynı zamanda diğer modellerine göre daha fazla hayal gören o3 ve o4-mini adlı yeni muhakeme modellerini yayınladı. Ayrıca firma, bu modellerin neden daha fazla halüsinasyon gördüğü konusunda da bir fikirlerinin olmadığının altını çizdi.

Bu durum aslında bizi korkutmalı. Önceki haberlerimizle tekrara düşmek istemiyorum ancak Anthropic, yapay zekanın bu “kara kutusu” üzerinde çalışan, spesifik araştırmalar yapan nadide şirketlerden birisi. Çoğu AI şirketi en azından kamu önünde bu konuyu derinlemesine araştırdıklarını söylemiyor bile.

Kısa bir süreç değil

Bununla birlikte Anthropic, modellerin karar süreçlerini “devreler” üzerinden takip ederek nasıl düşündüklerine dair ilk sinyalleri almaya başladı (Bu konudaki haberimize buradan gidebilirsiniz). Ancak bu, halen küçük bir adım. Pandora’nın kutusu daha yeni açılıyor, zira bu tür devrelerden milyonlar hatta milyarlarca olabileceği düşünülüyor.

Amodei, bu modellerin nasıl çalıştığını anlamadan AGI'ye (insan seviyesinde yapay zeka, yapay genel zeka) ulaşmanın tehlikeli olabileceğini söylüyor. Ek olarak Amodei’nin uzun vadeli vizyonu ise oldukça iddialı: Yapay zeka modellerine adeta bir “beyin taraması” yapılması. Bu taramalar sayesinde modellerin dürüstlükten sapma eğilimi, güç kazanma isteği gibi tehlikeli eğilimleri önceden tespit edilebilecek. Bu tür gelişmiş analiz araçlarının geliştirilmesinin beş ila on yıl alabileceği öngörülüyor.

Anthropic’in CEO’su, makalesinde yalnızca kendi şirketine değil, sektöre de bir çağrıda bulunuyor. OpenAI ve Google DeepMind gibi devlerin yorumlanabilirlik araştırmalarına daha fazla kaynak ayırması gerektiğini vurgulayan Amodei, hükümetlere ise regülasyonlarla bu araştırmaları teşvik etme çağrısı yaptı.

Yapay zeka ve özellikle derin öğrenme konusundaki çalışmalarla günümüz yapay zekaların doğmasında büyük pay sahibi olan, bu konuda Nobel Fizik Ödülü’ni alan Geoffrey Hinton’ın kendisi de 2023’te bu ağların nasıl çalıştığını bilmediğini söylemişti. Aşağıdaki videoyu izlemenizi tavsiye ederim.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş