Ilya Sutskever’dan yeni yapay zeka şirketi
Ilya Sutskever, 2023’te OpenAI yönetim kurulunun Sam Altman'ı kovmasının ardından rotasını değiştirmiş ve Altman'ın geri dönmesine yardımcı olmuştu. Bu noktadan sonra Sutskever sessizliğe bürünmüş ve hatta GPT-4o’nun lansmanında yer almamıştı. OpenAI’da şirketin güvenlik odaklı Superalignment ekibini, mayıs ayında ayrılan Jan Leike ile birlikte yönetiyordu. Sessizliğin ardından geçtiğimiz mayıs ayı ortasında Sutskever, OpenAI’dan ayrıldığını duyurarak bir sonraki projesini "zamanı geldiğinde" açıklayacağını belirtmişti. Ve şimdi o zaman geldi.
Sutskever, yaptığı açıklamada "Tek bir odak, tek bir hedef ve tek bir ürünle güvenli süper zekanın peşinden gideceğiz." dedi. Bu hedefler için ise Sutskever, Safe Superintelligence Inc. (SSI) adlı yeni bir şirket kurdu. Yapılan açıklamalara göre SSI, hizmet satma odağı olmayan saf bir araştırma organizasyonu olarak güvenli, güçlü bir yapay zeka sistemi yaratmayı amaçlayacak. Sutskever'in yanı sıra SSI’ın kurucuları arasında Apple'ın eski yapay zeka liderlerinden Daniel Gross ve daha önce OpenAI'da teknik personel olarak çalışan Daniel Levy bulunuyor.
Yapılan duyuruda şirketin iş modelinin “kısa vadeli ticari baskılardan yalıtılmış” olduğu söyleniyor. Sutskever, Safe Superintelligence'ın finansal destekçilerini veya finansman için ne kadar para topladığını açıklamadı. Bununla birlikte “güvenli yapay zeka” ifadeleri de tam olarak açıklanmadı. Buradaki güvenliğin tam olarak neyi kastettiği belirsiz ancak yapılan açıklamalara göre atılacak adımlar mevcut yapay zeka sistemlerinden farklı olacak. Muhtemelen Ilya ve ekibi, korkuluklarla çevrili yapay zeka sistemleri yerinde doğrudan sistemin içerisine, inşa düzeyinde yerleştirilmiş güvenlik mekanizmalarına odaklanacak.
SSI için kısa vadeli ticari hedeflerin olmadığını belirtilse de uzun vadeli finansal hedeflerin kapısı açık tutuluyor. Ancak SSI, vaat ettiklerini gerçekleştirebilirse günümüz yapay zeka dünyasının en önemli sorunlarından birine çözüm bulmuş olacak. Firmanın şimdiki tek amacının güvenli süper zeka olacağı belirtilirken o zamana kadar başka hiçbir şey yapmayacağının altı çiziliyor. Tek ürün vurgusu da zaten bunu gösteriyor.
Kaynakça https://www.theverge.com/2024/6/19/24181870/openai-former-chief-scientist-ilya-sutskever-ssi-safe-superintelligence https://ssi.inc/ Bu haberi, mobil uygulamamızı kullanarak indirip,istediğiniz zaman (çevrim dışı bile) okuyabilirsiniz:
Bana çok korkutucu geliyor bunlar.