OpenAI kan kaybediyor
Jan Leike’nın ayrılışı aynı zamanda ilginç bir döneme denk geliyor. Kısa bir süre önce OpenAI'ın yapay zekanın uzun vadeli risklerini ele almaya adanmış ekibini ("Superalignment ekibi" olarak adlandırılıyor) tamamen dağıttığı gündeme gelmişti. Jan Leike ise OpenAI, insan gibi düşünebilen bir yapay zeka geliştirirken Superalignment ekibini yönetiyordu. Leike, güvenlik protokollerinin uygulanmasındaki temel teknik zorlukları çözmek için çalışıyordu.
Leike, istifa kararının ardından X’te paylaştığı gönderilerde "AGI'nin sonuçları konusunda inanılmaz derecede ciddileşmekte çok geciktik. Elimizden geldiğince hazırlıklı olmaya öncelik vermeliyiz. Ancak o zaman AGI'nin tüm insanlığa fayda sağlamasını temin edebiliriz.” ifadelerini kullandı.
Leike'nin paylaşımları OpenAI içinde giderek artan bir gerilime işaret ediyor. Araştırmacılar, ChatGPT, DALL-E ve Sora gibi tüketici yapay zeka ürünlerini geliştirirken, Leike gibi çalışanlar da süper zeki yapay zeka modelleri yaratmanın potansiyel tehlikeleri hakkında endişelerini dile getiriyor. Bununla birlikte Superalignment ekibinin, çok önemli işleri gerçekleştirmek için bilgi işlem ve diğer kaynakları alamadığı da belirtiliyor.
OpenAI CEO’su Sam Altman ise Jan Leike’nın ayrılığı için üzgün olduğu ve yapacak çok işlerinin olduğunu söyledi. Altman, ilerleyen günlerde güvenlik odaklı daha uzun bir yazı yazacağını da belirtti. Öte yandan OpenAI, başlangıçta modellerini halka açık bir şekilde sunmayı hedefliyordu. Ancak araştırmalar ilerleyip modellerin yetenekleri geliştikçe şirket, bu modelleri halka açık bir şekilde yayınlamamaya başladı.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}