Uygulama ile Aç

ChatGPT yaratıcısı OpenAI, yapay zekanın 'felaket riskleri” için ekip kurdu

ChatGPT’nin arkasında yapay zeka firması OpenAI’ın yeni kurduğu gibi nükleer tehditler de dahil olmak üzere yapay zeka ile ilişkili potansiyel tehlikeleri ele alacak.

Görsel veya müzikler üreterek sanat icra eden, otomatik işleri kolaylaştıran ve etkileşim kuran sevimli yapay zekalar olsa da madalyonun öteki yüzüne bakıldığında, yapay zeka sistemlerinin derin ve yıkıcı zararlarının olabileceği bir sır değil. Bu bağlamda ChatGPT’nin arkasında yapay zeka firması OpenAI, yapay zeka ile ilişkili "felaket risklerini" azaltmak için yeni bir ekip kuruyor.

Yapay zekanın tehditlerine odaklanılacak

Geçtiğimiz gün OpenAI tarafından paylaşılan bir blog gönderisinde firma, hazırlık ekibinin nükleer tehditler de dahil olmak üzere yapay zekanın neden olduğu/olacağı potansiyel büyük sorunlara karşı adımlar atacağını söyledi. Ekip ayrıca kimyasal, biyolojik ve radyolojik tehditlerin yanı sıra otonom replikasyon ya da bir yapay zekanın kendini kopyalaması eylemini azaltmak için de çalışacak. Hazırlık ekibinin ele alacağı diğer bazı riskler arasında yapay zekanın insanları kandırma becerisi ve siber güvenlik tehditleri de yer alıyor.

Ayrıca bkz.

Yapay zeka, neredeyse “kaçınılmaz” finansal krize neden olacak

OpenAI yayınladığı güncellemede, "Şu anda en gelişmiş mevcut modellerde mevcut olan yetenekleri aşacak olan öncü yapay zeka modellerinin tüm insanlığa fayda sağlama potansiyeline sahip olduğuna inanıyoruz. Ancak aynı zamanda giderek daha ciddi riskler de oluşturuyorlar." diyor. OpenAI, güvenli AGI (Yapay Genel Zeka) oluşturma misyonlarının bir parçası olarak, sahip oldukları sistemlerden süper zekanın en uzak noktalarına kadar, yapay zeka ile ilgili tüm güvenlik risklerini ciddiye aldıklarını belirtiyor.

Şu anda MIT'nin Deployable Machine Learning Merkezi direktörlüğü görevinden izinli olan Aleksander Madry hazırlık ekibine liderlik edecek. OpenAI, hazırlık ekibinin ayrıca şirketin yapay zeka modellerini değerlendirmek ve izlemek için neler yaptığını özetleyen bir "risk bilinçli geliştirme politikası" geliştireceğini ve sürdüreceğini belirtiyor. OpenAI CEO'su Sam Altman daha önce de yapay zekanın neden olabileceği felaketlere karşı uyarıda bulunmuştu. Altman ve yapay zekanın dev isimleri 22 kelimeyle “yok olma” riskine karşı bir bildiri yayınlamıştı.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş

Beğenilen Yorumlar

Tümünü Gör
4 Yorumun Tamamını Gör