Yapay zekanın tehditlerine odaklanılacak
Geçtiğimiz gün OpenAI tarafından paylaşılan bir blog gönderisinde firma, hazırlık ekibinin nükleer tehditler de dahil olmak üzere yapay zekanın neden olduğu/olacağı potansiyel büyük sorunlara karşı adımlar atacağını söyledi. Ekip ayrıca kimyasal, biyolojik ve radyolojik tehditlerin yanı sıra otonom replikasyon ya da bir yapay zekanın kendini kopyalaması eylemini azaltmak için de çalışacak. Hazırlık ekibinin ele alacağı diğer bazı riskler arasında yapay zekanın insanları kandırma becerisi ve siber güvenlik tehditleri de yer alıyor.
OpenAI yayınladığı güncellemede, "Şu anda en gelişmiş mevcut modellerde mevcut olan yetenekleri aşacak olan öncü yapay zeka modellerinin tüm insanlığa fayda sağlama potansiyeline sahip olduğuna inanıyoruz. Ancak aynı zamanda giderek daha ciddi riskler de oluşturuyorlar." diyor. OpenAI, güvenli AGI (Yapay Genel Zeka) oluşturma misyonlarının bir parçası olarak, sahip oldukları sistemlerden süper zekanın en uzak noktalarına kadar, yapay zeka ile ilgili tüm güvenlik risklerini ciddiye aldıklarını belirtiyor.
Şu anda MIT'nin Deployable Machine Learning Merkezi direktörlüğü görevinden izinli olan Aleksander Madry hazırlık ekibine liderlik edecek. OpenAI, hazırlık ekibinin ayrıca şirketin yapay zeka modellerini değerlendirmek ve izlemek için neler yaptığını özetleyen bir "risk bilinçli geliştirme politikası" geliştireceğini ve sürdüreceğini belirtiyor. OpenAI CEO'su Sam Altman daha önce de yapay zekanın neden olabileceği felaketlere karşı uyarıda bulunmuştu. Altman ve yapay zekanın dev isimleri 22 kelimeyle “yok olma” riskine karşı bir bildiri yayınlamıştı.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}