"Kontrolden çıkmış bir yarış"
Kâr amacı gütmeyen Future of Life Enstitüsü tarafından yayınlanan ve Musk da dahil olmak üzere 1000'den fazla kişi tarafından imzalanan mektupta, bu tür tasarımlar için ortak güvenlik protokolleri bağımsız uzmanlar tarafından geliştirilene, uygulanana ve denetlenene kadar gelişmiş yapay zeka çalışmalarına ara verme çağrısında bulunuldu.
Mektupta, "Güçlü yapay zeka sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir” vurgusu yapıldı. Yapay zeka laboratuvarlarının şu anda "hiç kimsenin - hatta yaratıcılarının bile - anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği" makine öğrenme sistemlerini geliştirmek ve dağıtmak için "kontrolden çıkmış bir yarışa" kilitlendiği belirtiliyor.
"En az 6 ay ara verilmeli"
Mektupta ayrıca Google ve Microsoft gibi teknoloji şirketlerinin yeni ürünleri devreye sokmak için acele ettiği, güvenlik ve etik kavramlarını arka planda tuttuğu da aktarılıyor. Bu arada Future of Life sözcüsü Reuters'e OpenAI CEO'su Sam Altman'ın mektubu imzalamadığını söyledi. Öte yandan OpenAI’ın güvenlik standartlarını karşıladıklarından emin olmak için gelecekteki yapay zeka sistemlerinin "bağımsız olarak incelenmesi" gerektiğini belirtmişti. Özet olarak, yapay zekanın ortaya koyacağı sonuçları anlayana kadar araştırmaların yavaşlaması gerektiği vurgulanıyor.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}