OpenAI, politikalarında değişikliğe gitti
Şirket hala büyük dil modellerinin (LLM'ler) zarar verebilecek herhangi bir şey için kullanılmasını yasaklıyor ve insanları hizmetlerini "silah geliştirmek ya da kullanmak" için kullanmamaları konusunda uyarıyor. Ancak, şirket "askeri ve savaş" ile ilgili ibareleri kaldırmış durumda. Gerçek hayattaki etkilerini henüz görmemiş olsak da, ifadelerdeki bu değişiklik tam da dünyanın dört bir yanındaki askeri kurumların yapay zekayı kullanmaya ilgi gösterdiği bir döneme denk geliyor. Hatırlarsanız Gazze ve İsrail arasındaki savaşta yapay zekanın çeşitli videolarda ve görsellerde kullanıldığını görmüştük.
Öte yandan OpenAI’ın bu değişikliğinin arkasındaki nedenler düşünülenden farklı olabilir. “Askeri ve savaş” kelimelerinin açıkça yasak olarak belirtilmesi, OpenAI'ın genellikle yüklenicilere kazançlı anlaşmalar sunan ABD Savunma Bakanlığı gibi devlet kurumlarıyla çalışamayacağını gösteriyordu. Şirketin şu anda herhangi birini doğrudan öldürebilecek ya da fiziksel zarar verebilecek bir ürünü bulunmuyor. Ancak en nihayetinde şirketin teknolojisinin bu amaçlar için kullanılabilecek şekilde düzenlenmesi mümkün. Politika ifadesindeki değişiklik sorulduğunda OpenAI sözcüsü Niko Felix, şirketin "özellikle araçlarımız artık GPT'ler de oluşturabilen günlük kullanıcılar tarafından küresel olarak kullanıldığından, hem hatırlanması hem de uygulanması kolay bir dizi evrensel ilke oluşturmayı amaçladığını" söylüyor.
Haberi DH'de Gör
{{body}}
{{/longBody}} {{^longBody}}{{body}}
{{/longBody}}