FBI, yapay zeka konusunda uyarıyor
Daha önceki haberlerimizde önlemlere ve kısıtlamalar sahip olmasına rağmen ChatGPT gibi yapay zeka modellerinin bile en yeni güvenlik sistemlerinden dahi kaçabilen kötü amaçlı yazılımlar geliştirmek için nasıl kullanıldığına dair raporlara yer verdik. Üst düzey FBI yetkilisi, "AI modellerinin benimsenmesi ve yaygınlaşmasının devam etmesiyle birlikte bu eğilimlerin artmasını bekliyoruz" dedi.
Öte yandan FBI ve diğer kolluk kuvvetlerinin asıl odak noktası ChatGPT gibi duvarları olan araçlar değil, açık kaynaklı modeller. Açık kaynaklı modellerin son örneğini de Meta’nın Llama 2’si olmuştu. Bu temel modelleri alıp istediğini veri seti üzerinde istediğiniz amaca göre eğitmek mümkün. Yine daha önceki haberlerimizde bu şekilde geliştirilen ve abonelik tabanlı üyeliklerle satılan kötü amaçlı WormGPT’den sizlere bahsetmiştik. Bu tip araçlarla saldırganlar, özellikle e-posta dolandırıcılığında daha etkin olabiliyor veya fark edilmesi güç yazılımların geliştirilmesini sağlayabiliyorlar.
FBI ayrıca, deepfake (gerçekte hiç olmamış yapay zeka tarafından üretilmiş içerik) alanında da hızlı bir yükseliş eğilimi olduğunu ve bunun güvenlik endişelerini artırdığını ifade ediyor. Aralarında OpenAI, Microsoft, Google ve Meta'nın da bulunduğu bir dizi yapay zeka devi kısa bir süre önce Beyaz Saray'da, kendilerine de fayda sağlayacak olan bir tür yapay zeka filigran teknolojisini geliştirme sözü verdi.
Verilen sözler veya geliştirilen açık kaynaklı modeller ne olursa olsun, insanların yapay zeka konusunda bilinçlendirilmesi gerekiyor. DonanımHaber okuyucuları bir videonun veya görselin sahte olup olmadığını anlayabilir ancak aynı şey nüfusun tamamından beklenemez. Günümüz insanlarının bilgileri doğrulama zorunluluğunun önemi her geçen gün artıyor ve bunun bir alışkanlık haline gelmesi gerekiyor.
Haberi DH'de Gör