Uygulama ile Aç

Bir avukat, dava için ChatGPT kullandı! Peki ama işe yaradı mı?

ChatGPT'nin olağanüstü yükselişi, bir avukatın kısa süre önce fark ettiği gibi, hukuk da dahil olmak üzere birçok sektörü sarsıyor. Ancak bu “sarsıcı” etki her zaman olumlu olmayabiliyor.

Yapay zeka şirketi OpenAI tarafından geliştirilen ChatGPT, Kasım ayında yaptığı çıkışın ardından neredeyse her sektörde kullanılmaya başlandı. Gerek medikal tavsiyeler gerek yazılım mühendislerine katkılar ve gerekse de hukuk alanındaki bilgileriyle süreçleri kısaltmak gibi pek çok amaç için kullanıldı. Son örnekte ise bir avukat, dava dosyasını hazırlamak için ChatGPT kullandı. Peki ChatGPT’yi kullanmak işe yaradı mı?

Detaya girmeden önce ilk olarak davanın arka plan hikayesinden kısaca bahsedelim. Roberto Mata adlı bir kişi Avianca havayollarına, 2019 yılında havayolu şirketindeyken bir servis arabasından kaynaklandığını söylediği yaralanmalar için dava açtı ve sorunların ihmal kaynaklı olduğunu iddia etti. Yaklaşık 30 yıldır avukatlık yapan Steven Schwartz ise Mata'nın temsilciliğini üstlendi.

ChatGPT çuvalladı

Ancak Yargıç Kevin Castel, Schwartz'ın bir özet için araştırma olarak sunduğu davalardan en az altısının "sahte alıntılar ve sahte atıflar içeren hayali yargı kararları" ile dolu olduğunu söyledi. Sahte davaların kaynağı ise ChatGPT’den başkası değildi.

Yargıç Castel, yaptığı açıklamada "Mahkeme eşi benzeri görülmemiş bir durumla karşı karşıyadır" dedi. Schwartz ise yeminli ifadesinde, bu davadan önce ChatGPT'yi yasal bir araştırma kaynağı olarak hiç kullanmadığını ve bu nedenle "içeriğinin yanlış olabileceği ihtimalinden habersiz olduğunu" söyledi. Sohbet robotunun sunduğu kaynakları teyit etmediği için ise sorumluluğu kabul etti.

Ayrıca bkz.

ChatGPT mobil uygulaması 6 günde 500.000 kez indirildi

Schwartz şimdi 8 Haziran'da bir yaptırım duruşmasıyla karşı karşıya. Schwartz, verdiği yeminli ifadede, "Burada gerçekleştirilen hukuki araştırmayı desteklemek için üretken yapay zekadan yararlandığı için büyük pişmanlık duyduğunu ve gelecekte gerçekliğini kesin olarak doğrulamadan bunu asla yapmayacağını" söyledi.

Üretken yapay zekaların en tehlikeli sorunu

Üretken yapay zeka araçları inanılmaz boyutta faydalar sağlayabilir. Bir şirketin daha verimli çalışmasını, bir yazılımcının işini daha hızlı ve iyi yapabilmesini ve eğitimin daha kaliteli olmasını sağlayabilir. Aynı şekilde hukuksal yapay zekalar daha iyi adalet dağıtabilir.

Ancak bunların olması için yapay zeka “halüsinasyonu” sorununun çözülmesi gerekiyor. Bu araçlar hiçbir gerçeğe dayanmayan tamamen “uydurmabilgiler üretebiliyor. Üstelik bu araçlar, ürettikleri sahte bilgileri “doğru” olarak savunabiliyor. Bu dava örneğinde de ChatGPT verdiği bilgilerin doğru olduğunu söyledi. Öte yandan gelişim duracak gibi görünmüyor. Son olarak kısa bir süre önce Yargıtay, emsal kararlar üzerine eğitilen bir yapay zeka üzerinde çalıştığını açıkladı.



Haberi DH'de Gör Yorumlar ve Diğer Detaylar
Whatsapp ile Paylaş

Beğenilen Yorumlar

Tümünü Gör
7 Yorumun Tamamını Gör