Avustralya'da cinayet davası dosyasına yapay zekanın ürettiği sahte deliller eklendi

Bir avukat, Avustralya mahkemesinde görülen bir cinayet davasında sunduğu belgelerde yapay zeka tarafından oluşturulan sahte alıntılar ve uydurma kararlar kullanması nedeniyle özür dilemek zorunda kaldı.
Prestijli 'Kralın Avukatı' ünvanına sahip olan savunma avukatı Rishi Nathwani, Melbourne'deki Victoria Eyaleti Yüksek Mahkemesi önünde cinayetle suçlanan bir gencin davasında sunduğu dilekçelerde yanlış bilgiler verdiği için 'tüm sorumluluğu' üstlendi.
Nathwani çarşamba günü savunma ekibi adına Yargıç James Elliott'a verdiği demeçte, "Yaşananlardan dolayı derin üzüntü ve utanç duyuyoruz," dedi.
Sahte sunumlar arasında eyalet yasama meclisinde yapılan bir konuşmadan uydurma alıntılar ve Yüksek Mahkeme'den alındığı iddia edilen var olmayan dava alıntıları yer alıyordu.
Hatalar, davaları bulamayan ve savunma avukatlarından kopyalarını talep eden Elliott'un yardımcıları tarafından fark edildi.
Mahkeme belgelerine göre, avukatlar alıntıların "mevcut olmadığını" ve sunumun "hayali alıntılar" içerdiğini kabul etti.
Avukatlar ilk alıntıları kontrol ettiklerini ve diğerlerinin de doğru olduğunu varsaydıklarını açıkladılar.
yapay zekâ tarafından üretilen hatalar, Elliott'un çarşamba günü sonuçlandırmayı umduğu davanın çözümünde 24 saatlik bir gecikmeye neden oldu.
Yargıç Elliott perşembe günü, reşit olmadığı için kimliği açıklanmayan Nathwani'nin müvekkilinin akli dengesi yerinde olmadığı için cinayetten suçlu olmadığına karar verdi.
Elliott perşembe günü avukatlara yaptığı açıklamada, "Küçümseme riskini göze alarak, bu olayların ortaya çıkış şekli tatmin edici değil," dedi. "Mahkemenin, avukatlar tarafından yapılan sunumların doğruluğuna güvenebilmesi, adaletin adil bir şekilde yerine getirilmesi için esastır."
Sunumlar, doğruluklarını kontrol etmeyen savcı Daniel Porceddu'ya da gönderildi.
Yargıç, Yüksek Mahkeme'nin geçen yıl avukatların yapay zekâyı nasıl kullanacaklarına ilişkin bir kılavuz yayınladığını belirtti.
Elliott, "Yapay zekânın kullanımı, bağımsız ve kapsamlı bir şekilde doğrulanmadığı sürece kullanılması kabul edilemez," dedi.
İlk vaka değil
2023'te ABD'de görülen benzer bir davada federal bir yargıç, ChatGPT'nin bir havacılık yaralanması davasında hayali yasal araştırma sunmakla suçlanmasının ardından iki avukata ve bir hukuk firmasına 5 bin dolar para cezası verdi.
Yargıç P Kevin Castel kötü niyetle hareket ettiklerini söyledi, ancak daha ağır bir ceza yerine özürlerini ve düzeltici adımlarını kabul etti.
Aynı yılın ilerleyen günlerinde, ABD Başkanı Donald Trump'ın eski kişisel avukatı Michael Cohen'in avukatları tarafından dosyalanan yasal belgelerde yapay zekâ tarafından icat edilen daha fazla hayali mahkeme kararına atıfta bulunuldu.
Cohen, hukuki araştırma için kullandığı Google aracının da sözde yapay zekâ halüsinasyonları yaratabildiğini fark etmediğini söyleyerek suçu üstlendi.
İngiltere Yüksek Mahkemesi Yargıcı Victoria Sharp Haziran ayında sahte materyalleri gerçekmiş gibi sunmanın mahkemeye saygısızlık ya da "en korkunç durumlarda" adaleti saptırmak olarak değerlendirilebileceği ve bunun da en fazla ömür boyu hapis cezası gerektirdiği uyarısında bulunmuştu.
Sharp, İngiltere'deki çeşitli davalarda mahkemelere sunulan düzinelerce yapay zekâ tarafından üretilen sahte atıfların ardından verdiği düzenleyici bir kararda, konunun "yapay zekânın kötüye kullanılması halinde ... halkın adalet sistemine olan güveni açısından ciddi sonuçlar doğurduğunu" söyledi.
Today