Yapay Zeka Pratik Rehber

Yapay Zeka Halüsinasyonları ve Hukuk: Sahte İçtihatlardan Korunmanın Yolları

Anthropic'in kendi hukuk ekibinin yapay zeka kaynaklı sahte atıf skandalından İstanbul mahkemesinin ilk yapay zeka gerekçesine, halüsinasyon riskini anlamak ve yönetmek için avukatlara rehber.

Davamda Ekibi

Mayıs 2025, yapay zeka ve hukuk ilişkisinde iki önemli gelişmeye sahne oldu. Birincisi bir skandal: Claude yapay zekasının yapımcısı Anthropic’in kendi hukuk ekibinin, sahte yazar adları ve eser başlıkları üreten yapay zeka çıktısını mahkemeye sunduğu ortaya çıktı. İkincisi bir emsal: İstanbul 14. Asliye Ticaret Mahkemesi, yapay zekanın etik kodlara uygun kullanımına ilk kez gerekçesinde yer verdi.

Bu iki gelişme, aynı madalyonun iki yüzü.

Anthropic Skandalı

Olay, yapay zeka endüstrisinin en gelişmiş modellerinden birini geliştiren şirketin kendi hukuk departmanında yaşandı. Anthropic’in avukatları, bir dava sürecinde yapay zekanın ürettiği ve gerçekte var olmayan yazar adları ile eser başlıkları içeren belgeleri mahkemeye sundu.

Bu vakanın önemi büyük: en gelişmiş yapay zeka modelini yapan şirketin bile kendi hukuk ekibi, yapay zeka çıktılarını yeterince denetleyememiş. “Eğer onlar bile yanılıyorsa” sorusu, her avukatın ciddiye alması gereken bir uyarı.

İstanbul 14. Asliye Ticaret Mahkemesi Kararı

15 Mayıs 2025 tarihli karar, Türk yargı tarihinde bir ilk. Mahkeme, bir tenfiz davasında yapay zekanın “araç” olarak kullanımını gerekçesinde değerlendirdi. T.C. Kamu Görevlileri Etik Kurulu’nun 2024/108 sayılı kararına atıfla, yapay zekanın etik kodlara uygun kullanımının gerekliliğini vurguladı.

Bu karar, yapay zekanın Türk mahkemelerinde tartışılmaya başladığının resmi tescili. Emsal değeri, ilerleyen yıllarda daha net anlaşılacak.

Halüsinasyon Nedir ve Neden Olur?

Teknik olarak “halüsinasyon”, yapay zekanın gerçekliğe dayanmayan bilgi üretmesidir. Büyük dil modelleri kelimeler arasındaki olasılık ilişkilerine dayanarak metin üretir. Bu mekanizma, ikna edici ama sahte içerik üretmeye son derece yatkındır.

Hukuk bağlamında üç halüsinasyon türü öne çıkıyor:

Tamamen sahte karar. Hiç var olmamış bir mahkeme kararı, gerçekçi bir esas ve karar numarasıyla birlikte üretilir. En yaygın tür.

Gerçek karara sahte alıntı. Karar gerçekten var, ancak yapay zekanın atıfta bulunduğu paragraf veya hüküm kararda yer almıyor. En tehlikeli tür - çünkü karar numarası doğrulandığında güven duygusu yaratıyor.

Doğru atıf, yanlış argüman. Atıf yapılan karar doğru, ancak yapay zeka bu karardan yanlış bir hukuki sonuç çıkarıyor. En sinsi tür.

Korunma Protokolü

Altın kural değişmez: her yapay zeka çıktısı birincil kaynaktan doğrulanmalı. Bu, yapay zekanın verimlilik avantajını ortadan kaldırmaz - araştırma süresini saatlerden dakikalara indirir, ancak doğrulama adımı her zaman gereklidir.

Çift kontrol sistemi öneriyoruz: yapay zekanın bulduğu her içtihadı resmi veri tabanından doğrulayın. Atıf yapılan karara bizzat ulaşın. Yapay zekanın özetlediği hukuki argümanı kararın kendisiyle karşılaştırın.

Araç seçiminde RAG (Retrieval-Augmented Generation) tabanlı sistemler, genel amaçlı dil modellerine göre çok daha düşük halüsinasyon oranlarına sahip. Hukuk-spesifik veri tabanına bağlı çalışan araçlar, serbest metin üreten genel amaçlı araçlardan güvenilir.

Her büronun bir yapay zeka kullanım politikası oluşturması artık lüks değil, zorunluluk. Bu politika, hangi araçların kullanılabileceğini, doğrulama süreçlerini ve müvekkil verisi koruma kurallarını net olarak tanımlamalı.