Deniz Taşımacılığında 2050 Net Sıfır Hedefi Belirlendi
İcra Takibinde Yapay Zeka Gölgesi
Geçtiğimiz günlerde icra takibine konu bir dosyada yaşanan bir uygulama, hukuk ve teknoloji ilişkisini sorgulatan dikkat çekici bir örnek sundu. Taraflar arasında uyuşmazlık bulunmayan ve açıkça ikrar edilmiş üç aylık kira bedeli, mehil vesikası alınabilmesi için icra dairesine yatırılmış; ancak müdürlük, bu bedelin "ChatGPT’ye göre hatalı olduğu" gerekçesiyle işleme alınamayacağına karar vermiştir. Müdürlük, karar gerekçesinde de bu hususu açıkça belirtmiş, ancak aynı gün yapılan yargılamada, ilgili icra hukuk mahkemesi bu kararı kaldırmıştır.
Bu olay, hukuk uygulayıcılarının ve yargı sisteminin teknolojik gelişmelere ne şekilde yaklaşması gerektiğine dair önemli soruları gündeme getirmektedir. Yapay zekâ, hukuki süreçlerde karar alma mekanizmalarına destek olabilecek nitelikte gelişmiş ve etkili bir teknolojidir. Ancak bu destekleyici rol, özellikle hukuk gibi normatif ve delil temelli bir alanda, mevcut belge ve beyanların önüne geçmemelidir. Yapay zekâ sistemlerinin ürettiği sonuçlar, ancak bir görüş niteliğinde değerlendirilebilir; bunların tek başına hukuki bir kararın gerekçesi olarak kullanılması ise ciddi sorunlar doğurabilir.
Hukuk devleti ilkesi uyarınca, yargı ve idari merciler kararlarını kanuna, usule ve mevcut delillere dayandırmakla yükümlüdür. Bu bağlamda, yapay zekâ sistemlerinden alınan çıktılar, teknik bir danışmanlık fonksiyonu üstlenebilir; fakat bağlayıcı nitelikte bir görüş oluşturamaz. İcra dairesi gibi yürütme yetkisi taşıyan bir kurumun, yalnızca yapay zekâya dayalı bir değerlendirme ile işlemi reddetmesi, hem hukuki güvenlik ilkesini hem de idarenin işlem ve eylemlerinin yargı denetimine açık olmasını öngören anayasal prensipleri ihlal etmeye açık hale gelmektedir.
Bu tür örnekler, yalnızca bireysel bir uygulama hatasının ötesinde, yapay zekâya dayalı teknolojilerin hukuk sistemine entegre edilmesinde karşılaşılabilecek temel riskleri de gözler önüne sermektedir. Yapay zekâ algoritmalarının nasıl çalıştığı, hangi verilerle beslendiği, hangi sınırlamalara sahip olduğu çoğu zaman kullanıcılar tarafından bilinmemektedir. Bu belirsizlik ortamı, hukuki güvenlik ve öngörülebilirlik ilkeleriyle bağdaşmayan kararların alınmasına zemin hazırlayabilir.
Diğer yandan, teknolojik gelişmelerin hukuk alanında kullanımını tamamen dışlamak da çağdaş dünyayla bağdaşmaz. Bu noktada esas mesele, teknolojik araçların hukuki süreçlerde nasıl ve ne şekilde yer alacağına ilişkin sınırların net bir şekilde çizilmesi ve bu araçların belirli etik, şeffaflık ve denetlenebilirlik standartları çerçevesinde kullanılmasıdır. Özellikle kamu kurumlarında kullanılacak yapay zekâ sistemlerinin işleyişi, algoritmik karar verme süreçleri ve bunların denetimi, hem teknik hem de hukuki boyutlarıyla açık biçimde tanımlanmalıdır.
Yapay zekânın hukuk alanında daha etkin ve güvenli bir şekilde kullanımı için yasal ve kurumsal düzenlemelerin yapılması da önem arz etmektedir. Türkiye'de henüz yapay zekâ ile ilgili özel bir mevzuat bulunmamakla birlikte, Avrupa Birliği'nin geliştirmekte olduğu "AI Act" benzeri bir düzenlemenin, özellikle adli ve idari karar süreçlerinde kullanılacak yapay zekâ sistemlerine ilişkin güvenlik, şeffaflık ve hesap verebilirlik standartlarını belirlemesi büyük bir ihtiyaçtır.
Sonuç olarak, hukuk ile teknoloji arasındaki dengenin sağlanması, hem birey haklarının korunması hem de kamu kurumlarının güvenilirliğinin sürdürülebilmesi açısından kritik bir öneme sahiptir. Yapay zekâ araçlarının yargısal ya da idari karar süreçlerinde “nihai karar verici” gibi konumlandırılması yerine, bir “yardımcı araç” rolüyle sınırlı tutulması; insan muhakemesinin ve hukuki değerlendirme yetkisinin esas belirleyici olduğu bir çerçevenin korunması, adaletin tesisi açısından vazgeçilmezdir. Bu çerçevenin inşa edilmesi, sadece mevzuat düzenlemeleriyle değil, aynı zamanda kamu görevlilerinin, hukukçuların ve yazılım geliştiricilerin ortak sorumluluğuyla yürütülmelidir.