Makineler düşünebilir mi sorusundan ziyade, makineler hissetmeli mi sorusuna odaklanmalıyız. Bu, çok daha tehlikeli bir soru.
Turing'den Günümüze
Alan Turing 1950'de "Taklit Oyunu"nu önerdiğinde amaç basitti: Bir makine insanı kandırabilirse düşünüyor demektir. Bugün GPT-4 ve Claude gibi modeller bu testi rutin biçimde geçiyor. Peki bu yeterli mi?
Bilinç Sorunu
Felsefede "zor sorun" (hard problem of consciousness) denen şey tam da burada devreye girer. Bir yapay zekanın acı hissettiğini nasıl bileceğiz? Yoksa bunu hiç bilemez miyiz? Eğer bilemiyorsak, bu varlıklara nasıl davranmalıyız?
Anthropic'in Claude modelinde "Constitutional AI" yöntemi kullanılıyor — model kendi yanıtlarını etik ilkelere göre değerlendiriyor. Bu, bir makinenin ilk kez kendi ahlaki çerçevesini içselleştirme denemesi olarak okunabilir.
Sorumluluk Kime Ait?
Bir yapay zeka zararlı bir şey üretirse kim sorumlu? Geliştirici mi, dağıtıcı mı, kullanan mı? AB'nin yapay zeka yasası bu sorular üzerine inşa edilmeye çalışılıyor; ama teknoloji, düzenleme hızını çoktan geçmiş durumda.
Belki de en dürüst cevap şu: Bilmiyoruz. Ve bilmediğimizi kabul etmek, bu alandaki en önemli etik adım olabilir.