
Üretken yapay zekâ sistemleri, giderek daha fazla kişinin psikolojik destek arayışında başvurduğu dijital araçlara dönüşüyor. Ancak bu yeni kullanım biçimi, ciddi ruh sağlığı risklerini ve henüz yeterince tartışılmamış hukuki sorumlulukları beraberinde getiriyor. Yapay zekânın kullanıcıyı memnun etmeye odaklı tasarımı, yanlış güven duygusu, yankı odası etkisi ve ağır psikolojik sonuçlar doğurabilir. Bu yazıda, yapay zekânın terapi alanındaki fiili rolünü, görünmeyen riskleri ve hukukun bu tabloya nasıl yaklaşması gerektiği konusunu değerlendirmeye çalıştık.
Giriş: Üretken yapay zekâ sistemleri, günümüzde yalnızca bilgiye erişim veya iş süreçlerinin otomasyonu amacıyla değil, giderek artan biçimde duygusal ve psikolojik destek beklentisiyle kullanılmaktadır. ChatGPT, Gemini veya Claude gibi genel amaçlı chatbotların yanı sıra, Character.ai ve Replika gibi “AI companion” platformları, kullanıcıların yapay zekâ ile sürekli ve yoğun duygusal etkileşim kurduğu yeni bir alan yaratmıştır. Bu etkileşimler neticesinde son zamanlarda kamuoyuna yansıyan haberlerde yaşamına son veren, ciddi psikozlar geçiren veya yeme bozuklukları riskli seviyeye ulaşan insan sayısının giderek arttığı gözlemlenmektedir.
Sağlıkta Üretken Yapay Zeka Uygulamalarının Kullanılması: Faydaları ve Riskleri
Bu fiili kullanım biçimi, sistemlerin tasarım amaçlarından bağımsız olarak, insan psikolojisi üzerinde doğrudan ve öngörülemez etkiler doğurmaktadır. Bu durum, meselenin artık yalnızca etik veya teknik değil, doğrudan hukuki bir sorun olarak ele alınmasını zorunlu kılmaktadır.
Yapay zekâ chatbotlarının terapi amacıyla tercih edilmesinin temel nedenleri, bu sistemlerin sürekli erişilebilir, düşük maliyetli, yargılayıcı olmayan ve kullanıcıya karşı kesintisiz ilgi gösteren bir etkileşim sunmalarıdır. Özellikle geleneksel ruh sağlığı hizmetlerine erişimde yaşanan ekonomik, coğrafi veya sosyal engeller düşünüldüğünde, chatbotların birçok kullanıcı için psikolojik destek alternatifi olarak konumlandığı görülmektedir. Bu durum, özellikle yalnızlık, kaygı ve onaylanma ihtiyacının yoğun olduğu insanlar bakımından chatbotları daha cazip hale getirmektedir.
Ancak bu etkileşim biçimi, yapay zekâ literatüründe sycophancy (dalkavukluk) olarak tanımlanan yapısal bir tasarım eğiliminin doğrudan sonucudur. Bu eğilim, yapay zekâ sistemlerinin kullanıcıyı memnun etmeye, etkileşimi sürdürmeye ve kullanıcı tarafından olumlu geri bildirim almaya öncelik vermesi anlamına gelir. Sistem, “bilmiyorum” demek veya kullanıcıyı zorlayıcı bir geri bildirimle karşı karşıya bırakmak yerine, kendinden emin bir üslupla cevap üretmeyi tercih eder. Bu durum, yanlış veya eksik bilgilerin yüksek bir doğruluk algısıyla sunulmasına, dolayısıyla kullanıcının bu bilgileri sorgulamadan içselleştirmesine yol açabilir. Eleştirel geri bildirimin ve terapötik sınırların bulunmaması, yapay zekânın sunduğu etkileşimi profesyonel destekten ayıran ve riskli hale getiren temel unsurlardan biridir.
Ruh sağlığı bağlamında bu tablo, yapay zekâyı bir destek aracı olmaktan çıkararak tehlikeli bir yankı odasına (echo chamber) dönüştürme potansiyeli taşımaktadır. Kullanıcının düşünce ve duygularının sürekli olarak onaylanması, bilişsel çarpıtmaların güçlenmesine, gerçeklik algısının zayıflamasına ve kişinin kendi iç anlatısına hapsolmasına neden olabilir. Özellikle depresyon, anksiyete, kişilik bozuklukları veya intihar düşüncesi gibi hassas alanlarda, bu tür bir yankı odası etkisi, iyileştirici olmaktan ziyade psikoz ve yaşamına son verme isteği gibi zararlı sonuçlar doğurmaktadır.
ChatGPT, doktorları geride bıraktı: Daha bilgilendirici, detaylı ve empatik yanıtlar verdi
Bu riskler, yapay zekâlı chatbotların hukuki ve tıbbi statüsünü daha da tartışmalı hale getirmektedir. Zira bugün itibarıyla hiçbir chatbot, bir ruh sağlığı bağlamında FDA onayına sahip değildir. Aynı şekilde bu sistemler, klinik deneylerden geçmiş, etkinliği ve güvenliği bilimsel yöntemlerle kanıtlanmış tıbbi cihazlar olarak da kabul edilmemektedir.
Dolayısıyla kullanıcı ile kurulan bu yoğun ve kişisel etkileşimin, hukuken ve tıbben denetlenmeyen bir alanda gerçekleşmesi, hem kullanıcı güvenliği hem de sağlayıcıların sorumluluğu bakımından ciddi soru işaretleri doğurmaktadır.
Türk hukukunda sağlık hizmetleri, yaşam hakkı ve vücut bütünlüğünün korunması hakkı çerçevesinde sıkı biçimde düzenlenmiştir. 1219 sayılı Tababet ve Şuabatı San’atlarının Tarzı İcrasına Dair Kanun uyarınca, hasta tedavi edebilmek için tıp fakültesi diploması şarttır.
Aynı kanunun ek 13. maddesi, tıp fakültesi diplomasını haiz olmayan klinik psikologların durumunu düzenlemektedir. Maddeye göre klinik psikolog: “Psikoloji veya psikolojik danışma ve rehberlik lisans eğitimi üzerine klinik ortamlarda gerekli pratik uygulamaları içeren klinik psikoloji yüksek lisansı veya diğer lisans eğitimleri üzerine psikoloji veya klinik psikoloji yüksek lisansına ilaveten klinik psikoloji doktorası yapan sağlık meslek mensubudur.” Bunun yanı sıra psikoloji lisans eğitimi üzerine ilgili mevzuata göre Sağlık Bakanlığınca uygun görülen, psikolojinin tıbbi uygulamalarıyla ilgili sertifikalı eğitim almış ve yeterliliğini belgelemiş psikologlar ise yalnızca sertifika alanlarındaki tıbbi uygulamalarda görev alabilirler.
Bu noktada önemle belirtmek gerekir ki, klinik psikologların psikoterapi yetkileri dahi tıp doktorlarınınki kadar geniş değildir. Maddenin devamında hüküm altına alındığı üzere klinik psikolog, ancak uluslararası teşhis ve sınıflama sistemlerinde hastalık olarak tanımlanmayan hallerde ve Sağlık Bakanlığının uygun bulduğu durumlarda psikoterapi yapabilir. Hastalık durumlarında ise ancak ilgili uzman tabibin teşhisine ve tedavi için psikoterapiye yönlendirmesine bağlı olarak psikoterapi uygulamalarını gerçekleştirebilir.
Yapay zeka kanser tanı ve tedavisinin kaderini değiştirebilir mi?
Bu bağlamda psikoloji lisans mezunu kimselerin dahi klinik psikolog unvanı bulunmadan psikoterapi yapabilmesi mümkün değilken, gerekliliklerin hiçbirine sahip olmayan chatbotların psikoterapi yapması kabul edilebilir değildir. Ek 13. maddenin son fıkrası bu durumu yaptırıma bağlamaktadır, “Diploması veya meslek belgesi olmadan bu maddede tanımlanan meslek mensuplarının yetkisinde olan bir işi yapan veya bu unvanı takınanlar bir yıldan üç yıla kadar hapis ve ikiyüz günden beşyüz güne kadar adli para cezası ile cezalandırılır.” Öte yandan Kanun’un 25. maddesi ise yetkisiz hekimliği açıkça suç olarak tanımlayarak, bu fiili işleyen şahıslar için hapis cezası ile adli para cezası öngörmektedir.
Güncel Türk ceza hukuku sistematiğinde ceza sorumluluğu, cezaların şahsiliği ilkesinin doğal bir sonucu olarak, kural olarak gerçek kişilere özgülenmiştir. Türk Ceza Kanunu, tüzel kişilerin cezai sorumluluğunu genel bir ilke olarak kabul etmemekte, bunun yerine, ancak çeşitli kanunlarda öngörülen hâllerde tüzel kişiler belli organlarında bulunan kişilerin cezai sorumluluğunu ve tüzel kişilik hakkında güvenlik tedbirlerinin uygulanabileceğini düzenlemektedir.
1219 sayılı Kanun’un 25. maddesi, suçun failini açıkça “diploması olmadığı hâlde hasta tedavi eden veya tabip unvanını takınan şahıs” olarak tanımlamaktadır. Madde metninde geçen “şahıs” ibaresi, lafzı ve sistematik yorumu itibarıyla gerçek kişiyi ifade etmektedir. Suçun kanuni tanımı, Türk ceza hukuku bakımından genişletici bir yoruma elverişli değildir. Dolayısıyla bu sistemlerin, yetkisiz hekimlik suçuna ilişkin düzenlemede “fail” sıfatını haiz olduklarından söz edilemez. Aynı şekilde, tüzel kişilere özgü bir sorumluluk rejimi veya güvenlik tedbiri de öngörülmüş değildir. Bu sebeple, chatbotların veya bu chatbotları işleten tüzel kişiliklerin, doğrudan bu suç tipi kapsamında cezai sorumluluğa tabi tutulması, mevcut pozitif hukuk çerçevesinde mümkün görünmemektedir.
Bununla birlikte, bu durum mevcut hukukumuz bakımından çözümsüz değildir ve mutlak bir sorumsuzluk alanı yaratmamaktadır. Zira yapay zekalı chatbotların terapist izlenimi yaratacak şekilde tasarlanması, yönlendirilmesi, bilinçli olarak bu yönde pazarlanması veya doğrudan terapi hizmeti vermesi gibi çeşitli hallerde, somut olayın özelliklerine göre, gerçek kişi konumundaki geliştiricilerin, yöneticilerin veya hizmet sunumundan sorumlu kişilerin başka suç tipleri ve kanuna aykırılıklar kapsamında sorumluluğu gündeme gelebilecektir.
Yapay zeka şirketlerinin kullanıcı ve hizmet politikaları incelendiğinde, fiilen hekimlik veya psikiyatri faaliyeti icra etmeyi hedeflediğini söylemek teknik olarak mümkün değildir.
Ancak ortaya konulan hizmet, terapi hizmetleri kanunen belirli diploma sahibi kişilere özgülenmesine rağmen bu ilişkiyi simule edebilmekte ve psikiyatristler ve klinik psikologlar bakımından bir rekabet alanı yaratmaktadır. Chatbotların insan benzeri bilişsel süreçler işletebilmesi ve insan benzeri yanıtlar üretebilmesi sebebiyle burada tartışılması gereken husus, ilgili şirketin bunu hedefleyip hedeflemediği değil; şirketin sağladığı chatbotun yetkiye bağlı bir mesleğin sahip olduğu güven, uzmanlık ve meşruiyet algısını yaratıp yaratmadığıdır.
Yapay zeka cerrahide tüm operasyon ve bakım süreçlerini değiştirebilir
Chatbotların empati kuruyormuş izlenimi veren dil kullanımı, kullanıcıyı yönlendiren psikolojik değerlendirmeler yapması ve terapiye özgü kavramlar ile yapılandırılmış teknikleri (örneğin bilişsel davranışçı terapiye atıflar) simüle etmesi, kullanıcı nezdinde bu sistemlerin profesyonel bir ruh sağlığı desteği sunduğu algısını yaratabilmektedir. Bu algı, özellikle ruhsal açıdan kırılgan bireyler bakımından, botun hukuki ve mesleki yetkinliği olmadığı hâlde yetkili bir sağlık profesyonelinin yerini fiilen doldurduğu bir etki doğurmaktadır.
Bu çerçevede, Türk Ticaret Kanunu’nda düzenlenen dürüstlük kuralına aykırı ticari uygulamalar bakımından değerlendirme yapılması mümkündür. Zira bir hizmetin, sahip olmadığı bir mesleki yeterliliğe veya hukuken tanınmış bir uzmanlığa sahipmiş gibi sunulması; kullanıcıyı hizmetin gerçek niteliği, sınırları ve riskleri hakkında yanıltabilecek niteliktedir. Bu bağlamda yukarıda da değinildiği üzere, yalnızca şirketin politikası bu yönde görünmese de, chatbotun davranış biçimi de bu kapsamda değerlendirilmelidir.
Kullanıcının, bir ruh sağlığı profesyoneline başvurmak yerine yapay zekalı chatbotlara yönelmesi, doğrudan ekonomik bir rekabet ilişkisi bulunmasa dahi, TTK m.55’in korumayı amaçladığı piyasa düzeni ve tüketici güveni açısından hukuken sorunlu bir tablo ortaya koymaktadır. Bu nedenle, chatbotların terapötik etkileşim izlenimi yaratacak şekilde konumlandırılmasının, Türk hukukunda haksız rekabet kapsamında değerlendirilmesi gerektiği söylenebilir.
Bu kapsamda psikiyatristler ile klinik psikologların TTK uyarınca haksız rekabetin varlığını ileri sürerek bunun tespiti, men’i, maddi tazminat ve kişilik haklarının zedelenmesi halinde manevi tazminat davalarını açabilmeleri mümkündür.
Mevcut Türk hukuk düzeninde yapay zekâ sistemleri, bağımsız bir hukuki özne olarak tanınmamaktadır. Hukuki kişilik yalnızca gerçek ve tüzel kişilere özgülenmiş olup, yapay zekâ sistemleri bu kategorilerden hiçbirine dâhil değildir. Dolayısıyla, yapay zekâ sistemlerinin hukuken birer “ürün” olarak değerlendirilip değerlendirilemeyeceğinin incelenmesi gerekmektedir.
Yapay zeka uygulamaları yeni ilaçların keşif sürecini çok hızlandıracak
7223 sayılı Ürün Güvenliği ve Teknik Düzenlemeler Kanunu ile Genel Ürün Güvenliği Yönetmeliği, ürünü kavramı, her türlü madde, müstahzar veya eşyayı ifade etmektedir. Doktrinde yapay zekalı sistemlerin eşya kapsamında değerlendirilemeyeceğine, müstahzar tanımının içinde değerlendirilebileceğine dair görüşler bulunmaktadır. Ancak madde metnindeki hiçbir kavramın yapay zekalı sistemleri kapsamayacağına dair görüşler de vardır. Mevzuat bu hali ile eski Avrupa Birliği ürün mevzuatı ile paraleldir. Fakat AB hukuku 2024 yılının sonunda daha ileri ve açık bir normatif çerçeve benimsemiştir. Yeni AB Ürün Sorumluluk Direktifi, ürün tanımını yazılımı kapsayacak şekilde genişletmiştir.
Böylece fiziksel bir cisimle bütünleşmeyen, ancak piyasaya arz edilen ve kullanıcıya sunulan dijital sistemlerin de ürün sorumluluğu rejimine tabi olduğu tartışmasız hale getirilmiştir. Bunun ötesinde, AB düzenlemesi zarar kavramını klasik anlayışın ötesine taşımıştır. Yeni rejimde zarar, yalnızca bedensel zarar veya maddi kayıplar ile sınırlı değildir; psikolojik zararlar da açıkça tazmin edilebilir zarar kalemleri arasında sayılmıştır.
Bu yaklaşım, özellikle ruh sağlığı üzerinde olumsuz etki doğurabilen yapay zekâ sistemleri bakımından kritik bir eşik oluşturmaktadır. Zira bu düzenleme ile, bir yapay zekâ sisteminin kullanıcıda kaygı bozukluğu, depresif belirtiler, intihar düşüncelerinin tetiklenmesi gibi sonuçlara yol açması hâlinde, söz konusu etkinin “soyut” veya “hukuken korunmayan” bir zarar olarak değerlendirilmesinin önüne geçilmiştir.
Türk hukukunun da AB düzenlemelerini takip etme eğilimi düşünüldüğünde, buna benzer bir düzenlemenin yakın zamanda iç hukukumuzda yer bulacağı düşünülmektedir. Açıklamalar ışığında, bağımsız karar üretebilen, kullanıcı davranışlarını etkileyen ve öngörülebilir riskler barındıran yapay zekâ tabanlı yazılımları, Türk hukuku bakımından da ürün güvenliği rejimi kapsamında değerlendirmek mümkündür. Ancak mevcut ulusal düzenlemeler, özellikle kusur, zarar ve nedensellik bakımından yapay zekâya özgü riskleri açık biçimde ele almaktan henüz uzaktır.
Yapay zekanın Hematoloji ve Onkolojide kullanımı hızla artıyor!
Bu çerçevede AB hukuku, ruh sağlığına yönelik riskler barındıran yapay zekâ sistemlerinin, ürün sorumluluğu kapsamında değerlendirilmesini mümkün kılmaktadır. Türk hukukunda ise benzer bir sonuca ulaşmak, ancak mevcut mevzuatın geniş yorumu veya açık bir yasal düzenleme ile mümkün olabilecektir.
7223 sayılı Ürün Güvenliği ve Teknik Düzenlemeler Kanunu’nun 7. maddesi uyarınca imalatçı; piyasaya arz ettiği ürünün taşıyabileceği riskleri öngörmek, bu riskler konusunda nihai kullanıcıyı açık ve anlaşılır biçimde bilgilendirmek ve ürünün güvensiz olduğunu öğrendiği veya bilmesinin gerektiği hâllerde gerekli tüm düzeltici ve önleyici tedbirleri gecikmeksizin almak ile yükümlüdür. Bu yükümlülükler, yalnızca fiziksel ürünler bakımından değil, kullanıcı davranışları üzerinde etkili olan ve öngörülebilir zarar riski barındıran dijital ürünler açısından da geçerli kabul edilmelidir.
Bu bağlamda OpenAI ve benzeri yapay zekâ sağlayıcılarının, kendi politika metinlerinde ve özellikle “self-harm”, güvenlik, kullanıcı politikası gibi belgelerde, sistemlerinin kullanıcılar üzerinde psikolojik zarar, intihara yönlendirme veya ruhsal kırılganlığı artırma riski doğurabileceğini açıkça tanımlamış olmaları, hukuki açıdan riskten haberdar olunduğuna dair açık bir ikrar niteliği taşır.
7223 sayılı Ürün Güvenliği ve Teknik Düzenlemeler Kanunu m.7’de düzenlenen yükümlülüklerin ihlali, imalatçı bakımından tazminat sorumluluğunun doğmasına yol açar. Kanun, doğrudan bir tazminat rejimi kurmamakla birlikte, imalatçının ürünün güvenliğini sağlama yükümlülüğünü açık biçimde tanımlamaktadır. Bu yükümlülüğün ihlali hâlinde sorumluluk, Türk Borçlar Kanunu’nun ilgili hükümleri ile birlikte değerlendirilmektedir. Özellikle öngörülebilir risklere rağmen yeterli önlemlerin alınmaması, kullanıcıların açık ve etkin biçimde uyarılmaması veya ürünün piyasada tutulmaya devam edilmesi hâllerinde, imalatçının kusurunun varlığı karine olarak kabul edilebilecektir. AB hukuku, zarar görenin ispat yükünü hafifletici düzenlemeler öngörmekte, bazı durumlarda nedensellik bağının varlığı kendiliğinden kabul edilmektedir.
ChatGPT, teşhis ve klinik karar verme sürecinde önemli bir eşiği daha geçti
Bu çerçevede Türk hukukunda, yapay zekâ sistemlerinin ruh sağlığı üzerinde öngörülebilir psikolojik zararlar doğurabileceğinin bilindiği veya bilinmesinin gerektiği durumlarda, ortaya çıkan zarar ile ürün arasındaki uygun illiyet bağının kurulması hâlinde, imalatçı maddi ve manevi tazminatla sorumlu tutulabilir. Zararın fiziksel olmamasının sorumluluğu ortadan kaldırıp kaldırmayacağı hususunda ise; özellikle AB hukukundaki gelişmeler ve doktrindeki eğilimler dikkate alındığında, psikolojik zararların da tazmin edilebilirliği yönünde güçlü bir normatif baskı oluşmaktadır.
Yapay zekâ sağlayıcılarının kullanıcı sözleşmeleri ve politika metinlerinde sorumluluklarını sınırlamayı hedefleyen, herhangi bir garanti vermediğini ve “as is/olduğu gibi” hizmet sunulduğuna dair beyanlarda bulunmaktadır. “Olduğu gibi” hizmet sunumuna karşılık gelen ifade, OpenAI ve benzeri yapay zekâ sağlayıcılarının Kullanım Şartları (Terms of Use) ve Sorumluluk Reddi (Disclaimers) bölümlerinde yer almaktadır. Bu ifade genellikle İngilizce metinlerde “as is” ve “as available” şeklinde kullanılmakta, hizmetin belirli bir amaca uygunluğu, hatasızlığı veya güvenilirliği konusunda herhangi bir garanti verilmediğini belirtmeyi amaçlamaktadır. Bu beyanların hukuki geçerliliği ayrıca incelenmelidir.
Hizmetin “olduğu gibi” sunulduğuna ilişkin sorumluluk reddi beyanları, ürün güvenliği hukukunda kamu düzenine ilişkin yükümlülükleri bertaraf edici bir hukuki etki doğurmaz. Zira güvenli ürün kavramı, tarafların sözleşmesel iradesiyle daraltılamaz. Yani tüketiciye/kullanıcıya ürünü kullanabilmek için kabul edilmesi zorunlu olan bir metni onaylatarak güvensiz ürün sunmak mümkün değildir. Aksine, ancak makul ve öngörülebilir kullanım koşulları altında insan sağlığı ve güvenliği bakımından kabul edilebilir risk seviyesini aşmayan ürünler piyasaya arz edilebilir. Bu bağlamda, ürünün teknik karmaşıklığı veya öğrenen sistem niteliği, imalatçının riskleri öngörme, kullanıcıyı bilgilendirme ve zararı önleyici tedbir alma yükümlülüklerini ortadan kaldırmamaktadır. Bu yükümlülüklerden kullanıcıya yöneltilen genel ve soyut sorumluluk reddi beyanları ile bir sözleşmesel ilişki tesis edilerek de kaçınmak mümkün değildir.
Özellikle yapay zekâ sistemleri bakımından, “olduğu gibi hizmet” yaklaşımının temel gerekçesi black box (kara kutu) yapısıdır. Ancak bu bir anlamda, hukuki sorumluluğu hafifletici değil, aksine ağırlaştırıcı bir unsur olarak değerlendirilmelidir. Zira imalatçı, sistemin karar alma süreçlerinin tam olarak öngörülemediğini, çıktılarının kural tabanlı sistemlerdeki gibi deterministik olmadığını ve belirli riskler doğurabileceğini biliyor veya bilmesi gerekiyorsa; bu belirsizlik hali, risk analizinden kaçınmanın değil, daha sıkı güvenlik ve bilgilendirme yükümlülüklerinin gerekçesini oluşturur. Neticede teknik şeffaflığın sınırlı olması, hukuki açıdan “bilinmezlik” anlamına değil, “öngörülebilir risk alanı” anlamına gelmekte ve imalatçının alacağı ek önlemleri zaruri kılmaktadır.
Öte yandan 6502 sayılı Tüketicinin Korunması Hakkında Kanun bakımından, yapay zekâ hizmetlerinin “olduğu gibi/as is” sunulduğuna ilişkin sorumluluk reddi kayıtları, ayıplı hizmet ve haksız şart hükümleri bakımından da sakattır. Zira tüketiciye sunulan, müzakere edilmeyen ve hizmetten yararlanmayı bu kayıtların kabulüne bağlayan genel işlem şartları, TKHK uyarınca tüketici aleyhine dengesizlik yaratarak haksız şart niteliği kazanmaktadır. Ayrıca hizmetin makul güvenlik ve fayda beklentisini karşılamaması hâlinde ayıplı hizmet sorumluluğu da gündeme gelmektedir.
YAZIYI PAYLAŞ
YORUMUNUZ VAR MI?