Yapay Zekanın Terapideki Rolü
Dijital teknolojiler, ruh sağlığı alanında son yıllarda önemli bir dönüşüm yaratmıştır. Özellikle yapay zekâ (YZ) temelli uygulamalar; psikolojik değerlendirme, psiko-eğitim ve destekleyici müdahaleler alanında giderek daha yaygın kullanılmaktadır. Duygusal durum analizi yapan sohbet botları, bilişsel davranışçı teknikler sunan mobil uygulamalar ve terapi sürecini izleyen algoritmalar, bireylerin ruh sağlığı hizmetlerine erişimini kolaylaştırmaktadır (Fitzpatrick, Darcy & Vierhile, 2017). Bununla birlikte, yapay zekâ destekli terapilerin yaygınlaşması; etik sınırlar, veri güvenliği ve terapötik ilişkinin niteliği gibi temel konuların yeniden ele alınmasını zorunlu kılmaktadır.
Yapay zekâ destekli terapötik sistemler genellikle kullanıcıların yazılı ya da sözlü ifadelerini analiz ederek duygu durumlarını sınıflandıran ve belirli müdahaleler öneren algoritmalara dayanmaktadır. Bu sistemler; stres yönetimi, kaygı azaltma ve duygu düzenleme gibi alanlarda yapılandırılmış destek sunabilmektedir (Inkster, Sarda & Subramanian, 2018). Özellikle insan terapiste erişimin sınırlı olduğu durumlarda, bu tür uygulamalar ilk basamak desteği sağlayabilmektedir.
Ancak literatürde vurgulandığı üzere, yapay zekâ uygulamaları terapötik ilişkinin temel bileşenleri olan empati, sezgisel anlayış ve bağ kurma becerilerini sınırlı düzeyde sunabilmektedir (Blease et al., 2019). Bu nedenle yapay zekâ, terapiyi yürüten bir özne olarak değil; terapötik süreci destekleyen bir araç olarak değerlendirilmelidir.
Etik Sınırlar ve Sorumluluklar
Yapay zekâ destekli terapilerin en tartışmalı boyutlarından biri etik sınırlardır. Yapay zekâ sistemleri, geçmiş veriler üzerinden öğrenme yaptığı için veri setlerindeki yanlılıkları yeniden üretebilir. Bu durum, kültürel farklılıkların göz ardı edilmesine ve bazı kullanıcı gruplarının yanlış değerlendirilmesine yol açabilir (Vallor & Whittlestone, 2019).
Bir diğer önemli etik sorun, kullanıcıların yapay zekâ sistemlerini gerçek bir terapist gibi algılamasıdır. Bu algı, bireylerin profesyonel destek arayışını geciktirebilir ve özellikle yüksek riskli psikolojik durumlarda ciddi sonuçlar doğurabilir (Luxton, 2020). Bu nedenle yapay zekâ destekli uygulamaların, kullanıcıya açık biçimde kendi sınırlarını belirtmesi ve gerektiğinde insan uzmana yönlendirme yapması etik bir zorunluluktur.
Veri Güvenliği ve Psikolojik Mahremiyet
Ruh sağlığı verileri, kişisel veriler arasında en hassas olanlar arasında yer almaktadır. Yapay zekâ destekli terapötik uygulamalar; duygu durumları, düşünce kalıpları ve kişisel deneyimler gibi derin psikolojik bilgileri işlemektedir. Bu verilerin korunması, yalnızca hukuki değil, aynı zamanda terapötik güven açısından da kritik öneme sahiptir (Morley et al., 2020).
Veri güvenliği ihlalleri, bireyin mahremiyetini zedelemenin yanı sıra terapi sürecine olan güveni de sarsabilir. Bu nedenle dijital terapötik sistemlerin; açık rıza, veri minimizasyonu ve şeffaflık ilkelerine uygun olarak tasarlanması gerekmektedir. Kullanıcıların hangi verilerin toplandığını ve bu verilerin nasıl kullanıldığını bilmesi, psikolojik güvenliğin temel koşullarındandır.
İnsan-Al Birlikte Çalışması: Hibrit Model
Yapay zekânın psikoterapi alanında terapistlerin yerini alıp alamayacağı sorusu, literatürde sıkça tartışılmaktadır. Mevcut çalışmalar, yapay zekânın terapistin yerini almasının yakın gelecekte mümkün olmadığını; ancak terapistlerin klinik karar süreçlerini destekleyen güçlü bir araç olabileceğini göstermektedir (Blease et al., 2019).
İnsan–AI birlikte çalışma modeli, terapistin klinik uzmanlıkını merkeze alırken; yapay zekâyı veri analizi, seans takibi ve yapılandırılmış müdahale önerileri sunan bir yardımcı olarak konumlandırmaktadır. Bu model, terapötik etkinliği artırma potansiyeli taşırken, etik sorumluluk ve nihai karar verme yetkisini insan uzmanda bırakmaktadır.
Yapay zekâ destekli terapiler, ruh sağlığı hizmetlerinin geleceğinde önemli bir rol üstlenmektedir. Ancak bu rolün sağlıklı ve etik bir biçimde şekillenebilmesi; net etik sınırların belirlenmesine, veri güvenliğinin sağlanmasına ve insan faktörünün merkezde tutulmasına bağlıdır. Yapay zekâ, doğru çerçevede kullanıldığında erişilebilirliği artıran ve terapötik süreci destekleyen değerli bir araç olabilir. Aksi hâlde, terapötik ilişkiye zarar verme riski taşır. Geleceğin psikoterapi modeli, insan ile yapay zekânın rekabet ettiği değil; etik ve bilinçli biçimde birlikte çalıştığı bir yapı üzerine kurulmalıdır. Bu süreçte temel öncelik, teknolojik yenilikler değil, bireyin psikolojik iyilik hâlidir.
Kaynakça
Blease, C., Kaptchuk, T. J., Bernstein, M. H., Mandl, K. D., Halamka, J. D., & DesRoches, C. M. (2019). Artificial intelligence and the future of psychotherapy: A review of ethical and clinical issues. Ethics and Information Technology, 21(4), 291–302.
Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent. JMIR Mental Health, 4(2), e19.
Inkster, B., Sarda, S., & Subramanian, V. (2018). An empathy-driven, conversational artificial intelligence agent (Wysa) for digital mental well-being. JMIR mHealth and uHealth, 6(11), e12106.
Luxton, D. D. (2020). Ethical implications of artificial intelligence in psychotherapy. Ethics & Behavior, 30(6), 394–401.
Morley, J., Floridi, L., Kinsey, L., & Elhalal, A. (2020). From what to how: An initial review of publicly available AI ethics tools, methods and research to translate principles into practices. Science and Engineering Ethics, 26(4), 2141–2168.
Vallor, S., & Whittlestone, J. (2019). The ethics of AI in context. Journal of Artificial Intelligence Research, 64, 417–436.


