Yapay zekâ artık ruh sağlığı alanında geleceğe ait bir olasılık değil; psikolojik sıkıntıların nasıl değerlendirildiğini, izlendiğini ve tedavi edildiğini şekillendiren güncel bir gerçekliktir. Bilişsel davranışçı müdahaleler sunan yapay zekâ destekli sohbet robotlarından intihar riskini öngören algoritmalara kadar dijital teknolojiler dünya genelinde klinik ortamlara giderek daha fazla entegre edilmektedir. Bu gelişmeler erişimin artacağı vaadini taşırken aynı zamanda derin soruları da gündeme getirmektedir: Bir makine gerçekten bir insanı “görebilir” mi? Dinleyici bir yapay zekâ olduğunda terapötik bağa ne olur?
Klinik Potansiyel: Küresel Erişilebilirlik ve Hassasiyet
Yapay zekâ temelli müdahaleler lehine öne sürülen en güçlü argümanlardan biri, hasta bakım hizmetlerini demokratikleştirme potansiyelidir. Pek çok bölgede destek talebi mevcut profesyonel iş gücünü önemli ölçüde aşmakta ve birçok kişi sessizce acı çekmektedir. Güncel araştırmalar, özellikle bilişsel davranışçı modeller çerçevesinde yapılandırılmış ve kanıta dayalı yaklaşımlar içinde kullanıldığında, yapay zekâ destekli müdahalelerin oldukça etkili olabileceğini göstermektedir (Békés ve ark., 2024).
Otomatik Bilişsel Davranışçı Terapi (BDT) programları ve yapay zekâ rehberli öz-yardım araçları, anksiyete ve depresyon belirtilerini azaltmada orta düzeyde etkililik göstermiş ve aksi takdirde hiç yardım alamayacak bireyler için bir ilk adım sunmuştur. Ayrıca, makine öğrenimi modelleri psikolojik riskle ilişkili dilsel örüntüleri belirleme konusunda önemli bir potansiyel ortaya koymuş; klinisyenlere hayat kurtarabilecek veri temelli içgörüler sağlamıştır (Topol, 2019).
Bilişsel ve Terapötik Sınırlılıklar
Tüm bu avantajlara rağmen, yapay zekâ sistemleri en temel insani özellik açısından insan terapistlerden köklü biçimde ayrılmaktadır. Bilişsel açıdan değerlendirildiğinde, yapay sistemler bilinç ya da gerçek empatiye sahip değildir. Verdikleri yanıtlar, duygusal rezonans veya klinik sezgiye değil; karmaşık örüntü tanıma ve olasılıksal modellemeye dayanmaktadır (Fiske, Henningsen ve Buyx, 2019).
Travmanın hassas alanında, hastanın “görülmek” ve anlaşılmak istediği noktada algoritma sınırına ulaşmaktadır. Yapay zekâ empatik dili simüle edebilse de, insan varlığının biyolojik “uyumlanmasını” sunamaz. Bunun yanı sıra algoritmik önyargı önemli bir kaygı kaynağı olmaya devam etmektedir; zira yapay zekâ sistemleri kültürel veya sosyoekonomik önyargılar içerebilen veri setleri üzerinde eğitilmektedir. Bu durum, hastanın benzersiz kültürel özünün yanlış anlaşılmasına yol açabilir (WHO, 2022).
Etik Zorluklar ve Mesleki Sorumluluk
Bu dijital dönüşümün etik sonuçları oldukça kapsamlıdır. Günümüzde birçok yapay zekâ temelli araç, resmi sağlık hizmetleri ile ticari “wellness” teknolojileri arasında düzenleyici bir “gri alanda” faaliyet göstermektedir (Mafi, 2024). Bu durum kritik bir hesap verebilirlik sorusunu gündeme getirmektedir: Bir algoritma yetersiz yönlendirme sunduğunda sorumluluk kime aittir?
Amerikan Psikoloji Derneği (2023), yapay zekânın insan klinisyenlerin yerine geçen bir sistem değil; destekleyici bir yardımcı araç olarak işlev görmesi gerektiğini vurgulamaktadır. Klinik uzman, makinenin verimliliğini benimserken dahi hastanın verilerinin ve onurunun korunmasını sağlayan etik dayanak noktası olarak kalmalıdır (Frontiers in Digital Health, 2024).
Dengeli ve Kanıta Dayalı Bir Entegrasyona Doğru
Sonuç olarak, yapay zekânın ruh sağlığı hizmetlerine entegrasyonu bir otomasyon arayışı değil; bakım kapasitemizi güçlendirme sorumluluğudur. Bu dijital sınırda ilerlerken psikoloğun rolü vazgeçilmezliğini korumaktadır. Teknolojinin iyileşmeye giden bir köprü işlevi görmesini, otantik insani bağa engel oluşturmamasını sağlamak zorundayız. Sorumluluğumuz, yeniliğin klinik bilgelik tarafından yönlendirildiği ve insan ruhunun yerini doldurulamaz, derin nüanslarının her zaman önceliklendirildiği bir geleceği savunmaktır.
Kaynakça
-
American Psychological Association. (2023). Artificial intelligence and mental health care. APA.
-
Békés, V., et al. (2024). Acceptance of artificial intelligence–based mental health interventions. Clinical Psychology & Psychotherapy.
-
Fiske, A., Henningsen, P., & Buyx, A. (2019). Your robot therapist will see you now: Ethical implications of embodied artificial intelligence in psychiatry. Journal of Medical Ethics, 45(9), 569–573.
-
Frontiers in Digital Health. (2024). Ethical considerations of AI in mental health interventions.
-
Mafi, A. (2024). The risks and benefits of AI therapy tools. BMJ.
-
Topol, E. (2019). Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books.
-
World Health Organization. (2022). Ethics and governance of artificial intelligence for health. WHO.


