Dijital çağda yalnızlık da otomatikleşti. Bir dokunuşla açılan sohbet robotları, artık sadece konuşmuyor; dinliyor, cevap veriyor, bazen de terapiyi taklit ediyor. Peki gerçekten iyi geliyorlar mı, yoksa yalnızlığın yeni arayüzü mü oldular?
“ChatGPT’ye derdimi anlattım. Bana bir terapist gibi cevap verdi. Sanki beni anladı, peki gerçekten anladı mı?”
Eskiden duygular bir insana açılırdı. Bugünse bir ekrana açılıyor ve karşımızda bir insan değil, artık bir yazılım var. Son yıllarda, sohbet tabanlı yapay zekâ uygulamaları, ChatGPT, Replika, Woebot, duygusal destek alanında hızla yaygınlaştı. İnsanlar bu sistemlerle yalnızca bilgi alışverişi yapmıyor; duygularını, korkularını, içsel çatışmalarını da paylaşıyorlar.
Sessizliğe gömülmeden dinleyen, 7/24 cevap veren, asla yargılamayan bu “dijital arkadaşlar”, birçok kişi için bir tür terapi alanına dönüşmüş durumda. Bu noktada önemli bir soru var: Bu sohbetler gerçekten psikolojik destek sağlıyor mu? Yoksa yalnızca algoritmik bir empati illüzyonunun içinde mi oyalanıyoruz? Bu soruya yanıt arayan bilim insanları, son yıllarda çeşitli deneysel çalışmalar yürütmüş ve elde edilen bulgular oldukça dikkat çekici ancak çelişkili sonuçlar ortaya koymuştur. Yapay zekâ destekli sistemlerin bazı durumlarda psikolojik destek sağlama potansiyeli taşıdığı görülmekle birlikte, bu etkiler her birey için geçerli değildir ve en önemlisi, bu sistemler terapötik sürecin derinleşmesi açısından sınırlı kalmaktadır.
Terapiye Alternatif mi, Araç mı?
Yapay zekâ destekli sistemler, özellikle birebir terapiye ulaşamayanlar için yeni bir umut olmaktadır. Türkiye’de yayımlanan kapsamlı bir çalışmada, Akkan ve Ülker (2023) bu teknolojilerin danışmanlık sürecini destekleyebileceğini, ancak hiçbir zaman insan terapistlerin yerini alamayacağını vurguladı. Onlara göre bu sistemler, “destekleyici ama sınırlı.”
Yapay zekâ, iyileştirici bir yol arkadaşı olabilir ama yolu tek başına taşıyamaz.
Empatiyi Taklit Eder ama Yaşayamaz
Sohbet robotları, destekleyici cümleleri, pozitif geri bildirimleri ve hatta bilişsel davranışçı teknikleri oldukça başarılı bir şekilde uygulayabiliyor. “Seni anlıyorum.”, “Bu duyguyu hissetmen çok normal.” gibi ifadeler, metin düzeyinde anlamlı ve güven verici görünebilir. Ancak unutulmamalı ki bu, yalnızca bir dilsel simülasyondur çünkü empati, sadece doğru kelimeleri bulmak değil; duyguyu içselleştirmek, onunla eşzamanlı titreşmektir.
Gerçek bir terapist, yalnızca duyguyu adlandırmaz, o duyguya tanıklık eder. Bazen sessizliğiyle, bazen duraksamasıyla, bazen göz göze bakarak sunduğu varlığıyla bir duyguyu taşır. Oysa yapay zekâ, ne bu duyguyu hissedebilir ne de onun yükünü paylaşabilir. O, sadece veri örüntülerine dayalı bir karşılık üretir. İşlevsel ama içi boş bir yankı gibi. Empatik bir ifadenin anlamı, kimin tarafından, ne zaman ve nasıl söylendiğinde gizlidir. Aynı cümle, bir insandan geldiğinde iyileştirici; bir algoritmadan geldiğinde ise sadece “mantıklı” olabilir.
Akkan ve Ülker’in (2023) çalışması bu noktada özellikle uyarıcıdır. Onlara göre, “terapötik bağın kurulamaması, teknolojik araçların en belirgin sınırlılıklarından biridir” (s. 59). Çünkü bağ, sadece iletişim değil; karşılıklı duygusal yatırım ile kurulur. Chatbot’lar bu yatırımın yalnızca taklidini sunabilir. Üstelik insani terapötik süreçlerde bazen söylenmeyen şeyler bile çok şey anlatır. Bir terapistin kaşının çatılması, bedeninin öne eğilmesi, bir duyguyla birlikte gözlerinin dolması… Bunlar yapay zekâ tarafından üretilemeyen ama iyileşmenin temelini oluşturan sinyallerdir. Dolayısıyla, bir yapay zekânın terapist gibi davranabilmesi, onu terapötik bir figür haline getirmez. Bu sistemler, yalnızca empatiyi modelleyebilir; ama empatiyi yaşayamazlar.
Gerçek Deneyler Ne Diyor? Beş Farklı Ülkeden Beş Kanıt
Yapay zekânın terapi sürecine etkisi yalnızca teorik düzeyde tartışılmıyor artık bilimsel olarak da ölçülüyor. Son beş yılda dünya çapında yapılan çok sayıda randomize kontrollü deney, bu teknolojilerin psikolojik etkilerini gözlemlemek üzere tasarlandı. Sonuçlar ise hem umut verici hem temkinli olmamız gerektiğini gösteriyor.
Jacobson et al. (2025), yapay zekâ destekli bir chatbot’un kaygı ve depresyon üzerindeki etkisini araştırdı. 419 katılımcının yer aldığı çalışmada, chatbot grubunda kısa vadeli belirgin iyileşme gözlendi ancak uzun vadeli ilişki eksikliği nedeniyle etkiler kalıcı olmadı.
Klos et al. (2021), üniversite öğrencilerinde Woebot kullanımıyla anksiyete ve depresyonun azaldığını gösterdi ancak etkileşimlerin zamanla yapaylaştığı belirtildi.
He, Zhang ve Wang (2022), Çin’deki üniversite öğrencilerinde benzer bir çalışmada; duygusal farkındalık düzeyi yüksek bireylerde chatbot’un daha etkili olduğunu buldu.
Sabour et al. (2022), chatbot’ların başta destekleyici bulunsa da zamanla tekrara düştüğü, empati kurma kapasitesinin sınırlı olduğu sonucuna vardı.
Akkan ve Ülker (2023), Türkiye’de etik ve duygusal sınırlara dikkat çeken bir analiz sundu. Kullanıcılar, bu sistemleri ulaşılabilir bulsalar da gerçek bir terapi ilişkisinin yerini tutamayacağını vurgulamıştır.
Mahremiyet: En Mahrem Cümleler Kimin Elinde?
Yapay zekâ temelli terapötik sistemlerin en az konuşulan ama en önemli risklerinden biri veri güvenliğidir. Kullanıcıların paylaştığı duygular, çoğu zaman belirsiz veri politikalarına tabi olarak algoritmalar tarafından işlenmektedir.
Bir yapay zekâya yazılan cümle, bir veri nesnesine dönüşür ve veri, günümüzde ekonomik bir kaynaktır. Akkan ve Ülker (2023), kullanıcı verilerinin işlenme süreçlerine dair şeffaflığın yetersiz olduğunu vurgular. Uluslararası düzeyde bu konuda güçlü regülasyonlar hâlâ geliştirilmeyi bekliyor. Bu bağlamda, yapay zekâya açılmak; yalnızca bir arayüze değil, görünmeyen bir veri ekonomisine de açılmak anlamına gelebilir.
Yapay Zekâ Rehber Olabilir, Terapist Olamaz
Yapay zekâ destekli sistemler, özellikle erişilebilirlik açısından anlamlı bir destek sağlayabilir ancak terapötik sürecin derinliği, hâlâ insan temasına dayanır. Sessizlikte anlaşılmak, göz temasıyla duyulmak, acıya tanıklık edilmesi yapay zekânın simüle edemeyeceği insani niteliklerdir. Bu nedenle yapay zekâ, terapinin yerine değil; yanında, destekleyici bir unsur olarak düşünülmelidir. Hibrit bir model, geleceğin ruh sağlığı sisteminde daha gerçekçi bir yol olabilir.
Kaynakça
Akkan, G., & Ülker, S. V. (2023). Ruh sağlığı hizmetlerinde yapay zeka uygulamaları ve ilişkili teknolojiler. Fırat Üniversitesi Sosyal Bilimler Dergisi, 33(1), 55–64.
He, L., Zhang, Y., & Wang, Y. (2022). Using AI chatbots to provide self-help depression interventions for university students: A randomized controlled trial. Internet Interventions, 27, 100500. https://doi.org/10.1016/j.invent.2021.100500
Jacobson, N. C., Heinz, M. V., Mackin, D. M., et al. (2025). Randomized trial of a generative AI chatbot for mental health support. NEJM AI. https://ai.nejm.org/doi/full/10.1056/AIoa2400802
Klos, M. C., Escoredo, M., Joerin, A., Lemos, V. N., Rauws, M., & Bunge, E. L. (2021). Artificial intelligence–based chatbot for anxiety and depression in university students: Pilot randomized controlled trial. JMIR Formative Research, 5(8), e20678. https://doi.org/10.2196/20678
Sabour, S., Zhang, W., Xiao, X., Zhang, Y., Zheng, Y., Wen, J., Zhao, J., & Huang, M. (2022). Chatbots for mental health support: A scoping review. IEEE Access, 10, 70038–70051. https://doi.org/10.1109/ACCESS.2022.3188614