Ruh Sağlığında Yapay Zeka Riskleri: Uzmanlardan Kritik Uyarı
Yapay zeka (YZ) sohbet robotlarının anında ve kolay erişilebilir destek sunması, ruh sağlığında yapay zeka risklerini de beraberinde getiriyor. Uzmanlar, bu araçların bazı faydalar sağlasa da, özellikle hassas durumlar söz konusu olduğunda ciddi tehlikeler taşıdığı konusunda uyarıyor. YZ'nin empati kuramama, beden dilini okuyamama ve en önemlisi, bir insanın gerçeği değerlendirme yetisini sorgulayamama gibi sınırlılıkları, halk sağlığı açısından yeni etik kurallar getirilmesini zorunlu kılıyor.

Bu yazımızda, yapay zeka terapi uygulamalarının potansiyel tehlikelerini, algoritmaların psikotik belirtileri neden anlayamadığını ve güvenli yapay zeka terapi kullanımı için geliştiricilere ve kullanıcılara düşen görevleri detaylıca inceliyoruz.
Psikotik Belirtiler ve AI: Tehlike Nerede Başlıyor?
Psikotik Belirti Nedir?
"Psikotik belirti", kişinin gerçeği değerlendirme yetisinin bozulduğu ciddi ruhsal durumları ifade eder. En yaygın psikotik belirtiler ikiye ayrılır:
Sanrılar (Hezeyanlar): Kişinin, aksi yöndeki tüm kanıtlara rağmen sarsılmaz bir şekilde inandığı yanlış inançlardır (Örneğin, takip edildiğine veya düşüncelerinin okunduğuna inanma).
Halüsinasyonlar (Varsanılar): Gerçekte var olmayan şeyleri beş duyu organından biriyle algılamaktır (En sık görüleni sesler duymadır).
Bu durumlar şizofreni gibi psikotik bozuklukların bir parçası olabilir.
Yapay Zeka Neden Tehlikeli Oluyor?
Psikiyatri Uzmanı Dr. Emine Yağmur Zorbozan, mevcut yapay zeka modellerinin, bu tür sanrı ve halüsinasyonları besleyebileceği konusunda son yayınlanan makaleleri kaynak göstererek uyarıyor. Yapay zeka modelleri, kelimeler arasındaki istatistiksel bağlantıları öğrenmek üzere eğitilmiştir; bir metnin mecazi mi yoksa gerçek bir sanrı mı olduğunu ayırt edecek muhakeme yeteneğine sahip değildirler.
Bir kullanıcı gerçeği değerlendirme yetisi bozulmuş bir düşünceyi yapay zekaya aktardığında, sistem bu düşünceyi sorgulamak veya çürütmek yerine, çoğunlukla "ilginç bir düşünce, daha fazla anlat" gibi destekleyici yanıtlar üretir. Bu durum, hastanın gerçeklikten daha da uzaklaşmasına yol açabilir ve çevresi açısından da risk oluşturabilir. Stanford Üniversitesi'nden araştırmacıların yaptığı deneyler de bu riski doğruluyor; intihar düşüncesi veya sanrılar içeren senaryolarda, bazı popüler yapay zeka terapi sohbet robotlarının, uygun müdahale yerine, tehlikeli davranışları destekleyici veya konuyu geçiştirici yanıtlar verdiği gözlemlenmiştir.
AI Terapisi ve Etik: Algoritmaların Sınıfı Nelerdir?
Yapay Zeka Bir Krizi Anlayabilir mi?
Günümüzde yapay zeka, bir krizi anlayamaz ve bu durum, terapötik süreç için hayati öneme sahip olan üç unsurdan yoksundur:
Bağlam Eksikliği: Yapay zeka, kullanıcının kişisel geçmişini, içinde bulunduğu sosyoekonomik durumu veya duygusal tepkilerinin kaynağını bilmez. Metin tabanlı bir sistem, "Beni izliyorlar" cümlesinin paranoyak bir sanrı mı yoksa bir film senaryosu mu olduğunu ayırt edemez.
Empati Yoksunluğu: Gerçek bir terapist, ses tonu, duraksama veya beden dili gibi sözel olmayan ipuçlarını yakalar. Yapay zeka, bu insani unsurları analiz edemediği için gerçek bir empati kuramaz. Ürettiği empatik yanıtlar, sadece kelimeleri taklit etme becerisidir.
Gerçeklik Testi Sınırı: Bir insan terapist, hastanın gerçeği değerlendirme yetisini sorgulayabilir ve "Bu düşünceye inanmanıza neden olan kanıtlar nelerdir?" gibi sorularla hastayı güvenli bir şekilde çerçevelemeye çalışır. Yapay zeka bu kritik terapötik müdahaleyi yapamaz.

Hassas Veri Güvenliği Neden Önemli?
AI sohbet robotlarıyla paylaşılan hassas verilerin gizliliği ve güvenliği, en önemli ruh sağlığı etik kurallarından birini teşkil eder. Kullanıcıların paylaştığı kişisel ve hassas bilgiler, sunucularda saklanabilir ve eğer yeterli güvenlik önlemleri alınmazsa, bu veriler ticari amaçlarla kullanılabilir veya sızabilir. Terapistlerin uymak zorunda olduğu katı gizlilik standartları, yapay zeka platformlarında şu an için sağlanamamaktadır.
Güvenli Yapay Zeka Kullanımı İçin Neler Yapılmalı?
Geliştiriciler İçin Etik Kurallar (Yeni "Hipokrat Yemini")
Güvenli yapay zeka kullanımı için geliştiricilere yönelik katı etik kuralların getirilmesi, halk sağlığı açısından bir zorunluluktur. Dünya Sağlık Örgütü (DSÖ) ve diğer uzmanlar, sağlık alanında yapay zeka için aşağıdaki ilkelerin benimsenmesini önermektedir:
Zarar Vermeme ve Güvenlik İlkesi: AI sistemleri, potansiyel olarak tehlikeli içerikleri (örneğin, intihar veya şiddet düşünceleri) tanımak ve bu durumlarda anında profesyonel yardım kaynaklarına (acil yardım hatları) yönlendirmek üzere programlanmalıdır. Kriz anında destekleyici, ancak durumu besleyici yanıtlar vermekten kaçınılmalıdır.
Şeffaflık: Kullanıcılara, bir yapay zeka ile konuştukları ve bu konuşmaların kaydedilebileceği konusunda açıkça bilgi verilmelidir.
Gizlilik: Hassas kullanıcı verileri, anonimleştirilmeli ve kesinlikle reklam veya başka ticari amaçlar için kullanılmamalıdır.
İnsan Denetimi (Human-in-the-Loop): Özellikle tanı, prognoz ve tedavi gibi hassas alanlarda, yapay zekanın kararlarını denetleyecek ve müdahale edecek insan uzmanların sistemde her zaman bir rolü olmalıdır.
Kullanıcılar İçin 5 Altın Kural
Bireylerin kendilerini korumaları için aşağıdaki kurallar hayati önem taşır:
Araç Olduğunu Unutmayın: Yapay zeka bir insan, terapist veya arkadaş değildir. Bilinçli ya da duygusal tepkileri yoktur; sadece bir yazılımdır.
Hassas Bilgilerden Kaçının: Kişisel, finansal veya sizi tanımlayabilecek hiçbir detayı sohbet robotlarıyla paylaşmayın.
Tavsiyeleri Sorgulayın: Yapay zekadan gelen sağlıkla ilgili hiçbir bilgiyi, lisanslı bir uzmana danışmadan uygulamayın.
Kriz Anında Profesyonel Yardım Alın: Kendinize veya bir başkasına zarar verme düşünceniz varsa, yapay zeka ile konuşmak yerine derhal acil yardım hatlarına veya bir sağlık kuruluşuna başvurun.
Profesyonel Yardımın Yerini Tutmaz: Yapay zeka terapi araçları, sadece bir uzmanın rehberliğinde destekleyici bir araç olarak kullanılabilir. Gerçek bir terapi sürecinin yerini asla tutamaz.

Yapay Zeka Ruh Sağlığı Alanında Hiç mi Kullanılmamalı?
Hayır, yapay zeka doğru sınırlar içinde kullanıldığında faydalı olabilir. Bu sistemler bilişsel davranışçı terapi (BDT) tekniklerini hatırlatma, erteleme davranışını azaltma veya günü planlama gibi konularda destekleyici bir araç olarak işlev görebilir.
Gelecekte, yapay zeka algoritmaları büyük veri kaynaklarından (biyo-psiko-sosyal profiller) anlam çıkararak, zihinsel hastalıkların daha erken teşhis edilmesine ve kişiselleştirilmiş tedavi planlarının tasarlanmasına yardımcı olabilir. Ancak bu, her zaman terapistin benzersiz insani becerilerine odaklanmasına imkan tanıyarak, yapay zeka terapi araçlarının insan denetiminde ve etik kurallar çerçevesinde kullanılması şartıyla mümkündür.
Bu nedenle, yapay zeka ve ruh sağlığının geleceği, riskleri minimize eden ve empatiyi teknolojiyle birleştiren yeni bir etik çerçeve oluşturulmasına bağlıdır.
Recent posts
0 yorum
Henüz yorum yapılmamış.
Yorum bırak
Profilim
Misafir Kullanıcı
@Dünyayı değiştirmek isterdim, ama bana kaynak kodunu vermiyorlar.
Liderliğin 3D'si-Bütünsel Gelişim
Odaklanma-Farkındalık ve Belirsizlikler
İk'sal Mevzular / Fatih Gül İle Muhasebe Alanında...