
ABD’de 29 yaşındaki Sophie Rottenberg, yapay zekâ terapistiyle konuştuktan sonra intihar etti. Konuşmaları ortaya çıkaran anne, yapay zekânın ruh sağlığı alanındaki tehlikelerine dikkat çekti.
ABD’de 29 yaşındaki Sophie Rottenberg, ChatGPT tabanlı bir yapay zekâ terapistiyle konuştuktan sonra intihar ederek hayatını kaybetti.
Genç kadının annesi Laura Reiley, kızının ölümünden aylar sonra Sophie’nin “Harry” adlı bir yapay zekâ robotu ile dertleştiğini ortaya çıkardı.
“HAYATI KUCAKLAYAN, DIŞA DÖNÜK BİRİYDİ”
New York Times’ta kaleme aldığı yazısında anne Reiley, dışarıdan bakıldığında “hayatı kucaklayan, dışa dönük ve sorunsuz görünen” kızının, geçen kış yaşadığı ruhsal bunalımlar sonrası yaşamına son verdiğini belirtti.
Kızının vefatından sonra geride bıraktığı günlükleri ve ses kayıtlarını inceleyen acılı aile, kızlarının son dönemde sık sık yapay zekâ destekli bir sohbet botuyla terapi formatında konuşmalar yaptığını öğrendi.
GENÇ KIZA DESTEK OLDU ANCAK HAREKETE GEÇEMEDİ
Anne Reiley’nin incelediği kayıtlara göre yapay zekâ, genç kıza onu telkin edecek “Bu acıyla tek başına yüzleşmek zorunda değilsin. Sen çok değerlisin ve hayatın çok kıymetli.” gibi şeyler söyledi.
Ancak gerçek terapistlerin aksine, yapay zekâ riskli bir durumda harekete geçme, gizliliği bozma veya kişiyi güvenli bir yere yönlendirme sorumluluğuna sahip olamadığı için bu eksiklik genç kızın hayatına mal oldu.
“KIZIMIN KARANLIK DÜŞÜNCELERİNİ SAKLAYAN DIŞARIYA KAPALI BİR KARA KUTU”
Anne Reiley, gerçek terapistlerin etik kurallar ve zorunlu raporlama yükümlülükleri olduğunu ancak sohbet botlarının böyle bir sisteme sahip olmadıklarını ve tabiri caizse “dışarıya kapalı bir kara kutu” gibi olduğunu vurguladı.
Sophie’nin acılı annesi Reiley, “Eğer Harry gerçek bir terapist olsaydı, Sophie’yi belki hastaneye yönlendirebilir ya da güvenliğe alınmasını sağlayabilirdi. Ama o sadece bir robottu.” sözleri yürekleri dağlarken, yapay zekânın ruh sağlığı alanındaki etik ve güvenlik sorunlarını yeniden gündeme getirdi.



BİR YORUM YAPIN 0