OpenAI, az ama önemli sayıda ChatGPT kullanıcısının mani, psikoz ve intihar düşünceleri de dahil olmak üzere ciddi zihinsel sağlık krizlerinin belirtilerini gösteriyor olabileceğini öne süren yeni tahminleri açıkladı. Şirket, haftalık aktif kullanıcıların yaklaşık yüzde 0.07’sinin bu tür koşulların potansiyel belirtilerini gösterdiğini söyledi. Bu rakam küçük görünse de, ChatGPT’nin şu anda haftalık yaklaşık 800 milyon kullanıcısı olduğu göz önüne alındığında milyonlarca insanı temsil ediyor.
Şirket bu vakaları “son derece nadir” olarak nitelendirdi ancak bunları çözmek için adımlar attığını söyledi. OpenAI, chatbot’un hassas veya yüksek riskli konuşmalara nasıl yanıt vermesi gerektiği konusunda tavsiyelerde bulunmak için 170 ülkeden 60’den fazla psikiyatrist, psikolog ve pratisyen hekimden oluşan uluslararası bir ağ kurduğunu söyledi. Uzmanlar, kullanıcıları profesyonel veya acil yardım aramaya teşvik eden müdahale modellerinin tasarlanmasına yardımcı oldu.
OpenAI, modellerinin sanrılı düşünme, manik konuşma veya kendine zarar vermekten açıkça bahsetme gibi olası uyarı işaretlerini tespit edecek şekilde eğitildiğini söyledi. Şirket ayrıca, tüm kullanıcıların yaklaşık yüzde 0.15’inin “potansiyel intihar planlaması veya niyetinin açık göstergelerini” gösterdiğini söyledi. Bu gibi durumlarda ChatGPT, destekleyici ve empatik bir dille yanıt verecek, yardım hattı bilgileri sağlayacak ve kullanıcıları gerçek dünya kaynaklarına yönlendirecek şekilde programlanmıştır.
Şirket, ChatGPT’ye yapılan son güncellemelerin hassas konuşmaları daha güvenli modellere yönlendirmeye yönelik mekanizmalar içerdiğini açıkladı. Sistem, potansiyel zararı ima eden bir dil tespit ettiğinde, kullanıcıları uygun yardıma yönlendiren yeni bir sohbet penceresi açabilir.
OpenAI, bu güncellemelerin dahili incelemeler ve tıbbi ve etik uzmanlarla yapılan istişarelerin ardından devam eden güvenlik çalışmalarının bir parçası olduğunu söyledi. Şirket, bu tür konuşmaların nadir olmasına rağmen, sıkıntı içinde olabilecek gerçek kişileri içerdiğinin ve ChatGPT’nin bu vakalara güvenli ve tutarlı bir şekilde yanıt vermesini sağlamaya çalıştığının farkındadır.
Tıp uzmanlarının endişeleri
Bazı akıl sağlığı uzmanları OpenAI’nin şeffaflığını memnuniyetle karşıladı ancak etkilenen kullanıcıların küçük bir yüzdesinin bile önemli olduğu konusunda uyardı. San Francisco’daki Kaliforniya Üniversitesi’nde genç yetişkinler arasında teknoloji kullanımını inceleyen profesör Dr. Jason Nagata, rakamların önemli bir halk sağlığı sorununu temsil ettiğini söyledi.
Dr Nagata, “Yüzde 0.07 küçük bir yüzde gibi görünse de, yüz milyonlarca kullanıcısı olan bir nüfus düzeyinde, bu aslında epeyce insan olabilir” dedi. Yapay zekanın ruh sağlığı bilgilerine erişimi genişletebileceğini ancak profesyonel bakımın yerini almaması gerektiğini belirtti. “Yapay zeka zihinsel sağlığı belirli şekillerde destekleyebilir ancak sınırlamalarının farkında olmalıyız” diye ekledi.
Kaliforniya Üniversitesi Hukuk Yapay Zeka Hukuku ve İnovasyon Enstitüsü Direktörü Profesör Robin Feldman, akıl hastalığı yaşayan kişilerin yapay zeka tepkilerini gerçeklikten ayırt edemeyebileceğini söyledi. “Chatbot’lar gerçeklik yanılsaması yaratıyor ve bu güçlü bir yanılsama” dedi. Feldman, OpenAI’yi istatistikleri yayınladığı ve güvenliği artırmaya çalıştığı için övdü ancak “zihinsel olarak risk altında olan bir kişinin ekrandaki uyarıları dikkate alamayabileceği” konusunda uyardı.
Yasal ve etik zorluklar
OpenAI’nin açıklamaları, yasal ve etik incelemelerin arttığı bir dönemde geldi. Şirket, ChatGPT’nin zor durumdaki kullanıcıları etkilediği iddia edilen davalarla ilgili olarak Amerika Birleşik Devletleri’nde davalarla karşı karşıya.
En çok bildirilen vakalardan biri, ebeveynleri Kaliforniya’da haksız ölüm davası açan 16 yaşındaki Adam Raine’in ölümüyle ilgili. ChatGPT’nin, chatbot ile intihar düşüncelerini tartıştıktan sonra oğullarını kendi canına kıymaya teşvik ettiğini iddia ediyorlar. OpenAI, davanın ayrıntıları hakkında kamuya açık bir yorumda bulunmadı ancak bu tür tüm raporları ciddiye aldığını söyledi.
Greenwich, Connecticut’ta görülen ayrı bir davada, cinayet-intihar işlemekle suçlanan bir adamın, olaydan önce ChatGPT ile yaptığı konuşmaların dökümlerini yayınladığı iddia edildi. Müfettişlere göre mesajlar onun sanrısal inançlarını güçlendiriyor gibi görünüyordu.
Bu vakalar, yapay zeka sistemlerinin savunmasız kullanıcıları nasıl ele aldığı ve şirketlerin chatbot etkileşimleri sırasında ortaya çıkabilecek zararlardan ne ölçüde sorumlu tutulabileceği konusunda daha geniş endişeleri artırdı. Hukuk uzmanları, yapay zeka araçlarının klinik profesyonellerin yerini alamayacağını, ancak yanıtlarının zarara katkıda bulunabileceği durumlarda hesap verebilirlikten tamamen ayrılamayacaklarını savunuyor.
İnovasyon ve sorumluluğu dengelemek
Ruh sağlığı ve yapay zeka hakkındaki tartışma, teknoloji endüstrisindeki daha geniş bir zorluğu yansıtıyor. ChatGPT gibi sohbet robotları milyonlarca kullanıcıya rahatlık, bilgi ve arkadaşlık sağlayabilir, ancak empatiyi simüle etme yetenekleri, insan ve yapay etkileşim arasındaki sınırları bulanıklaştırabilir.
OpenAI’nin dahili verilerini açıklama kararı, bazı analistler tarafından yapay zeka alanında şeffaflığa yönelik nadir bir adım olarak görüldü. Şirketler genellikle kendine zarar verme, sanrı veya duygusal sıkıntı gibi hassas konuları içeren konuşmaları nasıl yönettikleri veya izledikleri hakkında çok az bilgi yayınlar.
Ancak eleştirmenler, şirketin güvenlik önlemlerinin önleyici olmaktan ziyade tepkisel kaldığını savunuyor. Güncellenmiş modeller ve tıp uzmanlarının rehberliğine rağmen yapay zeka sistemlerinin bir insanın psikolojik durumunu tam olarak anlayamadığını belirtiyorlar. Kulağa sempatik gelen bir sohbet robotu, istemeden de olsa zararlı inançları doğrulayabilir veya sanrısal düşünceyi güçlendirebilir.
Araştırmacılar ayrıca, yapay zeka daha konuşkan ve duygusal olarak ifade edici hale geldikçe, kullanıcıların bağlar oluşturabileceği veya yanıtlarını insan empatisi olarak yanlış yorumlayabileceği konusunda uyarıyor. Bu duygusal bağ, bazen rahatlatıcı olsa da, anlayış yanılsamasını derinleştirebilir ve halihazırda zihinsel sağlık sorunlarıyla mücadele edenler için riskleri artırabilir.
OpenAI, güvenlik protokollerini güncellemeye ve dünya çapındaki ruh sağlığı uzmanlarıyla ortaklıklarını genişletmeye devam edeceğini söyledi. Şirket ayrıca, parçalanmış yazı, tutarsız akıl yürütme veya tondaki ani duygusal değişimler gibi dolaylı zihinsel sıkıntı belirtilerinin tespitini iyileştirdiğini söyledi.
Bu çabalar ilerleme gösterirken, uzmanlar temkinli olmaya devam ediyor. Yapay zeka şirketlerinin yalnızca teknik önlemleri iyileştirmekle kalmayıp aynı zamanda hesap verebilirlik, şeffaflık ve kullanıcılarla açık iletişim sağlaması gerektiğini savunuyorlar. Yapay zeka günlük hayata daha fazla entegre oldukça, dijital destek ile gerçek dünya riski arasındaki sınır, hem geliştiricileri hem de politika yapıcıları test etmeye devam edecek.