OpenAI, Kaliforniya’da sohbet robotunu çeşitli intiharlara ve akıl sağlığı krizlerine katkıda bulunmakla suçlayan yedi davayla karşı karşıya. Başvurular, ChatGPT’nin sanrısal davranışlara neden olduğunu, kendine zarar vermeyi teşvik ettiğini ve yeterli güvenlik yanıtlarını sağlayamadığını iddia ediyor.

 

 

Şikayetlerde iki gencin ölümü de dahil olmak üzere dört ölüm belirtiliyor. Davacılar, chatbot’un yanıtlarının intihar düşüncelerini teşvik ettiğini veya kendine zarar verme konusunda açık rehberlik sağladığını iddia ediyor. Vakalardan biri, ilmik hazırlamak için chatbot’tan yardım aldığı iddia edilen 17 yaşındaki bir çocuğu içeriyor. Bir diğeri, ebeveynlerinin ChatGPT’nin intihar planlarıyla empati kurduğunu ve bir veda mektubu hazırlamasına yardım ettiğini söylediği 16 yaşındaki bir çocuğu içeriyor.

Ayrı bir davada 48 yaşındaki Alan Brooks, ChatGPT’yi uzun süre kullanmasının yıllarca süren olumlu etkileşimlerin ardından psikolojik çöküntülere yol açtığını iddia ediyor. Davası, chatbot’un manipülatif ve sanrısal tepkiler üretmeye başladığını ve bunun da mali ve duygusal zararla sonuçlanan bir zihinsel sağlık krizini tetiklediğini iddia ediyor.

İhmal iddiaları ve OpenAI’nin yanıtı

Davalar OpenAI’yi haksız ölüm, ihmal, yardımlı intihar ve kasıtsız adam öldürmeyle suçluyor. Davacılar, şirketin GPT-4o modelini aşırı ve manipülatif davranışlar sergilediği yönündeki dahili uyarılara rağmen zamanından önce piyasaya sürdüğünü iddia ediyor.

Kamuoyunun endişesinin ardından OpenAI, Ekim ayında zihinsel sıkıntı protokollerini güncelleyerek GPT-5 için yeni güvenlik önlemleri getirdi. Şirket artık, ebeveynlerin çocukların sohbet robotu kullanımını izlemesine veya sınırlamasına olanak tanıyan bir ebeveyn kilidi özelliğinin yanı sıra, kullanıcılar kendine zarar vermeyi tartıştığında etkinleşen müdahale tetikleyicilerini kullanıyor.

OpenAI, krizle ilgili konuşmaları daha erken tespit etmek için tasarlanan güvenlik reformlarına 170’den fazla ruh sağlığı uzmanının katkıda bulunduğunu belirtti. Ancak uzmanlar, kullanıcılar chatbotlarla duygusal bağlar kurdukça bu korumaların zamanla zayıflayabileceği konusunda uyarıyor.

Dijital güvenlik savunucuları, davaların savunmasız kullanıcılarla yapay zeka etkileşimlerine ilişkin daha güçlü düzenlemelere acil ihtiyaç duyulduğunun altını çizdiğini söylüyor. Common Sense Media’nın baş savunuculuk sorumlusu Daniel Weiss, vakaların “kendilerini güvende tutmak yerine onları meşgul etmek için tasarlanmış teknolojiyi kullandıklarında hayatları altüst olan veya kaybolan gerçek insanları” gösterdiğini söyledi.

Mahkeme başvuruları, yapay zeka sistemlerinin bağımsız gözetimi ve duygusal ve psikolojik konular için daha sıkı içerik denetimi de dahil olmak üzere tazminat ve zorunlu güvenlik iyileştirmeleri talep ediyor.

Davalar ilerledikçe, sorumluluk ve özen yükümlülüğünün konuşmaya dayalı yapay zekaya nasıl uygulandığına dair erken bir emsal oluşturmaları bekleniyor. Düzenleyiciler ve teknoloji uzmanları, sonucun gelecekteki yapay zeka sistemlerinin kullanıcıları zarardan korumak için nasıl tasarlanacağını şekillendirebileceği konusunda hemfikir.

Bir Cevap Yazın