
Yarım milyondan fazla SohbetGPT OpenAI’ye göre kullanıcılar her hafta mani, psikoz veya intihar düşüncesi belirtileri gösteriyor.
Yakın zamanda blog yazısı, yapay zeka Dev, haftalık kullanıcılarının yüzde 0,07’sinin ciddi zihinsel sağlık sorunları belirtileri gösterdiği konusunda uyardı.
CEO’ya göre haftalık 800 milyondan fazla kullanıcıyla bu rakam küçük gibi görünse de Sam AltmanBu da 560.000 kullanıcıya tekabül ediyor.
Bu arada, 1,2 milyon kullanıcı (yüzde 0,15) her hafta ‘potansiyel intihar planı veya niyetine dair açık göstergeler’ içeren mesajlar gönderiyor.
Benzer şekilde OpenAI, haftalık bir milyondan fazla kullanıcının ‘modele özel bağlılık’ belirtileri gösterdiği konusunda uyarıyor.
Şirket, bu duygusal bağlılığın sıklıkla ‘gerçek dünyadaki ilişkiler, onların refahı veya yükümlülükleri pahasına’ gerçekleştiği konusunda uyarıyor.
Artan incelemeler karşısında şirket, yapay zekanın zihinsel sağlık sorunlarının belirtilerine daha uygun şekilde yanıt vermesine yardımcı olmak için 170’in üzerinde ruh sağlığı uzmanından oluşan bir panel oluşturduğunu söylüyor.
Ancak King’s College London’dan psikiyatrist Dr. Hamilton Morrin, Daily Mail’e şunları söyledi: ‘OpenAI gibi şirketlerin, modellerinin güvenliğini artırmak için klinisyenler ve araştırmacılarla birlikte çalıştığını görmek cesaret verici, ancak sorun muhtemelen çözülmekten çok uzak.’
OpenAI’ye göre yarım milyondan fazla ChatGPT kullanıcısı her hafta mani, psikoz veya intihar düşüncesi belirtileri gösteriyor. 1,2 milyon kullanıcı daha her hafta ‘potansiyel intihar planı veya niyetine dair açık göstergeler’ içeren mesajlar gönderiyor (stok görsel)
Bu, OpenAI’nin, sohbet robotuyla aylarca süren görüşmelerin ardından intihar ederek ölen genç Adam Raine’in (resimde) ailesinden bir davayla karşı karşıya kalmasıyla ortaya çıktı.
Bu güncelleme, AI sohbet robotlarının kullanıcılarının zihinsel sağlığına zarar verebileceği yönündeki endişelerin arttığı bir dönemde geldi.
En önemlisi, OpenAI şu anda Adam Raine’in ailesi tarafından dava ediliyorchatbot ile aylarca süren konuşmaların ardından intihar ederek ölen genç bir çocuk.
Benzer şekilde, Greenwich, Connecticut’ta meydana gelen bir cinayet-intihar vakasındaki savcılar, ChatGPT’nin fail olduğu iddia edilen kişinin sanrılarını körüklediğini öne sürüyor.
OpenAI, artık modellerini zihinsel sağlık sorunları veya sanrı belirtileri gösteren konuşmalara daha iyi yanıtlar verecek şekilde eğittiğini söylüyor.
Şirket, blog gönderisinde şunları yazdı: ‘Yeni otomatik değerlendirmelerimiz, yeni GPT‑5 modelini istediğimiz davranışlarımızla %91 uyumlu olarak puanlıyor; önceki GPT‑5 modeli için bu oran %77’ydi.’
OpenAI sözcüsü ayrıca DailyMail’e hassas konuşmaların tespit edilmesinin ve ölçülmesinin zor olduğunu söyledi ve daha fazla araştırma yapıldıkça sayıların önemli ölçüde değişebileceğini ekledi.
Ancak uzmanlar, zihinsel sağlık krizi belirtileri gösteren kullanıcı sayısının çokluğunun endişe verici olduğunu öne sürüyor.
South London ve Maudsley NHS Foundation Trust’tan danışman nöropsikiyatrist Dr Thomas Pollak, Daily Mail’e şunları söyledi: ‘OpenAI’nin, kullanıcıların %0,07’sinin olası mani, psikoz veya intihar düşüncesi belirtileri gösterdiğini belirten raporu ciddiye alınmalı, ancak bunu dikkatli bir şekilde yorumlamak önemli.
OpenAI, artık chatbotun mani veya psikoz belirtileri gösterenler de dahil olmak üzere ‘hassas mesajlara’ yanıt verme yeteneğini geliştirdiğini söylüyor
‘Haftalık 800 milyon kullanıcıyla küçük bir yüzde bile çok büyük sayıda insanı temsil ediyor.’
Henüz net olmayan şey ise bunun sadece genel popülasyondaki zihinsel sağlık eğilimlerini mi temsil ettiği yoksa ChatGPT’nin kullanıcılarında krizlere neden olup olmadığıdır.
Bilim insanları, şu anda chatbotların zihinsel sağlığı bozup bozmadığını kesin olarak kanıtlayacak yeterli verinin bulunmadığını söylüyor.
Ancak Dr. Pollak, chatbotların belirli eğilimleri güçlendirebileceğine dair kanıtların arttığını söylüyor.
Örneğin, yapay zeka botlarının aşırı kişiselleştirilmiş veya destekleyici yanıtlar yoluyla sanrısal veya görkemli fikirleri güçlendirdiği gösterilmiştir.
Dr Pollak şöyle diyor: ‘Bu, teknolojinin hastalığa neden olduğu anlamına gelmeyebilir, ancak bazı durumlarda sosyal medya veya esrarın başka bağlamlarda yapabileceği gibi, savunmasız bireylerde bir katalizör veya güçlendirici görevi görebileceği anlamına gelebilir.’
Öte yandan OpenAI, kötü ruh sağlığı ile hizmetlerini kullanma arasında nedensel bir bağlantı olmadığı konusunda ısrar ediyor.
Blog yazısında şunlar belirtiliyor: ‘Akıl sağlığı belirtileri ve duygusal sıkıntılar insan toplumlarında evrensel olarak mevcut ve artan kullanıcı tabanı, ChatGPT konuşmalarının bir kısmının bu durumları içerdiği anlamına geliyor.’
Bu, OpenAI CEO’su Sam Altman’ın (resimde) şirketin zihinsel sağlık desteği için ChatGPT kullanan müşterilere yönelik kısıtlamaları gevşetmeye başlayacağını söylemesinin ardından geldi.
Benzer şekilde şirket, araçlarının artık zihinsel sağlık sorunları yaşayan kullanıcılara da yardımcı olabileceğine inanıyor.
OpenAI, artık ChatGPT’de kullanıcıları gerçek dünyada yardım aramaya teşvik eden bir dizi yanıt oluşturduğunu söylüyor.
Aynı zamanda Sam Altman, kullanıcıların zihinsel sağlık desteği için chatbot’a başvurmaları üzerindeki kısıtlamayı ‘güvenli bir şekilde gevşetecek’.
Bu ayın başlarında X’te yayınlanan bir gönderide Bay Altman şunları yazdı: ‘Akıl sağlığı sorunlarına karşı dikkatli olduğumuzdan emin olmak için ChatGPT’yi oldukça kısıtlayıcı hale getirdik.
‘Bunun, zihinsel sağlık sorunu olmayan birçok kullanıcı için uygulamayı daha az yararlı/keyifli hale getirdiğinin farkındayız, ancak sorunun ciddiyeti göz önüne alındığında, bunu doğru yapmak istedik.’
Bay Altman, şirketin artık kullanıcıların ChatGPT’yi zihinsel sağlık amacıyla kullanmaya başlamasına olanak sağlayacak ‘yeni araçlara’ sahip olduğunu ekledi.
Aynı gönderide Bay Altman, yetişkin ChatGPT kullanıcılarının da artık yapay zeka tarafından üretilen erotik filmler yaratabilecek.
