OpenAI вперше оприлюднила дані про психічні проблеми серед користувачів ChatGPT

Компанія OpenAI оприлюднила дані, які викликали широку дискусію у світі технологій і психіатрії. Згідно з оцінками компанії, серед користувачів ChatGPT виявлено частку людей із можливими ознаками психічних розладів — манії, психозу або суїцидальних думок.

За даними OpenAI, близько 0,07% активних користувачів протягом тижня демонструють симптоми розладів, тоді як у 0,15% розмов фіксуються явні ознаки суїцидальних намірів. Хоча компанія називає такі випадки «надзвичайно рідкісними», експерти наголошують: навіть невеликий відсоток від 800 мільйонів користувачів — це сотні тисяч людей по всьому світу.

Після появи занепокоєння компанія створила міжнародну мережу підтримки з понад 170 фахівців у сфері психічного здоров’я з 60 країн. Вони консультують розробників, допомагаючи створювати алгоритми, які розпізнають небезпечні сигнали у спілкуванні користувачів із ChatGPT і заохочують звертатися по реальну допомогу.

Нові версії ChatGPT також отримали оновлення: система здатна емпатійно реагувати на повідомлення про самозашкодження, марення або маніакальні стани, а в окремих випадках — перенаправляти користувачів до «безпечніших» варіантів моделі.

Доктор Джейсон Наґата з Каліфорнійського університету у Сан-Франциско зауважує, що навіть 0,07% користувачів — це величезна кількість людей: «ШІ може допомагати у сфері психічного здоров’я, але він не замінює реального фахівця».

Професорка Робін Фельдман з Університету Каліфорнії додає, що ChatGPT створює «надто реалістичну ілюзію спілкування», що може бути небезпечним для вразливих користувачів.

Нові дані з’явилися на тлі кількох гучних інцидентів. У США батьки 16-річного Адама Рейна подали до суду на OpenAI, стверджуючи, що ChatGPT міг підштовхнути підлітка до самогубства. Це перший випадок такого позову. Ще один інцидент стався у Коннектикуті, де підозрюваний у вбивстві-самогубстві публікував свої розмови з ChatGPT, які, за даними слідства, підживлювали його марення.

У компанії визнають, що навіть незначна кількість користувачів із потенційними психічними проблемами — це серйозний виклик. OpenAI намагається знайти баланс між користю штучного інтелекту як інструменту підтримки та ризиком, який виникає, коли технологія починає здаватися надто «людяною».

spot_imgspot_imgspot_imgspot_img

Популярне

Поділитися дописом:

Більше подібного
ТУТ

У Києві готують нові правила щодо тварин у публічних закладах

До Київської міської ради подали проєкт рішення, який може...

Суд зупинив спробу поділу майна родини Чернишових на тлі кримінальної справи

Печерський районний суд Києва залишив без руху позов Світлани...

«Час слів минув»: що означає різкий виступ Зеленського в Давосі

Виступ президента України Володимира Зеленського на Всесвітньому економічному форумі...

Названо продукти, які сповільнюють старіння і підтримують здоров’я

Харчування відіграє ключову роль у здоровому старінні, і це...

Українців атакують фішинговими листами під виглядом НБУ

В Україні зафіксували нову хвилю шахрайських електронних розсилок, які...

Укриття за 84 мільйони: хто і як виграв торги в Березнегуватій

Березнегуватська селищна рада Миколаївської області уклала контракт на будівництво...

Чому в Резерв+ з’являється статус “у розшуку” навіть з відстрочкою

Наявність чинної відстрочки від мобілізації не завжди захищає українців...

24 січня в Україні та світі: свята, традиції і прикмети

Двадцять четвертий день січня має одразу кілька важливих значень...