OpenAI вперше оприлюднила дані про психічні проблеми серед користувачів ChatGPT

Компанія OpenAI оприлюднила дані, які викликали широку дискусію у світі технологій і психіатрії. Згідно з оцінками компанії, серед користувачів ChatGPT виявлено частку людей із можливими ознаками психічних розладів — манії, психозу або суїцидальних думок.

За даними OpenAI, близько 0,07% активних користувачів протягом тижня демонструють симптоми розладів, тоді як у 0,15% розмов фіксуються явні ознаки суїцидальних намірів. Хоча компанія називає такі випадки «надзвичайно рідкісними», експерти наголошують: навіть невеликий відсоток від 800 мільйонів користувачів — це сотні тисяч людей по всьому світу.

Після появи занепокоєння компанія створила міжнародну мережу підтримки з понад 170 фахівців у сфері психічного здоров’я з 60 країн. Вони консультують розробників, допомагаючи створювати алгоритми, які розпізнають небезпечні сигнали у спілкуванні користувачів із ChatGPT і заохочують звертатися по реальну допомогу.

Нові версії ChatGPT також отримали оновлення: система здатна емпатійно реагувати на повідомлення про самозашкодження, марення або маніакальні стани, а в окремих випадках — перенаправляти користувачів до «безпечніших» варіантів моделі.

Доктор Джейсон Наґата з Каліфорнійського університету у Сан-Франциско зауважує, що навіть 0,07% користувачів — це величезна кількість людей: «ШІ може допомагати у сфері психічного здоров’я, але він не замінює реального фахівця».

Професорка Робін Фельдман з Університету Каліфорнії додає, що ChatGPT створює «надто реалістичну ілюзію спілкування», що може бути небезпечним для вразливих користувачів.

Нові дані з’явилися на тлі кількох гучних інцидентів. У США батьки 16-річного Адама Рейна подали до суду на OpenAI, стверджуючи, що ChatGPT міг підштовхнути підлітка до самогубства. Це перший випадок такого позову. Ще один інцидент стався у Коннектикуті, де підозрюваний у вбивстві-самогубстві публікував свої розмови з ChatGPT, які, за даними слідства, підживлювали його марення.

У компанії визнають, що навіть незначна кількість користувачів із потенційними психічними проблемами — це серйозний виклик. OpenAI намагається знайти баланс між користю штучного інтелекту як інструменту підтримки та ризиком, який виникає, коли технологія починає здаватися надто «людяною».

spot_imgspot_imgspot_imgspot_img

Популярне

Поділитися дописом:

Більше подібного
ТУТ

Як зберегти дружбу у шаленому ритмі життя: поради психологів

Ми часто обіцяємо друзям зустрітися, але між роботою, родиною...

Як покращити здоров’я та продуктивність за допомогою науки та технологій

Біохакінг — це комплекс практик і стратегій, спрямованих на...

Шкідлива їжа руйнує серце та судини: що потрібно виключити з раціону

Споживання шкідливої їжі може серйозно впливати на здоров’я серця...

Ексдиректор «Спецтехноекспорту» Павло Барбул, підозрюваний у корупції, веде бізнес у Польщі

Ексдиректор ДП «Спецтехноекспорт» Павло Барбул, який наразі перебуває під...

У Полтаві намагаються захистити від ув’язнення сина працівника ДП «Енергоатом», який жорстоко побив чоловіка

У Полтаві стався скандальний випадок із побиттям, який пов’язують...

Біотехнологи створили препарат для боротьби зі старінням

Китайський біотехнологічний стартап Lonvi Biosciences оголосив про розробку експериментальної...

Антидронові сітки не витримали першого снігу та обвалилися

Антидронові сітки, встановлені для захисту від безпілотників, не витримали...

ДБР викрило злочинну групу в Запоріжжі, яка переправляла військових за кордон

ДБР спільно з СБУ, ДВБ Нацполіції та Державною прикордонною...