OpenAI вперше оприлюднила дані про психічні проблеми серед користувачів ChatGPT

Компанія OpenAI оприлюднила дані, які викликали широку дискусію у світі технологій і психіатрії. Згідно з оцінками компанії, серед користувачів ChatGPT виявлено частку людей із можливими ознаками психічних розладів — манії, психозу або суїцидальних думок.

За даними OpenAI, близько 0,07% активних користувачів протягом тижня демонструють симптоми розладів, тоді як у 0,15% розмов фіксуються явні ознаки суїцидальних намірів. Хоча компанія називає такі випадки «надзвичайно рідкісними», експерти наголошують: навіть невеликий відсоток від 800 мільйонів користувачів — це сотні тисяч людей по всьому світу.

Після появи занепокоєння компанія створила міжнародну мережу підтримки з понад 170 фахівців у сфері психічного здоров’я з 60 країн. Вони консультують розробників, допомагаючи створювати алгоритми, які розпізнають небезпечні сигнали у спілкуванні користувачів із ChatGPT і заохочують звертатися по реальну допомогу.

Нові версії ChatGPT також отримали оновлення: система здатна емпатійно реагувати на повідомлення про самозашкодження, марення або маніакальні стани, а в окремих випадках — перенаправляти користувачів до «безпечніших» варіантів моделі.

Доктор Джейсон Наґата з Каліфорнійського університету у Сан-Франциско зауважує, що навіть 0,07% користувачів — це величезна кількість людей: «ШІ може допомагати у сфері психічного здоров’я, але він не замінює реального фахівця».

Професорка Робін Фельдман з Університету Каліфорнії додає, що ChatGPT створює «надто реалістичну ілюзію спілкування», що може бути небезпечним для вразливих користувачів.

Нові дані з’явилися на тлі кількох гучних інцидентів. У США батьки 16-річного Адама Рейна подали до суду на OpenAI, стверджуючи, що ChatGPT міг підштовхнути підлітка до самогубства. Це перший випадок такого позову. Ще один інцидент стався у Коннектикуті, де підозрюваний у вбивстві-самогубстві публікував свої розмови з ChatGPT, які, за даними слідства, підживлювали його марення.

У компанії визнають, що навіть незначна кількість користувачів із потенційними психічними проблемами — це серйозний виклик. OpenAI намагається знайти баланс між користю штучного інтелекту як інструменту підтримки та ризиком, який виникає, коли технологія починає здаватися надто «людяною».

spot_imgspot_imgspot_imgspot_img

Популярне

Поділитися дописом:

Більше подібного
ТУТ

Монітори фіксують активність авіації РФ: українців закликали уважно реагувати на тривоги

Російська армія може готувати новий масований обстріл території України...

Українські дрони проти іранських БПЛА: компанія «Дикі Шершні» відреагувала на чутки про експорт

Українська miltech-компанія «Дикі Шершні», яка розробляє дрони-перехоплювачі для боротьби...

Скандал із monobank: дівчина вимагає від Гороховського вибачень і компенсації

Дівчина, чиє фото опублікував співзасновник monobank Олег Гороховський, вимагає...

Шмигаль пояснив, що буде з Дарницькою ТЕЦ після російських атак

Держава не планує націоналізувати Дарницьку теплоелектроцентраль у Києві —...

Пастка з неповнолітньою і вимагання грошей: у Рівному засудили експоліцейського

Рівненський міський суд визнав колишнього співробітника поліції винним у...

Дружина співака Віктора Павліка показала фігуру у відвертій фотосесії

Дружина українського співака Віктора Павліка Катерина Репяхова поділилася з...

В.о. ректора університету в Кам’янці-Подільському відповіла на підозру у розтраті 1,26 млн грн

Виконувачка обов’язків ректора Кам’янець-Подільського національного університету Наталія Бахмат прокоментувала...

Оператор дронів працював на РФ: СБУ заявила про зрив замаху на Білецького

Служба безпеки України повідомила про зрив замаху на командира...