OpenAI вперше оприлюднила дані про психічні проблеми серед користувачів ChatGPT

Компанія OpenAI оприлюднила дані, які викликали широку дискусію у світі технологій і психіатрії. Згідно з оцінками компанії, серед користувачів ChatGPT виявлено частку людей із можливими ознаками психічних розладів — манії, психозу або суїцидальних думок.

За даними OpenAI, близько 0,07% активних користувачів протягом тижня демонструють симптоми розладів, тоді як у 0,15% розмов фіксуються явні ознаки суїцидальних намірів. Хоча компанія називає такі випадки «надзвичайно рідкісними», експерти наголошують: навіть невеликий відсоток від 800 мільйонів користувачів — це сотні тисяч людей по всьому світу.

Після появи занепокоєння компанія створила міжнародну мережу підтримки з понад 170 фахівців у сфері психічного здоров’я з 60 країн. Вони консультують розробників, допомагаючи створювати алгоритми, які розпізнають небезпечні сигнали у спілкуванні користувачів із ChatGPT і заохочують звертатися по реальну допомогу.

Нові версії ChatGPT також отримали оновлення: система здатна емпатійно реагувати на повідомлення про самозашкодження, марення або маніакальні стани, а в окремих випадках — перенаправляти користувачів до «безпечніших» варіантів моделі.

Доктор Джейсон Наґата з Каліфорнійського університету у Сан-Франциско зауважує, що навіть 0,07% користувачів — це величезна кількість людей: «ШІ може допомагати у сфері психічного здоров’я, але він не замінює реального фахівця».

Професорка Робін Фельдман з Університету Каліфорнії додає, що ChatGPT створює «надто реалістичну ілюзію спілкування», що може бути небезпечним для вразливих користувачів.

Нові дані з’явилися на тлі кількох гучних інцидентів. У США батьки 16-річного Адама Рейна подали до суду на OpenAI, стверджуючи, що ChatGPT міг підштовхнути підлітка до самогубства. Це перший випадок такого позову. Ще один інцидент стався у Коннектикуті, де підозрюваний у вбивстві-самогубстві публікував свої розмови з ChatGPT, які, за даними слідства, підживлювали його марення.

У компанії визнають, що навіть незначна кількість користувачів із потенційними психічними проблемами — це серйозний виклик. OpenAI намагається знайти баланс між користю штучного інтелекту як інструменту підтримки та ризиком, який виникає, коли технологія починає здаватися надто «людяною».

spot_imgspot_imgspot_imgspot_img

Популярне

Поділитися дописом:

Більше подібного
ТУТ

Чи можна відіспатися наперед: що показали сучасні дослідження

Ідея “відіспатися наперед” довгий час сприймалася як популярний міф....

ОП може відтермінувати оголошення виборів на тлі зміни рейтингів

В українських політичних колах активізувалися дискусії щодо можливого часу...

Компанія Фармак отримала мільярдні держконтракти під час війни, а ціни для армії виявилися вищими за роздріб

Поки Міністерство охорони здоров’я публічно звітує про реформи та...

Морози до -21 і атаки без упину: як ЗСУ тримають позиції на північному сході

Сильні морози на північному сході Харківської області стали не...

Яке свято 12 лютого: церковні традиції, історичні події та народні прикмети

12 лютого в Україні не відзначають державних свят —...

Плюсова температура по всій Україні: прогноз погоди на 12 лютого

12 лютого в Україні очікується підвищення температури повітря. У...

Чому зниження вісцерального жиру важливіше, ніж просто схуднення

Не весь жир однаково впливає на здоров’я. Особливо небезпечним...

Основні ознаки проблем із серцем, які не можна ігнорувати

Серцево-судинні захворювання залишаються головною загрозою для здоров’я людства. Вони...