OpenAI впервые обнародовала данные о психических проблемах среди пользователей ChatGPT

Компания OpenAI обнародовала данные, вызвавшие широкую дискуссию в мире технологий и психиатрии. Согласно оценкам компании, среди пользователей ChatGPT обнаружена доля людей с возможными признаками психических расстройств – мании, психоза или суицидальных мыслей.

По данным OpenAI, около 0,07% активных пользователей в течение недели демонстрируют симптомы расстройств, в то время как у 0,15% разговоров фиксируются явные признаки суицидальных намерений. Хотя компания называет такие случаи «чрезвычайно редкими», эксперты отмечают: даже небольшой процент от 800 миллионов пользователей – это сотни тысяч людей по всему миру.

После появления беспокойства компания создала международную сеть поддержки более чем из 170 специалистов в сфере психического здоровья из 60 стран. Они консультируют разработчиков, помогая создавать алгоритмы, которые распознают опасные сигналы в общении пользователей ChatGPT и поощряют обращаться за реальной помощью.

Новые версии ChatGPT также получили обновления: система способна эмпатийно реагировать на сообщения о самоповреждении, бредах или маниакальных состояниях, а в отдельных случаях — перенаправлять пользователей в более «безопасные» варианты модели.

Доктор Джейсон Нагата из Калифорнийского университета в Сан-Франциско отмечает, что даже 0,07% пользователей — это огромное количество людей: «ИИ может помогать в сфере психического здоровья, но он не заменяет реального специалиста».

Профессор Робин Фельдман из Университета Калифорнии добавляет, что ChatGPT создает «слишком реалистичную иллюзию общения», что может быть опасным для уязвимых пользователей.

Новые данные появились на фоне нескольких громких инцидентов. В США родители 16-летнего Адама Рейна подали в суд на OpenAI, утверждая, что ChatGPT мог подтолкнуть подростка к самоубийству. Это первый случай такого иска. Еще один инцидент произошел в Коннектикуте, где подозреваемый в убийстве-самоубийстве публиковал свои разговоры с ChatGPT, которые, по данным следствия, подпитывали его бред.

В компании признают, что даже незначительное количество пользователей с потенциальными психическими проблемами – это серьезный вызов. OpenAI пытается найти баланс между пользой искусственного интеллекта как инструмента поддержки и риском, возникающим, когда технология начинает казаться слишком «человечной».

spot_imgspot_imgspot_imgspot_img

Популярное

Поделиться корреспонденцией:

Больше подобного
ЗДЕСЬ

Как сохранить дружбу в безумном ритме жизни: советы психологов

Мы часто обещаем друзьям встретиться, но между работой, семьей...

Как улучшить здоровье и производительность с помощью науки и технологий

Биохакинг — это комплекс практик и стратегий, направленных на...

Вредная пища разрушает сердце и сосуды: что следует исключить из рациона

Потребление вредной пищи может оказывать серьезное влияние на здоровье сердца.

Эксдиректор «Спецтехноэкспорта» Павел Барбул, подозреваемый в коррупции, ведет бизнес в Польше

Эксдиректор ГП «Спецтехноэкспорт» Павел Барбул, находящийся в настоящее время...

В Полтаве пытаются защитить от заключения сына работника ДП «Энергоатом», который жестоко избил мужчину

В Полтаве произошел скандальный случай с избиением, который связывают...

Биотехнологи создали препарат для борьбы со старением

Китайский биотехнологический стартап Lonvi Biosciences объявил о разработке экспериментальной...

Антидроновые сетки не выдержали первого снега и обрушились

Антидроновые сетки, установленные для защиты от беспилотников, не выдержали...

ДБР разоблачило преступную группу в Запорожье, которая переправляла военных за границу

ДБР совместно с СБУ, ДВБ Нацполиции и Государственной...