Компания OpenAI обнародовала данные, вызвавшие широкую дискуссию в мире технологий и психиатрии. Согласно оценкам компании, среди пользователей ChatGPT обнаружена доля людей с возможными признаками психических расстройств – мании, психоза или суицидальных мыслей.
По данным OpenAI, около 0,07% активных пользователей в течение недели демонстрируют симптомы расстройств, в то время как у 0,15% разговоров фиксируются явные признаки суицидальных намерений. Хотя компания называет такие случаи «чрезвычайно редкими», эксперты отмечают: даже небольшой процент от 800 миллионов пользователей – это сотни тысяч людей по всему миру.
После появления беспокойства компания создала международную сеть поддержки более чем из 170 специалистов в сфере психического здоровья из 60 стран. Они консультируют разработчиков, помогая создавать алгоритмы, которые распознают опасные сигналы в общении пользователей ChatGPT и поощряют обращаться за реальной помощью.
Новые версии ChatGPT также получили обновления: система способна эмпатийно реагировать на сообщения о самоповреждении, бредах или маниакальных состояниях, а в отдельных случаях — перенаправлять пользователей в более «безопасные» варианты модели.
Доктор Джейсон Нагата из Калифорнийского университета в Сан-Франциско отмечает, что даже 0,07% пользователей — это огромное количество людей: «ИИ может помогать в сфере психического здоровья, но он не заменяет реального специалиста».
Профессор Робин Фельдман из Университета Калифорнии добавляет, что ChatGPT создает «слишком реалистичную иллюзию общения», что может быть опасным для уязвимых пользователей.
Новые данные появились на фоне нескольких громких инцидентов. В США родители 16-летнего Адама Рейна подали в суд на OpenAI, утверждая, что ChatGPT мог подтолкнуть подростка к самоубийству. Это первый случай такого иска. Еще один инцидент произошел в Коннектикуте, где подозреваемый в убийстве-самоубийстве публиковал свои разговоры с ChatGPT, которые, по данным следствия, подпитывали его бред.
В компании признают, что даже незначительное количество пользователей с потенциальными психическими проблемами – это серьезный вызов. OpenAI пытается найти баланс между пользой искусственного интеллекта как инструмента поддержки и риском, возникающим, когда технология начинает казаться слишком «человечной».

