OpenAI вперше оприлюднила дані про психічні проблеми серед користувачів ChatGPT

Компанія OpenAI оприлюднила дані, які викликали широку дискусію у світі технологій і психіатрії. Згідно з оцінками компанії, серед користувачів ChatGPT виявлено частку людей із можливими ознаками психічних розладів — манії, психозу або суїцидальних думок.

За даними OpenAI, близько 0,07% активних користувачів протягом тижня демонструють симптоми розладів, тоді як у 0,15% розмов фіксуються явні ознаки суїцидальних намірів. Хоча компанія називає такі випадки «надзвичайно рідкісними», експерти наголошують: навіть невеликий відсоток від 800 мільйонів користувачів — це сотні тисяч людей по всьому світу.

Після появи занепокоєння компанія створила міжнародну мережу підтримки з понад 170 фахівців у сфері психічного здоров’я з 60 країн. Вони консультують розробників, допомагаючи створювати алгоритми, які розпізнають небезпечні сигнали у спілкуванні користувачів із ChatGPT і заохочують звертатися по реальну допомогу.

Нові версії ChatGPT також отримали оновлення: система здатна емпатійно реагувати на повідомлення про самозашкодження, марення або маніакальні стани, а в окремих випадках — перенаправляти користувачів до «безпечніших» варіантів моделі.

Доктор Джейсон Наґата з Каліфорнійського університету у Сан-Франциско зауважує, що навіть 0,07% користувачів — це величезна кількість людей: «ШІ може допомагати у сфері психічного здоров’я, але він не замінює реального фахівця».

Професорка Робін Фельдман з Університету Каліфорнії додає, що ChatGPT створює «надто реалістичну ілюзію спілкування», що може бути небезпечним для вразливих користувачів.

Нові дані з’явилися на тлі кількох гучних інцидентів. У США батьки 16-річного Адама Рейна подали до суду на OpenAI, стверджуючи, що ChatGPT міг підштовхнути підлітка до самогубства. Це перший випадок такого позову. Ще один інцидент стався у Коннектикуті, де підозрюваний у вбивстві-самогубстві публікував свої розмови з ChatGPT, які, за даними слідства, підживлювали його марення.

У компанії визнають, що навіть незначна кількість користувачів із потенційними психічними проблемами — це серйозний виклик. OpenAI намагається знайти баланс між користю штучного інтелекту як інструменту підтримки та ризиком, який виникає, коли технологія починає здаватися надто «людяною».

spot_imgspot_imgspot_imgspot_img

Популярне

Поділитися дописом:

Більше подібного
ТУТ

Харчування і сон: які продукти можуть допомогти засинати швидше

Якість нічного відпочинку може залежати не лише від режиму...

Антикорупційні органи зацікавилися начальником відділу міграційної служби на Закарпатті

Антикорупційні органи звернулися до банків із вимогою надати інформацію,...

У Мукачеві дев’ять днів утримують у ТЦК чоловіка, який доглядає за матір’ю з інвалідністю

У Мукачеві виник резонанс навколо історії місцевого жителя Анатолія...

Київ готовий самостійно відновлювати міст Патона, якщо держава передасть його місту — Кличко

Мер Києва Віталій Кличко заявив, що столиця готова взяти...

Черговий будівельний конфлікт у Києві: на місці дитячого садочка планують збудувати багатоповерхівку

У Солом’янському районі Києва назріває черговий будівельний конфлікт. На...

Монітори фіксують активність авіації РФ: українців закликали уважно реагувати на тривоги

Російська армія може готувати новий масований обстріл території України...

Українські дрони проти іранських БПЛА: компанія «Дикі Шершні» відреагувала на чутки про експорт

Українська miltech-компанія «Дикі Шершні», яка розробляє дрони-перехоплювачі для боротьби...

Скандал із monobank: дівчина вимагає від Гороховського вибачень і компенсації

Дівчина, чиє фото опублікував співзасновник monobank Олег Гороховський, вимагає...