OpenAI ha publicado datos que han generado un amplio debate en el mundo de la tecnología y la psiquiatría. Según las estimaciones de la compañía, una proporción de los usuarios de ChatGPT mostró posibles signos de trastornos mentales: manía, psicosis o pensamientos suicidas.
Según OpenAI, aproximadamente el 0,07 % de los usuarios activos presentan síntomas del trastorno durante la semana, mientras que el 0,15 % de las conversaciones muestran claros indicios de ideación suicida. Si bien la empresa califica estos casos de «extremadamente raros», los expertos subrayan que incluso un pequeño porcentaje de 800 millones de usuarios representa a cientos de miles de personas en todo el mundo.
Tras surgir estas preocupaciones, la empresa creó una red internacional de apoyo con más de 170 profesionales de la salud mental de 60 países. Estos asesoran a los desarrolladores, ayudándoles a crear algoritmos que reconocen señales de peligro en las interacciones de los usuarios con ChatGPT y les animan a buscar ayuda profesional.
Las nuevas versiones de ChatGPT también han recibido actualizaciones: el sistema es capaz de responder con empatía a informes de autolesiones, delirios o estados maníacos y, en algunos casos, redirigir a los usuarios a versiones “más seguras” del modelo.
El Dr. Jason Nagata, de la Universidad de California en San Francisco, señala que incluso el 0,07% de los usuarios representa una enorme cantidad de personas: "La IA puede ayudar en el campo de la salud mental, pero no reemplaza a un profesional de verdad".
La profesora Robin Feldman, de la Universidad de California, añade que ChatGPT crea “una ilusión de comunicación demasiado realista”, lo que podría ser peligroso para los usuarios vulnerables.
Los nuevos datos surgen en medio de varios incidentes de gran repercusión. En Estados Unidos, los padres de Adam Raine, de 16 años, demandaron a OpenAI, alegando que ChatGPT pudo haber inducido al adolescente al suicidio. Esta es la primera demanda de este tipo. Otro incidente ocurrió en Connecticut, donde un sospechoso de homicidio-suicidio publicó sus conversaciones de ChatGPT, lo que, según los investigadores, alimentó sus delirios.
La empresa reconoce que incluso un pequeño número de usuarios con posibles problemas de salud mental supone un reto importante. OpenAI busca un equilibrio entre las ventajas de la IA como herramienta de apoyo y los riesgos que surgen cuando la tecnología empieza a parecer demasiado «humana».

