Usuarios de ChatGPT mantienen conversaciones semanales sobre crisis emocionales o psicóticas, revela estudio de OpenAI
Ciudad de México, 28 de octubre de 2025.- La empresa de inteligencia artificial, OpenAI estimó que alrededor del 0.07% de los usuarios activos de ChatGPT muestran “posibles signos de emergencias de salud mental relacionadas con la psicosis o la manía”, mientras que el 0.15% “tienen conversaciones que incluyen indicadores explícitos de una posible planificación o intención suicida”.
Lo anterior se reveló en un informe publicado por la compañía, el cual tenía como objetivo explorar sobre la salud mental de sus usuarios a nivel mundial, el cual fue retomado por la revista Wired.
De acuerdo con el documento expuesto por el medio de comunicación, OpenAI buscaba saber el número aproximado de personas que podrían presentar síntomas de una crisis grave de salud mental en una semana típica.
Según el texto y de acuerdo con estimaciones internas, lo anterior implicaría que unas 560 mil personas podrían estar manteniendo conversaciones que reflejen episodios de manía o psicosis, mientras que cerca de 2.4 millones mostrarían señales de aislamiento, pensamientos suicidas o preferencia por interactuar con el chatbot antes que con su entorno cercano.
Según el texto, también se identificó que una fracción muy pequeña de quienes utilizan ChatGPT muestran comportamientos que podrían reflejar una dependencia emocional hacia el chatbot.
De igual forma se evidenció que alrededor del 0.15% de los usuarios activos presenta indicios de apego excesivo que impacta su bienestar, sus relaciones personales o sus responsabilidades diarias.
Aunque el número parece reducido, la empresa aclaró que estos casos son difíciles de medir con precisión, ya que los mensajes que revelan ese tipo de interacción son poco frecuentes y, en algunos casos, se superponen con otras categorías de riesgo.
El director ejecutivo de OpenAI, Sam Altman, señaló recientemente que ChatGPT registra 800 millones de usuarios activos a la semana.
Open AI y los trabajadores de la salud mental
OpenAI aseguró que ha colaborado con más de 170 especialistas en salud mental, entre psiquiatras, psicólogos y médicos generales, provenientes de distintos países, con el propósito de reforzar la forma en que ChatGPT responde cuando detecta posibles situaciones de riesgo psicológico.
Según la empresa, la versión más reciente del modelo, GPT-5, fue diseñada para mostrar empatía y evitar reforzar creencias delirantes o falsas percepciones. En un ejemplo compartido por la compañía, si una persona asegura que aviones sobrevuelan su casa para atacarla, el chatbot responde reconociendo sus emociones, pero aclarando que ninguna aeronave puede robar ni insertar pensamientos en su mente.
Con información de: El Universal
