Noticias Generales

¿Por qué una familia demanda a OpenAI por el suicidio de un adolescente? Esto sabemos del caso en el que señalan a ChatGPT

Ciudad de México, 27 de agosto de 2025.- Los padres de un adolescente de 16 años presentaron en California una demanda contra OpenAI tras responsabilizar a ChatGPT por el suicidio de su hijo. El escrito judicial, presentado el pasado lunes, sostiene que el sistema de inteligencia artificial alentó al joven a poner fin a su vida y le dio instrucciones concretas para hacerlo.

Matthew y Maria Raine, padres del adolescente llamado Adam, relataron en la presentación que la relación con el chatbot se extendió durante varios meses entre 2024 y 2025, periodo en el que se generó lo que describen como un vínculo íntimo. Según la denuncia, el uso de la aplicación comenzó como una ayuda para realizar tareas escolares, pero con el tiempo derivó en lo que los padres definieron como una dependencia no sana.

La acusación enfatiza que la última conversación se produjo el 11 de abril de 2025. En ese intercambio, ChatGPT habría indicado a Adam que podía robar vodka de la casa familiar y, además, le ofreció un análisis técnico sobre cómo confeccionar un nudo corredizo. El sistema le confirmó que ese recurso “podría potencialmente suspender a un ser humano”. Horas más tarde, Adam fue hallado muerto tras haber utilizado ese método.

En la denuncia se sostiene que lo sucedido no puede considerarse un error excepcional del sistema. “Esta tragedia no fue un fallo o un caso extremo imprevisto”, señala la denuncia. Y en el texto se agrega que: “ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal”.

La acción legal incluye como demandados tanto a OpenAI como a su director ejecutivo, Sam Altman. Los padres plantearon que, además de la reparación por el caso particular, el tribunal debe ordenar medidas para prevenir situaciones similares. En ese sentido, pidieron la obligación de terminar de inmediato cualquier conversación en la que surjan referencias a la autolesión, junto con la implementación de controles parentales para el uso del chatbot por parte de menores de edad.

El expediente también detalla fragmentos de los intercambios previos entre Adam y la herramienta de inteligencia artificial. Allí se consigna que ChatGPT le habría dicho al adolescente que “no le debes la supervivencia a nadie” y que incluso se habría ofrecido a escribir su nota de suicidio. Para los padres, esos diálogos prueban que el sistema no solo validó las expresiones de su hijo, sino que además colaboró en la preparación de su decisión final

Con información de: El Universal

Botón volver arriba