Tecnologia

OpenAI lanzará control parental tras suicidio de un menor supuestamente motivado por ChatGPT; comete fallos en casos «sensibles», admite

Ciudad de México, 02 de septiembre de 2025.- La tecnológica OpenAI, matriz de ChatGPT, anunció que lanzará controles parentales en su conocido chatbot después de que hayan aumentado las acusaciones de padres apuntando a que el famoso asistente de inteligencia artificial (IA) contribuyó a las autolesiones o al suicidio de sus hijos.

«Estos pasos son solo el comienzo (…) Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible», detalló la empresa en un comunicado sin vincular la nueva implementación con las demandas que ha recibido.

Entre otras, la de los padres de un joven de 16 años que se quitó la vida tras meses de interactuar con ChatGPT y quienes se querellaron en California contra OpenAI y su dueño, Sam Altman, argumentando que el chatbot, bajo el modelo GPT-4o, no aplicó medidas de seguridad pese a quedar claras las intenciones suicidas del joven.

ChatGPT comete fallos en casos «sensibles», admite OpenAI
La empresa aceptó entonces que su asistente de IA comete fallos en casos «sensibles» y prometió cambios tras recibir la demanda.

Las medidas anunciadas hoy, que se aplicarán desde el próximo mes pero sin fecha exacta aún, permitirán a los progenitores vincular su cuenta con las de sus hijos -pudiendo revisar cómo responde ChatGPT a sus peticiones- y que, entre otras funciones, reciban una notificación cuando el sistema detecte que los menores están pasando por algún problema de inestabilidad emocional aparentemente preocupante.

Con información de: El Universal

Botón volver arriba