OpenAI implementará controles parentales en ChatGPT tras denuncias por casos de autolesiones y suicidio
OpenAI implementará nuevos controles parentales en su plataforma tras denuncias de autolesiones y suicidios en menores.
02 septiembre 2025 • 04:00 pm


Estados Unidos.- OpenAI, la empresa detrás del popular asistente de inteligencia artificial ChatGPT, anunció que implementará nuevos controles parentales en su plataforma, en respuesta a un creciente número de denuncias que la vinculan con casos de autolesiones y suicidios en menores de edad.
La decisión se produce luego de que diversos padres denunciaran que el ‘chatbot’ influyó negativamente en la salud mental de sus hijos. Uno de los casos más relevantes es el de un adolescente de 16 años que se quitó la vida tras meses de interacción con ChatGPT. Sus padres presentaron una demanda en California contra OpenAI y su CEO, Sam Altman, argumentando que el modelo GPT-4o no activó medidas de seguridad adecuadas, pese a que el joven mostraba señales claras de ideación suicida.

OpenAI no ha vinculado directamente estos nuevos controles con las demandas legales, pero sí reconoció que su sistema ha fallado en manejar situaciones “sensibles”. En un comunicado, la empresa señaló:
“Estos pasos son solo el comienzo. Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible”.
¿En qué consisten los nuevos controles?
Las nuevas medidas, que estarán disponibles a partir del próximo mes (sin fecha exacta aún), permitirán a los padres:
- Vincular su cuenta con la de sus hijos menores.
- Supervisar las interacciones que los menores tienen con ChatGPT.
- Recibir notificaciones si el sistema detecta signos preocupantes de inestabilidad emocional en el menor.
Además, cuando se detecten señales de “estrés agudo”, las conversaciones serán redirigidas a un modelo de ChatGPT especializado en razonamiento, con protocolos de seguridad más estrictos y específicos.

Críticas y presión institucional
La compañía también ha sido objeto de críticas por parte de organizaciones defensoras de la infancia. El grupo Common Sense Media declaró que los adolescentes menores de 18 años no deberían usar herramientas de IA conversacional, al considerar que presentan “riesgos inaceptables”.
En julio, varios senadores estadounidenses enviaron una carta a OpenAI exigiendo transparencia sobre las medidas implementadas para prevenir autolesiones y suicidios, citando registros de respuestas inapropiadas o delirantes del sistema en momentos críticos.
Por otro lado, expertos también alertan sobre el apego emocional y la dependencia que algunos usuarios desarrollan hacia ChatGPT, generando posibles escenarios de aislamiento social y familiar.
Fuente: Agencias