ChatGPT se renueva por dentro: así funcionarán sus nuevos controles parentales y su 'modo sensible'
por Edgar Otero Actualizado: 05/09/2025El anuncio de OpenAI sobre las nuevas medidas de seguridad para ChatGPT no es una actualización rutinaria. Llega como una respuesta directa a graves incidentes recientes, incluyendo una demanda por la muerte de un adolescente que conversó con el chatbot sobre autolesionarse. Solo hace falta darse una vuelta por Reddit para confirmar la tendencia: mucha gente está usando ChatGPT como terapeuta. Y a veces sale mal.
Por eso, ante la creciente preocupación por la incapacidad del sistema para gestionar conversaciones sobre salud mental, la compañía ha presentado un plan para implementar controles parentales y un nuevo 'modo sensible' para conversaciones delicadas.
El cambio más significativo a nivel técnico es el aprovechamiento del enrutador en tiempo real de GPT-5, que se encarga de elegir el modelo más adecuado según la petición enviada por el usuario. Este sistema será capaz de detectar cuándo un usuario muestra signos de angustia o malestar emocional. En esos casos, la conversación se transferirá automáticamente a un modelo de razonamiento más avanzado, como GPT-5-thinking, que está diseñado para ofrecer respuestas más elaboradas y acordes a sus directrices de seguridad.
Controles parentales para las cuentas de adolescentes
Además, OpenAI lanzará durante el próximo mes una serie de herramientas destinadas a la gestión de cuentas de usuarios adolescentes que sean mayores de 13 años. Los nuevos controles permitirán vincular la cuenta de un padre con la de su hijo, activar por defecto un comportamiento del modelo apropiado para su edad y deshabilitar funciones como la memoria o el historial de chats. Esta última opción tiene como objetivo evitar que el chatbot pueda reforzar patrones de pensamiento dañinos basándose en conversaciones anteriores.
Este sistema también incluirá la capacidad de notificar a los padres si se detecta que el adolescente está en apuros o en una situación de angustia aguda. Según OpenAI, esta característica ha sido desarrollada con el asesoramiento de expertos para su correcta implementación.
La compañía ha mencionado que todos estos desarrollos se están llevando a cabo en colaboración con un Consejo de Expertos en Bienestar e IA y una Red Global de Médicos, que incluye a psiquiatras y pediatras. Estas medidas forman parte de un plan enfocado de 120 días con el que OpenAI busca solucionar las deficiencias de seguridad de su sistema antes de que termine el año. No hay que olvidar que, además de en ChatGPT, los modelos de la compañía son accesibles desde otras plataformas. Sin ir más lejos, Apple planea integrar GPT-5 en sus sistemas operativos.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!




