OpenAI anunció el lanzamiento de nuevos controles parentales para ChatGPT, acompañados de una página de recursos dirigida a las familias. La medida se presenta en un momento delicado: semanas después del suicidio de un adolescente en California cuyo uso de la plataforma reavivó el debate sobre la seguridad de los menores en entornos digitales. La compañía afirma que su objetivo es ofrecer herramientas que permitan a los padres personalizar la experiencia de sus hijos y reducir riesgos asociados al uso de la inteligencia artificial.
Los controles estarán disponibles desde hoy para todos los usuarios y permitirán a los padres vincular su cuenta con la de sus hijos adolescentes. Una vez conectadas, los tutores tendrán acceso a un panel de configuración desde el que podrán establecer límites, aplicar filtros de contenido y activar notificaciones de seguridad.
¿Qué pueden hacer los padres y qué no podrán modificar los menores?
El sistema se basa en una relación asimétrica: los padres tienen la capacidad de configurar y modificar, mientras que los adolescentes no pueden revertir los cambios. Entre las funciones principales están:
-
Reducción de contenido sensible: limitaciones sobre material gráfico, juegos de rol sexuales o violentos, desafíos virales y representaciones extremas de belleza.
-
Establecer horarios de uso: con la opción de fijar “horas de silencio” en las que ChatGPT no estará disponible.
-
Desactivar funciones específicas: como el modo de voz, la memoria de conversaciones o la generación de imágenes.
-
Optar por no contribuir al entrenamiento del modelo: garantizando que las conversaciones de los adolescentes no se usen para mejorar la IA.
Los padres también recibirán notificaciones si el sistema detecta posibles señales de autolesión. En esos casos, un equipo humano revisará la situación y, de ser necesario, alertará a los tutores por correo electrónico, mensaje de texto o alerta en la aplicación. En situaciones extremas, OpenAI contempla la posibilidad de contactar a servicios de emergencia, aunque subraya que la privacidad de los adolescentes será respetada.
Por otra parte, cabe mencionar, que aunque OpenAI señala que estas medidas son un paso importante, también admite que no son infalibles. Los adolescentes podrían intentar evadir los filtros, y la detección de señales de crisis emocionales nunca será perfecta. Por ello, la compañía insiste en que los controles deben complementarse con conversaciones familiares sobre el uso responsable de la tecnología.
Organizaciones como Common Sense Media, que colaboraron en el diseño de las funciones, destacan que estas herramientas son un “buen punto de partida” pero que requieren acompañamiento activo por parte de los padres. El mensaje es claro: la supervisión tecnológica no sustituye el diálogo sobre cómo, cuándo y para qué se usa la inteligencia artificial.
Un esfuerzo en construcción
OpenAI asegura que estos controles son parte de un esfuerzo más amplio. La compañía ya trabaja en un sistema de predicción de edad que le permitirá aplicar automáticamente configuraciones para adolescentes cuando no exista certeza sobre la edad del usuario. Mientras ese mecanismo se perfecciona, los controles parentales representan la forma más directa de ajustar la experiencia.
El anuncio llega en un contexto de creciente escrutinio público hacia las plataformas digitales. La presión de legisladores, fiscales estatales y expertos en salud mental ha acelerado el despliegue de herramientas de protección, que buscan evitar que casos como el del adolescente de California se repitan.
La estrategia de OpenAI plantea un equilibrio complejo, entre proteger a los jóvenes sin vulnerar su privacidad ni restringir en exceso la exploración de la IA como recurso educativo y creativo. De momento, las familias tienen a su disposición un conjunto de opciones que, si se usan de manera consciente y acompañadas de diálogo, podrían convertirse en un apoyo real para navegar un terreno donde los riesgos y las oportunidades conviven.
Imagen: Archivo ENTER.CO