Durante años, Internet resolvió la verificación de edad con una pregunta tan frágil como simbólica: “¿Eres mayor de 18 años?”. Ese modelo empieza a quedar atrás. OpenAI ya trabaja en un modo “para adultos” de ChatGPT, previsto para 2026, que busca algo más ambicioso que una simple casilla marcada al azar: separar conversaciones maduras de audiencias que no lo son, usando inteligencia artificial como filtro.
La idea no es convertir al chatbot en un espacio sin reglas. Al contrario. El nuevo modo apunta a usuarios adultos que hoy encuentran límites artificiales en temas legítimos: sexualidad abordada desde la educación, conflictos de pareja, experiencias de vida complejas, consumo responsable de sustancias, salud mental o dilemas éticos que requieren matices. Contenidos que no son peligrosos por sí mismos, pero que tampoco están pensados para todos.
La confirmación llegó desde la propia OpenAI. Fidji Simo, directora ejecutiva de Aplicaciones, explicó que el proyecto avanza, pero no se lanzará hasta que la tecnología sea capaz de inferir con alta precisión si una persona es mayor de edad. La empresa asume que, en un entorno tan interactivo como la IA conversacional, la responsabilidad no puede recaer solo en la buena fe del usuario.
Aquí está el punto clave. OpenAI descarta métodos invasivos como el reconocimiento facial o la carga de documentos de identidad, por sus riesgos de privacidad. En su lugar, apostará por un análisis de comportamiento: cómo escribe el usuario, qué tipo de preguntas formula, el contexto de sus inquietudes y el nivel de complejidad emocional o conceptual de la conversación. En esencia, la IA intentará determinar si quien está al otro lado habla y razona como un adulto.
Te puede interesar: Así mejora GPT-5.2 el trabajo en matemáticas y ciencia frente a su versión anterior
El enfoque es innovador, pero también delicado. Un error puede tener dos caras: permitir acceso indebido a menores o bloquear injustamente a adultos. En ambos casos, las consecuencias no son menores. Reguladores de distintos países ya observan con lupa a las grandes plataformas tecnológicas, especialmente en lo relacionado con protección infantil y verificación de edad.
Más allá del debate legal, el modo adulto responde a una crítica recurrente de usuarios mayores de edad: la sensación de que ChatGPT a veces corta respuestas útiles, informativas o incluso terapéuticas por aplicar filtros pensados para un público general. OpenAI parece reconocer que tratar a todos por igual ya no funciona, y que la madurez del usuario también debería reflejarse en la profundidad de las respuestas.
El movimiento no ocurre en el vacío. Otros actores del sector, como xAI con Grok, ya exploran versiones con menos restricciones según la edad. Para OpenAI, además, este modo podría integrarse como un valor añadido en planes de suscripción avanzados, ofreciendo experiencias más personalizadas sin romper las reglas básicas de seguridad.
Si el proyecto sale adelante, ChatGPT no solo será más potente. Será también más honesto con una realidad evidente: no todas las conversaciones son para todos, y la inteligencia artificial empieza a aprender a distinguirlo.