En Resumen
- OpenAI anunció el martes un nuevo modelo de IA que analiza señales de comportamiento para identificar usuarios menores de 18 años en ChatGPT.
- El sistema monitorea tiempo de cuenta activa, horarios de uso y patrones específicos para activar automáticamente protocolos de seguridad.
- Expertos advierten sobre clasificaciones erróneas, señalando que el 85% de maestros y 86% de estudiantes reportan usar herramientas de IA.
OpenAI está dejando atrás el "sistema de honor" para la verificación de edad, implementando un nuevo modelo de predicción impulsado por IA para identificar a menores usando ChatGPT, según anunció la compañía el martes.
La actualización de ChatGPT activa automáticamente protocolos de seguridad más estrictos para cuentas sospechosas de pertenecer a usuarios menores de 18 años, independientemente de la edad que proporcionaron durante el registro.
En lugar de confiar en la fecha de nacimiento que un usuario proporciona al registrarse, el nuevo sistema de OpenAI analiza "señales de comportamiento" para estimar su edad.
Según la compañía, el algoritmo monitorea cuánto tiempo ha existido una cuenta, a qué hora del día está activa y patrones de uso específicos a lo largo del tiempo.
"La implementación de predicción de edad nos ayuda a aprender qué señales mejoran la precisión, y usamos esos aprendizajes para refinar continuamente el modelo a lo largo del tiempo", señaló OpenAI en un comunicado.
El cambio hacia patrones de comportamiento llega cuando los desarrolladores de IA recurren cada vez más a la verificación de edad para gestionar el acceso de adolescentes, pero los expertos advierten que la tecnología sigue siendo inexacta.
Un informe de mayo de 2024 del Instituto Nacional de Estándares y Tecnología descubrió que la precisión varía según la calidad de la imagen, la demografía y qué tan cerca está un usuario del umbral legal.
Cuando el modelo no puede determinar la edad de un usuario, OpenAI afirmó que aplica la configuración más restrictiva. La compañía señaló que los adultos colocados incorrectamente en la experiencia de menores de 18 años pueden restaurar el acceso completo a través de un proceso de verificación de edad "basado en selfies" utilizando el servicio de verificación de identidad de terceros Persona.
Los defensores de la privacidad y los derechos digitales han expresado preocupaciones sobre qué tan confiablemente los sistemas de IA pueden inferir la edad solo a partir del comportamiento.
Haciéndolo bien
"Estas compañías están siendo demandadas por todos lados por una variedad de daños que se han desatado sobre los adolescentes, así que definitivamente tienen un incentivo para minimizar ese riesgo. Esto es parte de su intento de minimizar ese riesgo tanto como sea posible", según afirmó J.B. Branch, defensor de la responsabilidad de las grandes tecnológicas de Public Citizen, a Decrypt. "Creo que ahí es donde viene la génesis de mucho de esto. Ellos están diciendo: 'Necesitamos tener alguna forma de demostrar que tenemos protocolos en su lugar que están filtrando a las personas'".
Aliya Bhatia, analista senior de políticas en el Centro para la Democracia y la Tecnología, señaló a Decrypt que el enfoque de OpenAI "plantea preguntas difíciles sobre la precisión de las predicciones de la herramienta y cómo OpenAI va a lidiar con las inevitables clasificaciones erróneas".
"Predecir la edad de un usuario basándose en este tipo de señales es extremadamente difícil por muchas razones", afirmó Bhatia. "Por ejemplo, muchos adolescentes son adoptantes tempranos de nuevas tecnologías, por lo que las cuentas más antiguas en los servicios orientados al consumidor de OpenAI pueden representar desproporcionadamente a adolescentes".
Bhatia señaló una encuesta de CDT realizada durante el año escolar 2024-2025, que muestra que el 85% de los maestros y el 86% de los estudiantes reportaron usar herramientas de IA, con la mitad de los estudiantes usando IA para propósitos relacionados con la escuela.
"No es fácil distinguir entre un educador usando ChatGPT para ayudar a enseñar matemáticas y un estudiante usando ChatGPT para estudiar", agregó. "Solo porque una persona usa ChatGPT para pedir consejos para hacer tarea de matemáticas no los hace menores de 18 años".
Según OpenAI, la nueva política se basa en investigaciones académicas sobre el desarrollo adolescente. La actualización también amplía los controles parentales, permitiendo a los padres establecer horas de silencio, gestionar funciones como la memoria y el entrenamiento del modelo, y recibir alertas si el sistema detecta signos de "angustia aguda".
OpenAI no reveló en la publicación cuántos usuarios se espera que afecte el cambio o detalles sobre la retención de datos, pruebas de sesgo o la efectividad de las salvaguardas del sistema.
El lanzamiento sigue a una ola de escrutinio sobre las interacciones de los sistemas de IA con menores que se intensificó en 2024 y 2025.
En septiembre, la Comisión Federal de Comercio emitió órdenes obligatorias a las principales compañías tecnológicas, incluyendo OpenAI, Alphabet, Meta y xAI, requiriéndoles revelar cómo sus chatbots manejan la seguridad infantil, las restricciones basadas en edad y las interacciones dañinas.
Una investigación publicada ese mismo mes por los grupos sin fines de lucro ParentsTogether Action y Heat Initiative documentó cientos de casos en los que bots compañeros de IA participaron en comportamiento de grooming, juegos de rol sexualizados y otras interacciones inapropiadas con usuarios haciéndose pasar por niños.
Esos hallazgos, junto con demandas e incidentes de alto perfil que involucraron a usuarios adolescentes en plataformas como Character.AI y Grok, han impulsado a las compañías de IA a adoptar restricciones más formales basadas en edad.
Sin embargo, debido a que el sistema asigna una edad estimada a todos los usuarios, no solo a menores, Bhatia advirtió que los errores son inevitables.
"Algunos de esos van a estar equivocados", afirmó. "Los usuarios necesitan saber más sobre qué va a suceder en esas circunstancias y deberían poder acceder a su edad asignada y cambiarla fácilmente cuando esté incorrecta".
El sistema de predicción de edad está ahora activo en los planes de consumidor de ChatGPT, con un lanzamiento en la Unión Europea esperado en las próximas semanas.

