Cómo activar filtros para tus hijos en la inteligencia artificial

Una nueva función conecta la cuenta de los hijos con la de los adultos y activa filtros en tiempo real con alertas ante posibles riesgos.

14 de octubre, 2025 | 19.32

OpenAI anunció una nueva herramienta dentro de ChatGPT pensada para reforzar la seguridad de niños y adolescentes. Se trata de un sistema de control parental que permite a los adultos supervisar y limitar la actividad de sus hijos en la app, con opciones de configuración personalizadas y alertas automáticas ante posibles riesgos. La función ya está disponible y busca ofrecer un entorno más seguro para los jóvenes que usan inteligencia artificial.

El lanzamiento llega en un momento clave, cuando cada vez más menores utilizan plataformas de IA. El acceso temprano a herramientas como ChatGPT plantea desafíos para las familias, que buscan equilibrar la curiosidad y el aprendizaje con la necesidad de establecer límites y prevenir situaciones de riesgo. Con este cambio, los padres cuentan con una forma oficial de monitorear las conversaciones y ajustar el uso del chatbot según la edad del usuario.

Cómo funcionan los controles parentales de ChatGPT

La configuración se realiza desde un panel dentro de la aplicación. Los adultos pueden enviar una invitación al perfil del adolescente, y una vez que este la acepta, ambas cuentas quedan vinculadas. Si el menor intenta desvincularse, el sistema notifica de inmediato a los padres.

Además, OpenAI incorporó un protocolo de respuesta ante situaciones críticas. Si el sistema detecta expresiones relacionadas con autolesiones o conductas de riesgo, un equipo especializado evalúa el caso y puede alertar a los adultos por correo electrónico, mensaje de texto o notificación directa en la app.

El control parental también permite establecer horarios de uso, bloquear la memoria del chatbot y restringir contenidos sensibles, como material gráfico, juegos de rol inapropiados o estereotipos extremos de belleza. Estas funciones apuntan a garantizar un uso responsable de la IA sin limitar del todo la exploración de los jóvenes.

La IA puede alertar a los adultos por correo electrónico, mensaje de texto o notificación directa en la app.

OpenAI aclaró que el sistema no es infalible y puede generar falsas alarmas, pero prioriza la prevención antes que la omisión. Además, trabaja en protocolos especiales para casos en los que exista una amenaza directa a la vida, con la posibilidad de contactar a las autoridades si fuera necesario.

La compañía desarrolló esta función junto con especialistas y organizaciones como Common Sense Media, que destacaron la importancia de complementar la tecnología con diálogo familiar y educación digital.