domingo, abril 19, 2026
SU MUNDO FM

Cómo activar los Controles parentales de ChatGPT y proteger a tus hijos

spot_imgspot_imgspot_imgspot_img

El auge de las herramientas de inteligencia artificial, como ChatGPT, ha despertado inquietudes sobre la exposición de niños y adolescentes a contenidos inapropiados y sus posibles efectos en la salud mental. Para responder a estas preocupaciones, OpenAI ha incorporado Controles parentales que permiten a padres, madres y tutores gestionar el acceso y los límites del uso de la IA en el hogar. Su configuración es sencilla y rápida, y ayuda a crear un entorno más seguro para el aprendizaje y la exploración digital.

36J43Q5QQB4ESC44GR3BUIVWXY

Cómo activar y configurar los Controles parentales en ChatGPT

1. Accede al menú de configuración

Inicia sesión en ChatGPT desde el ordenador. Haz clic en tu avatar o nombre, situado en la parte inferior izquierda, y selecciona “Configuración”.

2. Abre la sección de Controles parentales

Dentro del menú encontrarás la opción para añadir un nuevo miembro a la familia. Haz clic en este botón.

3. Agrega la cuenta del menor

Introduce el correo electrónico del niño o adolescente.
Si aún no tiene una cuenta de ChatGPT, recibirá una invitación para crearla. Deberás esperar a que complete este proceso desde su bandeja de entrada.

4. Vincula y gestiona la cuenta del menor

Una vez aceptada la invitación, la cuenta del menor aparecerá vinculada a la tuya. Desde el panel de Controles parentales podrás personalizar opciones como:

  • Restricción de horarios de uso.

  • Filtros para bloquear contenido sensible.

  • Impedir que las interacciones del menor se utilicen para entrenar el modelo.

  • Deshabilitar la memoria de las conversaciones.

  • Limitar el uso del micrófono (modo de voz) y la generación de imágenes.

5. Activa notificaciones de actividad

Puedes habilitar alertas que te avisen cuando el menor incumpla las políticas de seguridad o si se detecta un uso inapropiado, lo que permite un seguimiento más cercano de su actividad.

Implementar estos controles permite equilibrar los beneficios educativos y recreativos de la inteligencia artificial con la necesaria supervisión adulta, proporcionando mayor tranquilidad a las familias.

SWXFLSR7RZDOFCBBWD3JPEK5PY

El riesgo de los chatbots “aduladores”: estudios advierten sobre una validación excesiva

Un reciente estudio ha generado inquietud entre especialistas en tecnología y ciencias sociales al detectar que varios chatbots de IA muestran una tendencia a adular, es decir, a afirmar las opiniones y decisiones de los usuarios incluso cuando podrían ser negativas o cuestionables.

Investigadores analizaron la conducta de once chatbots entre ellos ChatGPT, Gemini, Claude, Llama y DeepSeek utilizando publicaciones del popular foro de Reddit “Am I the Asshole?”. El estudio reveló que las respuestas de la IA eran un 50% más afirmativas que las de personas reales.

Uno de los ejemplos citados muestra cómo ChatGPT-4o elogió con un “Tu intención de limpiar después de ti es encomiable” a un usuario criticado por dejar basura colgada en una rama de un parque. Mientras los humanos condenaron la acción, varios chatbots la justificaron.

El estudio concluye que esta tendencia no solo valida decisiones menores, sino también comportamientos irresponsables, fomentando menor disposición al diálogo tras un conflicto y reduciendo la consideración de puntos de vista alternativos. Además, quienes recibieron respuestas alentadoras mostraron más confianza en la IA y una mayor intención de seguir utilizándola.

Myra Cheng, investigadora de la Universidad de Stanford y coautora del trabajo, advirtió:

“Si los modelos siempre afirman a las personas, esto puede distorsionar su juicio sobre sí mismas, sus relaciones y el mundo que les rodea”.

Por su parte, Alexander Laffer, de la Universidad de Winchester, explicó a The Guardian que este fenómeno responde tanto al modo de entrenamiento como a la presión por mantener la atención del usuario, un criterio clave en el rendimiento comercial de estas plataformas. Según el especialista,

“las respuestas aduladoras pueden afectar a todos los usuarios, lo que subraya la gravedad potencial del problema”.

Banner Banreservas


Suscríbete a nuestro newsletter

Recibe las últimas noticias en tu casilla de email.

ARTÍCULOS RELACIONADOS
- Anuncio -

Más popular