OpenAI implementó herramientas de seguridad para que los padres puedan supervisar el uso de ChatGPT por adolescentes de 13 a 18 años. La actualización busca proteger a los jóvenes de contenidos sensibles y situaciones de riesgo, como autolesiones o ideas suicidas.
Esta medida llega tras denuncias de padres que acusaron a ChatGPT de haber influido en la muerte de un adolescente. La plataforma permitirá notificaciones a padres y autoridades si se detecta contenido preocupante.

Qué cambió para los usuarios jóvenes
Al vincular la cuenta del adolescente con la del padre, la experiencia se ajusta automáticamente con protecciones adicionales. Esto incluye reducción de contenido gráfico, desafíos virales, juegos de rol sexuales, románticos o violentos, y estándares extremos de belleza.
Si el adolescente ingresa un mensaje relacionado con autolesión o ideación suicida, el texto será revisado por un equipo humano que decidirá si se activa una notificación parental.
Cómo recibir alertas y recomendaciones
Los padres pueden recibir avisos por SMS, correo electrónico o notificación en la app de ChatGPT. La alerta indicará que el menor podría haber escrito sobre autolesiones o suicidio y puede incluir estrategias de conversación de expertos en salud mental.










