La plataforma Instagram anunció una actualización en sus políticas de seguridad que endurece las restricciones para usuarios de entre 14 y 16 años, limitando el tipo de contenido al que pueden acceder.
La medida forma parte de una estrategia de Meta para adaptar la experiencia digital a las distintas etapas del desarrollo adolescente y reducir riesgos asociados al uso de redes sociales.
A partir de ahora, los contenidos visibles para estos usuarios estarán filtrados bajo criterios similares a los de clasificación por edades en películas, priorizando material adecuado para menores de 13 años.
Filtro más estricto en toda la plataforma
Las nuevas restricciones impedirán el acceso a imágenes o videos considerados sensibles, como aquellos relacionados con violencia, accidentes, prácticas peligrosas o temas como trastornos alimentarios.
Asimismo, se limitará la exposición a publicaciones que incluyan productos como alcohol o tabaco, así como lenguaje inapropiado.
Estas medidas se aplicarán en todas las secciones de la red social, incluyendo el feed, las historias, los comentarios y las recomendaciones automáticas.
Herramientas para padres
El nuevo sistema incorpora herramientas de supervisión parental obligatoria para adolescentes, permitiendo a los padres monitorear la actividad, conocer los intereses de sus hijos y establecer límites en el uso de la aplicación.
El filtrado de contenido es gestionado por inteligencia artificial, que ha sido entrenada con datos proporcionados por familias para mejorar su precisión.
Además, los tutores pueden reportar contenido y contribuir a que el sistema se actualice de forma constante.
Un entorno más seguro
La función ya está disponible y se activa automáticamente en las cuentas de adolescentes, como parte del esfuerzo de la plataforma por ofrecer una experiencia más segura.
Expertos subrayan que, aunque estas herramientas son útiles, el diálogo entre padres e hijos sigue siendo clave para fomentar un uso saludable de las redes sociales.