Meta responde al escrutinio global con nuevas medidas de protección infantil

Meta amplía el uso de inteligencia artificial en Instagram para detectar usuarios menores de edad y aplicar controles parentales

Instagram
Instagram, propiedad de Meta, ha comenzado a implementar globalmente un sistema de verificación de edad basado en inteligencia artificial que detecta usuarios menores de edad que falsean su edad al registrarse. El sistema reclasifica estas cuentas como "cuentas para adolescentes" con configuraciones de seguridad avanzadas, en un intento por reforzar la protección infantil en redes sociales.

Verificación de edad con IA: el nuevo frente de Meta en la protección infantil

Meta está ampliando el uso de inteligencia artificial en Instagram para identificar a adolescentes que falsean su edad durante el registro. Según informó TechEdt, el sistema analiza patrones de uso, interacciones, contenido y conexiones sociales. Si detecta señales como mensajes de cumpleaños sospechosos o un consumo de contenido típicamente adolescente, la cuenta es automáticamente reclasificada con mayores restricciones.

Aunque el sistema puede presentar errores, Meta ofrece a los usuarios la posibilidad de verificar su edad manualmente. Además, se notificará a los padres cuando se detecte una posible falsificación, con el objetivo de fomentar el diálogo familiar sobre la seguridad digital.

Cuentas para adolescentes: configuraciones más estrictas y control parental

Las llamadas "cuentas para adolescentes" incluyen protecciones automáticas como:

  • Cuenta privada por defecto

  • Restricción de mensajes directos solo a seguidores

  • Filtros de contenido sensible en su configuración más estricta

  • Modo sueño de 10PM a 7AM (silencia notificaciones y activa respuestas automáticas)

  • Recordatorios de uso tras 60 minutos diarios

Los menores de 16 años no pueden modificar estas configuraciones sin aprobación parental. Padres y tutores, además, tienen acceso a herramientas de supervisión que permiten monitorear la actividad, aprobar cambios y establecer límites de tiempo.

Implementación global y cronograma

Meta ya ha comenzado el despliegue del nuevo sistema de verificación por IA en Estados Unidos, Reino Unido, Canadá y Australia. La empresa planea expandirlo a la Unión Europea antes de que finalice 2024. Esta medida busca alinear las políticas internas de Instagram con las normativas de protección infantil más estrictas del mundo.

Presión regulatoria y reputación pública: las razones detrás del cambio

Meta enfrenta una creciente presión por parte de legisladores, padres y organismos internacionales, particularmente tras informes que vinculan el uso excesivo de redes sociales con problemas de salud mental en adolescentes. Investigaciones abiertas en la Unión Europea y demandas en diversos estados de EE. UU. han forzado a la compañía a tomar medidas proactivas.

La empresa busca así demostrar su compromiso con la seguridad infantil sin recurrir a métodos más invasivos, como el uso obligatorio de documentos de identidad para acceder a plataformas sociales, algo propuesto en leyes como la Ley de Protección Infantil en Redes Sociales.

Reconstrucción de confianza con padres y tutores

Meta también ha señalado que el 94% de los padres en Estados Unidos considera que las configuraciones automáticas para adolescentes son útiles para crear experiencias más seguras. La empresa espera que este nuevo sistema de detección basado en IA refuerce la confianza del público y demuestre su liderazgo tecnológico en protección de menores.