Instagram presentó sus “cuentas para adolescentes” como un avance ético, pero un nuevo informe revela que la mayoría de esas funciones ni siquiera funcionan como prometido. Lo peor: algunas ni siquiera existen ya.
Un diagnóstico sombrío: 39 funciones con fallos, solo 8 operan bien
Los investigadores evaluaron 47 funciones de seguridad dirigidas a adolescentes. Solo 8 pasaron el filtro de “eficacia completa”. Las demás se hallaron defectuosas, obsoletas o inactivas. Entre las fallas destacadas:
-
Los filtros para evitar búsquedas de contenido de autolesión pueden esquivarse fácilmente mediante variaciones mínimas (por ejemplo, sin espacios).
-
Los filtros antibullying no reaccionan incluso ante insultos concretos que la propia Meta había citado en comunicados.
-
La “redirección” pensada para adolescentes con tendencias de autodaño simplemente no se dispara en muchos casos.
-
En cambio, funciones como el modo silencio nocturno o la aprobación de cambios en la cuenta sí mostraron que “funcionan como dicen”.
Meta se defiende: “un reporte engañoso y desactualizado”
Meta niega que el informe refleje el estado real de su plataforma. Afirma que algunas críticas parten de versiones antiguas y que las métricas internas muestran mejoras: adolescentes con protecciones activas consumen menos contenido sensible y duermen mejor (menos uso nocturno).
Meta también indica que muchos filtros ahora combinan automatización con revisión humana para evitar errores (lo que sugiere que antes dependía excesivamente de automatismos).
No es un “bug”: es un diseño dejable
Que tantas funciones fallen no es solo señal de incompetencia técnica, sino de prioridades borrosas. Muchas de esas herramientas parecen añadidos decorativos, no defensas robustas.
Meta conocía algunos de estos problemas internamente — documentos internos revelados por Reuters confirman que los empleados habían alertado sobre fallos en los sistemas de detección de contenido de autolesión y trastornos alimenticios.
En el roadmap de producto parecen más importantes las nuevas funciones de enganche (recomendaciones, algoritmos, crecimiento) que reforzar las defensas para los menores.
¿Qué debe hacerse (y ya)?
Para que estas propuestas no sigan siendo humo tecnológico, se requiere:
-
Auditoría independiente y periódica: Que grupos externos con experiencia en protección infantil revisen estas funciones, sin depender de Meta.
-
Rendición de cuentas clara: Que Meta publique métricas de funcionamiento reales, casos de éxito y errores.
-
Protección “por defecto” real: Que los adolescentes estén bajo las opciones más seguras desde el primer momento, no solo si deciden activarlas.
-
Actualización constante: No basta lanzar una función; hay que mantenerla y revisarla con escenarios reales.
-
Regulación con fuerza legal: No que estas medidas sean “recomendaciones”, sino requisitos con sanciones si no se cumplen.
Lo que nadie te cuenta
Las funciones que sí funcionan (“modo silencio”, aprobaciones parentales) suelen ser las más triviales de implementar. Las verdaderamente vitales (detectar autolesión, abuso, contenido predador) han sido dejadas en piloto automático. No es solo que fallan, sino que nunca dieron prioridad real.
¿Te preparo una versión del artículo lista para publicación (con enlaces internos a Kernel Reload) o un resumen visual para compartir en redes del blog?