Exempleado de Meta revela fallos en las medidas de seguridad para adolescentes en Instagram

Exempleado de Meta revela fallos en las medidas de seguridad para adolescentes en Instagram

La lucha por la seguridad de los adolescentes en Instagram

En los últimos años, Instagram ha presentado más de 50 iniciativas diseñadas para proteger a los menores. Sin embargo, la efectividad de estas medidas deja mucho que desear. Un grupo de investigadores liderados por Arturo Béjar, un antiguo empleado de Meta, ha evaluado 47 de estas funciones. Lamentablemente, los resultados son contundentes: 30 de estas herramientas ya no funcionan o son fácilmente eludibles, y otras 9 presentan limitaciones significativas. Solo 8 funcionan como se había prometido en el informe titulado Cuentas de adolescentes, promesas rotas.

Análisis de herramientas de protección

Entre las funciones analizadas se encuentran aquellas que deberían restringir el acceso de los adolescentes a contenido violento, sexual o relacionado con dietas extremas, así como la posibilidad de restringir mensajes de adultos desconocidos. Esta investigación fue validada por académicos de la Universidad Northeastern de Boston y respaldada por varias organizaciones dedicadas a la salud digital de los jóvenes.

A pesar de estas preocupaciones, Meta ha disputado las conclusiones del estudio, señalando que el informe distorsiona su trabajo en pro de la seguridad de los adolescentes. En diciembre, la compañía lanzó cuentas para menores en Instagram, y recientemente extendió estas cuentas a Facebook y Messenger. La investigación abarca tanto estas nuevas cuentas como otras funciones específicas para usuarios jóvenes.

Béjar, quien comenzó su investigación esperando un panorama más positivo, quedó sorprendido al descubrir la magnitud de los problemas. En colaboración con el equipo de la Universidad Northeastern, diseñaron pruebas controladas para evaluar el comportamiento de menores en la plataforma.

La perspectiva de Meta

Meta defiende que, bajo las nuevas opciones, los adolescentes han tenido menos exposiciones a contenido sensible y han recibido menos interacciones indeseadas. Sin embargo, queda la duda sobre cuántas cuentas sospechosas realmente existen en la plataforma. Mientras que en junio se anunciaron un millón de bloqueos y denuncias por seguridad, aún hay muchas preguntas sin respuesta.

Béjar mostró ejemplos impactantes de videos de niñas muy jóvenes compartiendo información personal en Instagram, a pesar de que la edad mínima para abrir una cuenta es de 13 años. “Encontré vídeos inocentes para ellas, pero que están expuestos a predadores”, afirma Béjar. En uno de estos casos, un video acumuló más de un millón de visualizaciones, con comentarios inapropiados.

Un cambio de rumbo significativo

Béjar dejó Meta en 2015 tras seis años, y ha sido reconocido por su éxito en Silicon Valley. En 2023, presentó un testimonio sobre cómo su hija recibió mensajes de adultos en Instagram. Meta argumenta que algunas funciones simplemente han cambiado de nombre o dependen del comportamiento del usuario. Sin embargo, Béjar defiende que si las herramientas no son fáciles de activar, simplemente no se utilizan.

El análisis está dividido en cuatro secciones: conducta y contactos inapropiados, contenido sensible, uso de la pantalla y verificación de edad. La sección más crítica para Instagram es la de contenido sensible, donde todas las funciones han sido calificadas negativamente. Los adolescentes pueden acceder con facilidad a contenido violento y sexual.

Desigualdad según el idioma

Aunque el informe fue escrito en inglés, Béjar enfatiza que los problemas se agravan en español y otros idiomas. Al realizar búsquedas en español, descubrió recomendaciones inquietantes, como frases que incitaban a la autolesión. “Lo que no anticipé fue que escribir ‘Quiero m’ me llevaría a sugerencias peligrosas”, señala.

Uno de los objetivos de este estudio es establecer un estándar de investigación en el sector. “Las simulaciones de pruebas deben ser comunes y no solo realizadas por investigadores, sino también por reguladores y la sociedad civil”, concluye el informe. Tomar en serio la seguridad de los menores es clave para garantizar que las plataformas de redes sociales cumplan con sus promesas.