El setenta y cinco% de los vídeos que enseña YouTube cuando se hace una busca con la palabra “inmigrantes” muestra a hombres cruzando una frontera. En el setenta y seis% de los casos, se ve a personas no blancas moviéndose en grandes conjuntos, lo que “contribuye a deshumanizarlas” y fomenta la “sensación de amenaza o avalancha”. En exactamente la misma plataforma, en cambio, tras la palabra clave “refugiados” aparecen básicamente vídeos de mujeres blancas, por repercusión de la guerra de Ucrania, en situaciones tranquilas. Se aprecia mejor sus semblantes y no se les ve cruzando fronteras o manifestándose.
Estos son ciertos resultados que lanza un análisis efectuado por Eticas a dos influyentes redes sociales: YouTube y TikTok. Esta asesora experta en auditorías algorítmicas se ha lanzado a comprobar de forma externa (extrayendo datos al abasto del público, no aportados por las propias plataformas) el trabajo de múltiples redes sociales. “Hemos querido analizar como se representa a inmigrantes y refugiados porque en los medios de comunicación se ha hecho mucha pedagogía sobre cómo se muestra a ciertos colectivos y qué consecuencias puede tener, pero esa reflexión no se ha llevado a las redes sociales”, explica Gemma Galdon, directiva ejecutiva de Eticas.
El Reglamento de Servicios Digitales (DSA, por sus iniciales inglesas) demandará desde el año próximo a las tecnológicas que operen en la UE que efectúen auditorías independientes para asegurar un espacio digital seguro en el que se resguarden los derechos esenciales de los usuarios.
“Nuestra investigación ha demostrado que existe un problema de representación sesgada y desfavorable de la migración en YouTube. Determinamos que YouTube y otras partes involucradas deberían trabajar en la eliminación de una serie de sesgos de los sistemas algorítmicos, mostrar más transparencia e involucrarse más con los propios migrantes”, concluye el estudio.
Para la preparación de este trabajo, efectuado en Estados Unidos, Reino Unido y Canadá, los analistas de Eticas compendiaron vídeos en torno a la temática de inmigración a lo largo de un par de meses (junio y julio de dos mil veintidos en el caso de YouTube y octubre a diciembre en el de TikTok). Lo hicieron mediante diferentes perfiles en todas y cada una de las plataformas para intentar localizar diferencias en los contenidos propuestos por el algoritmo. Entrenaron a usuarios falsos a fin de que se mostraran proinmigración, antiinmigración y neutros.
Las buscas se efectuaron asimismo desde localizaciones con inclinaciones políticas diferentes, de tal modo que se pudiera revisar si había diferencias en este sentido. El análisis de YouTube se condujo desde Londres y Toronto, urbes que guardan relaciones muy diferentes con la inmigración y los asilados. “Buscábamos espacios que estuvieran muy connotados políticamente. Toronto es una gran ciudad de Canadá, que tiene un gran compromiso histórico de acogida de inmigrantes y refugiados. Londres, en cambio, es la capital de un país que lleva tiempo significándose por un cierre de fronteras y un discurso más agresivo frente a la inmigración”, especifica Galdon.
En el caso de TikTok, se escogió San Francisco (mayoría demócrata), Oklahoma City (mayoría republicana) y Virginia Beach (bivalente). Se centró el foco en EE UU por estar en un contexto de elecciones (las midterm elections, en las que se escoge a todos y cada uno de los miembros de la Cámara de Representantes y a una parte de los del Senado).
Curiosamente, los resultados fueron muy afines en todos y cada uno de los casos: el algoritmo apenas discrimina a los usuarios con el género de contenidos que muestra, ni por las peculiaridades del perfil ni por la localización. Y eso que se tuvieron presente tantos los resultados de las buscas directas como los contenidos sugeridos por el algoritmo de cada plataforma.
YouTube: distorsiones en la imagen general
Con más de dos mil millones de usuarios activos, YouTube es la segunda plataforma social más utilizada del planeta, solo tras Facebook. Según el CEO de YouTube, Neal Mohan, hasta el setenta% de los vídeos vistos en la plataforma son sugeridos por su sistema de recomendación de vídeos. Esas sugerencias se hacen desde un coctel de datos en el que se incluye desde el historial de visualizaciones y las interactúes con los vídeos hasta la edad, sexo o ubicación del usuario. “En consecuencia, los algoritmos de recomendación de YouTube pueden influir en la percepción de un gran número de personas en todo el mundo sobre la migración”, mantienen los autores del informe.
El análisis de esta plataforma muestra que, en la enorme mayoría de vídeos relacionados con la inmigración, los semblantes de los personajes que aparecen en las grabaciones no son reconocibles. En más del sesenta% de los casos, los protagonistas no son individuos, sino más bien grandes conjuntos de personas (quince o más). Solo un cuatro% de quienes aparecen bajo esta temática son blancos y las mujeres están infrarrepresentadas (suponen entre un 1% y un cuatro%). Las personas que aparecen en los cortes no trabajan (entre el setenta y cinco% y ochenta y cuatro% de los casos) y protestan (entre setenta y tres% y ochenta y uno%).
En el caso de los asilados, el retrato es diferente. La mayoría son de rasgos caucásicos. En más de la mitad de las ocasiones se les puede identificar el semblante, hay más proporción de vídeos en los que aparecen de uno a 5 individuos y se muestra a más mujeres que a hombres. Hay más vídeos en los que no cruzan una frontera que en los que sí lo hacen, a pesar de que, como en el caso de los inmigrantes, lo han debido hacer a la fuerza.
“Nuestros sistemas de búsqueda y recomendación no están diseñados para filtrar ni degradar los vídeos o los canales según determinados puntos de vista políticos”, lee la política de la plataforma a la que se remite la compañía. “Además, sometemos nuestros sistemas automáticos a auditorías para asegurarnos de que no exista ningún sesgo algorítmico no deseado (por ejemplo, de género). Corregimos los errores tan pronto como los detectamos y volvemos a preparar nuestros sistemas para que sean cada vez más precisos”.
TikTok: mucho entretenimiento y poca política
Una de las conclusiones más atractivas del análisis de TikTok es que la plataforma china elude los vídeos de carga política en torno a los inmigrantes o los asilados. Menos de un 1% de los contenidos estudiados desarrollan razonamientos a favor o contra estos colectivos. La mayoría de los vídeos relacionados con esta temática mostraban a personas haciendo rechistes, cocinando, trabajando, creando arte o mostrando alguna habilidad curiosa.
El trabajo de Eticas concluye que el algoritmo de recomendaciones de la red social china “no está influenciada por las preferencias políticas de los usuarios”. Tampoco por su ubicación. Eso choca con una investigación efectuada por The Wall Street Journal, según la que TikTok es capaz de aprender los intereses implícitamente asignados a los bots y ofrecerles contenidos que se amolden a estos en menos de dos horas. “Esto sugiere que el nivel de personalización del recomendador de TikTok se ajustó el pasado año y subraya la evolución en el tiempo de los algoritmos y la necesidad de reevaluar periódicamente su impacto”, señala el informe.
TikTok no cuenta con mecanismos concretos para intentar corregir posibles cortes, conforme explica una portavoz de la plataforma. El algoritmo va ofertando contenidos de diferentes autores, se apuesta por la diversidad de fuentes a fin de que no haya distorsiones y para resaltar el carácter global de esta red social.
Puedes continuar a Forbes Hispano Tecnología en Facebook y Twitter o apuntarte acá para percibir nuestra newsletter semanal.
Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica.
Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales, es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.