“Sin moderadores de contenidos no habría Facebook. Te aseguro que si los moderadores de contenidos no estuviesen ahí, no le dedicarías ni un minuto a esas plataformas, porque no te puedes imaginar la cantidad de contenidos tóxicos, sucios, insoportables… Que se llegan a publicar”. Desde Nairobi, la capital keniana, Nathan Nkunzimana describe así el lado escondo de las redes sociales, la cantidad de publicaciones que quedan en el filtro de la moderación de contenidos y que hacen que la cara perceptible de esas plataformas sea, cuando menos, humanamente aceptable.
Durante los últimos un par de años, Nkunzimana ha sido uno de los peones anónimos que forman esa línea de defensa, moderando contenidos para una gran parte del África subsahariana. Durante toda la jornada de trabajo y prácticamente sin interrupción, un conjunto de personas como debe visualizar y filtrar todo género de aberraciones, incluidas múltiples formas de extrema violencia en vídeo. Las condiciones en las que han estado efectuando esta tarea les han llevado a enfrentarse a todos y cada uno de los obstáculos para formar un sindicato, African Content Moderators, que es uno de los primeros creados en ese ámbito en el mundo entero y que se ha constituido con el apoyo de la organización sindical keniana COWU (Sindicato de Trabajadores de la Comunicación, por sus iniciales en inglés). Salarios absurdos, despidos improcedentes, explotación y inconvenientes sicológicos derivados de sus labores justifican su lucha.
El pasado 1 de mayo, más de 150 moderadores de contenidos y etiquetadores de datos de Facebook, ChatGPT y TikTok se reunieron en un hotel de Nairobi para compartir sus experiencias y preocupaciones. Y para dar un paso definitivo: ponerse conforme en la constitución de un sindicato. Benson Okwaro es un veterano sindicalista, secretario general de COWU, y recuerda que “a muchas compañías globales no les gusta que haya sindicatos en sus oficinas”, mas recuerda que las leyes locales sí reconocen el derecho a la libre organización de los trabajadores. Sin embargo, resalta las contrariedades derivadas de que esas grandes empresas no tengan sedes formales en los países en los que emplean trabajadores y que procuren eludir la legislación nacional. “Por eso necesitamos estar unidos y buscar soluciones conjuntas ya”, asegura Okwaro.
En febrero de dos mil diecinueve, Meta anunciaba la apertura en Nairobi del “primer centro de revisión de contenidos de Facebook en África subsahariana” como una parte de su “continua inversión” en esa una parte del continente africano y su “compromiso con la seguridad” en la plataforma, conforme señalaba en su perfil de Facebook. En exactamente la misma publicación aseguraba que lo haría “en colaboración con Samasource”. En realidad, era la compañía estadounidense Sama la que contrataba formalmente a los moderadores. Okwaro explica que era una subcontrata y que Nkunzimana y el resto de moderadores aducen que su primordial empleador era Meta, por lo que demandan la responsabilidad de la compañía matriz de Facebook, Instagram y WhatsApp en sus condiciones de trabajo.
“Acoso sexual, abusos a menores, actividades sexuales… Eso pasa en las redes sociales y pasa en directo. Llegaba a casa y tenía la sensación de que no sentía nada”
Nathan Nkunzimana, moderador de contenidos
Daniel Motaung, un empleado sudafricano de Sama, ya había intentado organizar a sus compañeros a lo largo del primer verano del proyecto, con un feto de sindicato que se autodenominó The Alliance (la coalición, en inglés) y que no llegó a nacer: aquel intento de movilización fue sofocado. Los trabajadores descontentos fueron llamados al orden, Motaung fue suspendido inmediatamente y, unas semanas después, fue despedido.
Este ex moderador de Facebook destapó la caja de los truenos cuando en el mes de febrero de dos mil veintidos contó su historia a la gaceta Time y desveló las condiciones laborales en las oficinas de Nairobi en las que se examinaban los contenidos de la red social para África Oriental: “El trabajo que hacemos es una especie de tortura mental”. Tras su revelación se abrieron diferentes procesos legales: primero Motaung demandó a Meta y a Sama por explotación laboral y opresión sindical. Y eso desencadenó una catarata de procesos y escándalos mediáticos, que sacaron a la luz los bajos sueldos de los etiquetadores de datos contratados por exactamente la misma empresa para corregir la toxicidad de ChatGPT.
Tras estos inconvenientes, Sama renunció a su contrato con Meta (reemplazada por Majorel) en el mes de enero del año en curso y anunció a los empleados su cese. Ese fue el desencadenante de una nueva movilización más reservada. Denunciaron frente a los tribunales los despidos, mientras que cocinaban formarse como sindicato. Si las condiciones laborales eran duras, el camino de los últimos meses no lo ha sido menos, como narra Nathan Nkunzimana.
En abril de dos mil veintiuno, Nkunzimana comenzó a trabajar para Sama como moderador de contenidos. Durante su jornada de trabajo llegaba a visualizar entre mil quinientos y dos mil publicaciones sobre los que debía decidir si se borraban, si se elevaban a otra instancia para revisión o si se dejaban pasar. Este ciudadano de Burundi, que llegó a Kenia hace doce años para llenar sus estudios, explica lo que había entre esos contenidos: “Acoso sexual, abusos a menores, actividades sexuales… Eso pasa en las redes sociales y pasa en directo. Hay grupos terroristas que matan a personas a plena luz del día e intentan distribuirlo públicamente en esas plataformas”. Él reconoce que esa exposición le ha ocasionado inconvenientes sociales, sicológicos y personales. “Había días que llegaba a casa y tenía la sensación de que no sentía nada”, comenta, debiendo cargar con ese peso a solas ante su mujer y sus 3 hijos.
Y es que aparte de la crueldad de los contenidos, los moderadores han debido enfrentarse a unas condiciones de trabajo que agudizan la situación. “No podías hablar con nadie sobre eso, porque había una cláusula de confidencialidad. Ni siquiera podías compartir con tu compañera aquello por lo que estás pasando, la naturaleza del trabajo que está destruyendo tu vida personal. Era frustrante”, se lamenta. A eso se aúna la presión de la productividad: “Si en una semana no alcanzabas las métricas exigidas, a la siguiente recibías un correo que te advertía que no estabas cumpliendo los objetivos. Los programas controlaban cuánto tiempo le dedicabas a cada contenido. No podías alejar la vista de la pantalla en toda la jornada. Pasaban dos o tres segundos desde que hacías clic en una publicación hasta que la máquina te colocaba otra para revisar. No te daba un momento de tranquilidad, incluso un minuto para ir al lavabo suponía un problema con tu supervisor”.
Y como guinda, en el instante en el que Sama les anunció el cese de la actividad, los moderadores dejaron de percibir su sueldo pese a que denunciaron la irregularidad del procedimiento. “El 90% de los moderadores de contenidos somos extranjeros y lo que hemos vivido durante el proceso es muy duro, estar tres meses sin cobrar el salario, en un país que no es el tuyo: no puedes pagar el alquiler, no puedes comprar comida…”, explica Nkuzimana. Cori Crider, codirectora de Foxglove, una organización británica que les acompaña en este proceso, agrega que esta situación “les obliga a seguir aceptando trabajos inseguros para permanecer en el país, a pesar del grave riesgo para su salud mental”. Los moderadores han recurrido al micromecenazgo para asegurar su caja de resistencia.
Este moderador burundés asegura que “los contenidos de texto se derivaban a otras oficinas, pero el sistema enviaba las imágenes y los vídeos a nuestras oficinas en África”. Lo es cierto que, como consecuencia de otras demandas en otros centros de moderación de contenidos, han conseguido apoyo sicológico para sus empleados, mas esas condiciones no se ha extendido.
“La situación en este centro de moderación de contenidos es especialmente mala, con una carga de trabajo espantosa”
Cori Crider, codirectora de Foxglove
“La situación en este centro de moderación de contenidos es especialmente mala porque la remuneración suele ser extremadamente baja, en torno a 2 o 3 dólares por hora. En el centro de Nairobi solo trabajaban 260 moderadores, sobre los que recaía la revisión de contenidos para la región de África oriental y meridional, de unos 500 millones de habitantes. El resultado es una carga de trabajo espantosa”, explica Cori Crider. “Tenemos legitimidad para convencer a estas grandes compañías tecnológicas de que se tienen una responsabilidad de regularizar nuestras condiciones de trabajo. Un moderador de contenidos en África está cobrando 500 o 600 dólares brutos. Te da para pagar el alquiler y lo mínimo que necesitas para vivir, porque la vida aquí [en Nairobi] es muy cara. Lo mismo ocurre con el apoyo psicológico. Cuando lo hemos reclamado, nos hemos encontrado con mensajes con los que nos intentaban atemorizar: ‘Si continúas así, acabarás yéndote a casa”, advierte Nkuzimana. Los responsables de la compañía Sama han declinado contestar a las preguntas elaboradas para este documental.
“Una lucha desigual” con los gigantes tecnológicos
Por su parte, Nkuzimana lo deja claro: “Nuestra petición es que nuestros derechos humanos, constitucionales y laborales sean respectados, solo pedimos eso”. Y demanda que las plataformas se responsabilicen de las personas que moderan contenidos. “Somos más que moderadores, somos los soldados que se sacrifican para que las comunidades sean seguras. Pero las empresas que gestionan esas comunidades no cuidan a las personas que las protegen”, sentencia.
Mientras tanto, los tribunales han tomado resoluciones esperanzadoras para los empleados en sus múltiples procesos. Meta procuró evitar una demanda por el hecho de que no tiene vivienda en Kenia, mas el juzgado rechazó sus argumentos. De exactamente la misma forma, un juez forzó a Meta a suspender el contrato con Majorel, la compañía substituta de Sama, hasta el momento en que decidiese la fortuna de los empleados y la naturaleza de esa relación. El veterano sindicalista Benson Okwaro asegura que “las leyes kenianas son muy propicias para los trabajadores”. Y para Cori Crider, de Foxglove, “empresas como Facebook, Google y TikTok son algunas de las más poderosas del mundo, con recursos casi ilimitados. Hace falta una valentía increíble para hacerles frente solo con el poder colectivo”.
Nerima Wako-Ojiwa se aproxima a esta situación en clave de modelo de futuro: “Se plantean muchas cuestiones sobre los sindicatos y los derechos laborales, especialmente en lo que respecta al trabajo virtual y la legislación laboral nacional. Son preguntas que los países tendrán que empezar a responder. A medida que las empresas tecnológicas sigan creciendo, la forma en que la gente trabaja e interactúa con ellas exigirá respuestas legales. Muchas grandes empresas eluden responsabilidades o evaden impuestos recurriendo a terceras empresas”. Esta activista insiste en las peculiaridades del continente: “Definitivamente la de los moderadores de contenidos es una lucha desigual, pero así es el futuro del trabajo y está aquí para quedarse. Tenemos que tener un trabajo decente para la gente. Son cosas que los ministerios y las empresas privadas tendrán que sentarse a la mesa a negociar”.
Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica.
Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales, es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.