Controlar el alegato de odio en la red es uno de los mayores retos de esta era de la información. Nadie lo niega, mas tampoco se sabe de qué manera hacerlo de forma eficaz. Por ejemplo, suprimir a quienes esparcen contenidos tóxicos es una de las opciones alternativas elegidas por ciertas plataformas; ahora, una investigación llevado a cabo interiormente por Facebook, con veintiseis de sus usuarios, muestra que excluir a los líderes de las comunidades extremistas es una forma eficaz de desarticular el alegato de odio en las redes sociales, sobre todo en un largo plazo. La supresión de cien cuentas de ese tipo tuvo un enorme impacto por el hecho de que negar el altífono a los miembros primordiales conduce a la mejora de la red generalmente.

Algunos estudios precedentes apuntaban a que la exclusión de estos perfiles dañinos en plataformas como Twitter, Reddit o Telegram asistieron a reducir las actividades indeseadas, aun esos alegatos de forma general. Pero no era suficiente para probar la relación de causa y efecto que sí expone este estudio, llevado a cabo por estudiosos de Meta, empresa matriz de Facebook, y publicada hoy en PNAS.

Para llegar a esas conclusiones, Daniel Robert Thomas y Laila A. Wahedia examinaron los efectos producidos en la audiencia de 6 comunidades, cuyos representantes más activos fueron expulsados de la plataforma. En específico, los estudiosos de Meta deseaban comprender hasta qué grado este público proseguía observando, publicando y compartiendo contenidos de odio o interactuado con otros perfiles, una vez que sus referentes dejasen de existir. Los resultados manifiestan que, de media, todos esos factores redujeron. “Reducen su consumo y producción de contenidos que incitan al odio, y se relacionan menos con otros miembros de la audiencia”, aseveran en el estudio.

Tras las exclusiones de los perfiles, los usuarios pasaron a ver prácticamente la mitad de un contenido de odio a diario. Esto desea decir que, de media, los que veían cerca de 5 publicaciones con contenidos tóxicos pasaron a ver menos de 3. Además, al dejar de interactuar con miembros de exactamente la misma comunidad tóxica, los miembros pasaron a ser expuestos a otro género de contenido, conjuntos o comunidades, que no eran fundamentalmente de carácter violento. Ninguno de los datos del estudio puede vincularse a las cuentas de usuario originales, debido a los términos de protección de la amedrentad de Facebook.

La audiencia más leal a esas organizaciones que esparcen odio puede buscar otras fuentes tras la expulsión de los odiadores profesionales. Sin embargo, se trata de una reacción fugaz y que se ralentiza en solo un par de meses. La audiencia más lejana a esos líderes reduce su interacción con este contenido desde un primer instante. Según manifiesta el estudio, esto es positivo, por el hecho de que se trata del conjunto que tiene más peligro de ser influidos por las comunidades tóxicas.

En general, los resultados sugieren que la supresión selectiva puede llevar a redes sociales “más saludables”. “La eliminación de líderes y los esfuerzos de degradación de la red pueden reducir la capacidad de las organizaciones de odio a operar con éxito en internet”, explican.

No es simple, en todo caso. Al ser excluidos de las plataformas populares, esos perfiles podrían de forma fácil crear a nuevos, y intentar edificar una nueva red. También podrían migrar a otras plataformas. Y además de esto, otras organizaciones tóxicas que sí prosiguen actuales podrían sustituir su situación y cooptar a los adeptos, que proseguirían expuestos a los contenidos perjudiciales. Para que esta estrategia de supresión sea más eficiente, los autores plantean que las eliminaciones sean hechas por múltiples perfiles a la vez por el hecho de que “impide a las organizaciones reconstruir sus redes”, de forma que se complica para los miembros encontrarse nuevamente, por el hecho de que no hay cuentas sobrantes para regular a los que retornan a la plataforma.

Discurso de odio y tóxicos

Si se trata de una resolución que queda a las manos de las plataformas, ¿desearán verdaderamente realizarlos? Sílvia Majó-Vázquez, estudiosa asociada al Instituto Reuters para el estudio del periodismo de la Universidad de Oxford y maestra en la Vrije University Amsterdam, explica que la moderación de contenidos en redes sociales debe “hacerse buscando un equilibrio entre la libertad de expresión y la preservación de otros derechos que pueden verse dañados”, por lo que es esencial distinguir entre el alegato de odio, el alegato tóxico y el incivismo.

En términos ideales, como explica Majó-Vázquez, el incivismo se trata del nivel más leve, que va desde un lenguaje informal que incluye faltas de respeto o sarcasmo. Cuando se trata de una manifestación más extrema y “se ahuyenta a los demás de participar de una conversación”, nace el alegato tóxico, que puede transformarse en violento. “Desde un punto de vista democrático, son muy dañinos, porque no permiten el ideal democrático de deliberación pública”, especifica por correo.

Según opina esta especialista, la suspensión de perfiles se debe hacer teniendo presente esas dimensiones ideales y con mecanismos manuales “que puedan garantizar que la libertad de expresión se está preservando”. Y este criterio asimismo debe valer para las figuras políticas. “Hay que hacer un ejercicio como el que haríamos fuera de las redes, en el que se equilibre el derecho a la libertad de expresión del que emite el mensaje y la preservación de los demás derechos fundamentales de la audiencia. Los mecanismos automatizados de eliminación de mensajes y suspensión de cuentas deben revisarse continuamente y debe priorizarse la evaluación de esos mensajes por parte de expertos, como ya hacen algunas plataformas con los consejos asesores externos para los casos más relevantes”, resalta.

Uno de sus estudios llevados a cabo en el Instituto Reuters en 7 países ha probado que ni siempre y en todo momento la relación entre toxicidad y engagement es positiva, que cada caso es diferente: depende de la temática de cada discusión y de de qué manera de severo es el contenido. En el contexto de la pandemia y al examinar Twitter, los resultados probaron que la toxicidad y la popularidad del contenido tóxico no van de la mano. “De hecho, vemos que los tuits más tóxicos pierden popularidad entre la audiencia. Sin embargo, mensajes con niveles bajos de toxicidad sí, que ven sus niveles de popularidad crecer”, afirma Majó-Vázquez. Por lo que, no es posible aseverar si esta relación es fruto de una resolución de la audiencia de “no premiar la toxicidad” o si el resultado de las moderaciones llevadas a cabo por la plataforma. “Es algo que no podemos responder con los datos de nuestro trabajo, pero este resultado cuestiona la creencia que los contenidos tóxicos siempre son los más populares”, concluye.