Facebook es una red dominada por noticias conservadoras y sus usuarios de derechas son quienes consumen de forma concluyente la información etiquetada como falsa. Los datos que han tolerado confirmar estas dos hipótesis proceden de una investigación académica con un acceso sin precedentes a información interna de Facebook, proporcionada por la red de Meta. Las conclusiones se fundamentan en la actividad agregada de doscientos ocho millones de usuarios estadounidenses a lo largo de múltiples meses cerca de las elecciones en EE UU de dos mil veinte. El artículo, dirigido por la estudiosa de España Sandra González-Bailón, de la Universidad de Pensilvania, es parte integrante de una serie de 4 trabajos que examinan el impacto de las redes de Meta en la creciente polarización y que han sido publicados este jueves en las gacetas Science y Nature.

“No esperaba encontrar algunos de los resultados que hemos hallado, con unos patrones tan radicales”, afirma González-Bailón por videoconferencia desde Filadelfia a Forbes Hispano. “Pero esto es lo que dicen los datos”, agrega. El artículo estudia de qué manera la combinación del comportamiento de los usuarios y el algoritmo segregan el consumo de información entre progresistas y conservadores. Aunque esos dos conjuntos existen, no son simétricos, como se creía hasta ahora: “Las audiencias que consumen noticias políticas en Facebook tienen, en general, una inclinación de derechas”, afirma el artículo. Pero la cantidad más sorprendente es la diferencia en el alcance de noticias etiquetadas como falsas por los fact-checkers de Meta (que solo suponen el tres% del total de links compartidos en la red): el noventa y siete% en ese conjunto de piezas circula entre usuarios conservadores.

“Es cierto que es el artículo más controvertido”, reconoce a Forbes Hispano el maestro David García, de la Universidad de Konstanz (Alemania), que ha podido leer las piezas embargadas para redactar un breve comentario en Nature. “Pero es muy importante. La evidencia que teníamos no era tan sólida. Había un estudio de 2015 que tenía problemas. Lo han hecho bien, como todos hubiéramos querido hacerlo”.

El impacto de toda la investigación va más allá: “No es tanto una sorpresa. Facebook es más conservador, pero lo que impresiona es que alguien haya ido capaz de verificarlo desde fuera de Facebook con acceso a datos internos”, explica García. “Aunque los resultados no son muy feos para Facebook”, agrega, en referencia sobre todo a las otras 3 investigaciones publicadas a la vez, que examinan los inconvenientes de las cronologías (feeds) algorítmicas en Instagram y Facebook, los peligros de la viralidad y el botón de compartir, y el contenido que se recibe de gente similar ideológicamente. Ninguno de los 3 ha encontrado unos resultados claros que apunten a soluciones o culpables simples.

Una contestación difícil

Durante años, especialistas, tecnólogos y académicos han intentado comprender de qué manera afectan las redes sociales a nuestras sociedades. En poco más de una década ha alterado el modo perfecto en que nos informamos: eso debería tener consecuencias, mas ¿cuáles? Aunque estos artículos tratan de contestar, no es sencillo crear un planeta paralelo para cotejar y ver dónde estaríamos hoy sin Facebook, Twitter (X desde este lunes) o YouTube. “Estos hallazgos no pueden decirnos cómo habría sido el mundo si no hubiéramos tenido las redes sociales durante los últimos 10 a 15 años”, aceptó Joshua Tucker, maestro de la Universidad de Nueva York y uno de los líderes académicos del proyecto, a lo largo de una conferencia de prensa virtual.

“No podemos desvincular lo que es algorítmico de lo que es social”

Sandra González-Bailón, Universidad de Pensilvania

“La pregunta de si las redes sociales están destrozando la democracia es muy complicada. Es un puzle y cada uno de estos artículos es una pieza”, afirma González-Bailón. Estos 4 artículos son solo los primeros de un total de dieciseis, que deben proseguir saliendo en los próximos meses y que son futuras piezas de ese rompecabezas enorme. El proyecto nace de un pacto de agosto de 2020 entre Meta y dos profesores, que escogieron entonces al resto de estudiosos. “Nunca había formado parte de un proyecto donde los estándares de rigor analítico, de chequeo de datos y código hayan sido tan robustos y, por tanto, de un proyecto de las garantías de calidad y de que los resultados son genuinos”, agrega González-Bailón. Entre los autores figuran tanto miembros de la academia, totalmente independientes de Meta, como empleados de la compañía. El líder interno de Meta para estos trabajos es el estudioso de España Pablo Barberá.

¿Y si quitamos el algoritmo?

Los otros 3 artículos observaron qué sucedería en Facebook e Instagram si se cambiaran 3 detalles que con frecuencia han sido culpados de polarizar y crear burbujas. Los artículos han pedido permiso a más de veinte.000 participantes, que han visto cambiado el contenido de su cronología y que eran equiparados con un conjunto de control. Los ensayos se hicieron a lo largo de 3 meses, entre septiembre y diciembre de dos mil veinte, en torno la elección de Joe Biden como presidente. Aunque las cantidades pueden parecer pequeñas, tanto la muestra como la duración del experimento fueron señaladas como algo inusual y valiosísimo por los estudiosos.

El primero de estos trabajos mide el impacto de sustituir los algoritmos de Facebook e Instagram (que ordenan lo que vemos en nuestra pantalla) por una simple fila cronológica: el último artículo publicado es el primero que vemos y así consecutivamente, sin que ningún algoritmo ponga lo más “interesante” arriba. Es un modo evidente de medir si el insigne “algoritmo” nos confunde. Si, por poner un ejemplo, el contenido político más extremo es el que más vemos por el hecho de que provoca más interés que el moderado, y así nos polariza. El resultado es que realmente apenas afecta la polarización o el conocimiento político de los usuarios.

Eso no implica que el cambio no tenga otras consecuencias. La reducción del contenido algorítmico hace que los usuarios pasen menos tiempo en las dos redes de Meta, por el hecho de que presuntamente el contenido es más hastiado o repetitivo, y hace que se vayan a TikTok o YouTube. También los usuarios con el contenido cronológico veían más contenido de fuentes no fiables y político.

Ahora eludimos los compartidos

En otro artículo, los autores suprimieron una parte del contenido compartido en Facebook. La pretensión era reducir la relevancia de la viralización. De nuevo, no hubo cambios substanciales, mas sí “consecuencias inesperadas” bastante difíciles de prever, conforme Andrew Guess, maestro de la Universidad de Princeton que lideró el estudio: “La gente pasa a no distinguir entre las cosas que sucedieron la semana pasada y las que no. ¿Por qué? La mayoría de las noticias que la gente recibe sobre política en Facebook provienen de compartir, y cuando eliminas esas publicaciones, ven menos contenido propenso a la viralidad y potencialmente engañoso, pero también ven menos contenido de fuentes fiables”, agrega Guess. El cambio reducía el conocimiento de la actualidad de los usuarios, sin afectar a otras variables. Tampoco semeja, por consiguiente, un cambio positivo.

“Los usuarios tienen su propia iniciativa y que su comportamiento no está completamente determinado por algoritmos”

David García, Universidad de Konstanz

El tercer artículo, el único publicado en Nature, trata de reducir la presencia de contenido proveniente de usuarios ideológicamente similares. De nuevo, tampoco revela cambios substanciales, mas los usuarios a quienes les habían cortado el contenido similar terminaban por interaccionar más con el que sí terminaban viendo: “Los usuarios encontraron otras formas de leer contenido de ideas afines, por ejemplo, a través de grupos y canales o bajando en el feed de Facebook. Esto demuestra que los usuarios tienen su propia iniciativa y que su comportamiento no está completamente determinado por algoritmos”, escribe García. Aunque los estudiosos descartan lo que llaman “cámaras de eco extremas”, sí vieron que un veinte% de usuarios de Facebook reciben un setenta y cinco% de contenido de cuentas similares. La reducción de ese contenido de similares, escriben los autores, no provoca una alteración substancial en polarización o ideología.

Cómo separar las redes de la vida

Hay múltiples posibles inconvenientes con estos estudios: las contestaciones son autoimputadas y el periodo y el país pueden haber provocado un resultado no replicable tal como en otras circunstancias. La conclusión más obvia: es bastante difícil de aislar y medir un fenómeno con tantas ramificaciones como la polarización, si bien muestra que retoques sueltos no cambian el impacto, positivo o negativo, de las redes sociales en la democracia.

¿Sin ese algoritmo los usuarios vivirían menos polarizados? Quizá, mas no es seguro. El artículo de González-Bailón ha descubierto otra cosa interesante sobre la dieta informativa en Facebook: los conjuntos y las páginas son más esenciales que los usuarios a quienes prosigues. También han comprobado que tienen más peso los links específicos que los dominios: las páginas y conjuntos crean una dieta específica que favorece su ideología. Por ejemplo, pueden compartir muchos medios tradicionales, mas eligen solo los artículos que les favorecen o que desean criticar: “Facebook ha creado un ecosistema informativo donde los grupos y las páginas son maquinarias particularmente eficientes en hacer este tipo de selección de bufé”, afirma González-Bailón.

En su contestación a los artículos, García hace una analogía con el cambio climático para aclarar el reto imposible que encaraban estos artículos: “Imaginad una política que reduzca las emisiones de carbono en algunas ciudades. En comparación con un grupo de control de ciudades, es poco probable que hallemos un efecto sobre las anomalías de temperatura, pero la ausencia de un efecto no sería evidencia de que las emisiones de carbono no causan el cambio climático”, escribe. Igual puede suceder con las redes, agrega, ya que estos ensayos no descartan que los algoritmos de las redes hayan contribuido a la polarización: los ensayos “muestran que existe un límite a la eficacia de las soluciones para individuos cuando se trata de modificar el comportamiento colectivo. Estos límites deben superarse mediante el uso de enfoques coordinados, como la regulación o la acción colectiva”, agrega García.

La regulación es uno de los modos más reclamados por los académicos implicados para reiterar y ampliar esta clase de ensayos, alén de la buena voluntad o el interés en un caso así de Meta. “Se necesita un enfoque proactivo para establecer estas colaboraciones en el futuro, para que los efectos de las tecnologías en el comportamiento político puedan investigarse sin que primero tengamos que soportar más de una década de preocupación”, escribe García, que agrega que la nueva Ley de Servicios Digitales de la UE es un marco “factible” para estas colaboraciones entre la industria y la academia.