Investigadores especialistas en tecnologías de la información, desde la computación al periodismo, demandan la creación de un organismo intergubernamental para monitorear el desarrollo tecnológico. En un artículo publicado en Nature, sugieren que se trata de una amenaza con peculiaridades afines a las de la crisis climática y, por lo tanto, demandan que se cree una entidad semejante al Grupo Intergubernamental de Expertos sobre el Cambio Climático o (IPCC, por sus iniciales en inglés), en el que especialistas de diferentes áreas como la política, ingeniería o la moral se sienten juntos para observar de manera coordinada a los sistemas de distribución de información global. Eso incluiría la banca online, las redes sociales, los buscadores (como Google) y los modelos generativos de lenguaje, como ChatGPT.

No son los únicos que están preocupados. Hace menos de un par de meses, Elon Musk, el cofundador de Apple Steve Wozniak y el historiador Yuval N. Harari firmaron, al lado de millares de especialistas, una carta abierta para frenar la carrera sin control de la inteligencia artificial (IA). Ayer en el Capitolio, Sam Altman, cofundador de la compañía autora de ChatGPT, se sentó por vez primera frente a la Comisión Judicial para solicitar a una actuación urgente y abogó por crear una organización internacional que establezca estándares para la inteligencia artificial al estilo de de qué forma se ha hecho anteriormente con “las armas nucleares”. Geoffrey Hinton, padrino de esta tecnología, abandonó Google y asegura: “Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”.

En el comentario publicado en Nature, los especialistas coinciden en que los peligros que produce el cambio climático o la humillación del medioambiente tienen exactamente la misma dificultad, escala e relevancia a los que presenta el manejo de información a nivel global, que está en las manos de pocas empresas. Según mantienen, la toma de resoluciones a través de algoritmos puede exacerbar los prejuicios sociales ya existentes y provocar nuevas formas de desigualdad en diferentes aspectos. En el caso del acceso a la residencia, citan que los algoritmos para orientar a los dueños de casas de alquiler, “han apoyado dinámicas similares a las de los cárteles” respecto a las limitaciones de la oferta y de coste. Y los algoritmos que dirigen a la policía cara potenciales zonas de alta delincuencia, al emplear datos sobre la localización de detenciones precedentes, “pueden exacerbar los sesgos existentes en el sistema de justicia penal”.

Con con respecto a las redes sociales, estiman que la velocidad en que los contenidos son creados y compartidos dan margen para más desinformación y el alegato de odio. Mientras tanto, la IA generativa ya amenaza las estructuras laborales de industrias enteras y reta la percepción social sobre las bases del conocimiento científico. “ChatGPT podría atentar contra la comprensión pública de la ciencia al impulsar la producción de textos que contienen falsedades e irrelevancias a una escala industrial”, critican. Y añaden: “El mundo no está preparado culturalmente o legalmente”.

Conocimiento y transparencia

El objetivo de este conjunto multidisciplinar que plantean no sería la busca de un acuerdo internacional o un desarrollo jurídico, sino más bien suministrar “una base de conocimientos que sustente las decisiones de gobiernos, grupos humanitarios o hasta empresas” en una escala global. “De la misma manera que organismos como el IPCC de las Naciones Unidas realizan evaluaciones del cambio ambiental global que sirven de base a las políticas, se necesita ahora un grupo análogo para comprender y abordar el impacto de las nuevas tecnologías de la información en los sistemas sociales, económicos, políticos y naturales del mundo”, escriben en la nota, que ha sido firmado por Joe Bak-Coleman, estudioso del Centro Craig Newmark para Periodismo, Moral y Seguridad de la Universidad de Columbia y Carl T. Bergstrom, maestro de Biologia de la Universidad de Washington, entre otros muchos especialistas.

Un conjunto de este carácter, afirman, tendría más repercusión que los estudiosos independientes o las organizaciones no lucrativo en el momento de persuadir a las grandes tecnológicas de que sean más trasparentes. Según opinan, esas empresas están “desplegando una serie de tácticas” para influir en la percepción social sobre sus herramientas y asimismo para frenar a la investigación científica externa. Por ejemplo, al limitar el género de datos libres para investigar, que frecuentemente solo incluyen información sobre el comportamiento de los usuarios, más que en el diseño o funcionamiento de las propias plataformas. “Como investigadores independientes, sopesamos continuamente los riesgos de que las empresas emprendan acciones legales contra nosotros por las actividades académicas básicas: recopilar y compartir datos, analizar hallazgos, publicar artículos y distribuir resultados”, arguyen en su comentario.

“Un grupo intergubernamental que represente los intereses de los Estados miembros de la ONU podría identificar cuándo los niveles actuales de transparencia no generan suficiente información”

Para ejemplarizarlo, destacan que en dos mil veintiuno, Meta, dueña de Facebook, mandó una notificación de cese a unos estudiosos de la Universidad de Nueva York que habían creado una extensión de navegador para compendiar datos sobre la publicidad dirigida en la plataforma. “Por conversaciones con colegas, sabemos que desde entonces se ha disuadido a otros de realizar este tipo de trabajo”, especifican.

Otro de los ejemplos que expresan de qué forma las redes sociales fomentan contenido tóxico se dio cuando Facebook puso sus documentos a predisposición de la Comisión de Bolsa y Valores de los Estados Unidos en dos mil veintiuno. En esa ocasión, quedó claro que su algoritmo calificó las reacciones emoji como 5 veces más valiosas que los “me gusta” durante 3 años. En este periodo, los datos internos mostraban que las publicaciones con el emoji de enfado tenían más probabilidades de incluir contenido potencialmente perjudicial y falso, como aseveraciones incorrectas sobre las vacunas.

Hasta ahora, los intentos de administrar los ecosistemas de información digital han consistido en implantar barreras para resguardar los datos de los usuarios, mas no han mostrado de qué forma valorar y eludir a los daños de forma fiable. En contraste al inconveniente del cambio climático, caracterizado por la exuberancia de datos, con causas y consecuencias de manera comparativa bien comprendidas, y unos perjuicios económicos cuantificables y evidentes en un largo plazo, los riegos de las tecnologías de información es, aún, un terreno poco conocido. Principalmente, pues hace falta trasparencia por la parte de quienes los dominan: “Un grupo intergubernamental que represente los intereses de los Estados miembros de la ONU podría identificar cuándo los niveles actuales de transparencia no generan suficiente información”.

Un panel como este, arguyen, asimismo tendría verosimilitud en países no occidentales, lo que consideran “crucial” al paso que las repercusiones de las tecnologías digitales cruzan las fronteras y se manifiesten en contextos culturales diferentes. “Aunque países como China, Rusia y Estados Unidos no se pongan de acuerdo sobre cómo deben las plataformas y servicios deben ser liberados o limitadas, las consecuencias del mundo digital trascienden las fronteras internacionales. Cualquier esperanza de negociación entre naciones requiere una imagen más clara de lo que está ocurriendo y por qué, y cuáles son las respuestas políticas disponibles”.