El pensador Adam Smith, considerado el padre de la economía moderna, en La riqueza de las naciones (mil setecientos setenta y seis) trató la economía sistemáticamente como un subcampo de la moral. Obviamente, la economía se encuentra de manera estrecha vinculada a ideas de justicia y equidad, a ideas políticas, y con esto morales, de progreso o desarrollo. Esas ideas determinan los principios bajo los que la creación de riquezas y recursos son permisibles. Y estos principios determinan que no todo vale con tal de que se genere riqueza, con independencia del género de economía que rija en un país.
La inteligencia artificial (IA) es ovacionada como el futuro de la economía y la ciencia. Considerada como uno de los campos tecnológicos con un enorme potencial de innovación, la IA es una disciplina combinable con muchos campos científicos (biología, medicina, ciencias sociales, lingüística o cambio climático). De esos cruces disciplinarios han surgido numerosas aplicaciones en uso tanto en la administración pública, como en el campo industrial: sistemas de automatización con el propósito de agilizar la administración en la justicia, predicción de comportamientos tanto en el trabajo policial como en recursos humanos, o para valorar la solvencia de una persona o su comportamiento al volante. Todos ejemplos en los que existe peligros de menoscabo de principios democráticos o derechos esenciales.
El uso de la IA de forma indiscriminada para solucionar cualquier inconveniente ha transformado esta disciplina en un espacio en el que viejas teorías seudocientíficas, racistas, sexistas y capacitistas, avaladas en su día por políticas del mismo talante, han reaparecido embebidas en sistemas con los que oprimir a gente pobre, personas negras y racializadas, discapacitadas, inmigrantes o mujeres. La IA encubre y obscurece esas teorías con una compacta capa de lenguaje matemático que complica la entendimiento del impacto de los sistemas creados. Ruha Benjamin, Virginia Eubanks o Safiya Noble han descrito vivazmente en sus obras de qué manera estas tecnologías han sido utilizadas para privilegiar de forma enmascarada a unos pocos. Una nueva muestra de que no toda innovación es moral.
Es loable que el gobierno de España reconociese en su día dichos peligros y para encararlos crease, en el año dos mil veinte, un consejo consultor para la IA cuyo objetivo era “proporcionar asesoramiento y recomendaciones independientes sobre las medidas a adoptar para garantizar un uso seguro y ético de la Inteligencia Artificial”, conforme lee la web de La Moncloa. Y fue bien coherente al situar su coordinación en el Ministerio de Economía. No obstante, tras la revisión de la Estrategia Nacional de IA (ENIA), el consejo consultor no ha sido consultado para examinar “las implicaciones que estas tecnologías disruptivas supondrán en ámbitos diversos” en la mayor parte de los casos, incluyendo el acuerdo entre el ADIA Lab y la Sedia (Secretaría de Estado de Digitalización e Inteligencia Artificial) para instituir su sede europea en Granada. Un pacto que causa gran preocupación, puesto que contraría los principios de moral y seguridad con los que el gobierno de España se comprometió a desarrollar nuevas tecnologías.
El ADIA Lab es un centro científico financiado por la Autoridad de Inversiones de Abu Dabi (ADIA), el emirato más rico de los Emiratos Árabes Unidos, que empezó a operar en el mes de diciembre de dos mil veintidos. Considerando que ADIA, la entidad que financia ADIA Lab, dispone de activos de cerca de ochocientos millones de dólares estadounidenses, su inversión en España puede ser notable.
En los EAU, la ciencia no es independiente del gobierno, conforme documentan organizaciones como Human Rights Watch. El gobierno influye sobre las resoluciones de personal y agenda de los centros de investigación, incluyendo ADIA Lab. Por tanto, la Sedia ha acordado una agenda de investigación centrada, entre otros muchos, en el desarrollo de una modelización económica del cambio climático y sus políticas de mitigación, como el desarrollo de infraestructuras computacionales éticas con un centro científico financiado por un gobierno que no reconoce la independencia de la ciencia, que pisa los derechos humanos, de manera especial de mujeres, de las comunidades LGTBQI+ e inmigrantes, y cuya riqueza procede eminentemente del petróleo.
Es decir, investigaciones sobre la transición climática van a ser financiadas por entidades cuya riqueza procede de comburentes fósiles y estudios sobre principios éticos van a ser financiados por un gobierno que cuestiona la dignidad y los derechos de ciertas personas. Los científicos implicados en el ADIA Lab, aunque reconocidos en sus campos de especialización, no son especialistas en moral, ni en ecología o derecho. Sandy Pentland, por poner un ejemplo, cofundó Aadhaar, que comercializa un discutido sistema de identificación de personas que facilita la vigilancia masiva en la India. En resumen, la verosimilitud de los resultados de esta cooperación podría ser comparable a la de informes sobre los efectos del tabaco en la salud que en su día hicieron las compañías tabacaleras.
La resolución de la Sedia ignora los principios éticos en la economía, en la ciencia normalmente y en la IA específicamente. El pacto con ADIA Lab reduce la moral en la IA a consideraciones técnicas simplistas e ignora que la moral en la IA asimismo se extiende al contexto político y las condiciones bajo las que se desarrollan y financian sus resultados.
Esta coalición no va a hacer de España un país más puntero en IA ni deja aseverar que “impulsa el desarrollo de una IA ética”, como aseguró la Secretaria de Estado, Carme Artigas, a la Cadena SER. Esta coalición solo pone a los EAU en el mapa de la competición europea y cuestiona la verosimilitud con la que la SEDIA asevera estimar impulsar el desarrollo ético de la IA.
Por las razones precedentes, 3 miembros del consejo consultor para la IA ya dimitieron la semana pasada. Dos de ellos [Ricardo Baeza-Yates y Lorena Jaume-Palasí] son firmantes de la presente carta.
Ricardo Baeza-Yates es directivo de investigación del Instituto de IA Experiencial de Northeastern University y miembro de múltiples comités mundiales y estadounidenses de políticas tecnológicas. Es ACM e IEEE Fellow, aparte de Premio Nacional de Informática Aplicada “Ángela Ruiz Robles”. El viernes pasado renunció al Consejo Asesor de IA del Gobierno.
Lorena Jaume-Palasí es eticista y creadora de múltiples ONG sobre tecnología y moral. Miembro del consejo consultor internacional del Panel para el Futuro de la Ciencia y la Tecnología (STOA) del Parlamento Europeo y del Instituto Max Planck para Sistemas Inteligentes. El jueves pasado renunció al Consejo Asesor de IA del Gobierno.
Ramon López de Mántaras es uno de los vanguardistas de la IA en Europa y Premio Nacional de Investigación “Julio Rey Pastor” en Matemáticas y TIC por sus contribuciones a la IA.
Carmela Troncoso es maestra anexa y jefe del Laboratorio de Ingeniería de Seguridad y Privacidad (SPRING) de la Escuela de Ciencias de la Computación y la Comunicación (IC) de la EPFL, Suiza. Es Premio CNIL-INRIA a la Protección de la Privacidad (dos mil diecisiete).
Puedes continuar a EL PAÍS Tecnología en Facebook y Twitter o apuntarte acá para percibir nuestra newsletter semanal.
Bogotá (Colombia), 1989. Apasionado por la investigación y el análisis de temas de interés público. Estudió comunicación social en la Universidad de Bogotá y posteriormente obtuvo una maestría en periodismo investigativo en la Universidad de Medellín. Durante su carrera, ha trabajado en diversos medios de comunicación, tanto impresos como digitales, cubriendo temas de política, economía y sociedad en general. Su gran pasión es el periodismo de investigación, en el cual ha destacado por su habilidad para descubrir información relevante y sacar a la luz temas que a menudo se mantienen ocultos.