No es la primera vez que la humanidad se encara a un desarrollo tecnológico de consecuencias imprevisibles para su existencia. El escritor Isaac Asimov ya propuso en Círculo vicioso, un relato publicado en mil novecientos cuarenta y dos, 3 reglas para resguardar a las personas de los robots y su base se prosigue utilizando como referente. El Organismo Internacional de Energía Atómica se creó en mil novecientos cincuenta y siete “como respuesta a los profundos temores y las expectativas que infundían los descubrimientos y variados usos de la tecnología nuclear”, según la propia organización. El Derecho Internacional Humanitario (conocido como derecho de la guerra) lleva años buscando una regulación eficaz de los Sistemas de Armas Autónomas Letales, que pueden agredir sin intervención del ser humano. Europa ha arrancado ahora la tramitación de la primera normativa del planeta sobre la inteligencia artificial (IA), un desarrollo tecnológico capaz de apresurar avances en campos esenciales como la salud o la energía, mas asimismo de conminar democracias, acrecentar la discriminación o romper todos y cada uno de los límites de la privacidad. “Sembrar pánico infundado no ayuda, al contrario. La inteligencia artificial va a seguir funcionando y debemos mejorarla y prevenir”, defiende Cecilia Danesi, divulgadora y letrada experta en IA y derechos digitales, maestra en múltiples universidades internacionales y autora de El imperio de los algoritmos (recién publicado por Galerna).
Lo primero que hay que entender es qué es un algoritmo, la base de la inteligencia artificial. Danesi, estudiosa en el Instituto de Estudios Europeos y Derechos Humanos, lo describe en su obra, un compendio esencial para comprender el escenario al que se encara la humanidad, como un “conjunto metódico de pasos que pueden emplearse para hacer cálculos, resolver problemas y alcanzar decisiones”. De esta forma, el algoritmo no es el cálculo, sino más bien el procedimiento. Y este es el que puede incluir el modelo preciso para identificar un cáncer en imágenes, descubrir una nueva molécula con usos farmacológicos, hacer más eficaz un proceso industrial, desarrollar un nuevo tratamiento o, por contra, producir discriminación, una información falsa, una imagen degradante o una situación injusta.
El directivo de OpenAI, Sam Altman, el premio Turing Geoff Hinton, el estudioso de IA Yoshua Bengio y Elon Musk, entre otros muchos, han reclamado la regulación y acción urgente para abordar los “riesgos existenciales” que la IA representa para la humanidad. Entre estos resaltan el incremento y amplificación de la desinformación (como la preponderancia de contenidos falsos y maliciosos en plataformas sociales), los cortes que fortalecen las desigualdades (como el sistema de crédito social chino o la consideración mecánica de personas como peligros potenciales por su etnia) o la rotura de todos y cada uno de los límites de la privacidad para recabar los datos que nutren el algoritmo y que continúan ocultos.
La Unión Europea ha empezado a negociar la que, de cumplirse los plazos, está llamada a ser la primera ley de IA del planeta. Se podría aprobar a lo largo de la presidencia de España de la UE y tiene como propósito prevenir los usos considerados como “riesgos inaceptables” (reconocimiento facial indiscriminado o manipulación del comportamiento de las personas), regular su uso en ámbitos como la salud y la educación, como sancionar e impedir la venta de sistemas que infrinjan la legislación.
La Unesco ha desarrollado un marco ético voluntario, mas este carácter es su primordial debilidad. China y Rusia, dos países que usan esta tecnología para vigilancias masivas de la población, han firmado estos principios.
“Hay derechos fundamentales involucrados y es un tema que nos tiene que ocupar y preocupar, sí, pero con equilibrio”, defiende Danesi. Es un criterio afín al que expone Juhan Lepassaar, director de la Agencia Europea de Ciberseguridad (Enisa por sus iniciales en inglés): “Si queremos asegurar los sistemas de IA y también garantizar la privacidad, debemos analizar cómo funcionan estos sistemas. ENISA está estudiando la complejidad técnica de la IA para mitigar mejor los riesgos de ciberseguridad. También necesitamos encontrar el equilibrio adecuado entre seguridad y rendimiento del sistema”.
Uno de los peligros expuestos hasta el momento ha sido la substitución de personas por máquinas operadas por la IA. En este sentido, la estudiosa Cecilia Danesi afirma: “Las máquinas nos van a reemplazar y ya lo están haciendo. Hay muchísimas que nos sustituyen, potencian el trabajo o nos complementan. El tema está en qué y dónde queremos que nos reemplacen y qué requisitos tienen que cumplir estas máquinas para tomar ciertas decisiones. Primero tenemos que identificar un problema o una necesidad que justifique utilizarla o no”.
En el campo de la robótica, Asimov ya se adelantó a este inconveniente y estableció 3 principios: 1) Un robot no va a hacer daño a un humano ni dejará que, por inacción, esta padezca daño; dos) Un robot va a obedecer las órdenes que reciba de un humano, a no ser que las órdenes entren en enfrentamiento con la primera ley; y tres) Un robot resguardará su existencia en tanto que dicha protección no entre en enfrentamiento con las leyes primera y segunda.
Supervisión permanente y preventiva
“Parece genial. Listo: la inteligencia artificial nunca pueda dañar a un humano. Divino. El problema es que en la práctica no está tan claro”, explica Danesi. La estudiosa recuerda “un caso en el que programaron dos máquinas para optimizar una negociación y el sistema entendió que la mejor manera era crear otro lenguaje más eficiente. Quienes habían diseñado el programa no podían entender ese lenguaje y las desconectaron. El sistema se manejó dentro de los parámetros, pero la inteligencia artificial puede ir más allá de lo que se imagina”. En este caso, la máquina no dañó a sus programadores, mas los excluyó de la solución y de las consecuencias de esta.
La clave, para Danesi, es “la supervisión permanente, las auditorías algorítmicas de estos sistemas que son de alto riesgo, que pueden afectar de manera considerable derechos humanos o cuestiones de seguridad. Tienen que ser evaluados y revisados para comprobar que no violan derechos, que no tienen sesgos. Y debe hacerse de forma continuada porque los sistemas, como siguen aprendiendo, pueden adquirir un sesgo. Y se debe actuar de forma preventiva para evitar daños y generar sistemas que sean éticos y respetuosos con los derechos humanos”.
Otro de los grandes riesgos del uso sin control de la IA es su utilización con fines militares. La propuesta de normativa de la UE excluye este aspecto en su primera redacción. “Es uno de los usos más peligrosos que tienen la inteligencia artificial. Muchas veces las leyes prohíben algo que, luego, en la práctica, sigue funcionando y es donde más daño puede hacer a las personas”, lamenta la estudiosa.
“¿Debemos temerles a las máquinas?, la respuesta es ¡No! Debemos, en su caso, temerles a las personas por el uso que puedan llegar a darle a la tecnología”, defiende Danesi en su obra El imperio de los algoritmos.
Respeto a los datos de los ciudadanos
Torres agrega un inconveniente al escenario tecnológico y a la propuesta de normativa europea, que defiende como potencia reguladora: “El conflicto está en cómo se desarrolla esa tecnología en otros ámbitos que no tienen ningún tipo de escrúpulo ni limitación en cuanto al respeto de la privacidad de los ciudadanos que alimentan todo eso con sus datos”.
El politólogo pone como un ejemplo el caso de China: “No solo está dentro de esa carrera de tecnológica, sino que no tiene ningún tipo de problema en utilizar de manera masiva los datos que dejen sus propios ciudadanos para alimentar y perfeccionar esos sistemas. Por muy escrupulosos que queramos ser con los límites que ponemos a nuestros desarrolladores locales, al final, si esto no se produce de manera global, también es peligroso”.
Torres concluye: “Nos encontramos en un territorio donde hay pocos referentes en los que nos podemos apoyar para saber cómo tenemos que abordar el problema y donde, además, hay un problema de entendimiento de las repercusiones de esa tecnología. Muchos de nuestros legisladores no son precisamente personas familiarizadas con estos desarrollos”.
Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica.
Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales, es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.