Inteligencia artificial
La directiva de AMD Lisa Su, cuya firma se ha incorporado a la AI Alliance, muestra uno de los dispositivos creados por su compañía para apresurar la inteligencia artificial, en un acto festejado en el primer mes del verano en San Francisco.STEPHEN NELLIS (REUTERS)

Las grandes empresas de inteligencia artificial admiten la regulación europea aprobada al borde de la medianoche de este pasado viernes, mas demandan que no suponga un freno a su desarrollo. Como asevera Pilar Manchón, consejera del comité de asesoramiento del Gobierno de España y responsable de estrategia de investigación con inteligencia artificial en Google, “la IA es demasiado importante para no regularla”. Las primordiales compañías responsables de estos desarrollos han venido trabajando paralelamente a la negociación de la regla para asegurarse una evolución moral de estas herramientas, por lo que la regla coincide con sus esperanzas generales siempre y cuando, conforme advierte Christina Montgomery, vicepresidenta y directiva de Privacidad y Confianza de IBM, “proporcione barreras de protección para la sociedad al tiempo que promueve la innovación”.

Hasta ahora, la tendencia de las tecnológicas era dejar a cargo de la autorregulación los límites de sus desarrollos. Todas tienen unos principios éticos, que Manchón resume así: “Haz cosas buenas y asegúrate de que va a tener un impacto positivo en la comunidad, en la sociedad, en la comunidad científica. Y, si potencialmente pudiera hacer algo que no es para lo que lo usaste o para lo que lo diseñas, asegurémonos de tomar todas las precauciones necesarias y mitigar los riesgos. Así que: haz solo el bien, innova, sé audaz, pero sé responsable”.

Sin embargo, esta fórmula se ha mostrado totalmente deficiente en aspectos como las redes sociales. Según Global Witness, una ONG de investigación y vigilancia del respeto a los derechos humanos con treinta años de trayectoria, “estas empresas prefieren proteger su modelo de negocio lucrativo a la moderación adecuada del contenido y a proteger a los usuarios”.

Para prevenir estas disfunciones con la inteligencia artificial, ciertas primordiales empresas e instituciones dan la bienvenida a las reglas y plantean fórmulas propias que garanticen el seguimiento de los principios que incluye.

En este sentido, cincuenta de empresas, entre aquéllas que se hallan IBM, Meta, AMD, Intel o Dell; universidades, como Imperial College de Londres, Cornelll, Boston, Yale y Harvard; y entidades como la NASA o la NSF, han formado la Alianza para la Inteligencia Artificial (AI Alliance) de cara al desarrollo de una IA de conformidad con las normas: abierta, segura y responsable.

“Una mayor colaboración e intercambio de información ayudará a la comunidad a innovar de manera más rápida e inclusiva, identificando riesgos específicos y mitigándolos antes de lanzar un producto al mundo”, aseveran los firmantes. Para ello, sus conjuntos de trabajo establecerán sus reglas y se “asociarán” con las ideas de los gobiernos y de otras organizaciones. “Este es un momento crucial para definir el futuro de la IA”, advierte Arvind Krishna, presidente de IBM. “Podemos ayudar a garantizar que los beneficios transformadores de la IA responsable estén ampliamente disponibles”, agrega Lisa Su, directiva general y presidente de AMD.

Podemos asistir a asegurar que las ventajas transformadores de la IA responsable estén extensamente disponibles

Lisa Su, directiva general y presidente de AMD

De esta forma, los miembros de la coalición, en la que no figuran de momento OpenAI, la desarrolladora de ChapGPT, ni Google, que termina de presentar Gemini (un modelo con capacidades que superan a las de las personas), abogan por la cooperación, entre empresas y con los gobiernos, para continuar una ruta común. Como explica Tom Mihaljevic, presidente de Cleveland Clinic, una de las instituciones médicas más avanzadas en el uso de nuevas tecnologías, “las capacidades de IA ahora están en constante crecimiento y mejora y es fundamental que las organizaciones de diversos campos se unan para ayudar a avanzar y, al mismo tiempo, abordar las preocupaciones en torno a la seguridad y la protección”.

También lo defiende Bob Shorten, directivo de la Escuela de Ingeniería Dyson del Imperial College de Londres: “Creemos que la participación de la comunidad es esencial para que la IA sea confiable, responsable, transparente y auditable”, los principios que defiende la regla europea.

Esta comunidad incluye a los gobiernos, industrias, instituciones académicas e estudiosos alineados en un desarrollo ético. Pero, como explica, Manuel R. Torres, catedrático de Ciencia Política de la Universidad Pablo de Olavide y miembro del consejo consultor del Real Instituto Elcano. “El problema es la proliferación de una tecnología que hay que evitar que llegue a la mano incorrecta”.

Torres alaba el papel europeo como “potencia reguladora”, mas advierte: “El conflicto está en cómo se desarrolla esa tecnología en otros ámbitos que no tienen ningún tipo de escrúpulo ni limitación en cuanto al respeto de la privacidad de los ciudadanos cuyos datos alimentan todo eso”.

Pone como un ejemplo el caso de China: “No solo está dentro de esa carrera de tecnológica, sino que no tiene ningún tipo de problema en utilizar de manera masiva los datos que dejen sus propios ciudadanos para alimentar y perfeccionar esos sistemas. Por muy escrupulosos que queramos ser con los límites que ponemos a nuestros desarrolladores locales, al final, si esto no se produce de manera global, también es peligroso”.

Wu Zhaohui, viceministro de Ciencia y Tecnología de China, afirmó el pasado noviembre, sobre la cima de seguridad de inteligencia artificial festejada en el Reino Unido, que su Gobierno está “dispuesto a aumentar la colaboración para ayudar a construir un marco de gobernanza internacional”.

Para Danesi, miembro asimismo del conjunto Mujeres por la Moral de la Inteligencia Artificial (Women4Ethical AI) de la Unesco, es preciso el seguimiento: “Estos sistemas que son de alto riesgo, que pueden afectar de manera considerable derechos humanos o cuestiones de seguridad. Tienen que ser evaluados y revisados para comprobar que no violan derechos, que no tienen sesgos. Y debe hacerse de forma continuada porque los sistemas, como siguen aprendiendo, pueden adquirir un sesgo. Y actuar de forma preventiva para evitar daños y generar sistemas que sean éticos y respetuosos con los derechos humanos”.

En contra de la regulación del ámbito en Europa se mostraron ciento cincuenta directivos de empresas continentales, como Airbus, Ubisoft, Renault, Heineken, Dassault, TomTom, Peugeot y Carrefour. Sus responsables firmaron en el primer mes del verano una carta abierta contra la regulación en la UE al estimar que la regla afectará a “la competitividad y la soberanía tecnológica de Europa sin abordar de manera efectiva los desafíos que enfrentamos y enfrentaremos”.

Ciberativismo

Las ONG y especialistas dedicados al ciberactivismo se han mostrado sorprendidos y defraudados con la ley aprobada el día de ayer. Ella Jakubowska, analista experta en tecnologías de identificación biométricas de la ONG europea en defensa de los derechos digitales EDRi, asegura: “A pesar de muchas promesas, la ley parece destinada a hacer exactamente lo contrario de lo que queríamos. Allanará el camino para que los 27 Estados miembros de la UE legalicen el reconocimiento facial público en vivo. Esto sentará un precedente peligroso en todo el mundo, legitimará estas tecnologías de vigilancia masiva profundamente intrusivas e implicará que se pueden hacer excepciones a nuestros derechos humanos”.

Carmela Troncoso, ingeniero de telecomunicaciones especialista en privacidad en la Escuela Politécnica Federal de Lausana (Suiza), asegura: “Hay muchas prohibiciones muy prometedoras, pero también muchos agujeros y excepciones que no dejan claro que las prohibiciones de verdad vayan a proteger los derechos humanos como esperamos, por ejemplo, que las fuerzas del orden vayan a usar reconocimiento facial en tiempo real para buscar sospechosos. También es triste que España haya estado detrás de algunas de las propuestas más preocupantes de esta ley”, agrega Troncoso, autora de la tecnología que hizo posible las apps de rastreamiento de la covid, notifica Manuel González Pascual.

_

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.