Estimados señor Macron, señora Meloni, señor Scholz y señor Sánchez [como presidente de turno]:

Nos hallamos en un punto crítico en la vida de la Propuesta de Reglamento de IA (AI Act). En la fase de trílogo, esta regulación está conminada por lo que estimamos una oposición equivocada por la parte de los representantes de sus gobiernos, en favor de la autorregulación por la parte de las compañías que desarrollan modelos esenciales de IA (como ChatGPT y Bard). Esto implica que dichas empresas deberían adherirse a sus códigos de conducta, en vez de ser reguladas de forma directa por organismos oficiales. Este cambio de enfoque está retrasando la aprobación del Reglamento de IA, especialmente si tenemos en consideración las próximas elecciones al Parlamento de la UE previstas para junio. Y, lo que es más grave, ello podría minar su eficiencia y proponer severos peligros para los derechos de los ciudadanos europeos y la innovación europea. En contra de un enfoque autorregulador, instamos a todas y cada una de las partes implicadas en el trílogo a aprobar el Reglamento de IA a la mayor brevedad. Ahora, expondremos 3 razones clave para respaldar la aprobación del Reglamento de IA en su forma original.

Las empresas no deben hacer las reglas por sí mismas

Los códigos de conducta, aun cuando son obligatorios, son deficientes y de manera frecuente ineficaces. Cuando las compañías se autorregulan pueden priorizar sus beneficios sobre la seguridad pública y aspectos éticos. Tampoco está claro quién inspeccionará el desarrollo y las aplicaciones de estos códigos de conducta, de qué forma y con qué grado de responsabilidad. Este planteamiento recompensa a las compañías que se exponen al no dedicar tiempo y recursos en códigos de conducta sólidos, en menoscabo de las que sí cumplen.

Esto asimismo supone un perjuicio para la industria de la IA, ya que deja a las compañías con la inseguridad de si sus productos y servicios van a estar tolerados en el mercado y si pueden enfrentarse a multas tras su comercialización. Es posible que haya que solucionar las incertidumbres con reglas directas una vez que el Reglamento ya haya sido aprobado, limitando así el discute parlamentario. Finalmente, si cada empresa o ámbito realiza sus reglas, el resultado solo puede ser un confuso mosaico de reglas, lo que aumenta la carga de supervisión para el regulador, mas asimismo hace más bastante difícil para las compañías cumplir con los códigos, obstruyendo así tanto la innovación como el cumplimiento. Esto va contra uno de los objetivos esenciales del Reglamento de IA, que es armonizar las reglas en toda la UE.

El liderazgo de la UE en la regulación de IA

La actual oposición de Francia, Italia y Alemania a regular los modelos fundacionales de IA pone en riesgo el liderazgo de la UE en la regulación de IA. La UE ha estado a la cabeza, al abogar por el desarrollo de normativas que garanticen que la tecnología es segura y justa para todos. Pero esta ventaja podría perderse si no se abordan con velocidad y éxito los retos normativos pendientes. Una UE titubeante va a perder su ventaja a nivel competitivo en frente de países como EE.UU. o China. Los ciudadanos europeos corren el peligro de emplear productos de IA regulados conforme valores y agendas no alineadas con los principios europeos.

El costo de no regular la IA

Retrasar la regulación de la IA tiene costos significativos. Sin reglas comunes, los ciudadanos son frágiles a aplicaciones de IA que no sirven a los intereses públicos. Esta falta de regulación abre la puerta a posibles usos incorrectos y abusos de las tecnologías de IA. Las consecuencias son graves e incluyen violaciones de la privacidad, corte, discriminación y amenazas a la seguridad nacional en áreas críticas como la sanidad, el transporte y la aplicación de la ley. Desde un punto de vista económico, las aplicaciones de IA no reguladas pueden distorsionar la competencia y la activa del mercado, creando un terreno de juego dispar en el que solo triunfarán las compañías poderosas y bien financiadas. Es un fallo meditar que la regulación va contra la innovación: solo mediante la regulación y, por ende, de la competencia fiel puede florecer la innovación, en beneficio de los mercados, las sociedades y los ambientes. Solo con una mejor regulación se puede lograr más innovación.

En conclusión, el Reglamento de IA es algo más que una simple ley. Es una declaración sobre cuáles son los valores que, como europeos, deseamos fomentar y qué género de sociedad queremos edificar. Implementa y fortalece la identidad y reputación de la UE. Pone de relieve la verosimilitud de la UE y su papel de liderazgo en la comunidad mundial de IA.

Por todas y cada una estas razones -5 años tras la publicación del Marco Ético para una Buena Sociedad de IA de AI4People, el que guió el trabajo inicial del Grupo de Alto Nivel sobre IA de la Comisión Europea- instamos a las instituciones de la UE y a los Estados miembros a hallar un compromiso que preserve la integridad y la ambición del Reglamento de IA. Permitan que esta legislación sea un faro de gobernanza responsable y moral de la IA, que sirva de ejemplo mundial a fin de que otros la prosigan.

La carta está firmada por:

Luciano Floridi, Director creador del Centro de Moral Digital de la Universidad de Yale y Presidente de Atomium-EISMD.

Michelangelo Baracchi Bonvicini, Primer Presidente del Comité Científico del Instituto AI4People y Presidente del Instituto AI4People.

Raja Chatila, Profesor Emérito de Inteligencia Artificial, Robótica y Moral Informática de la Universidad de la Sorbona.

Donald Combs, Vicepresidente y Decano de la Escuela de Profesiones Sanitarias del Eastern Virginia Medical School.

Bianca De Teffe’ Erb, Directora de Moral de los Datos y la IA en Deloitte.

Virginia Dignum, Catedrática de Inteligencia Artificial Responsable, Universidad de Umeå y Miembro del Consejo Asesor de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial.

Rónán Kennedy, Profesor Asociado, Facultad de Derecho, Universidad de Galway.

Robert Madelin, Presidente del Consejo Asesor del Instituto AI4People.

Claudio Novelli, Investigador Postdoctoral, Departamento de Estudios Jurídicos de la Universidad de Bolonia y Becario internacional del Digital Ethics Center (DEC) de la Universidad de Yale.

Burkhard Schafer, Catedrático de Teoría Jurídica Computacional de la Universidad de Edimburgo.

Afzal Siddiqui, Catedrático del Departamento de Informática y Ciencias de Sistemas de la Universidad de Estocolmo.

Sarah Spiekermann, Presidenta del Instituto de SI y Sociedad de la Universidad de Economía y Empresa de Viena.

Ugo Pagallo, Profesor Titular de Jurisprudencia, Teoría del Derecho e Informática Jurídica en el Departamento de Derecho de la Universidad de Turín.

Cory Robinson, Catedrático de Diseño de la Comunicación y Sistemas de Información de la Universidad de Linköping.

Elisabeth Staudegger, Catedrática de Informática Jurídica y Derecho de las TI (Derecho de las Tecnologías de la Información), Jefa del Departamento Jurídico y de TI del Instituto de Fundamentos Jurídicos de la Universidad de Graz.

Mariarosaria Taddeo, Profesora de Moral Digital y Tecnologías de Defensa en el Institutode Internet de Oxford de la Universidad de Oxford.

Peggy Valcke, Catedrática de Derecho y Tecnología de la Universidad Católica de Lovaina y Vicedecana de Investigación de la Facultad de Derecho y Criminología de Lovaina.

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.