Hablar de inteligencia artificial está de tendencia. ChatGPT, Open Assistant, Bard y otros modelos de gran relevancia aparecen continuamente en nuestras conversaciones rutinarias. Sin embargo, que esté de tendencia no quiere decir que la inteligencia artificial sea algo nuevo. En realidad, lleva ya muchos años operando entre nosotros, si bien en aplicaciones menos deslumbrantes que los modelos de lenguaje de importante tamaño.
Lo que sí es nuevo es la explosión exponencial en las capacidades de estos sistemas y la democratización de la inteligencia artificial que se está generando con su irrupción, desde la doble vertiente de los usuarios y de los desarrolladores. Es por este motivo que el reciente llamamiento de Elon Musk y otros tecnólogos, a frenar el desarrollo de “sistemas más capaces que GPT-4″ me ha ocasionado cierto sorprendo. Un Tratado sobre No Proliferación con el propósito de prevenir la propagación de las armas nucleares tiene todo el sentido del planeta, puesto que uno no puede ir a un centro comercial y comprarse unas centrifugadoras para enriquecer uranio. Sin embargo, cualquiera con un mínimo de conocimientos tecnológicos sí que puede comprarse espacio en un servidor en la nube, y empezar a desarrollar sistemas de inteligencia artificial basados en librerías de código abierto y en conjuntos de datos de adiestramiento alcanzables en público. Por lo tanto, eso de prohibir el desarrollo de las aplicaciones de inteligencia artificial, sin entrar en si es una gran idea o no, no me semeja viable. Cuestión diferente es prohibir o limitar ciertos usos de la inteligencia artificial, y eso es exactamente lo que pretende la futura Ley Europea de inteligencia artificial, entre otras muchas cosas.
Más que procurar poner puertas al campo, lo que se ha de hacer es regular y trazar líneas rojas que no se van a poder cruzar, a la vez que se fomenta la capacidad de innovación de las universidades e industrias europeas en lo demás. Soy siendo consciente de que hoy en día hay más preguntas que contestaciones en este campo, y por este motivo, determinar qué se puede y qué no se puede hacer se presenta como una labor prácticamente enorme. Sin embargo, si bien no sea simple y aún tengamos mucho que aprender de la IA, la tarea del regulador es acotar cuáles son las responsabilidades de cada uno de ellos de los actores que intervienen en la vida de un sistema de IA (por el hecho de que las responsabilidades no se pueden descargar en las máquinas), para así empoderar a los organismos de supervisión a fin de que puedan intervenir y sacar del circuito de forma rápida a quienes pretendan hacer un uso irresponsable de esta tecnología. La regulación debe conjuntar cimientos sólidos con la flexibilidad precisa para amoldarse a los veloces avances que se están generando (y que van a continuar produciéndose en este campo).
Por eso, mi propuesta es que abordemos la gobernanza de la inteligencia artificial como se abordó en su día la regulación de la aviación comercial. Es decir, con estándares internacionales estrictos en materia de seguridad, sin arreglar en costos y con un proceso incesante de mejora y actualización, en el que los profesionales no solo aprendan de los accidentes (que por suerte son cada vez más extraños en la aviación comercial) sino más bien de cualquier pequeño accidente o fallo.
El Convenio de Chicago, que creó la Organización de Aviación Civil Internacional (OACI) hace prácticamente ochenta años, fijó un marco normativo de gobernanza internacional y unos estándares técnicos estrictos, que los estados miembros de la OACI deben desarrollar con leyes en sus respectivas jurisdicciones y que las compañías aéreas deben cumplir a rajatabla, si es que desean volar mediante fronteras internacionales. Las autoridades regionales o nacionales de supervisión de los estados miembros de la OACI (en el caso de la Unión Europea, se incluye asimismo la Agencia Europea de Seguridad Aérea – AESA) solo conceden sus permisos tras una larga catarata de certificaciones.
Los pilotos solo logran sus licencias de vuelo tras formaciones muy rigurosas y lo mismo se aplica, a su respectivo nivel, a los mecánicos que examinan los aeroplanos o a los controladores aéreos. Las aeronaves solo se pueden vender y poner en funcionamiento tras pasar infinidad de pruebas, revisándose hasta la última tuerca o tornillo. Y hasta la solvencia y capacidad de los equipos de dirección de las compañías aéreas se examina y se certifica, por el hecho de que no se puede dejar una actividad de gran peligro como esta a cargo de un equipo de personas que no prueben la suficiente capacidad y experiencia. Esto es puro los pies en el suelo.
Es evidente que no es exactamente lo mismo el entusiasta de la aviación que se edifica su aeroplano que Airbus o Boeing fabricando modelos de aeroplano comercial en el que van a viajar millones de pasajeros; no es exactamente lo mismo el entusiasta de los ordenadores que edifica un sistema de inteligencia artificial para uso propio que una compañía o un Estado que pone en marcha un sistema de inteligencia artificial que va a tener impacto en las vidas de miles o millones de personas. Es en un caso así cuando la regulación y la existencia y adopción de estándares es particularmente esencial.
Revisión meticulosa de los algoritmos
Me semeja bien interesante mentar que el enfoque de la aviación comercial está basado en los datos (data-driven approach) ya que, como resulta lógico, no se espera a que un aeroplano se estrelle para mirar su caja negra. Las compañías aéreas, bajo supervisión de los inspectores y las autoridades, examinan meticulosamente el mínimo estruendos o anomalía en los datos que registran los sistemas a lo largo del vuelo. En otras palabras: todo se procesa y se equipara, una y otra vez, a fin de que volar en aeroplano sea una actividad de muy, muy bajo peligro y todos nos favorezcamos de este ecosistema tan inteligente. Los que nos subimos en un aeroplano, para poder llegar sanos y salvos a nuestro destino; las compañías y profesionales del ámbito, para ganarse con dignidad la vida. Fíjense que, al contrario al alegato frecuente de las compañías tecnológicas, en la aviación comercial, la seguridad jamás se computa como un costo o como una barrera a la innovación sino más bien como la condición sin la que el propio negocio dejaría de forma inmediata de existir.
En este sentido, me felicito de que la propuesta de reglamento de inteligencia artificial esté cimentada en un sistema de análisis de peligros y prevea una serie de requisitos aplicables a los sistemas de IA de alto peligro, en particular a los distribuidores de sistemas, como la obligación de realizar una declaración UE de conformidad y de poner el marcado CE de conformidad. Estas certificaciones, como es lógico, han de ser complementarias a las certificaciones, sellos y marcas de protección de datos, que como es lógico se deben aplicar asimismo con idéntico rigor a aquellos sistemas que procesen datos personales. Además, de exactamente la misma manera que se prevén revisiones mecánicas en los aviones cada cierto tiempo o cuando se verifican determinados parámetros, los sistemas de inteligencia artificial deberán de someterse a auditorias obligatorias periódicas en las que, como si se tratase de los tornillos y tuercas de un avión, los algoritmos y los datos que están detrás de su funcionamiento se revisen por los inspectores y los mecánicos para garantizar la seguridad del sistema y evitar accidentes. Y no vale eso de que esa información está protegida por supuestos derechos de propiedad intelectual. Para la competencia, puede ser; para el inspector, jamás.
En definitiva, si como todo parece indicar, la inteligencia artificial va a seguir avanzando de una manera vertiginosa en los próximos años, reemplazando a las personas y permitiendo que las máquinas tomen decisiones que van a afectar cotidianamente a nuestras vidas, una inteligencia natural y básica nos aconseja que copiemos el modelo de éxito de aquellos que se ganan la vida transportando con seguridad a las personas a diez mil metros de altura y a más de ochocientos kilómetros de velocidad.
Igualmente, de exactamente la misma forma que los pasajeros pueden demandar daños en el caso de accidente aéreo, es preciso que haya reglas claras y concretas en el campo de la IA en el caso de accidentes; que los va a haber, sobre todo, al comienzo. En este sentido, aplaudo que se esté gestionando una propuesta a nivel europeo sobre responsabilidad en el campo de la inteligencia artificial, si bien sería deseable que el propio reglamento de IA asimismo incluyera un derecho de recurso por daños ocasionados por los sistemas de inteligencia artificial. Solo así se garantizará la aplicación y el cumplimiento efectivos de las leyes de IA.
Está en nuestra mano, por consiguiente, ahora que este ámbito se halla aún en su niñez, sentar los pilares de una inteligencia artificial segura, con estándares internacionales equivalentes, que transmita a la ciudadanía la precisa confianza y contribuya de forma positiva al progreso de la humanidad.
Leonardo Cervera Navas es el directivo del Supervisor Europeo de Protección de Datos
Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica.
Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales, es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.