El fotógrafo alemán Boris Eldagsen, al lado de su obra creada con inteligencia artificial ‘Pseudomnesia: The Electrician’, que fue premiada en el mes de abril y a cuyo premio renunció el creador pues la creó como demanda.Alex Schwander (via REUTERS)

La inteligencia artificial (IA) se ha metido en nuestras vidas de forma mareante (hace menos de un año de la llegada de ChatGPT) y dirige ya, sin que nos demos cuenta, prácticamente todas las actividades rutinarias, desde las películas que vemos hasta nuestro trabajo, compras o relaciones. Un estudio sobre su uso en objetivos de sostenibilidad, publicado en Nature, advirtió que entre el setenta% y el ochenta% de los usos tienen consecuencias positivas, mas el resto de los efectos pueden ser negativos. Estos porcentajes son extrapolables a otras áreas y los dos son vitales pues afectan a las vidas, a la salud, a la convivencia, a la democracia o a la capacidad de desarrollo. Hasta ahora solo había principios éticos deficientes. El presidente de EE UU, Joe Biden, termina de firmar un decreto que fuerza a las tecnológicas a avisar al Gobierno cualquier avance que suponga un “riesgo grave para la seguridad nacional”. El primer ministro británico, Rishi Sunak, ha citado este miércoles y jueves una cima de la que ha surgido el primer compromiso de veintiocho países y de la UE sobre estos sistemas (Declaración de Bletchley) y la creación de un conjunto de especialistas para el seguimiento de sus avances. La Unión Europea remata su norma: la AI Act. La vicepresidenta primera del Gobierno en funciones y ministra de Asuntos Económicos y Transformación Digital, Nadia Calviño, estima que se aprobará en las próximas semanas.

La Declaración de Bletchley reconoce la encrucijada actual: “La inteligencia artificial presenta enormes oportunidades globales: tiene el potencial de transformar y mejorar el bienestar humano, la paz y la prosperidad. Para lograr esto, afirmamos que, por el bien de todas las personas, la IA debe diseñarse, desarrollarse, implementarse y utilizarse de manera segura, centrada en el ser humano, confiable y responsable”.

La presidenta de la Comisión Europea, Ursula von Der Leyen, y el secretario general de Naciones Unidas, Antonio Guterres, este jueves en la cumbre sobre IA en Bletchley.
La presidente de la Comisión Europea, Ursula von Der Leyen, y el secretario general de Naciones Unidas, Antonio Guterres, este jueves en la cima sobre IA en Bletchley.
CHRIS J. RATCLIFFE / POOL (EFE)

La inteligencia artificial son sistemas y programas capaces de contestar labores propias de su análoga humana, como el aprendizaje, el argumento o la toma de resoluciones. Se basan en datos, el comestible básico, y en algoritmos, el conjunto metódico de pasos para hacer cálculos, solucionar inconvenientes y decidir desde la información libre. Y puede llegar a hacerlo sin la intervención humana: el aprendizaje automático deja que las máquinas se instruyan desde sus procesos o de otros dispositivos.

Nació oficialmente como disciplina en una conferencia de ciencias de la computación en el Dartmouth College (New Hampshire, EE UU), en mil novecientos cincuenta y seis. Sus progenitores fueron John McCarthy, de la Universidad de Stanford; Allen Newell, Herbert Simon, los dos de Carnegie Mellon; y Marvin Minsky, del Instituto Tecnológico de Massachusetts (MIT) y premio Fronteras del Conocimiento de la Fundación BBVA en dos mil catorce. Todos partían de la premisa de que las máquinas pueden imitar al cerebro. Pero tras décadas de un uso limitado, en los últimos tiempos, su utilización se ha extendido y extendido a todas y cada una de las actividades, llegando a ser alcanzable a través de simples comandos de voz. Y acá brotan su enorme potencial y los enfrentamientos. “La IA debe ser la solución, pero no el problema”, defiende Coral Calero, catedrática de Lenguajes y Sistemas Informáticos de la Universidad de Castilla-La Mancha (UCLM) e miembro del Comité Español de Moral de la Investigación creado por el Ministerio de Ciencia e Innovación.

La Inteligencia artificial es capaz de identificar las perturbaciones en el genoma que provocan la aparición de enfermedades o reducir a días el descubrimiento de moléculas con propiedades medicinales u optimar procesos industriales y crear puestos o diagnosticar mediante imágenes o producir textos, vídeos y sonidos o recrear un personaje o seleccionar películas y productos desde los gustos del usuario o elegir inversiones. La lista es inabarcable.

Pero esa tecnología es uno de los vectores emergentes de fraude más alarmantes (secuestro de datos) y puede emplearse para producir bulos, desacreditar a una persona, manipular costos, trastocar el mercado de trabajo (dejando trabajos y trabajadores obsoletos), agredir a contendientes, influir en la opinión pública en elecciones, robustecer el alcance de una campaña de desinformación, crear y esparcir publicidad, singularmente en tiempos de guerra, o como arma sexista. Un ejemplo de esto último ha sido la detención en Almendralejo, a fines de septiembre, de veinta menores por recrear con inteligencia artificial desnudos de compañeras de instituto.

Ricardo Vinuesa, maestro asociado en el KTH Real Instituto de Tecnología de Estocolmo e estudioso de IA, ha sido uno de los primeros en valorar los efectos de esta tecnología desde su uso para lograr metas de sostenibilidad. “El 70% de los objetivos pueden verse afectados positivamente por la IA, pero alrededor del 30% pueden verse afectados negativamente. “Tenemos muchos desafíos”, asevera en un encuentro festejado en la Universidad de Sevilla.

En este sentido, Miguel Escassi, responsable de Política Pública en Google para España y Portugal advierte: “Tenemos una oportunidad única para acelerar el crecimiento económico y avanzar en todos los retos sociales que tenemos por delante. La capacidad de desplegar la inteligencia artificial e innovar con ella a gran escala definirá la competitividad en la próxima década. Sin embargo, para no dejar pasar estas oportunidades, los responsables políticos deben encontrar el equilibrio virtuoso entre maximizar las ventajas de la inteligencia artificial y minimizar sus riesgos, que también existen”.

Necesitamos regular la IA pues es demasiado esencial para no hacerlo. Y no solo es precisa la regla, sino más bien hacerla bien

Pilar Manchón, consejera del comité de asesoramiento del Gobierno de España y responsable de estrategia de investigación de Google

Pilar Manchón, consejera del comité de asesoramiento del Gobierno de España y responsable de estrategia de investigación con inteligencia artificial asimismo en Google, califica esta era marcada por la herramienta informática como “el nuevo renacimiento”, mas asimismo demanda un marco de actuación: “Necesitamos regularla porque la IA es demasiado importante para no hacerlo. Y no solo es necesaria la norma, sino hacerla bien”.

“Tenemos que reducir las incertidumbres de la IA y esforzarnos en desarrollar herramientas que mejoren la calidad de los datos para estar seguros de que no se excluye ningún aspecto”, agrega Matteo Rucco, científico de Rexasi-Pro, un proyecto europeo para desarrollar soluciones de inteligencia artificial fiables y no discriminatorias.

Si piensas en de qué manera trabaja la psique, cuando tomamos una resolución asimismo imaginamos las consecuencias y eso debe formar parte de la inteligencia artificial

Michael Beetz, estudioso del Instituto de Inteligencia Artificial de la Universidad de Bremen

Michael Beetz, estudioso del Instituto de Inteligencia Artificial de la Universidad de Bremen, se fija no solo en los prejuicios que el programador puede colegir a los algoritmos, sino más bien asimismo en los que se puedan derivar del aprendizaje automático, cuando la máquina va sola. “El problema general es cómo evitar los efectos negativos. Es muy complejo predecir consecuencias. Necesitamos una nueva generación de robots. No vale que la inteligencia artificial sirva para realizar una tarea. Necesitamos robots empáticos, que entiendan las consecuencias de sus actos y negocien cómo ejecutar la tarea. Esa es la nueva generación de robots. Si piensas en cómo trabaja la mente, cuando tomamos una decisión también imaginamos las consecuencias y eso debe ser parte de la inteligencia artificial”.

Robots humanoides de Tesla

“Tenemos que ser más humanos”, agrega María Amparo Alonso Betanzos, especialista en informática biomédica y representante de la Asociación Española de Inteligencia Artificial (AEPIA). “No estoy hablando de la supervisión humana, que está en las directrices de la Unión Europea. Debemos tener en cuenta una visión más multinivel en la que incluyamos también consideraciones psicológicas y sociológicas porque nuestras herramientas van a ser utilizadas por las personas”.

Una de las grandes preocupaciones, que ya brotó con la primera Revolución Industrial, es el efecto en el trabajo, que ya ha dejado de ser un planteamiento teorético. La visión optimista es que la herramienta va a mejorar las capacidades de los trabajadores, ahorrará procesos aburridos, rutinarios o penosos e impulsará la economía. La fatalista, que las compañías van a aumentar la rentabilidad a costa de destruir trabajos susceptibles de mecanizar o aquellos que parecían a salvo, los que requieren habilidades creativas y argumento lógico. Ha sido uno de los ejes de la huelga de argumentistas y actores de Hollywood.

Un estudio de OpenAI, Open Research y la Universidad de Pennsylvania calcula que los modelos de IA generativa, como ChatGPT, pueden tener algún efecto en el ochenta% de la fuerza laboral. En este sentido, la secretaria general del sindicato CCOO de Andalucía, Nuria López Marín, advierte en unas jornadas sobre transformación digital festejadas en la Universidad de Cádiz: “La digitalización es una revolución que nos está afectando en todos los planos de la vida, desde el social y económico hasta el laboral, porque todas las profesiones se ven afectadas. La transformación digital tiene que mejorar la vida de las personas y conllevar nuevos derechos laborales, porque hay un aumento de la productividad que supone mayores beneficios para la empresa y que, en consecuencia, debe suponer una mejora para los trabajadores y trabajadoras”. López Marín aboga por la revisión de aspectos como horarios, sueldos, conciliación, capacitación e inclusive las cotizaciones e impuestos. “Los robots no tributarán, pero sus dueños y dueñas sí”, demanda.

Y para eludir un reguero de víctimas del nuevo analfabetismo digital, Juan Ramón Astorga, ingeniero, maestro de la Universidad de Cádiz y directivo de Tecnalia, aboga por “educación y formación”, la primera para llevar la IA a todas y cada una de las etapas escolares y universitarias y la segunda para asegurar la adaptación al cambio de todos y cada uno de los trabajadores. Astorga confía en la cooperación de entidades públicas y privadas.

Entre las primeras figuras la Fundación Estatal para la Formación en el Empleo (Fundae), que cuenta con una plataforma de contenidos en línea financiada con fondos NextGeneration. Entre las ideas privadas, IBM se ha comprometido a formar, con la herramienta la SkillsBuild, a un par de millones de estudiantes para finales de dos mil veintiseis. “Es fundamental que las siguientes generaciones conozcan lo que la IA aporta a las empresas y al conjunto de la economía, así como el cambio de paradigma que supone, con independencia de los estudios que cursen”, explica Pilar Villacorta, directiva de Universidades y Educación Superior de IBM para España, Portugal, Grecia e Israel.

Los robots no tributarán, mas sus dueños y dueñas sí

Nuria López Marín, secretaria general CC OO en Andalucía

La iniciativa responde a datos como los surgidos en el informe del Institute of Business Value de IBM, que calcula que la implementación de la IA y la automatización requerirá que el treinta y nueve con cuatro% de la mano de obra vuelva a capacitarse en los próximos 3 años. Globalmente, este porcentaje equivaldría a mil cuatrocientos millones de los tres mil cuatrocientos millones de trabajadores del planeta, conforme las estadísticas del Banco Mundial.

En todo este complejo panorama de equilibrio inestable entre un sistema esencial para el desarrollo y los peligros, faltan dos herramientas clave: la legislativa y la policial, entendida esta última como el mecanismo de control y seguimiento que vigile que la primera se cumple. “Estamos dando pasos. Hemos creado ya la primera Agencia Española para la Supervisión de la Inteligencia Artificial [AEISA]”, recuerda María Amparo Alonso Betanzos. Con los estatutos aprobados en el mes de agosto, la entidad, con sede en A Coruña, empezará a marchar a fin de año con un nuevo marco regulativo previsto para las próximas semanas.

Europa, bajo la presidencia de España, remata en estas semanas esas reglas del juego en sus países: la AI Act o Reglamento de Inteligencia Artificial. Esta normativa establecerá las obligaciones para distribuidores y usuarios en función de 4 niveles de peligro de la inteligencia artificial:

“Inaceptables”. Estas aplicaciones estarán prohibidas y se refieren a sistemas que manipulen, de clasificación social o de identificación biométrica recónditos o en tiempo real.

“De alto riesgo”. Tendrán supervisión permanente y reúne a modelos que puedan dañar la seguridad o los derechos esenciales, como aquellas vinculadas al vehículo autónomo o al control de fronteras o al campo laboral.

“De inteligencia generativa”. Contarán con demandas de trasparencia y se refiere a aplicaciones como ChatGPT o Bard.

De riesgos limitados”. Estarán obligadas a informar de forma fehaciente a los usuarios que están frente a una creación de inteligencia artificial (imágenes, vídeo o audio conocidos como deepfakes).

“La Unión Europea viene trabajando desde hace años en lo que será un reglamento, que es importante porque será de obligado cumplimiento, sin adaptación en cada país, como pasa con las directivas”, explica Cecilia Danesi, letrada experta en IA y derechos digitales, maestra la Universidad Pontificia de Salamanca y otras universidades internacionales, divulgadora y autora de El imperio de los algoritmos (Galerna, dos mil veintitres).

La inteligencia artificial tiene un poder expansivo enorme. Si un humano causa un daño, es limitado. El de un sistema de inteligencia artificial, en cuestión de segundos, es infinito

Cecilia Danesi, letrada experta en IA y derechos digitales

Danesi, miembro asimismo del conjunto Mujeres por la Moral de la Inteligencia Artificial (Women4Ethical AI) de la Unesco, explica que la propuesta inicial aprobada en el primer mes del verano ha pasado a una fase de negociación entre los Estados miembros de la UE. España, a lo largo de la presidencia de este semestre, fomenta que las negociaciones “aseguren que no se socava la innovación y que, al mismo tiempo, se protejan los derechos fundamentales de las personas”, conforme un documento de trabajo de la delegación de España. La ministra de Justicia en funciones, Pilar Llop, coincide: “No podemos renunciar a las nuevas tecnologías, incluida la inteligencia artificial, porque sería renunciar a nuestro propio futuro”. Llop advierte sobre los abusos y los cortes para concluir: “Debemos evitar que sustituyan una habilidad que es patrimonio de la humanidad: diferenciar el bien del mal”.

Hasta ahora, lo que se regula son las consecuencias de los actos. En el caso de Almendralejo se aplica la regla sobre pedofilia del Código Penal o el Código Civil en reclamaciones de indemnización, por poner un ejemplo. “El reglamento de la UE regulará el desarrollo y el uso de la inteligencia artificial, es decir, no se cambia ni el Código Penal ni las normas de responsabilidad civil, que se van a aplicar cuando un sistema de inteligencia artificial ocasiona daños, sino que es una regulación general preventiva, porque establece las obligaciones que van a tener que cumplir los sujetos que provean herramientas basadas en inteligencia artificial. La idea, y eso para mí es muy interesante, es evitar que el daño se produzca”, especifica Danesi.

La especialista en derecho digital agrega que “la inteligencia artificial tiene un poder expansivo enorme. Si un humano causa un daño, es limitado. El de un sistema de inteligencia artificial, en cuestión de segundos, es infinito”.

Todos los sistemas incluidos en la propuesta de reglamento ya se están utilizando, como el reconocimiento facial o de emociones en campos laborales o escolares o los sistemas policiales predictivos o los dirigidos a manipular la voluntad o influir en procesos electorales.

También están ya marchando los contenidos creativos generados por la IA. “Hay un gran debate con lo que son los derechos de autor porque los sistemas de IA generativa se alimentan libremente de todo lo que circula en la red”, advierte Danesi.

Felipe Gómez-Pallete, presidente de Calidad y Cultura Democráticas, mantiene que “la tecnología, una vez desarrollada, no hay quien la pare”. “La podemos regular, atemperar, pero llegamos tarde”, advierte.

Danesi matiza esa aseveración. “No se puede regular lo que no existe y, cuando existe, la regulación llega tarde”. Pero añade: “La propuesta de legislación de la UE es la más avanzada del mundo para regular la inteligencia artificial de manera integral y era necesario que corriera agua bajo el puente para poder hacer una ley lo más coherente y concienzuda posible. En los procesos legislativos, siempre vamos a estar retrasados porque no se puede regular lo que no conocemos y es imposible saber qué aplicaciones, qué usos van a tener estos sistemas en el futuro. Por el tipo de tecnología, siempre vamos a estar un poco haciendo malabares. Por eso no tenemos que regular una tecnología concreta sino áreas, sectores e impactos de la aplicación”.

_