Una sola mueca puede englobar un planeta. Como la de Lee Sedol, vencedor mundial del Go, cuando se encaró por vez primera en dos mil diecisiete a una máquina capaz de vencerlo: AlphaGo, creada por DeepMind, la vanguardia científica de Google. Sedol, profesor invencible de un juego milenario con más jugadas posibles que átomos hay en el cosmos, estaba persuadido de que ganaría cinco-cero. Perdió cuatro-1. Durante las 5 partidas de la batalla, la humanidad entera se vio reflejada en el semblante de Sedol cuando observó un movimiento ganador de la máquina, tan inopinado como alucinante. El vencedor se quedó pasmado y, tras unos segundos pasmado, sonrió con desenfado. Y después frunció el ceño, concentrándose nuevamente en su lance intelectual. En su ademán se resume lo que ha pasado este año en todo el planeta tras la llegada de ChatGPT y el resto de las inteligencias artificiales creativas. Nos hemos sentido estupefactos, fascinados, desafiados. Porque la inteligencia que nos sorprende es la que nos habla. Sedol comprendía que le charlaban con palabras nuevas, mas en un lenguaje humano, el de su juego. Esa es la clave de todo cuanto ha ocurrido: solo en el momento en que nos hemos visto reflejados en el espéculo de una máquina parlante nos la hemos tomado de verdad. Mientras tanto, bajo el estruendos de los titulares, la seducción de las máquinas tejía una agenda oculta.

“El famoso filósofo José Ortega y Gasset dijo: ‘Sorprenderse y maravillarse es comenzar a entender”, resume Sara Hooker, una de las estudiosas más señaladas del ámbito, tras su paso por Google Brain y fundar Cohere For AI, un laboratorio de investigación no lucrativo. “Este año ha sido el año de la sorpresa y la maravilla, cuando avances rompedores en la inteligencia artificial del lenguaje han alcanzado al gran público más allá del mundo científico”, apunta Hooker. “Pero eso también marca el comienzo de nuestra capacidad de comprender cómo usar esta tecnología de modo significativo y responsable”. Es un ciclo, recuerda la estudiosa, que ya hemos visto ya antes con internet o los móviles y ahora llega con la inteligencia artificial generativa, la que es capaz de crear textos e imágenes: “Lleva tiempo descubrir los mejores usos y cómo desarrollarlos. No sucede de la noche a la mañana”, apunta la estudiosa, que ha redactado el documento de base de la Cumbre de Seguridad en la Inteligencia Artificial festejada en Bletchley Park (Reino Unido), la cuna de la computación moderna. De esa cima, impulsada por el primer ministro británico, Rishi Sunak, salió el 1 de noviembre una declaración en la que treinta naciones (como Estados Unidos, el Reino Unido, China o España) demandan seguridad y trasparencia al ámbito.

Otro pensador, Daniel Innerarity, directivo de la cátedra de Inteligencia Artificial y Democracia en el Instituto Europeo de Florencia, piensa que estos avances han generado un entorno que se atreve a calificar como “histeria digital”, desde noticias “que suscitaban miedos y expectativas exageradas”. La histeria digital de estos últimos doce meses se encendió con el fuego de dos antorchas: la sorpresa de la que habla Hooker, mas asimismo la avaricia de las grandes tecnológicas. Alphabet (Google), Meta, Microsoft y demás desean que el salto a esta nueva herramienta garantice su desarrollo infinito y se han lanzado a la conquista de este nuevo terreno de juego, visto el impacto global de ChatGPT.

Pero esa revolución comercial —y la carrera política por regularla— precisaba del comburente atómico de la fascinación humana. Ese impacto ha sido el enorme catalizador de un fenómeno que ha acaparado una gran parte de la charla global y que llevó a Sam Altman, hasta el viernes líder de OpenAI (la compañía que desarrolló ChatGPT), a reunirse con gobernantes de todo el planeta en una vira impensable unos meses ya antes para un emprendedor ignoto, ahora despedido. “La clave del éxito ha sido la conversación. El momento en el que una máquina empezó a generar ideas, a articular lenguaje con una fluidez y sutileza sorprendentes, ese fue el gran cambio”, apunta el neurocientífico Mariano Sigman, que ha meditado sobre este sorprendo en Artificial (Debate). “Gracias a eso hay una enorme conciencia sobre las consecuencias que acarrea la inteligencia artificial, que hubiesen pasado inadvertidas si hubiese permanecido en una esfera mucho más selecta”, advierte el estudioso.

Gobernantes y empresarios se dieron cita en la Cumbre de Seguridad de la IA en Bletchley Park, Reino Unido, el 1 y 2 de noviembre de 2023.
Gobernantes y empresarios se dieron cita en la Cumbre de Seguridad de la IA en Bletchley Park, Reino Unido, el 1 y dos de noviembre de dos mil veintitres.Tolga Akmen ( BLOOMBERG )

La inteligencia artificial (IA) llevaba años revolucionando ámbitos y consiguiendo grandes éxitos, como deponer a Sedol, advertir tumores mejor que los radiólogos, conducir vehículos razonablemente bien o descubrir de qué manera se pliegan las proteínas para abrir la puerta a incontables fármacos. Pero nada como el magnetismo irreprimible que ejercita sobre los humanos una máquina capaz de conversar: el programa de OpenAI muestra más empatía que los médicos en el momento de trasladar un diagnóstico, conforme una investigación efectuado por universidades de EE UU. Esa capacidad de charlar con sentimientos hizo que el ojo de Sauron de la atención global se girara cara la IA. Y es lo que ha persuadido a líderes globales de que el inconveniente, o la revolución, requería tomar medidas acá y ahora.

El presidente Joe Biden ya ha publicado su marco legislativo para EE UU, y la Unión Europea desea tener lista una normativa este año. Mientras, los especialistas en este campo informático publican artículos sobre la conciencia humana tal y como si fuesen pensadores, los progenitores de esta tecnología discuten sobre el apocalipsis tal y como si fuesen profetas y sostienen discusiones bizantinas en redes, como sacerdotes de un misterio esotérico inalcanzable para el resto. Pero del resultado de estos debates va a depender el futuro de la humanidad, si hacemos caso a los pesimistas, o por lo menos determinará el devenir de campos tan dispares como el mercado de trabajo, la privacidad, la desinformación o la cultura y los derechos de autor.

Uno de esos progenitores es Jürgen Schmidhuber, directivo del Instituto de Inteligencia Artificial de la Universidad de Suiza, que puso los primeros ladrillos de modelos decisivos: “Lo curioso es que los principios básicos detrás de la IA generativa tienen más de tres décadas”. Y se pregunta: “¿Por qué tardó tanto en despegar todo esto? Porque en 1991 la computación era millones de veces más cara que hoy. En aquel entonces, solo podíamos hacer pequeños experimentos de juguete. Esa es la principal razón por la que, en la última década, empresas como Google, OpenAI, Microsoft o Samsung han podido implementar nuestras técnicas miles de millones de veces al día en miles de millones de smartphones y ordenadores en todo el mundo”.

En este instante, es bastante difícil distinguir cuál va a ser el futuro de la IA y de la inventiva artificial más específicamente: si hay burbuja o revolución. Las estimaciones sobre el valor de esta industria para dos mil treinta se disparan hasta los 180 billones de euros. En el último año, no obstante, solo se han invertido dos.300 millones de euros en IA generativa en frente de los sesenta y cinco millones de la IA tradicional —que conduce aeroplanos o lee currículos—, conforme el informe de la firma Menlo Ventures. “Dentro de 30 años, la gente solo sonreirá ante las aplicaciones de hoy, que les parecerán primitivas en comparación con lo que estará disponible entonces; la civilización tal como la conocemos se transformará completamente y la humanidad se beneficiará enormemente”, presagia Schmidhuber.

Dos semanas de noviembre

Hubo un par de semanas que lo cambiaron todo por siempre. El quince de noviembre de dos mil veintidos, Meta lanzó Galactica, una versión de prueba de una inteligencia artificial capaz de crear lenguaje, orientada más a la creación de textos académicos. Duró 3 días en el aire: Meta la tumbó tras percibir críticas muy duras por fomentar información sesgada y falsa: Galactica “alucinaba”, como se llama a los errores graves que cometen estos programas. El treinta de noviembre, OpenAI hizo público su programa, ChatGPT, que asimismo desvariaba. Pero había dos diferencias esenciales. La empresa de Mark Zuckerberg tenía un pasado discutido que le pasó factura y la de Sam Altman había tenido la argucia de adiestrar anteriormente a ChatGPT con personas. Tras el desarrollo tecnológico, la máquina aprendió hablando con tutores de carne y hueso, que fortalecían las contestaciones más humanas. Galactica se quedó en un cajón y ChatGPT se transformó en uno de los programas de mayor éxito de la historia, consiguiendo en 6 meses el impacto social que a Facebook le llevó una década.

IA Biden
El presidente estadounidense Joe Biden, a lo largo de la firma de la orden ejecutiva para regular la inteligencia artificial, en la Casa Blanca, el treinta de octubre de dos mil veintitres. JIM LO SCALZO (EFE)

Lo sucedido entre el quince y el treinta de noviembre fue asimismo un cambio radical de mentalidad entre los gigantes tecnológicos, que llevaban más de un quinquenio invirtiendo miles y miles de millones en IA y vaciando los departamentos de informática de las universidades al contratar a todo científico relevante. En todo ese tiempo, los laboratorios de estas compañías se centraron en desarrollos como Galactica oAlphaGo: pruebas fascinantes, logros científicos notables, mas poco producto con auténtico poder comercial. Es más, Google iba muy por delante, mas no se atrevió a lanzar esos productos al mercado por temor a poner bajo riesgo el liderazgo de su buscador —si le puedes consultar a un chat inteligente no se lo preguntas a un buscador tonto—, según se ha conocido en las investigaciones sobre sus prácticas monopolísticas. En enero, Microsoft anunció un pacto de nueve mil doscientos millones de dólares americanos en OpenAI y se dispararon todas y cada una de las alarmas en Google. Con el pie alterado, el gigante de las buscas cambió sus dudas iniciales por un “código rojo” interno para añadir la IA generativa a sus productos, aparte de fusionar sus dos laboratorios, DeepMind y Google Brain, en un departamento con una misión menos científica y más productiva.

De los ensayos se pasó al marketing. Y exactamente los mismos empresarios que invertían millones en estos algoritmos alertaban sobre el peligro para la humanidad y demandaban regulación inmediata. Altman aseguró que si la IA sale mal, “esconderse en un búnker no salvaría la vida de nadie”. Mientras miles y miles de chicas se veían pornificadas por programas fruto de estas tecnologías, la aristocracia tecnocapitalista agitaba el espectro de Terminator, la película en la que las máquinas someten a la especie humana. Nada tan expresivo como cuando Biden reconoce que su interés por legislar se aceleró tras ver la última película de Misión imposible, en la que un programa, La Entidad, pone contra las cuerdas a todas y cada una de las potencias mundiales. Los políticos han decidido actuar lo antes posible por el miedo a que les pase con las manipulaciones de imágenes y audios (deepfakes) lo que pasó con la desinformación de Facebook hace unos años.

Hooker reconoce que hay “riesgos significativos” derivados de la IA, mas le preocupa que no se están priorizando adecuadamente. “Los escenarios más teóricos, y en mi opinión, extremadamente improbables, como los terminators tomando control del mundo, han recibido una cantidad desproporcionada de atención por parte de la sociedad. Creo que es un gran error y que deberíamos abordar los riesgos muy reales a los que nos enfrentamos actualmente, como los deepfakes, la desinformación, los sesgos y las ciberestafas”. Ese alegato pesimista desde las grandes compañías se interpreta, conforme muchos especialistas, como un interés en lograr una regulación a su medida. Las 4 compañías ganadoras hasta el momento en la carrera (conocidas como GOMA: Google, OpenAI, Microsoft y Anthropic, fundada por exmiembros de OpenAI) han creado su conjunto de presión para impulsar su marco regulativo. El jefe científico en Meta, Yann LeCun, asegura que solo desean frenar la llegada de contendientes con una regulación a su medida: “Altman, Demis Hassabis [Google DeepMind] y Dario Amodei [Anthropic] son quienes están realizando un lobby intenso en este momento”. Andrew Ng, exdirector de Google Brain, ha sido muy expresivo: “Preferirían no tener que competir con el código abierto, por lo que están creando temor a que la IA conduzca a la extinción humana”.

“Corremos el riesgo de afianzar aún más el dominio de unos pocos actores privados sobre nuestra economía y nuestras instituciones sociales”, advierte Amba Kak, directiva ejecutiva del AI Now Institute, uno de los organismos que observan con más celo este campo. No es casualidad que el enorme año de esta tecnología asimismo haya sido el de su mayor opacidad: jamás las compañías que desarrollan la IA compartieron menos sobre sus datos, sus trabajos, sus fuentes. “A medida que aumentan los intereses económicos y las preocupaciones por la seguridad, las compañías que normalmente son abiertas han empezado a ser más secretas sobre sus investigaciones más innovadoras”, lamenta el informe anual sobre el ámbito que efectúa la firma de capital peligro Air Street Capital.

En su último libro, Poder y progreso (Deusto), los profesores Daron Acemoglu (MIT) y Simon Johnson (Oxford) advierten que la historia prueba que las nuevas tecnologías no favorecen a toda la población de forma natural, sino más bien solo cuando se combate a las elites que tratan de monopolizar ese progreso en forma de beneficios. “El sector tecnológico y las grandes empresas tienen hoy mucha más influencia política que en cualquier otro momento de los últimos 100 años. A pesar de sus escándalos, los magnates tecnológicos son respetados e influyentes en la sociedad y solo en raras ocasiones alguien les cuestiona el tipo de progreso que están imponiendo al resto de la sociedad”, critican. “En la actualidad, gran parte de la población mundial vive mejor que nuestros antepasados porque la ciudadanía y los trabajadores de las primeras sociedades industriales se organizaron, cuestionaron las decisiones de la élite sobre la tecnología y las condiciones laborales, y forzaron la creación de nuevos mecanismos para repartir de forma más igualitaria los beneficios derivados de la innovación. Hoy en día necesitamos volver a hacer lo mismo”.

_

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.