Por si el planeta no tenía ya una pluralidad de opciones futuras de catástrofe total, ahora tenemos otra nueva: la inteligencia artificial. En solo un par de meses, miles y miles de especialistas han pedido que se pause, se observe y se regule. Primero fueron más de treinta.000 personas encabezadas por Elon Musk, cofundador de Tesla, y Steve Wozniak, cofundador de Apple, quienes solicitaron que se detenga 6 meses la investigación en inteligencia artificial (IA). Luego, uno de los progenitores de estos desarrollos, Geoffrey Hinton, dejó Google para advertir sobre sus posibles tinieblas; poco después, Sam Altman, líder de la compañía que ha creado el producto más triunfante de la historia, ChatGPT, fue al Congreso a decir que “todo puede salir muy mal” y ahora está de vira por el planeta para, entre otras muchas cosas, advertir de riesgos épicos.

Por si este arsenal fuera poco, este martes se publicó otro manifiesto de solo veintidos palabras en su original inglés: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, afirmaba. Los dos primeros firmantes son exactamente Hinton y Yoshua Bengio, dos premiados en dos mil dieciocho con el premio Turing, el “Nobel” de la informática, por ser “padres” de la revolución de la IA. Los otros 3 ilustres firmantes son los 3 líderes de las primordiales empresas de IA hoy: Altman de OpenAI, Demis Hassabis de DeepMind (propiedad de Google), y Daniel Amodei, de Anthropic.

1. ¿Qué hay que regular?

¿Por qué toda esta altilocuencia repentina contra algo fantasmal y ignoto aún? Hay múltiples contestaciones, unas más francas, otras más insolentes. Primero, es resaltable que haya uno de los 3 progenitores de la IA que firmase. Junto a Hinton y Bengio, asimismo consiguió en dos mil dieciocho el premio Turing el francés Yann LeCun, que lleva múltiples días explicando en Twitter por qué no está en el bando del miedo existencial: su hipótesis es que es bastante difícil regular algo que no sabemos de qué manera va a ser, afirma.

“La IA superhumana no está ni cerca de la parte alta en la lista de riesgos existenciales. En gran medida porque aún no existe. Hasta que tengamos un diseño básico para la IA nivel perro (por no hablar de nivel humano), discutir cómo hacerla segura es prematuro”, escribió en Twitter. En una charla reciente, LeCun usó esta metáfora: “¿Cómo puedes diseñar cinturones para un coche si el coche no existe aún?”

Esa ignorancia sobre el futuro no es una cosa que solo piense LeCun. El propio Altman piensa que a fin de que haya un salto real en la capacidad de la IA deben suceder cosas de las que no se tiene ni idea: “Un sistema que no puede aportar a la suma del conocimiento científico, descubrir nueva ciencia fundamental, no es una superinteligencia. Y para hacerlo bien, tendremos que expandir el modelo GPT de maneras bastante importantes para las que todavía nos faltan ideas. No sé cuáles son esas ideas. Estamos tratando de encontrarlas”, dijo en una entrevista reciente.

Esta altilocuencia existencial da a la IA una capacidad aún que no sabemos si tiene.

2. Por qué más manifiestos

Si hubo un manifiesto en el mes de marzo, ¿por qué precisamos otro? La diferencia del manifiesto breve de esta semana es meridianamente que este último lo firman los líderes de la industria. Altman (OpenAi), Hassabis (Google), Amodei (Anthropic) y Hinton (ex Google) no firmaron el primero, que solicitaba una moratoria en el desarrollo de estos programas: obviamente, estas compañías no desean frenar la investigación. El resto de firmantes lo forman una pequeña una parte de los que ya apoyaron el manifiesto original de marzo, que ya son más de treinta y uno personas, eminentemente académicos. Sus promotores, del Future of Life Institute, mandaron un correo electrónico el diecinueve de mayo a sus firmantes a fin de que nuevamente se “unieran a Hinton, Bengio y Amodei” pues es “esencial normalizar y legitimar el debate sobre los riesgos más severos de la IA”.

3. ¿Una cortina de humo?

Unos días ya antes del manifiesto breve, Altman publicó al lado de otros dos líderes de OpenAI un artículo titulado Gobernanza de la superinteligencia. Allí solicitaban desentenderse de los modelos actuales para centrarse en legislar sobre el riesgo futuro: “Los sistemas de hoy crearán un enorme valor en el mundo y, si bien tienen riesgos, el nivel de esos riesgos es acorde con otras tecnologías de internet. Al contrario, los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora”.

En Londres, a lo largo de su vira europea, Altman afirmó que se propondrían retirar ChatGPT del continente si la Unión Europea avanza en su “sobrerregulación”, que discutirán en un pleno del Parlamento el trece de junio. Una opción legislativa es la de obligar a las compañías con modelos como ChatGPT a descubrir los datos con copyright en el corpus con el que adiestran sus máquinas, un escenario problemático. Días después, el líder de OpenAi tuiteó que ya no se proponían desamparar Europa. Ahora, aun semeja que procuran sede europea, según se ha publicado.

Así, una posible explicación tras los manifiestos es que empresas como OpenAI prefieren que los políticos discutan sobre apocalípticos peligros existenciales futuros, en vez de centrarse en leyes que puedan complicar su expansión hoy.

Con estas amenazas, Altman se asegura asimismo ser consultado cuando llegue el instante de plantear leyes. Si los legisladores ven estos modelos como algo ininteligible, requerirán de la ayuda de los “expertos” en las compañías para regular, afirma Jake Browning, estudioso de la Universidad de Nueva York sobre la filosofía de la IA y que no ha firmado el manifiesto. Precisamente, la comisaria europea de Competencia, Margrethe Vestager, hizo pública esta semana sus asambleas con Altman y Amodei inmediatamente después de anunciar su inminente propuesta de “código de conducta voluntario”. Un día siguiente, se reunió con la presidente de la Comisión, Ursula von der Leyen.

Porque la Unión Europea está más enfocada al acá y ahora: “La UE es una amenaza [para estas empresas] porque ignora la exageración de la IA y solo observa las consecuencias, tratando estos nuevos modelos como servicios”, afirma Browning. Y se pregunta: “¿Es fiable la información proporcionada por GPT? ¿Cumplen las normas de privacidad existentes, como el derecho al olvido? ¿Respetan los derechos de autor? ¿La búsqueda de IA de Google conducirá a monopolios? ¿Las empresas comercializan estos productos con honestidad? En todas esas métricas, estos modelos de lenguaje salen mal: son propensos a alucinar; entrenan y reproducen datos privados; no respetan las leyes de derechos de autor; están diseñados para afianzar el poder de las grandes tecnologías y aumentar sus ingresos publicitarios, y se comercializan de manera engañosa sin la debida advertencia sobre sus limitaciones”.

4. El cuento del fin del mundo

Hoy Gebru prosigue viendo solo hipocresía en este discute sobre la impredecible superinteligencia del futuro: “Esto es un movimiento que lleva décadas en construcción, con los mismos financiadores multimillonarios de OpenAI, Deepmind y ahora Anthropic. Su padre ideológico, Nick Bostrom [autor del best seller Superinteligencia], habla de ‘presiones disgénicas’, que es que aquellos considerados estúpidos se reproduzcan demasiado, que sería un riesgo existencial para la humanidad, y dijo que ‘los negros son más estúpidos que los blancos’ y nos insultó. ¿Quieren que creamos que son ellos los que se preocupan por la humanidad? ¿Dónde estaban cuando nosotras creamos conciencia sobre los daños reales y nos enfrentamos a una reacción violenta? Es casi como un ataque informático coordinado para que nos distraigamos de responsabilizar a las verdaderas organizaciones que causan daño”.

Émile Torres, de la Universidad Leibniz de Hannover, lleva años estudiando estas teorías de la aniquilación futura: “Se pone mucho el foco en la IA, pero no tanto en las empresas de IA. Esta atención da a las compañías una especie de vía libre. Redirige la mirada de lo que están haciendo a esta especie de mente misteriosa y extraterrestre que surgirá por algún tipo de ley del progreso tecnológico”. Y añade: “Esta visión utópica fue inventada por un puñado de tipos blancos ricos superprivilegiados y ahora tratan de imponerla al resto del mundo”. Para , asimismo llamados transhumanistas, sería preciso un cerebro más privilegiado que el humano para subsistir, esto es, el digital.

5. ¿Y si es cierto?

Junto a estas posibles razones, no hay que obviar el motivo más explícito para respaldar estos manifiestos: opinar de veras que la inteligencia artificial supone un riesgo existencial. Que los firmantes, si bien un buen puñado tenga intereses de tipo económico evidentes, temen con sinceridad un fin del planeta provocado por una IA mal gestionada.

Hay miles y miles de estudiosos de docenas de disciplinas, sin vínculos con la industria, que piensan que hay que frenar la investigación y observar sus peligros existenciales. Forbes Hispano ha preguntado sus motivos a diez académicos firmantes de campos dispares, desde la física y la informática al derecho, la economía o la sicología. Sus contestaciones pueden abarcarse en 4 puntos:

a) La velocidad del desarrollo. Para quien no estuviese en el ámbito de la IA, la velocidad de la innovación es incomprensible. Es quizás el miedo básico: “No hace tanto, el peligro de que las máquinas representaran un riesgo de extinción parecía fantasioso”, apunta Andrew Briggs, catedrático retirado de Nanomateriales de la Universidad de Oxford. “El ritmo del progreso en la IA ahora acelera tan rápido, como lo muestran motores como ChatGPT, que se ha vuelto urgente buscar medidas de seguridad antes de que sea tarde”, agrega.

La velocidad puede traer inconvenientes imprevisibles, como afirma Juan Pavón, catedrático de Ingeniería del Software e IA de la Universidad Complutense: “Se está avanzando más rápido en el desarrollo de grandes modelos de IA que en su comprensión, y como se trata de sistemas complejos, con multitud de interacciones entre los elementos que los componen, pueden producirse efectos no deseados e imprevistos”, afirma.

b) Ignorancia sobre de qué manera marchan. El desconocimiento es otro factor que preocupa a los firmantes. “Los programas de IA como GPT4 y sus probables sucesores son sistemas extremadamente complejos, y realmente no los entendemos”, asegura Alessandro Saffiotti, catedrático de Ciencias de la Computación de la Universidad de Örebro (Suecia). “Aun así, podríamos terminar delegándoles decisiones críticas para el planeta y nuestra sociedad: centrales eléctricas, transacciones financieras o incluso sistemas militares. Si las empresas no hacen una pausa en el despliegue de esos sistemas hasta que los entendamos mejor, debemos ir preparándonos para posibles escenarios desastrosos”.

“Se trata de ‘lo que no sabemos que no sabemos’, es decir, el potencial de problemas severos que pueden surgir de una manera imprevista”, advierte Henning Grosse Ruse-Khan, maestro de Derecho de la Universidad de Cambridge. Y apunta: “El potencial de la IA es tan significativo que no tenemos una manera realista de predecir, ni siquiera adivinar, sus consecuencias”.

c) La duda fuerza a la prudencia. La oración de veintidos palabras del último manifiesto es simple de aceptar por mero análisis de peligros. El texto viene a decir: si tienes una pistola cargada con tres balas en un cargador de cien, ¿dispararías? Aunque no sepamos si esa pistola existe, la contestación natural es procurar sacar esas tres balas del cargador. “Es importante hablarlo debido a la gran incertidumbre que hay”, afirma Edoardo Gallo, maestro de Econonomía de la Universidad de Cambridge. “Tenemos muy poca idea de las probabilidades. Estoy bastante seguro de que el riesgo de extinción de la IA en los próximos 100 años es muy pequeño, pero también estoy bastante seguro de que no es cero”, agrega.

Al final, el discute se reduce a una apuesta. Browning, que no firmó, está cómodo negando todos y cada uno de los peligros. “Si crees que el lenguaje es el núcleo de la inteligencia, puedes inclinarte a pensar que una máquina parlante así está a un paso de distancia de la inteligencia superhumana”, explica. Pero no piensa que sea así: “Filosóficamente, no creo que la superinteligencia tenga sentido como concepto; técnicamente, no creo que nada que suceda bajo la etiqueta de ‘IA’, sin importar cómo de amplia sea, represente una amenaza existencial”.

En esa duda, Bojan Arbutina, maestro de Astrofísica de la Universidad de Belgrado, prefiere confundirse por exceso: “Puede que la amenaza sea exagerada, pero si no lo es, no tendremos tiempo de reconsiderarlo, y por tanto creo que debe tomarse en serio. No podemos comprender todos los riesgos. La superinteligencia podría, por ejemplo, percibirnos a los humanos como nosotros vemos a los insectos o incluso a las bacterias”, asevera.

d) Hay otros muchos inconvenientes. Pero no hay que ir tan lejos, afirma Helena Matute, catedrática de Psicología de Deusto, que solicita que “no se mezcle el riesgo existencial con la discusión sobre la consciencia y la inteligencia, no tiene nada que ver”. Para Matute, el número de retos de la humanidad no ha de ser una disculpa para no fijarnos en la IA: “Limitar la discusión solo a los riesgos que algunos consideran ya obvios es ir por detrás del problema. Hay que llegar pronto a acuerdos mundiales que minimicen los riesgos de la IA, todos los riesgos. No entiendo por qué algunos creen tener una especie de venia para decir: ‘Esto se puede regular, pero esto no”.

También incluyen la regulación inmediata y actual, que otras partes con intereses de tipo económico pueden despreciar: “Mi objetivo, al destacar las amenazas existenciales de la IA, es exactamente lo contrario de tratar de descartar los daños a corto plazo”, afirma Michael Osborne, maestro de IA en la Universidad de Oxford. Y asegura: “En cambio, deseo enfatizar que no estamos haciendo lo suficiente para gobernar la IA, una tecnología que hoy en día está estrictamente controlada por un pequeño número de empresas tecnológicas opacas y poderosas”.

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.