En apenas 6 meses, las buscas de “inteligencia artificial” en Google se han multiplicado por 5. ChatGPT, lanzado el treinta de noviembre, tiene decenas y decenas de millones de usuarios. Sam Altman, director de OpenAI, autores de ChatGPT, ya ha ido al Congreso a explicarse sobre el impacto de la inteligencia artificial. Mark Zuckerberg tardó catorce años en ir a Washington a charlar del papel de Facebook en la sociedad. Y Altman no se ha cortado: “Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal”, afirmó.

Las oraciones pesadas y altilocuentes sobre la explosión de la IA han generado ya sus memes. También ha popularizado el término “criti-hype” [criti-bombo], creado en dos mil veintiuno para acotar las críticas a una tecnología nueva que terminan por darle más bombo aún: un caso vanguardista de “criti-hype” fue Cambridge Analytica, que le daba a Facebook con su crítica el poder de escoger presidentes.

La cima de estas declaraciones fue la salida de Google de Geoff Hinton, padrino de la IA, para poder charlar con libertad de sus peligros: “Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores”, afirmaba en Forbes Hispano. El saliente consultor científico primordial del Gobierno de Reino Unido termina de decir que la IA podría producir una nueva “revolución industrial”. Hay ya colectivos tratando de organizarse a fin de que sus oficios no sean barridos por esta tecnología. En el caso de Altman, ciertos analistas señalan que esas palabras sobre sus “miedos” asimismo puede valer para provocar que se regule la entrada de nuevos contendientes en un mercado en el que ya ocupan una situación ganadora.

Esta pequeña lista son solo un puñado de ejemplos de todas y cada una de las premoniciones y miedos sobre la IA. Pero asimismo es posible que el impacto sea más asumible: ¿y si todo acabase por ser más lento, con menos sustos o más asimilable de lo que ahora semeja? Es una alternativa válida, si bien por el momento menos explorada. Es bastante difícil negar el impacto en muchos campos, mas mudar el planeta es un proceso duro. Las grandes revoluciones afines precedentes han alterado de manera profunda nuestro estilo de vida, mas los humanos se han habituado sin terremotos. ¿Puede la IA terminar igual?

“Como mínimo, es un gran cambio estructural en lo que puede hacer el software”, afirma Benedict Evans, analista independiente y ex asociado de Andreessen Horowitz, una de las primordiales empresas de capital de peligro de Silicon Valley. “Probablemente, permita que muchas cosas nuevas sean posibles. Esto hace que la gente lo compare con el iPhone. Podría ser incluso más que eso: podría ser más comparable al PC o a la ‘interfaz gráfica de usuario’ [conocido como GUI en sus siglas EN inglés]”, que deja la interacción con el computador por medio de los elementos gráficos de la pantalla. Es un impacto excepcional, mas da más contexto.

Estas nuevas tecnologías han tenido un peso obvio en el trabajo. “Mi preocupación no es que la IA reemplace a los humanos”, afirma Meredith Whittaker, presidente de Signal, la app de correo. “Pero estoy profundamente preocupada de que las empresas lo utilicen para degradar y disminuir la posición de sus trabajadores hoy. El peligro no es que la IA haga el trabajo de los trabajadores, es que la introducción de la IA por parte de los empleadores se utilizará para empeorar estos trabajos, exacerbando aún más la desigualdad”, agrega.

Aún debe progresar, mas cuánto

Con mayor o menor fuerza su impacto en el trabajo va a ser notable. Pero hay algo aún poco definido sobre estas IA: aún se confunden mucho, sus llamadas alucinaciones. Es uno de los temas más fascinantes. El maestro de la Universidad Politécnica de Valencia e estudioso del Centro Leverhulme por el Futuro de la Inteligencia de Cambridge (Reino Unido) José Hernández-Orallo lleva años estudiándolo: “De momento están al nivel de un cuñado sabelotodo, en el futuro estarán al nivel de un buen experto, quizás más en unos temas que en otros: eso es lo que nos causa ansiedad porque no sabemos en qué temas es fiable. Es imposible hacer un sistema que no falle nunca, porque siempre le preguntaremos cosas más complejas. Los sistemas son capaces de lo mejor y de lo peor, son muy impredecibles”, explica.

Si no están maduros, ¿por qué han tenido este impacto tan repentino y grande en estos meses? Hay por lo menos dos motivos, afirma Hernández-Orallo: primero, la presión comercial. “El mayor problema viene porque hay una presión comercial, mediática y social a que estos sistemas siempre respondan algo, incluso cuando no están seguros. Si se pusieran unos umbrales más altos, estos sistemas fallarían menos, pero contestarían ‘no lo sé’ casi siempre. Hay miles de maneras de resumir un texto y hacerlo bien y la probabilidad de cada uno de ellos es muy baja”, afirma.

Segundo, la percepción humana: “Tenemos la impresión que un sistema de IA debe ser 100% correcto, como una mezcla de calculadora y enciclopedia”, afirma Hernández-Orallo. Pero no es así. “Para los modelos de lenguaje, generar un texto plausible, pero falso, es más sencillo. Igual ocurre con audio, vídeo, código. Los humanos también lo hacen todo el tiempo. Es especialmente evidente en los niños, que responden con frases que suenan bien, pero pueden carecer de sentido y les decimos ‘qué gracioso’, pero no vamos al pediatra porque ‘mi hijo alucina mucho’. Detrás de ambos casos, niños y ciertos tipos de IA, está la función objetivo de imitar lo mejor posible”, explica.

¿Y si nos hace dudar?

El gran impacto laboral se irá matizando cuando haya cosas que la IA no acabe de hacer bien o, afín, no sepamos si la hace bien. Será bastante difícil cuando la interroguemos sobre un libro que no hemos leído, si la contestación es totalmente fiable. Es probable que lo sea. O no. En ciertos casos la duda va a ser admisible. En otros va a ser un problema serio. Es probable que aun aceptemos una parte de los fallos como posibles y los admitamos. Pero aún no llegamos a esa etapa.

Esta delimitación de su impacto no limita el probable miedo principal: la llamada inteligencia artificial general o, mejor, sistemas de IA considerablemente más avanzados de los que tenemos hoy. En la imaginación colectiva se ha transformado en un término semejante a la “máquina que toma el control del software del mundo y destruye a los humanos”. “La gente usa ese concepto para todo, como cuando le dices a los niños que viene el coco”, expresa Hernández-Orallo. “La cuestión es, por ejemplo, un sistema de propósito general como GPT-4 cuánta capacidad tiene y si es preciso que sea más potente que un humano, todos los humanos, la media, el más listo, y para qué tareas. Todo está muy mal definido, y es imposible de verificar llegados a ese punto”.

Aunque este temor al “coco” sea bastante difícil de precisar, puede ser un término útil para meditar el futuro desde hoy: “Desde que hemos concebido máquinas que puedan reemplazarnos, las hemos temido. Tenemos pruebas sólidas de que necesitamos crítica y miedo, así como imaginación y asertividad cuando se trata de pensar en nuevas tecnologías”, asegura Matt Beane, maestro de la Universidad de California en Santa Bárbara.

Por ahora, anteriormente, este miedo ha sido recurrente. “Parecemos caer en una especie de trance en relación con estos sistemas [de IA], contando nuestra experiencia a estas máquinas”, afirma Whittaker. Y añade: “Reflexivamente, pensamos que son humanos, y comenzamos a asumir que nos están escuchando. Si observamos la historia de los sistemas que precedieron a ChatGPT, es notable que, aunque estos sistemas eran mucho, mucho menos sofisticados, la reacción a menudo era la misma. Las personas se encerraban en una relación íntima sucedánea con estos sistemas cuando los usaban, y como ahora, los expertos predecirían que estos sistemas pronto (siempre era “pronto”, jamás “ahora”) serían capaces de sustituir a los humanos por completo”.

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.