Geoffrey Hinton anunció el primer día de la semana que ha renunciado a su puesto como vicepresidente de ingeniería de Google. Quiere dedicarse a alertar sobre el dorso lúgubre de la inteligencia artificial (IA), conforme afirmó en una entrevista concedida a The New York Times. La suya no es una baja cualquiera: natural de Wimbledon hace setenta y cinco años, este británico asentado en Canadá es una historia de leyenda en la disciplina. Su trabajo ha sido definitivo para iluminar ciertas técnicas que han hecho posible ChatGPT, los traductores automáticos o los sistemas de visión de los automóviles autónomos. Hinton cree ahora que la tecnología que tanto ha ayudado a desarrollar puede llevarnos al fin de la civilización en cuestión de años.

La obsesión de este científico siempre y en toda circunstancia fue estudiar de qué manera marcha el cerebro para intentar contestar esos mecanismos en los ordenadores. En mil novecientos setenta y dos acuñó el término de red neuronal. La idea de fondo es aplicar matemáticas al análisis de datos a fin de que el sistema sea capaz de desarrollar habilidades. Su propuesta no persuadió en la época; hoy, las redes neuronales son la vanguardia de la investigación en IA. El gran instante de Hinton llegó en dos mil doce, cuando probó el auténtico potencial de su línea de investigación con una red neuronal que podía examinar miles y miles de fotografías y aprender por sí misma a distinguir algunos objetos, como flores, vehículos o perros. También adiestró un sistema a fin de que fuera capaz de pronosticar las próximas letras de una oración inconclusa, un predececesor de los presentes grandes modelos lingüísticos como el de ChatGPT.

Su trabajo le valió el Premio Turing, considerado el Nobel de la informática, que recibió en dos mil dieciocho al lado de otros estudiosos como Yann LeCun, exalumno suyo, o Yoshua Bengio. También tiene en sus vitrinas el premio Fronteras del Conocimiento que entrega la Fundación Banco Bilbao Vizcaya Argentaria, y el Premio Princesa de Asturias de Investigación Científica. Hinton atiende a Forbes Hispano por videoconferencia desde su casa de Londres, donde se ha trasladado tras dejar Google.

Pregunta. ¿Cuáles son los riesgos de la IA a los que nos encaramos?

Respuesta. Hay muchos. La generación de noticias falsas ya está ocasionando grandes divisiones en la sociedad. La supresión de determinados géneros de trabajo va a tener un impacto en el uso. Aumentará la disparidad de riqueza entre los ricos y los pobres. Esos son ciertos riesgos inminentes, si bien no me centro en esos, sino más bien en otro de carácter existencial. Hace poco me percaté de que el género de inteligencia digital que estamos desarrollando podría ser una forma de inteligencia mejor que la de los cerebros biológicos. Siempre creí que la IA o el aprendizaje profundo procuraban imitar el cerebro, si bien no podían igualarlo: la meta era ir mejorando a fin de que las máquinas se pareciesen más y más a nosotros. He alterado de postura en los últimos meses. Creo que podemos desarrollar algo que es considerablemente más eficaz que el cerebro pues es digital.

P. ¿Por qué lo cree?

R. El razonamiento es el próximo. Con un sistema digital, podrías tener muchas copias de el mismo modelo del planeta. Estas copias pueden marchar en diferentes hardwares. De este modo, diferentes copias podrían examinar datos diferentes. Y todas y cada una estas copias pueden saber al momento lo que el resto han aprendido. Lo hacen compartiendo sus factores. No podemos hacer eso con el cerebro. Nuestras psiques han aprendido a usar sus propiedades de forma individual. Si te diese un mapa detallado de las conexiones neuronales de mi cerebro, no te serviría de nada. Pero en los sistemas digitales, el modelo es idéntico. Todos utilizan exactamente el mismo conjunto de conexiones. Así, cuando uno aprende cualquier cosa, puede comunicárselo a el resto. Y es por eso que ChatGPT puede saber miles y miles de veces más que cualquier persona: pues puede ver miles y miles de veces más datos que absolutamente nadie. Eso es lo que me atemoriza. Tal vez esta forma de inteligencia sea mejor que la nuestra.

Por lo que sabemos hasta el momento sobre el funcionamiento del cerebro humano, seguramente nuestro proceso de aprendizaje es menos eficaz que el de los ordenadores

P. Usted lleva décadas trabajando en esta disciplina. ¿De qué forma ha llegado ahora a esta conclusión?

R. Ha sido al intentar descubrir de qué manera un cerebro podría incorporar exactamente los mismos procedimientos de aprendizaje que se emplean en inteligencias digitales como las que están tras ChatGPT-cuatro. Por lo que sabemos hasta el momento sobre el funcionamiento del cerebro humano, seguramente nuestro proceso de aprendizaje es menos eficaz que el de los ordenadores.

P. ¿Puede la IA ser verdaderamente inteligente si no comprende lo que significan las palabras o sin tener intuición?

R. El aprendizaje profundo, si lo equiparas con la IA simbólica [la corriente dominante en la disciplina hasta la irrupción de las redes neuronales, que trataba de que la máquina aprendiese palabras y números], es un modelo de intuición. Si tomas la lógica simbólica como referencia, si piensas que es así como marcha el argumento, no puedes contestar a el interrogante que te haré. Pero si tienes un modelo informático de intuición, la contestación es obvia. Así que esta es la pregunta: sabes que hay gatos machos y hembras, y sabes que hay perros machos y hembras. Pero imaginemos que te digo que debes escoger entre dos posibilidades, las dos ridículas: todos y cada uno de los gatos son machos y los perros son hembras, o todos y cada uno de los gatos son hembras y todos y cada uno de los perros son machos. En nuestra cultura, tenemos bastante claro que tiene más sentido que los gatos sean hembras, pues son más pequeños, más listos y les rodean una serie de estereotipos, y que los perros sean machos, pues son mayores, más estúpidos, más estruendosos, etc.. Repito, no tiene ningún sentido, mas forzados a elegir, creo que la mayor parte afirmaría lo mismo. ¿Por qué? En nuestra psique representamos al gato y al can, al hombre y a la mujer, con grandes patrones de actividad neuronal basándonos en lo que hemos aprendido. Y asociamos entre sí las representaciones que más se semejan. Ese es un argumento intuitivo, no lógico. Así es como marcha el aprendizaje profundo.

El CEO de Alphabet (empresa matriz de Google), Sundar Pichai, y el de OpenAI, Sam Altman, llegan el jueves a la Casa Blanca para asistir a una reunión sobre inteligencia artificial con la vicepresidenta Kamala Harris.
El CEO de Alphabet (empresa matriz de Google), Sundar Pichai, y el de OpenAI, Sam Altman, llegan el jueves a la Casa Blanca para acudir a una asamblea sobre inteligencia artificial con la vicepresidenta Kamala Harris.Evan Vucci (AP)

P. Usted mantiene que hasta el momento creía que la IA llegaría a superar a la inteligencia humana en unos treinta o cincuenta años. ¿Cuánto piensa que queda ahora?

R. De 5 a veinte años.

P. Eso está a la vuelta de el rincón.

R. No confío mucho en mi pronóstico pues creo que me confundí en el primero, mas es obvio que todo se ha acelerado.

P. ¿Cree que la IA va a llegar a tener su propósito u objetivos?

R. Esa es una cuestión clave, quizá el mayor riesgo que rodea a esta tecnología. Nuestros cerebros son el fruto de la evolución y tienen una serie de metas integradas, como no herir el cuerpo, de ahí la noción del daño; comer lo bastante, de ahí el hambre; y hacer tantas copias de nosotros mismos como resulte posible, de ahí el deseo sexual. Las inteligencias sintéticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. Así que la enorme pregunta es, ¿podemos asegurarnos de que tengan metas que nos favorezcan a nosotros? Este es el llamado inconveniente del alineamiento. Y tenemos múltiples razones para preocuparnos mucho. La primera es que siempre y en toda circunstancia va a haber quienes deseen crear robots soldados. ¿O piensa que Putin no los desarrollaría si pudiese? Eso lo puedes lograr de forma más eficaz si le das a la máquina la capacidad de producir su conjunto de objetivos. En ese caso, si la máquina es inteligente, no va a tardar en percatarse de que logra mejor sus objetivos si se vuelve más poderosa.

Deberíamos poner tanto esmero en desarrollar esta tecnología como en asegurarnos de que sea segura

P. ¿Qué debemos hacer ahora?

R. Hay que llamar la atención de la gente sobre este inconveniente existencial que supone la IA. Ojalá tuviese una solución, como en el caso de la urgencia climática: hay que parar de quemar carbono, si bien haya muchos intereses que lo impidan. No conozco ningún inconveniente equivalente al de la IA. Así que lo mejor que se me ocurre ahora es que deberíamos poner tanto esmero en desarrollar esta tecnología como en asegurarnos de que sea segura. Y eso no sucede hoy día. ¿De qué forma se consigue eso en un sistema capitalista? Eso no lo sé.

P. ¿Cree que una parte del inconveniente radica en el hecho de que el desarrollo de la IA lo están haciendo empresas privadas?

R. Así ha sido a lo largo de los últimos años. Google desarrolló interiormente chatbots como LaMDA, que eran buenísimos, y de manera deliberada decidió no abrirlos al público pues estaban preocupados por sus consecuencias. Y así fue mientras que Google lideraba esta la tecnología. Cuando Microsoft decidió poner un chatbot inteligente en su buscador Bing, Google debió contestar pues operan un sistema competitivo. Google se comportó de forma responsable, y no deseo que la gente crea que me fui para criticar a la compañía. Dejé Google para poder advertir sobre los riesgos sin meditar en el impacto que pueda ocasionar en su negocio.

P. ¿Ha hablado de su resolución con otros colegas? ¿Tienen exactamente las mismas preocupaciones que ?

R. Hemos entrado en un territorio absolutamente ignoto. Somos capaces de edificar máquinas más fuertes que , mas aun así tenemos el control. ¿Qué pasa si desarrollamos máquinas más inteligentes que ? No tenemos experiencia en tratar estas cosas. Hay gente a la que respeto, como mi colega Yann LeCun, que piensa que lo que digo carece de sentido. Sospecho que verdaderamente debemos meditar mucho en esto. Y no es suficiente con decir que no vamos a preocuparnos. Muchas de las personas más inteligentes que conozco están con seriedad preocupadas. Es lo que me ha persuadido a dar un paso adelante y utilizar mi reputación a fin de que la gente se percate de que se trata de un inconveniente muy grave.

No sirve de nada aguardar a que la IA sea más lista que , debemos supervisarla conforme se desarrolla

P. Usted no firmó la carta subscrita por más de mil especialistas en IA que pedía una moratoria de 6 meses en la investigación. ¿Por qué?

R. Creo que ese enfoque es absolutamente ingenuo. No hay forma de que eso suceda. Aun salvando la competencia entre las grandes empresas, está la de los países. Si EE UU decidiese dejar de desarrollar IA, ¿verdaderamente piensa que China se detendría? La idea de detener la investigación llama la atención de la gente sobre el inconveniente, mas no sucederá. Con las armas nucleares, puesto que la gente se percató de que todos perderíamos si había una guerra nuclear, fue posible lograr tratados. Con la IA va a ser mucho más difícil pues es realmente difícil revisar si la gente trabaja en ello.

P. ¿Qué plantea, entonces?

R. Lo mejor que puedo aconsejar es que bastantes personas muy inteligentes traten de descubrir de qué manera contener los riesgos de estas cosas. La IA es una tecnología fabulosa, está provocando grandes avances en la medicina, en el desarrollo de nuevos materiales, en la previsión de terremotos o inundaciones… Necesitamos mucho trabajo para comprender de qué manera contener la IA. No sirve de nada aguardar a que la IA sea más lista que , debemos supervisarla conforme se desarrolla. También debemos entender de qué manera contenerla, de qué manera eludir sus malas consecuencias. Por ejemplo, creo que todos y cada uno de los gobiernos deberían insistir en que todas y cada una de las imágenes falsas lleven un propio.

P. ¿Es optimista sobre el futuro que nos espera?

R. Tiendo a ser una persona bastante optimista. Hay posibilidades de que no tengamos forma de eludir un mal final. Pero es obvio que asimismo tenemos la ocasión de prepararnos para este reto. Necesitamos bastante gente creativa e inteligente. Si existe alguna forma de sostener la IA bajo control, precisamos descubrirla antes que sea demasiado inteligente.

P. ¿Confía en que los gobiernos hallen la manera de regular esta tecnología?

R. En Estados Unidos, el sistema político es inútil de tomar una resolución tan simple como no dar fusiles de ataque a los adolescentes. Eso no aporta mucha confianza sobre de qué manera van a manejar un inconveniente mucho más difícil como este.

P. El verano pasado, el ingeniero de Google Blake Lemoine se hizo renombrado en el mundo entero al decir que el chatbot en el que trabajaba, LaMDA, había cobrado conciencia. ¿Fue ese caso premonitorio de lo que se nos venía encima?

R. Creo que lo que pasó encierra dos debates diferentes. Primero, ¿se volverán las máquinas más inteligentes que nosotros para poder tomar el mando? Y segundo, ¿son conscientes o sensibles, o lo que sea que desee decir eso? El discute más esencial es el primero; en el segundo intervienen las opiniones personales, y a mí eso no me resulta interesante. En cualquier caso, me sorprende que haya muchas personas que están segurísimas de que las máquinas no son conscientes, mas que al tiempo no sepan acotar qué es lo que significa que algo o alguien sea consciente. Me semeja una situación imbécil.