El británico Geoffrey Hinton, uno de los grandes vanguardistas en el desarrollo de la inteligencia artificial (IA), ha dejado su trabajo en Google para poder advertir con mayor libertad de los riesgos que proponen estas nuevas tecnologías, conforme aseguró en una entrevista publicada este lunes por The New York Times. De manera frecuente llamado el padrino de la IA, Hinton aseguró que a sus setenta y cinco años lamenta ahora haber dedicado su carrera a este campo. “Me consuelo con la excusa normal: si no hubiese sido yo, otro lo habría hecho”, apuntó al diario neoyorkino. La voz de alarma se aúna a las advertencias que en los últimos meses han hecho otros especialistas, sobre todo a causa del lanzamiento de la inteligencia artificial generativa como el popular ChatGPT y las grandes apuestas a que los gigantes tecnológicos hacen en este campo. Hinton era vicepresidente de Ingeniería en Google.

“Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, afirmó Hinton en la entrevista, en la que informa sobre la excesiva velocidad a la que se están consiguiendo avances. “Mire cómo era hace cinco años y cómo es ahora”, apuntó. “Tome la diferencia y propáguela hacia adelante. Eso asusta”, apuntó Hinton, que el año pasado recibió el Premio Princesa de Asturias de Investigación Científica y Técnica al lado de otros 3 vanguardistas de la IA por su trabajo.

A corto plazo, este especialista teme sobre todo que internet se vea anegada de falsos textos, fotografías y vídeos, y que los ciudadanos no puedan ser capaces de distinguir lo que es real, mas asimismo piensa que estas tecnologías pueden sustituir a numerosos trabajadores y, más adelante, suponer aun una amenaza para la humanidad. “Algunos creían en la idea de que estas cosas en realidad podrían volverse más inteligentes que las personas”, explicó. “Pero la mayoría de la gente pensaba que estaba muy lejos. Yo mismo pensaba que estaba muy lejos. Creía que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, agregó.

En su opinión, se deberían frenar los trabajos en este campo hasta el momento en que se comprenda bien si va a ser posible supervisar la IA, una idea online con otros llamamientos públicos de personalidades del campo tecnológico que han pedido suspender provisionalmente los ensayos. Hace unas semanas se conocía que más de mil empresarios, intelectuales e estudiosos de primer nivel relacionados con esta tecnología habían firmado una carta abierta en la que piden una moratoria en su desarrollo para reflexionar sobre sus consecuencias.

Más específicamente, estos especialistas solicitaban una pausa de “al menos seis meses en el desarrollo y pruebas de sistemas de IA más poderosos que GPT4″, la última versión del gran modelo de lenguaje que usa ChatGPT. La carta advierte de que este último modelo ya es capaz de competir con los humanos en un creciente número de tareas, y que podría usarse para destruir empleo y difundir desinformación. Por ello, reclaman un desarrollo seguro y solo cuando estén seguros de que sus efectos serán positivos. “Desafortunadamente”, asegura la carta, “este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”.

A través de Twitter, Hinton deseó apostillar después que no deja Google para poder criticar a la empresa, sino más bien para poder charlar de los riesgos de la inteligencia artificial sin preocuparse del impacto que esas creencias ocasionarían en la compañía en la que trabajaba, una compañía que según él “ha actuado de forma muy responsable”.

Geoffrey Hinton, maestro de la Universidad de Toronto (Canadá) y premio Fundación Banco Bilbao Vizcaya Argentaria Fronteras del Conocimiento en dos mil diecisiete, desarrolló en dos mil cuatro los conceptos en los que se ha venido trabajando desde hace medio siglo y los ha orientado al aprendizaje mecánico y reconocimiento de elementos tan complejos como el habla o la imagen. Hinton creó una comunidad de investigación a la que se sumaron Yann LeCun, de la Universidad de New York, y Yoshua Bengio, de la de Montreal (Canadá). En mil novecientos ochenta y seis, Hinton ideó los algoritmos de retropropagación, esenciales para el adiestramiento de redes neuronales. Con , en dos mil doce logró crear una red neuronal convolucional llamada AlexNet, compuesta por seiscientos cincuenta neuronas y entrenada con uno con dos millones de imágenes, que registró solo un veintiseis% de fallos en el reconocimiento de objetos y redujo a la mitad el porcentaje de sistemas precedentes. LeCun sumó una tecnología de reconocimiento óptico de caracteres.

“No me gustaban las primeras teorías de la inteligencia artificial (IA) porque se basaban mucho en la lógica y eso es algo que los humanos tardamos mucho en desarrollar”, explicó Hinton a Forbes Hispano tras la concesión de su premio. El estudioso explicó que estaba más interesado en conocer de qué forma marcha el cerebro humano, cuáles son los fundamentos del aprendizaje y en buscar la manera de aplicar esos principios a las máquinas. “El cerebro humano es la mejor máquina. Mi objetivo era comprender cómo trabaja la gente y simular ese sistema y creo que la mejor manera de hacerlo es construir modelos de redes neuronales artificiales”, explicó.

Puedes continuar a Forbes Hispano Tecnología en Facebook y Twitter o apuntarte acá para percibir nuestra newsletter semanal.