La inteligencia artificial (IA) supone un “riesgo de extinción” para la humanidad, del mismo modo que catástrofes como una guerra nuclear o una pandemia. Esas son las conclusiones de un conjunto de trescientos cincuenta ejecutivos, estudiosos e ingenieros especialistas en esta tecnología en una carta abierta de solo veintidos palabras publicada este martes por el Centro para la Seguridad de la IA, una organización sin fines de lucro. “Mitigar el riesgo de extinción [para la humanidad] de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, cita el enunciado que ha sido firmado, entre otros muchos, por los altos ejecutivos de 3 de las primordiales empresas de inteligencia artificial: Sam Altman (presidente ejecutivo de OpenAI), Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic). Entre los firmantes asimismo se hallan los estudiosos Geoffrey Hinton y Yoshua Bengio, a quienes menudo se les considera padrinos del movimiento moderno de IA. Hinton dejó hace unas semanas Google, donde ocupaba una vicepresidencia, pues piensa que esta tecnología puede llevarnos al fin de la civilización en cuestión de años, conforme confesaba a Forbes Hispano.

La declaración llega en un instante de creciente preocupación cara un ámbito en veloz desarrollo y bastante difícil de supervisar. El mismo Sam Altman se había ya pronunciado sobre este tema a lo largo de su comparecencia frente al Senado estadounidense, cuando reconoció la relevancia de regular la inteligencia artificial generativa. “Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal”, afirmó hace apenas un par de semanas a lo largo de la primera audiencia sobre IA festejada en el Capitolio. El padre de OpenAI —la compañía que ha desarrollado ChatGPT, el programa de inteligencia artificial más popular y poderoso en este campo— agregó que entendía que la “gente esté ansiosa por cómo [la IA] puede cambiar la forma en que vivimos”, y que por tal razón es preciso “trabajar juntos para identificar y gestionar las posibles desventajas para que todos podamos disfrutar de las tremendas ventajas”.

No era la primera vez que uno de los empresarios más implicados en esta tecnología hacían declaraciones de esta extensión con respeto al futuro de la IA. En marzo, más de mil intelectuales, estudiosos y empresarios habían firmado otra carta abierta en la que pedían frenar a lo largo de “al menos seis meses el desarrollo de sistemas de IA más poderosos que GPT4″, la última versión de ChatGPT. En la carta, los firmantes advertían de que la herramienta de OpenAI ya es capaz de competir con los humanos en un creciente número de tareas, y que se podría utilizar para destruir empleo y difundir desinformación. “Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, aseguraba la carta, que firmó asimismo el magnate Elon Musk, creador de Tesla y SpaceX y dueño de Twitter, que es asimismo uno de los creadores de OpenAI.

Otra voz de alarma en este campo fue la del británico Geoffrey Hinton, que a principio de mayo dejó su trabajo en Google para poder advertir con mayor libertad de los riesgos que proponen estas nuevas tecnologías. “Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores, confesaba hace unas semanas a Forbes Hispano. Hinton aseguraba en esa misma entrevista que quedan “de cinco a 20 años” a fin de que la inteligencia artificial supere a la humana. “Nuestros cerebros son el fruto de la evolución y tienen una serie de metas integradas, como no lastimar el cuerpo, de ahí la noción del daño; comer lo suficiente, de ahí el hambre; y hacer tantas copias de nosotros mismos como sea posible, de ahí el deseo sexual. Las inteligencias sintéticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. Así que la gran pregunta es, ¿podemos asegurarnos de que tengan metas que nos beneficien a nosotros?”, afirmaba.