En de año en año que llevo en el planeta jurídico no había visto a absolutamente nadie emplear el razonamiento de “estoy muy loco, paradme” para eludir la regulación. “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, firman y aseveran Demis Hassabis, CEO de Google DeepMind, o Sam Altman, CEO de OpenAI – de bolos por Europa- entre una larga lista de gestores y científicos especialistas en IA en una declaración publicada en el web del Center for AI Safety, O.N.G. de la que no es posible saber por su web en qué momento se formó ni quien paga las facturas.
Leo esto y solo puedo meditar, puesto que apagadla y dejadnos continuar con nuestra vida de elección en elección, que bastante tenemos con nuestros peligros existenciales rutinarios para lidiar con el fin del planeta a manos de Skynet. Si aplicamos el estado de alarma a los controladores aéreos para irnos de vacaciones, no sé qué hace Biden que no manda a la Guardia Nacional a la sede de OpenIA a apagar los servidores. Si estuviese Bruce Willis al mando habría acabado con tanta tontería ya, mas semeja que solo tenemos burócratas naïfs víctimas del tocomocho.
Apliquemos la lógica de los colapsos inminentes. En el caso de la amenaza nuclear, el peligro se atenúa con el equilibrio de fuerzas, con el principio de destrucción mutua asegurada. Me agradan principios así, basados en el profundo conocimiento de la naturaleza humana, de esos que interpelan a la amígdala y marchan bien en el caso de enfrentamiento. El peligro de pandemia, como hemos experimentado en nuestras carnes, es multifactorial en sus causas y en sus responsables, por lo que es bastante difícil de atenuar. Así que como no somos capaces de poner medidas eficaces para limitar su ocurrencia (si bien las haya) lo que hacemos es reaccionar desarrollando nuevas vacunas que, si marchan apropiadamente, atenuarán el peligro de que una pandemia vuelva a ocurrir.
Con sus defectos, estos sistemas de mitigación de peligros semejan racionales, basado en la experiencia y la ciencia. Pero cuando llegamos a de qué forma solucionar los inconvenientes existenciales de una IA asesina en vez de hacer lo razonable, apagarla o desconectarla de internet, prohibirla operar o tirarla a la basura, nuestra reacción es hacerle una auditoría, eso sí voluntaria, no se vaya a encolerizar HAL ya antes de tiempo y nos lance una lluvia de fuego y ranas asesinas que nos transforme en protagonistas de la vigesimocuarta serie de zombis. Reconozco que esta lógica o su ausencia me supera. Y reconozco que la reconozco por el hecho de que los jefes de las tecnológicas son unos trileros listísimos que nos llevan toreando desde hace varias décadas.
Antes les bastaba con poner “innovación” al comienzo de las oraciones para persuadir a unos gobernantes más interesados por conquistar el campo de batalla que en los derechos de los ciudadanos. La lógica de dejar medrar y después regular está en todas y cada una de las revoluciones industriales y sociales, y, por ende, tiene una base racional si bien se haya equivocado clamorosamente en esta. En el análisis de peligros racional se ponderó más el desarrollo económico, el control de ámbitos claves y el posicionar a Estados Unidos a la cabeza por encima de los derechos individuales. No me agrada, se han equivocado en el cálculo en un largo plazo, mas responde a una metodología racional. Cuando pensamos en peligros existenciales preferimos que todo el planeta se deje las emociones en casa.
Ahora que los reguladores y gobiernos no están, respecto a las tecnológicas, en el ciclo expansionista, sino más bien en el regulativo, los technomoguls saben que crear es mucho más difícil. Y eso es un fastidio en el momento en que te has gastado la hijuela en una tecnología de desarrollo lento mas de explosión y expansión veloz. Qué mala pata, ha debido de meditar Sam Altman, que no me ha cogido el estallido de la IA generativa al comienzo de los dos mil. Qué tiempos para hacer lo que a uno le daba la real gana. Así que, chaval listo, nos ha aplicado una descarga de doctrina del shock y se ha quedado tan ancho. Naomi Klein lo estudió realmente bien en su obra del mismo título: si amedrentas lo bastante, te van a dejar hacer lo impensable. Y lo ejemplarizó en su obra con el desastre que supuso la aplicación del susto o muerte en el Chile de Pinochet, laboratorio de prueba de las políticas económicas ultraliberales de Friedman y la Escuela de Chicago. Da igual cuántas explicaciones de weblog minoritario se den para explicar de qué forma nos están distrayendo de lo esencial. El susto está dado y Bruce ni viene ni se le espera.
Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica.
Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales, es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.