La inteligencia artificial no es solo cosa de ingenieros. Se puede ser de letras y, a la vez, una referencia en el discute mundial sobre las repercusiones sociales y morales de lo que hacen estos sistemas. Gemma Galdón (Mataró, Barcelona, cuarenta y siete años) se graduó en Historia Contemporánea y se doctoró en políticas públicas tecnológicas; es la creadora y primera ejecutiva de Morales Research and Consulting, compañía que examina los algoritmos para asegurar su uso responsable. “Ser consciente de cómo la sociedad ha resuelto problemas antiguos me da una perspectiva útil para trabajar con problemas nuevos”, cuenta en una cafetería de Madrid. “Hace 12 años, cuando me doctoré, éramos muy pocas las personas de las ciencias sociales que trabajáramos con tecnología”. Su empresa asesora a organismos europeos y estadounidenses. Tiene la maleta hecha: enseguida retorna a Nueva York, donde radica y donde el jueves recibió uno de los Hispanic Star Awards, premios a los agentes del cambio de la comunidad hispanohablante, en un acto en Naciones Unidas. Tuvo que mudarse, cuenta, pues en EE UU “el mercado está más receptivo a la IA responsable”.

Pregunta. ¿De qué forma es eso de auditar algoritmos?

Respuesta. Pues es inspeccionar sistemas de inteligencia artificial para poder ver de qué forma marchan, mas primeramente para asegurar que sus impactos en la sociedad son justos, que no existe ninguna discriminación. Y, además de esto, que los sistemas hacen lo que afirman que hacen.

P. ¿Y qué inconvenientes se halla?

R. Al principio estos sistemas son tan discriminatorios como la sociedad, mas tras poquísimo tiempo ya son considerablemente más discriminatorios que la sociedad. Porque lo que hace la IA es coger muchos datos de adiestramiento y buscar un patrón. Y el patrón siempre y en todo momento es el hombre blanco con trabajo estable; en el caso de los bancos, va a ser el usuario ideal. Cualquier perfil que sea minoritario o anecdótico lo suprime de la muestra. Con lo que una mujer tiene muchas menos opciones de que le diagnostiquen endometriosis a través de IA, pues históricamente no hemos diagnosticado endometriosis.

P. Hay quien afirma que no se puede examinar a fondo a la IA pues ni sus autores comprenden totalmente de qué forma marcha, sino aprende sola.

R. Falso. Esa idea de la caja negra es un mito, puro marketing. Creo que hay cierta voluntad por la parte del campo de la IA de que se la vea como algo mágico, que nos pensemos que es una cosa que no podemos comprender y quitarnos la capacidad de intervenir. Lo que hemos visto es que podemos auditar en el momento en que nos contrata un usuario y nos enseña casi todo, mas asimismo desde fuera podemos hacer ingeniería inversa y ver de qué forma marcha un sistema en función de sus impactos.

P. Ha asesorado a instituciones políticas para regular la IA. ¿Qué es lo que pretenden?

R. Lo que ha pasado en los últimos tiempos es que el legislador, con buenísimas pretensiones, ha generado una regulación muy abstracta, muy basada en principios, y la industria se ha quejado de no tener prácticas específicas. Tenemos una industria nacida al albur de Silicon Valley, habituada a esa idea de “muévete rápido y rompe cosas”, sin ser siendo consciente de que lo que pueda romper sean derechos esenciales o leyes. En ocasiones hay una cierta obsesión con solicitar el código o los modelos fundacionales. A mí jamás me han sido útiles. Estamos pidiendo un nivel de trasparencia que no es útil para auditar, para inspeccionar los impactos. Si sabes que hay un instante de inspección en el que te valoramos ciertas métricas, debes comenzar a hacer cambios. Con lo que cambiamos los incentivos de la industria de la tecnología a fin de que tengan presente el impacto y el corte, cualquier clase de disfunción.

P. ¿Le defrauda o le satisface la ley de IA que ha acordado la Unión Europea?

R. Me semeja un paso de gigante en la regulación: es la primera ley sobre estos temas en Occidente. Lo que me defrauda es el papel de Europa en el momento de ir más allí, de crear un mercado vinculado a la IA responsable. Tanto Estados Unidos como Asia y China se ponen las pilas.

La Inteligencia Artificial General está tan cerca como cuando Platón charlaba de las posibilidades de otros géneros de mundos

P. ¿Es inteligencia artificial todo cuanto se presenta como tal?

P. ¿Se impondrá una IA responsable?

R. Soy optimista. Cuando auditamos, nos hallamos con sistemas sesgados que asimismo marchan mal. La inteligencia artificial es de malísima calidad y en algún instante la industria tendrá que hacerla mejor. Estos sistemas nacieron de herramientas de entretenimiento como Netflix, que pueden tener un margen de fallo elevado. Si la película que te aconseja Netflix no es la que deseas ver tras otra, no pasa nada. Pero si la IA desea trabajar en el campo médico recomendando un tratamiento; o en la selección de personal decidiendo a quién contratamos o a quién despedimos; o en la asignación de recursos públicos… debe marchar bien. Ahora mismo, la IA que admitimos no solo es sesgada, sino, además de esto, no marcha bien. Lo bueno es que los dos inconvenientes se resuelven a la vez. Cuando se aborda el inconveniente del corte, se abordan asimismo las otras ineficiencias.

Gemma Galdón, el pasado día 27 de noviembre en Madrid.
Gemma Galdón, el día pasado veintisiete de noviembre en Madrid. Moeh Atitar

P. La salida y reincorporación de Sam Altman como consejero encargado de OpenAI se han relacionado con un supuesto avance fenomenal cara la Inteligencia Artificial General (IAG), o superinteligencia, algo que amenaza a la humanidad. ¿Se lo cree?

R. La Inteligencia Artificial General está tan cerca como cuando Platón charlaba de las posibilidades de otros géneros de mundos y de vidas. La humanidad siempre y en todo momento ha soñado con reproducir automáticamente la conciencia humana. Hemos sido capaces de soñar futuros de ciencia ficción. Hay un discute sobre la IAG que no tiene nada que ver ahora con las capacidades tecnológicas.

P. ¿No van a superarnos las máquinas a los humanos?

R. La forma en que pensamos los humanos, la inventiva, lo nuevo, no guarda relación con la IA. Un ejercicio muy sencillo: si le damos a un sistema toda la obra de Picasso ya antes de mil novecientos treinta y siete y le preguntamos: ¿cuál va a ser la próxima pintura de Picasso?, nos va a sacar cualquier cosa. Y en mil novecientos treinta y siete pinta el Guernica. Las personas evolucionamos en nuestra forma de expresarnos, de querer, de trabajar, de redactar, de crear. Plantear que en algún instante un sistema de datos estadístico y matemático va a dar un salto a la consciencia es una alucinación.

P. También lleva por nombre alucinación a lo que hace ChatGPT cuando se inventa contestaciones a las preguntas. Es poco fiable, ¿verdad?

R. Es el caso de un letrado que trabaja defendiendo a víctimas de pedofilia y ChatGPT le hace una biografía de pederasta. ¿Por qué? Porque su nombre aparece con estas palabras la mayor parte de veces o más veces con estas palabras que con otra, con lo que te asocia esta palabra y ya está.

En algún instante nos debemos proponer sacar tecnologías contaminantes de la circulación, como las criptomonedas

P. Usted estudia el impacto social de la IA. ¿Y qué hay del impacto ecológico? Porque los centros de datos se han transformado en grandes dispendiosos de agua y energía.

R. No tiene ningún sentido que ahora, en el momento en que te hacen una auditoría ambiental en tu empresa, vengan a ver qué género de lámparas tienes y no te miren dónde se encuentran los servidores y cuánto debe viajar la información. No ha habido ninguna voluntad de cuantificar el impacto ambiental de los procesos de datos y de estimular que la industria tenga servidores próximos al sitio de provisión de la información. Es un discute que aún no hemos tenido. En la era del cambio climático carece de sentido que prácticamente todo el planeta hable de la tecnología como la solución y no como uno de los inconvenientes.

P. De criptomonedas, entonces, ni charlamos. Con lo que gastan.

R. Igual que sacamos turismos contaminantes de la calle, en algún instante nos debemos proponer sacar tecnologías contaminantes de la circulación. Igual debemos comenzar a prohibir arquitecturas blockchain cuando el valor social no se percibe. Lo que aportan las criptomonedas es una herramienta de especulación, un mecanismo de inversión más semejante a una estafa piramidal… Si estuviésemos salvando vidas diría: mira, puesto que igual se justifica.

_

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.