Gabriela Ramos llegó en dos mil veinte a la Unesco, la agencia de Naciones Unidas para la Educación, la Ciencia y la Cultura, con una misión: debía sacar adelante una suerte de Declaración Universal de la Inteligencia Artificial (IA). El documento, que por último se llamó Recomendación sobre la Moral en la Inteligencia Artificial, se presentó en dos mil veintiuno y ha sido firmado por ciento noventa y tres países, si bien solo veinticuatro lo están incorporando. De carácter no vinculante, ofrece pautas de actuación en temas como la gobernanza de los datos, las tecnologías de espionaje masivo, el abuso de los cortes cognitivos el control de la neurotecnología. Cuenta, entre otros muchos, con el visto bueno de la Comisión Europea o Japón y de empresas como Microsoft o Telefónica.

La iniciativa de la Unesco corría el riesgo de caer en la intrascendencia. Pero entonces llegó ChatGPT. Los miedos que lúcida esta herramienta favoreció la publicación hace 3 semanas de una carta firmada por miles y miles de especialistas en IA que solicitan una moratoria en el desarrollo de esta tecnología. Ese toque de atención de ciertos progenitores de la disciplina ha renovado el interés en el trabajo de la agencia de la ONU. “Ha habido un crecimiento exponencial de consultas de países que quieren reunirse con nosotros. Tenemos conversaciones avanzadas con 18 países. Allí donde nos lo solicitan, desarrollamos una medición del impacto ético de la IA. Ayudamos a hacer diagnósticos, a evaluar los equipos de los gobiernos y a pensar qué tipo de institución tendría que supervisar el desarrollo de estas regulaciones”, explica por videoconferencia Ramos, natural de Michoacán hace cincuenta y nueve años.

La mexicana cuenta con una extensa carrera como funcionaria internacional, desarrollada eminentemente en la Organización para la Cooperación y el Desarrollo Económicos y el G20. Desde dos mil veinte es subdirectora general de la Unesco. “Toda la incertidumbre que rodea a ChatGPT respecto de su impacto y de su desarrollo nos está ayudando a que haya una mayor conciencia sobre un tema clave. Ese es el único lado positivo de todo esto”.

Pregunta. ¿Qué opina de ChatGPT y del bum de la inteligencia artificial generativa?

Respuesta. ChatGPT confirma lo que veníamos diciendo: que hay un desarrollo exponencial de estas tecnologías. Antes estábamos preocupadísimos en comprender que los algoritmos de machine learning [aprendizaje automático] tuviesen firmeza en sus definiciones y en asegurarnos de que los datos que utilizaban fuesen de calidad. Los grandes modelos de lenguaje en los que se apoyan los chatbots hacen aún más bastante difícil comprender de qué manera marchan. Y creo que este es el tema esencial. Es una pena, por el hecho de que estamos frente a una tecnología increíble. Pero tiene exactamente los mismos inconvenientes que la IA menos masiva: cuando llegan al mercado, no siempre y en todo momento son seguros, fiables ni trasparentes. Todos estos desarrollos se dan en un vacío regulativo por norma general. Europa está avanzando sus directivas. El propio presidente Biden ya llamó ahora una consulta para poder ver si se deben garantizar estos desarrollos antes que lleguen al mercado. China ha establecido reglas para quienes deseen sacar productos basados en esta tecnología.

P. ¿Hace falta regular la IA?

R. Necesitamos un marco que nos deje medir ex ante. Se precisa una evaluación del impacto ético en las libertades, en los derechos, en los resultados inclusivos, y todo eso debe acontecer antes que el producto esté en el mercado. Debe haber determinados procedimientos que dejen asegurarnos que estos desarrollos estén plenamente probados y que por lo menos comprendemos cuál puede ser su impacto. Pero proseguimos en el planeta al revés: primero los sueltas y después te preguntas cuáles son sus consecuencias. Me semeja absurdo tener que estar diciendo que precisamos regulaciones. Todos los mercados están regulados. Imagínate si las farmacéuticas pudiesen comercializar cualquier medicina sin ningún género de chequeo. O si pudieses abrir un restorán y servir comida de la calidad que desees. El tema no es si habrá o no habrá regulación, sino más bien de qué tipo.

P. Miles de especialistas firmaron hace 3 semanas una carta en la que solicitan una moratoria en la investigación en IA generativa. ¿Está conforme con ella?

R. Lo que nos confirma esa carta es que no nos sentimos capaces de manejar estos sistemas. Creo que la carta tiene sentido. Todo el planeta ha puesto el énfasis en la pausa, mas lo que se solicita asimismo es que no haya más desarrollos antes que contemos con marcos regulativos sólidos. En eso ha estado trabajando la Unesco a lo largo de los últimos un par de años, desde el instante en que los ciento noventa y tres países miembros nos aprobaron la Recomendación sobre la Moral en la Inteligencia Artificial. La pregunta que cabe acá es si los gobiernos cuentan con las competencias, las instituciones y las legislaciones para moderar y para regir la IA. La carta de los especialistas ha hecho que bastante gente se esté notificando más ahora sobre el tema. Que estos señores, que son las personas que han desarrollado esta tecnología, afirmen que se precisa una pausa desea decir que ni mismos esperan que puedan manejarla. Yo no creo que la moratoria sea una alternativa realista. Lo que tenemos es que apresurar las regulaciones. Y ahí sí estoy de acuerdo: precisamos mecanismos de gobernanza de la inteligencia artificial.

Queremos establecer una plan de actuación sobre de qué manera comprender la IA, de qué manera enfocar estos desarrollos, de qué manera prevenir los impactos negativos, de qué manera definirlos y de qué manera avanzar regulaciones e instituciones”

P. ¿Qué plantea la Recomendación de la Moral en la IA de la Unesco?

R. Decimos que las tecnologías deben reforzar los derechos humanos, deben contribuir a la transición climática y ofrecer resultados justos y sólidos. También han de ser trasparentes y debe haber rendición de cuentas. El sesenta% de estas tecnologías las desarrollan actores estadounidenses, y otro veinte%, empresas chinas. Esta concentración entonces deriva en falta de diversidad, en resultados discriminatorios, con cortes. Todo este modelo de negocio debe mudar.

P. ¿El enfoque de la Unesco es que la IA la regule cada estado o que de ello se encargue algún órgano supranacional?

Gabriela Ramos, subdirectora general de la Unesco.
Gabriela Ramos, subdirectora general de la Unesco.Christelle ALIX

P. ¿Es realista intentar impulsar regímenes internacionales para regular una tecnología como la IA?

R. Se están tomando millones de resoluciones con el apoyo de la inteligencia artificial sin trasparencia alguna. Si eres discriminado, ni tan siquiera sabes si fue por culpa de una persona o de un algoritmo. A nosotros nos compete dar contexto, y después los países avanzarán en su toma de resoluciones. En mis veinte años de experiencia en organismos multilaterales he aprendido que se puede avanzar con patentiza específica, mostrando cuáles son los pronósticos de determinados desarrollos y señalando de qué manera los países que tienen buena regulación no se quedan atrás en la competencia tecnológica.

P. Los tratados de no proliferación de armas nucleares de la Guerra Fría tuvieron sentido por el hecho de que se implicaron Estados Unidos y la Unión Soviética. ¿Qué sucedería en el caso de la IA si se queda fuera algún actor clave?

R. Cuando llegue a la Unesco hace 3 años, bastante gente me dijo: ¿para qué sirve que trabajes en un marco ético de la IA si EE UU, que es el primordial desarrollador, no es integrante de la Unesco? La recomendación la firmaron ciento noventa y tres países, incluyendo China. EE UU va a tomar nota por el hecho de que lo que hacemos no es imponer un modelo único, sino más bien crear conciencia. Queremos establecer una plan de actuación sobre de qué manera comprender la IA, de qué manera enfocar estos desarrollos, de qué manera prevenir los impactos negativos, de qué manera definirlos y de qué manera avanzar regulaciones e instituciones.

P. En el desarrollo de la IA, el plano geopolítico es esencial.

R. Sí, estamos en plena carrera tecnológica. Se decide ahora qué género de tecnología se va a adoptar. Todos los países adquieren bultos de IA para dirigir la educación, la salud o la seguridad. ¿De qué forma te cercioras de que comprendan lo que compran? Los que son productores de estas tecnologías y tienen interés en que haya un mayor número de usuarios de su tecnología están tomando nota de lo que sucede en materia de regulación. China es una parte del acuerdo de la Unesco. ¿Cumplirá lo acordado? Bueno, lo firmaron, ¿no?

P. ChatGPT, que apenas tiene 6 meses de vida, ha puesto la IA generativa entre los temas esenciales de actualidad. ¿Cuánto tiempo tenemos para desarrollar mecanismos de gobernanza convenientes para regular esta tecnología?

R. Ya estamos en ello. La Unión Europea ya avanzó suficientemente con sus directivas, con su enfoque basado en peligros. Es una aproximación diferente a la de la Unesco, mas muy complementaria para examinar qué género de desarrollos acarrean mayor peligro. Yo afirmaría que si las directivas de la Unión Europea estuviesen ya de manera plena actuales, ChatGPT no hubiese entrado al mercado. ¿Por qué? Porque tendría las peculiaridades de los desarrollos que implican grandes peligros y que precisan una atención singular por la parte del regulador. Lo que ha pasado con ChatGPT nos ha hecho darle este sentido de emergencia a lo que ya hacíamos. La recomendación de la Unesco se adoptó entre dos mil veinte y dos mil veintiuno. Las directivas de la UE, entre dos mil veinte y dos mil veintidos. Vamos bien.

Puedes proseguir a Forbes Hispano Tecnología en Facebook y Twitter o apuntarte acá para percibir nuestra newsletter semanal.