Página web de OpenAI, matriz del bot de IA ChatGPT.Gabby Jones (Bloomberg)

Nueva York es el banco de pruebas de leyes vanguardistas en EE UU, lo que en ciertos casos equivale a decir asimismo en el resto del planeta. Entre las aprobadas últimamente, aparte de la que fija un salario mínimo para los repartidores y otra que prohíbe la discriminación laboral por razones de peso, una tercera, en vigor desde este miércoles, pone coto al uso desmandado de la Inteligencia Artificial (IA). La nueva regla impone limitaciones a la utilización de herramientas automatizadas de resolución de empleo (AEDT, en sus iniciales inglesas) para impedir que el proceso de selección de personal se vea condicionado por prejuicios sexistas y raciales. Los sistemas de resolución automatizados son conocidos popularmente como algoritmos.

La ley, la primera de este género en el planeta conforme ciertos especialistas, establece que los programas informáticos de contratación basados en el aprendizaje automático o la IA deben superar una auditoría efectuada por una compañía externa para probar que están limpios de cortes racistas o sexistas. Una herramienta automatizada de resolución de empleo (AEDT) es un programa informático que usa el aprendizaje automático, el modelado estadístico, el análisis de datos o la inteligencia artificial para asistir substancialmente a la contratación, esto es, facilitar o agilizar la elección de la persona conveniente conforme el algoritmo.

Según la ley de Nueva York, los empleadores o agencias de empleo que deseen emplear AEDT deben cerciorarse de que se ha efectuado una auditoría de cortes ya antes de emplear la herramienta; publicar un resumen de los resultados de la auditoría en su sitio, y avisar a los aspirantes y empleados que el programa se usará para valorarlos, como incluir instrucciones para pedir un ajuste razonable de requisitos del puesto y capacidades personales. Asimismo, la compañía va a deber publicar en su sitio un aviso sobre el tipo y la fuente de los datos empleados para la herramienta y la política de conservación de datos. Las empresas que empleen software AEDT de terceros ya no pueden recurrir por ley a dichos programas si no han sido auditados.

Los programas de contratación basados en IA venían siendo objeto de escrutinio por presentar cortes de racismo, sexismo y otros prejuicios, mas ha habido que aguardar a la generalización de aplicaciones como ChatGPT y Midjourney a fin de que los miembros del Congreso e inclusive muchos ejecutivos de empresas tecnológicas se propongan una regulación. Hasta ahora, el Congreso ha dado pocas pistas sobre cuáles podrían ser esos límites.

Las urbes emplean tecnologías algorítmicas y automatizadas para tomar todo género de resoluciones, desde determinar la distribución del censo escolar hasta decidir si alguien debe quedar en libertad bajo fianza ya antes de un juicio. Pero hasta el momento existían pocas resguardas para asegurar que estas tecnologías tomen resoluciones justas. Las primeras experiencias con herramientas de IA probaron en los últimos tiempos que pueden ser rotundamente injustas: por poner un ejemplo, a fines de la pasada década se descubrió que los algoritmos empleados por las fuerzas del orden para valorar y puntuar los peligros de seguridad de menores o criminales fichados pueden afectar de forma negativa y desmedida a los afroamericanos, el conjunto de población más susceptible, así como el de los latinos, de ser detenido o interpelado por la policía.

Los especialistas aseveran que, si bien la nueva ley neoyorkina es esencial para los trabajadores, prosigue siendo limitadísima. Julia Stoyanovich, maestra de informática de la Universidad de Nueva York y miembro creador del Grupo de Trabajo sobre Sistemas de Decisiones Automatizadas de la urbe -el primero de este género en EE UU, establecido en dos mil dieciocho para repasar el uso de algoritmos en los programas de la urbe-, estima que es un principio esencial, mas aún limitadísimo. “Me alegro mucho de que la ley esté en vigor, de que ahora haya normas y de que vayamos a empezar a aplicarlas”, declaró la estudiosa a NBC News. “Pero también hay muchas lagunas. Por ejemplo, la auditoría de prejuicios es muy limitada en cuanto a categorías. No tenemos en cuenta la discriminación por edad, por ejemplo, que en la contratación es muy importante, o por discapacidad”, agregó. La especialista tampoco ve claro de qué manera se va a aplicar la ley ni en qué medida, mas la verdad es que la iniciativa de Nueva York contribuye a nutrir el discute sobre el desarrollo y el uso desmandados de la IA.