Los controles que Bruselas ha impuesto sobre las herramientas de inteligencia artificial (IA) siguen siendo insuficientes para asegurar el respeto a los derechos fundamentales, según la Agencia de la UE para los Derechos Fundamentales (FRA). Este organismo ha llevado a cabo un exhaustivo análisis sobre el impacto de la IA en cinco áreas críticas: asilo, educación, empleo, aplicación de la ley y beneficios sociales.
Un nuevo desafío para la regulación de la IA
El informe de la FRA, publicado recientemente, representa un revés para la Comisión Europea, que hace apenas dos semanas amplió el plazo a las empresas tecnológicas, otorgándoles 16 meses más para adaptar sus herramientas de IA consideradas de “alto riesgo” a la normativa en vigor. Este estudio independiente señala que la regulación europea aún no aborda adecuadamente los desafíos que presentan los sistemas de alto riesgo. Preocupa, además, que las compañías responsables del desarrollo de estas herramientas tampoco saben cómo prevenir posibles violaciones a los derechos fundamentales.
Los casos analizados abarcan una variedad de aplicaciones, desde el uso de IA en la selección de currículum en procesos de empleo, hasta sistemas automáticos que determinan la elegibilidad de ayudas por discapacidad. También se evalúan tecnologías utilizadas para supervisar exámenes y medir la capacidad lectora de los niños. “Es crucial que estos sistemas sean fiables, ya que influyen en decisiones que impactan directamente en la vida de las personas”, resalta el informe.
La FRA concluye que, aunque los proveedores son conscientes de los riesgos en cuanto a protección de datos y discriminación de género, a menudo ignoran cómo estos sistemas pueden vulnerar derechos fundamentales. Un ejemplo concreto son las herramientas que evalúan las habilidades lectoras de los niños, que no consideran el impacto que sus decisiones pueden tener en el derecho a la educación.
Clasificación de sistemas de IA
A partir de agosto de 2024, aunque su implementación completa está agendada para dos años después, el reglamento europeo clasifica los sistemas de IA según los riesgos que conllevan para la ciudadanía, estableciendo distintas obligaciones. Por ejemplo, los sistemas de “riesgo nulo”, como un detector de spam, no tienen restricciones, mientras que aquellos considerados de “riesgo inaceptable” están prohibidos. Esto incluye herramientas que manipulan a individuos o inferen características como emociones, raza u opiniones políticas.
Por debajo de este nivel prohibido se encuentran las aplicaciones de «alto riesgo», las cuales requieren supervisión constante. Esta categoría incluye sistemas de identificación biométrica remota, categorización de datos biométricos y aquellos que impactan la seguridad en infraestructura crítica, así como en educación, empleo y servicios públicos esenciales.
Inquietud en el sector tecnológico
La reciente decisión de la Comisión Europea de retrasar 16 meses el inicio de la supervisión de estos sistemas ha generado desconcierto en el sector. Según Bruselas, para que la normativa sea efectiva, primero deben establecerse directrices claras sobre lo que se considera aceptable en el uso de herramientas de IA, un proceso que aún está pendiente.
El informe de la FRA, elaborado a partir de entrevistas con proveedores, operadores y expertos, revela que muchos involucrados en el desarrollo y uso de sistemas de IA de alto riesgo carecen de conocimientos sobre cómo evaluar o mitigar los riesgos asociados a los derechos fundamentales. Si bien la autorregulación puede jugar un papel importante, la FRA subraya que esta no considera de manera sistemática la protección de los derechos fundamentales.
La regulación efectiva de la inteligencia artificial es fundamental para garantizar que estas tecnologías sirvan como herramientas de progreso y no como amenazas a los derechos individuales.
