Una niña y un robot en un mercado de JapónAndy Kelly

La inteligencia artificial (IA) ha dejado de ser un territorio sin ley gracias a la aprobación de la norma europea AI Act. Esta normativa se aplicará en los próximos dos años a todos los sistemas utilizados en la Unión Europea o que impacten en sus ciudadanos, siendo obligatoria su cumplimiento para proveedores, implementadores e importadores. Esta regulación ha destacado la importancia de la seguridad y ética en el desarrollo de la IA, generando una brecha entre las grandes empresas que ya previeron estas limitaciones en sus desarrollos, y las entidades más pequeñas que optan por el uso de aplicaciones de código abierto (open source).

Las compañías más pequeñas que desean desplegar sus propios modelos de IA basados en código abierto, y que carecen de la capacidad para examinar sus sistemas, contarán con entornos de pruebas reglamentarios (sandboxes) para desarrollar y entrenar la IA de forma innovadora antes de su introducción en el mercado. Sin embargo, la disponibilidad de estos entornos plantea interrogantes sobre la capacidad de controlar sus usos, que van desde la creación de pornografía no consentida hasta el desarrollo de campañas de fraude.

La vicepresidenta y directora de Privacidad y Confianza de IBM, Christina Montgomery, destaca la importancia de que la tecnología de IA se desarrolle de forma responsable y ética, colaborando con organismos gubernamentales para promover regulaciones efectivas que garanticen la seguridad de la sociedad.

Expertos en inteligencia artificial como Pilar Manchón de Google, Jean-Marc Leclerc de IBM y Joelle Pineau de Meta AI coinciden en la necesidad de una regulación adecuada para el desarrollo seguro de la IA. Destacan la importancia de seguir principios éticos y precauciones necesarias para garantizar que la IA tenga un impacto positivo en la comunidad y en la sociedad en general.

A pesar de la proliferación de herramientas de código abierto más accesibles, como alternativas a los desarrollos de las grandes empresas, se plantea el desafío de mantener un equilibrio entre la transparencia y la seguridad en el uso de estos sistemas. Es fundamental evitar que la IA sea utilizada de manera destructiva, ya sea para propagar desinformación, prejuicios o discursos de odio, o para la creación de programas maliciosos.

La seguridad en el uso de la inteligencia artificial también es un tema relevante en la lucha contra ciberataques. Es fundamental que las empresas y organizaciones refuercen sus sistemas de defensa ante posibles amenazas que puedan surgir a través de la adopción de la IA por parte de ciberatacantes.