Europa ha dado un paso adelante con la aprobación de la primera normativa del planeta para regular la inteligencia artificial. Esta categoriza las aplicaciones de la herramienta en función de sus peligros y prevé duras sanciones para los infractores, que pueden llegar a los treinta y cinco millones de euros o siete% del volumen de negocio o, en el menor de los casos, siete,5 millones o uno con cinco% del mismo. La UE establece un periodo de transición ya antes de su aplicación terminante en dos mil veintiseis, un tiempo que las compañías deberán usar para asegurar que sus desarrollos cumplen la ley. Gigantes como IBM, Intel o Google, convenientes a la regulación, han desarrollado plataformas y sistemas para asegurar que, ya que es irrefrenable, la inteligencia artificial se desarrolle con criterios éticos, trasparentes y libre de cortes. De esta forma, las compañías ofrecen fórmulas para cumplir con la primera ley de inteligencia artificial, la europea AI act.

La asesora tecnológica Entelgy apunta 3 claves que las compañías deben tener en cuenta: aquellas que administren datos personales, médicos, de reclutamiento o para toma de resoluciones, van a deber descubrir de qué manera marcha el algoritmo y el contenido que produce en un registro europeo; pese a no ser obligatorio, se aconseja establecer mecanismos de supervisión humana; y los modelos de lenguaje de importante tamaño (LLM) van a deber introducir sistemas de seguridad y los desarrolladores van a tener la obligación de ser trasparentes sobre el material protegido por derechos de autor que emplean.

“Debemos asegurarnos de que la tecnología que desarrollamos se cree de manera responsable y ética desde el principio. Es una gran oportunidad, pero también plantea desafíos”, advierte Christina Montgomery, vicepresidenta y directiva de Privacidad y Confianza de IBM. Al contrario que otras compañías partidarias del libre desarrollo (ciento cincuenta directivos de empresas europeas se han posicionado contra la regla), IBM apuesta “una regulación inteligente que proporcione barreras de protección para la sociedad, al tiempo que promueve la innovación”. Intel, otro gigante del campo, coincide, conforme Greg Lavender, jefe de Tecnología de esta empresa: “La inteligencia artificial puede y debe estar al alcance de todos para que se despliegue de forma responsable”.

Ambas compañías han desarrollado plataformas propias para asegurar este desarrollo conforme con reglas que, poquito a poco, tanto gobiernos como compañías consideran precisas.

La solución de IBM es Watsonx.governance una plataforma que incluye el manejo ético de datos, la administración de peligros y el cumplimiento de las reglas. “Se ha desarrollado para ayudar a las organizaciones a aplicar la IA de manera responsable, adherirse a las políticas de hoy y estar listo para la regulación de mañana”, especifica Montgomery.

El ochenta y dos% de los responsables de las compañías han adoptado o incorporado IA o planean hacerlo en el próximo año

Encuesta a líderes empresariales europeos

Ana Paula Assis, presidente y directiva general de IBM para Europa, Oriente Medio y África defiende la necesidad de estas herramientas desde una encuesta a mil seiscientos líderes empresariales de Alemania, Francia, Italia, España, Suecia. Según los resultados, el ochenta y dos% de los responsables de las compañías han adoptado o incorporado IA o planean hacerlo en el año próximo y prácticamente la totalidad (noventa y cinco%) lo hacen o lo harán pues es eficiente en la toma de resoluciones, en la administración y en la estrategia comercial. Según Hazem Nabih, directivo de tecnología para Oriente Próximo en Microsoft, “la productividad de cualquier empresa aumenta entre un 30% y un 50%”.

Pero esta herramienta de enorme potencial encara desafíos: un marco ético preciso, la necesidad de nuevas habilidades y el incremento de costos a fin de que su desarrollo, aparte de ser eficiente, sea justo (sin cortes) y transparente (explicable y medible), como que garantice la seguridad y la privacidad.

La propuesta de IBM es que se pueda usar por cualquier compañía, sea como sea el modelo informático implantado, tanto los de código abierto como los desarrollados particularmente o por otras compañías. “Nuestra estrategia y nuestra arquitectura es abierta, híbrida y multimodelo en el sentido de que, realmente, estamos dando a los clientes la flexibilidad de implementar nuestras soluciones en los entornos que mejor les funcionen”, explica Assis.

La solución que plantea el otro gigante es Intel Trust Authority y una parte de una filosofía parecida: “Un ecosistema abierto y enfocado en el desarrollador para garantizar que las oportunidades de la inteligencia artificial sean accesibles para todos”. “Son herramientas que agilizan el desarrollo de aplicaciones de IA seguras y facilitan la inversión necesaria para mantener y escalar esas soluciones con el fin de llevar la IA a todas partes”, conforme el jefe de tecnología de la compañía.

“Si los desarrolladores están limitados en su elección de hardware [equipos] y software [programas], la gama de casos de uso para la adopción de IA a escala global se verá restringida y probablemente limitada en el valor social que son capaces de ofrecer”, explica Lavender.

La estrategia de Intel no solo se dirige a grandes empresas. También ha lanzado, a lo largo del Innovation 2023, AI PC Acceleration Program, una iniciativa desarrollada para apresurar el ritmo de desarrollo de la inteligencia artificial en el campo de los computadores personales (PC).

El programa tiene como propósito conectar a los distribuidores independientes de hardware y de software con los recursos de Intel, que incluyen herramientas de IA, coingeniería, equipos, recursos de diseño, experiencia técnica y ocasiones de comercialización. “Estos recursos ayudarán a acelerar nuevos casos de uso y conectar a la industria en general con las soluciones de IA”, defiende la compañía. Entre los asociados del programa se hallan Adobe, Audacity, BlackMagic, BufferZone, CyberLink, DeepRender, MAGIX, Rewind AI, Skylum, Topaz, VideoCom, Webex, Wondershare Filmora, XSplit y Zoom.

Tenemos un conjunto completo de controles para asegurar que, para las compañías que emplean Vertex, sus datos sean suyos y de absolutamente nadie más. No se filtran, no se comparten con absolutamente nadie, ni tan siquiera con Google

Thomas Kurian, directivo de Google Cloud

Sesgos

Uno de los mayores retos son los cortes, las deficiencias incluidas en los algoritmos que pueden extenderse por todo el sistema de inteligencia artificial despreciando la dificultad de los humanos. En este sentido, dos artículos de estudiosos de Sony y Meta presentados en la Conferencia Internacional sobre Visión por Computador (ICCV por sus iniciales en inglés), plantean formas de medir los cortes para contrastar la diversidad de los datos que no solo sirven para tomar resoluciones sino más bien asimismo para adiestrar a las máquinas.

William Thong, estudioso de moral de IA en Sony, explica en MIT Technology Review sobre su propuesta: “Se utiliza para medir el sesgo en los sistemas informáticos, por ejemplo, comparando la precisión de los modelos de IA para personas de piel clara y oscura”.

La herramienta de Sony ha ampliado la escala de tonos de piel identificables por la computadora para no fijarse solo en si es clara u obscura, sino más bien asimismo las tonalidades de los diferentes colores.

Para agilizar las evaluaciones de cortes, Meta asimismo ha desarrollado la herramienta Fairness in Computer Vision Evaluation (FACET). Según Laura Gustafson, estudiosa de IA en la compañía, el sistema se fundamenta en treinta y dos imágenes humanas etiquetadas por personas en función de trece factores perceptibles, como edad (joven o mayor), tono de piel, sexo, color y textura del pelo, entre otros muchos. Meta ha puesto sus datos disponibles de manera gratuita en línea para asistir a los estudiosos.

Uso extendido sin control

La relevancia de las precauciones la pone de manifiesto un reciente informe de la firma de seguridad Kaspersky efectuado entre directivos españoles y que revela que el noventa y seis% de los encuestados en España acepta un uso regular de la inteligencia artificial generativa entre sus empleados sin medidas que eviten sus peligros en prácticamente la mitad de las entidades (cuarenta y cinco%). Según otro estudio de exactamente la misma compañía, el veinticinco% de quienes utilizan IA generativa ignoran que esta puede guardar información como la dirección IP, el género de navegador y la configuración del usuario, como datos sobre las funciones más usadas.

“Los sistemas de inteligencia artificial generativa se encuentran en claro crecimiento y, cuanto más tiempo funcionen sin control, más difícil será proteger áreas del negocio”, advierte David Emm, analista primordial de seguridad de Kaspersky.

_