Las naciones pertenecientes al G7 llegaron a un “Código de Conducta” voluntario para las compañías e instituciones que desarrollen sistemas de Inteligencia Artificial (IA). La iniciativa busca achicar el margen de peligros derivados de esta tecnología, como pueden ser la desinformación y la transgresión de la privacidad o la propiedad intelectual.

Los miembros del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido) ofrecieron su respaldo al conjunto de orientaciones para el ámbito de la inteligencia artificial bautizado como el “Proceso de IA de Hiroshima”.

Las recomendaciones planteadas por el G7 en cuestiones de IA

Se trata de una guía que fomenta una implementación “segura y fiable” de la avasallante tecnología, cuyo alcanza aún es indeterminado. El pacto insta al compromiso de las partes que conforman el ámbito.

El documento orientativo al que llegaron los países miembros del G7 plantea once Principios Rectores. Entre los aspectos más salientes figura la supervisión de observadores independientes. Esa mirada habría de estar presente en todas y cada una de las fases de desarrollo y salida al mercado de las IA. Además, aconseja que sus autores adviertan posibles peligros de uso incorrecto y corrijan esas vulnerabilidades.

En la idea de producir un proceso con mayor trasparencia, la guía asimismo solicita a los desarrolladores que publiquen detalles sobre las “capacidades y limitaciones” y los “dominios de uso apropiado e inapropiado” de sus sistemas. Y recomienda trabajar en un mecanismo de autentificación. Es decir, emplear “marcas de agua” o etiquetados digitales que dejen a los usuarios identificar los textos, imágenes o vídeos generados por IA.

La presidente de la Comisión Europea, Ursula von der Leyen, pidió que los desarrolladores de sistemas de inteligencia artificial (IA) subscriban lo antes posible el código de conducta acordado por los países del G7.

“Me complace dar la bienvenida a los principios rectores internacionales del G7 y al código de conducta voluntario, que reflejan los valores de la UE para promover una IA confiable. Hago un llamamiento a los desarrolladores de IA para que firmen e implementen este código de conducta lo antes posible”.

El G7 estimulará el cumplimiento de estas recomendaciones. Lo va a hacer por intermedio de la colaboración y consulta con diferentes organismos internacionales como la Alianza Global sobre Inteligencia Artificial (GPAI, de sus iniciales en inglés), la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y con actores públicos y privados.

Leer más: ¿Qué es Leonardo AI y de qué forma utilizar esta opción alternativa a Midjourney?

De igual modo, procurará trabaja con países que no son parte del G7.

Impacto estimado de las tecnologías de inteligencia artificial (IA) en el PIB en 2030, por región del mundo, lo que generó un pronunciamiento del G7.

Google se pronunció en favor de la guía sobre IA aprobada por el G7

Google emitió un comunicado en apoyo a lo resuelto por el G7 en lo que se refiere a la busca segura y fiable. La firma estadounidense afirmó que confía en poder trabajar así como gobiernos, industrias y sociedad civil para para lograr el mentado objetivo.

El presidente de Asuntos Globales de Google y Alphabet, Kent Walker, valoró las recomendaciones planteadas por el G7.

“Supone un paso importante hacia el desarrollo y el despliegue responsable de una IA que beneficie a todos. La IA es una tecnología global que requiere de un enfoque global en materia de responsabilidad”.

Leer más: ¿De qué forma producir prompts para Midjourney por medio de ChatGPT?

Cabe rememorar que Estados Unidos ha emitido una orden ejecutiva, firmada por el presidente Joe Biden, para el uso seguro y ético de la IA. El señalamiento hace foco en la utilización seguro de la tecnología, aplicado a la seguridad nacional, privacidad y derechos ciudadanos, entre otras muchas áreas.

Biden resaltó sobre la necesidad de supervisar la IA.

“Es la tecnología más trascendental de la historia reciente, con aplicaciones a todos los campos de la ciencia, la economía y la sociedad pero que también presenta muchos riesgos por lo que tiene que ser controlada. Necesitamos controlar esta tecnología y no hay forma de evitarlo”.

En síntesis, la orden ejecutiva fuerza a las compañías que desarrollen cualquier sistema que pueda suponer un peligro grave para la seguridad nacional, la seguridad económica nacional o la salud públicas a avisar a la administración cuando vayan a poner a prueba ese modelo.