La Casa Blanca ha anunciado este jueves nuevas medidas para estimular la innovación responsable en inteligencia artificial (IA) y resguardar los derechos y la seguridad de los ciudadanos. La Administración del presidente Joe Biden aspira a avanzar en un “enfoque cohesivo y global de los riesgos y oportunidades relacionados con la IA”, conforme la Casa Blanca. La proliferación del uso de herramientas como chatbots, como la capacidad de la IA para manipular e inclusive falsear imágenes, ha empujado a Washington a procurar poner coto a la popularización de su uso, en vísperas del arranque de una nueva campaña electoral, la de dos mil veinticuatro. Si la desinformación en el campo virtual ha hecho estragos en los últimos tiempos, el recurso a la IA para crear realidades opciones alternativas es un peligro estratégico demasiado elevado, como ha puesto de manifiesto esta semana el padre de la IA, Geoffrey Hinton.

La Fundación Nacional de las Ciencias (NSF, en sus iniciales inglesas; agencia gubernativo) tiene previsto invertir ciento cuarenta millones de dólares americanos (unos ciento veintisiete millones de euros) auxiliares para crear 7 nuevos Institutos Nacionales de Investigación sobre IA, de carácter temático, como notifica en su web. En total, va a haber 25 institutos nacionales de investigación de la IA en el país, con quinientos millones de dólares americanos de financiación para “apoyar una innovación responsable” que fomente el bien público. Como comparación, el gigante tecnológico Microsoft invirtió diez millones de dólares americanos solo en OpenAi, la compañía que desarrolla el popular ChatGPT. La Administración demócrata asimismo se ha comprometido a publicar un boceto de indicaciones a fin de que las agencias gubernativos garanticen que su uso de la IA salvaguardia “los derechos y la seguridad del pueblo estadounidense”, aparte de lograr el compromiso de múltiples empresas del campo de someter sus productos a escrutinio en una conferencia sobre ciberseguridad que se festejará en el mes de agosto.

La vicepresidenta de EE UU, Kamala Harris, se ha reunido este jueves con los máximos responsables de Google, Microsoft, OpenAI y Anthropic, una start-up experta en IA, para discutir sobre las posibilidades y los retos que presenta esta nueva realidad tecnológica. “El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos. Y todas las empresas deben cumplir las leyes vigentes para proteger al pueblo estadounidense. Espero con impaciencia el seguimiento y la evolución en las próximas semanas”, ha dicho Harris en un comunicado, en el que asimismo recuerda el inquietante precedente de desinformación en las elecciones presidenciales de dos mil dieciseis, como un aviso para nautas del potencial más negativo de la IA. “Como senadora y miembro de los comités de Inteligencia y Judicial [de la Cámara], investigamos la interferencia rusa en las elecciones de 2016 y produjimos pruebas empíricas de que los actores estatales utilizarán la tecnología para socavar la democracia”, destaca el comunicado.

La Casa Blanca está sometida a una creciente presión para observar la inteligencia artificial desde el momento en que el año pasado OpenAI puso a predisposición del público esa aplicación y los particulares comenzaron a emplearlo inmediatamente para buscar información, efectuar labores escolares o avanzar en el trabajo. Desde entonces, a un ritmo mareante, ciertas grandes tecnológicas se han apurado a agregar chatbots a sus productos y han acelerado la divulgación de la IA como un nuevo producto de consumo. Pero la existencia, asimismo creciente, de imágenes falsas generadas por IA en la red de redes supone un serio aviso, del que vienen alertando ciertos especialistas, incluido Hinton, del potencial desinformador que tiene esta tecnología, algo en especial peligroso en campañas electorales y en un país tan polarizado política y socialmente como EE UU.

En una llamada con cronistas festejada el miércoles, un alto funcionario de Washington ha recordado que la Administración de Biden “ha estado liderando estas cuestiones desde mucho antes de estos nuevos productos de IA”. “Para aprovechar las ventajas de la IA debemos empezar por mitigar sus riesgos. Y este principio básico ha guiado nuestro trabajo sobre la IA desde el principio”, agregó la fuente. En otoño, la Casa Blanca publicó el llamado Plan para una Declaración de Derechos de la IA, “un ancla importante y una hoja de ruta” sobre la que se ha construido la batería de resguardas. Junto con el llamado Marco de Gestión de Riesgos de la IA, se ha “dado a las empresas y a los responsables políticos y a las personas que generan estas tecnologías algunas formas claras de mitigar los riesgos”, afirmó el alto funcionario.

El objetivo semeja fácil sobre el papel: aprovechar las ocasiones de la IA y a la vez atenuar sus peligros, entre ellos la posible robotización o automatización de puestos, con la consecuente destrucción de empleo, como denunciaba Hinton entre otros muchos. Como ponerle el cascabel al gato, la Administración de Biden ubica a las personas y las comunidades en el centro de su estrategia; el bien público, la protección de la seguridad y la economía nacionales. Del llamamiento de la Casa Blanca se infiere que son las compañías las que tienen la responsabilidad esencial de “asegurarse de que sus productos son seguros” ya antes de comercializarlos o hacerlos públicos. Y si para esto es preciso participar, al lado de las tecnológicas, “en una evaluación independiente y pública de sus sistemas de IA en la AI Village de DEF CON 31, una de las mayores convenciones de hackers del mundo”, apuntó el alto funcionario, la Casa Blanca lo va a hacer. “Estos modelos [de IA] serán evaluados allí por miles de socios de la comunidad y expertos para ver cómo se alinean con los valores descritos en el borrador de la Declaración de Derechos y en el Marco de Gestión de Riesgos”, agregó la fuente. La primera velará por que los sistemas automatizados resguarden la privacidad de los datos y resguarden a los usuarios de cortes discriminatorios, otro de los miedos que provoca la generalización de la IA.

En un artículo publicado el miércoles en el diario The New York Times, Lina Khan, presidente de la Comisión Federal de Comercio —y conocido azote de los monopolios y las tecnológicas—, apuntaba que EE UU se halla en un “punto de decisión clave” sobre la materia. Equiparando el avance de la nueva tecnología con el nacimiento de gigantes como Google y Facebook, Khan advertía de que, sin una regulación conveniente, la tecnología podría consolidar el poder de las mayores empresas tecnológicas.