AI Think Tank y las Naciones Unidas hacen sonar la alarma, llamando a GPT-cuatro parcial, ilusorio y un peligro para la privacidad y la seguridad pública.

El Centro de Inteligencia Artificial y Política Digital presentó una acusación formal frente a la Comisión Federal de Comercio de Estados Unidos, acusando a OpenAI, autor del popular chatbot ChatGPT, de violar la Sección cinco de las prácticas antiengañosas y inmorales de la FTC.

“La FTC tiene la clara responsabilidad de investigar y prohibir las prácticas comerciales deshonestas y engañosas”, afirmó Mark Rothenberg, creador y presidente del centro, en un comunicado. “Creemos que la FTC debería analizar de cerca OpenAI y GPT-4”.

El mes pasado, la FTC actualizó la ley para incluir un lenguaje dirigido a los desarrolladores de programas de inteligencia artificial. La agencia les recomendó eludir aseveraciones falsas sobre el desempeño y no jurar superioridad sobre otros productos sin una buena razón.

La comisión asimismo advirtió a los desarrolladores que estudien los posibles peligros e implicaciones ya antes de lanzar nuevos proyectos:

“Debe comprender claramente los riesgos y las implicaciones de su producto de IA antes de lanzarlo al mercado. […] Si algo sale mal, por ejemplo, no funciona o da resultados sesgados, no puede simplemente culpar al desarrollador externo de la tecnología. La IA es una caja negra, y el hecho de que no puedas entenderla o probarla no te exime de responsabilidad”.

UNESCO contra ChatGPT

La FTC ha estado haciendo sonar la alarma sobre el uso poco ético de nuevas tecnologías como la inteligencia artificial y blockchain desde dos mil diecisiete. La gran demanda de GPT-cuatro, la última versión de ChatGPT, llevó al Centro de IA y Política Digital a solicitarle a la agencia que investigara OpenAI.

El anuncio se genera días una vez que múltiples figuras de alto nivel en la industria tecnológica, incluyendo el CEO de Telsa, Elon Musk, firmaron de forma conjunta una carta abierta en la que exigían detener el desarrollo de productos de inteligencia artificial como el chatbot de OpenAI.

“Hacemos un llamado a todos los laboratorios de IA para que suspendan de inmediato la capacitación en sistemas de IA más potentes que GPT-4 durante al menos 6 meses. Esta pausa debe ser pública y verificable, e incluir a todas las partes interesadas clave. […] Si esto no se puede hacer rápidamente, los gobiernos deberían intervenir e imponer una moratoria”.

El Centro de IA y Política Digital no es el único que solicita una investigación sobre el veloz desarrollo de la inteligencia artificial y la necesidad de reglas. La UNESCO asimismo emitió su propia declaración pidiendo un marco ético global.

En noviembre de dos mil veintiuno, los ciento noventa y tres Estados miembros de la Conferencia General de la UNESCO votaron para adoptar un estándar global de moral de IA. Después de eso, la organización publicó un documento que contiene una serie de recomendaciones para los autores de productos de IA.

La iniciativa de la UNESCO tiene como propósito resguardar y fomentar los derechos humanos y la dignidad, y sirve como guía moral y marco para fomentar el estado de derecho en el campo digital.

“El mundo necesita reglas éticas más estrictas para la inteligencia artificial. Este es el desafío de nuestro tiempo”, comenta la Directora General de la UNESCO, Audrey Azoulay.

Descargo de responsabilidad

Toda la información contenida en nuestro sitio se publica con buena fe y solo con fines de información general. Cualquier acción que el lector tome sobre la información encontrada en nuestro sitio es rigurosamente bajo su peligro.