Este es el año de la inteligencia artificial (IA). ChatGPT marcó el comienzo de la carrera por el control de la inteligencia artificial conversacional, con Microsoft dando el primer manotazo encima de la mesa, seguido de una contestación más bien tibia de Google. Los chatbots produjeron, en apenas unos meses, las esperanzas que no consiguió el metaverso. Sin embargo, la carrera por la inteligencia artificial tiene, como prácticamente toda tecnología, un lado b algo más obscuro.

El propio ChatGPT lo advierte. FORBES le preguntó sobre cuáles son las formas más peligrosas en las que puede ser utilizada la inteligencia artificial, a lo que el chatbot de tendencia respondió: “la inteligencia artificial es una herramienta poderosa con un enorme potencial para prosperar nuestras vidas en muchas formas. Sin embargo, como con cualquier tecnología, asimismo hay peligros asociados con su mal uso”.

Entre las formas en las que la inteligencia artificial podría ser peligrosa si se emplea de forma inadecuada, mentó ChatGPT, están la vigilancia masiva, la discriminación, la manipulación, el desempleo masivo y las armas autónomas. Este último punto ha liberado ya una carrera por el control de la inteligencia artificial militar, batalla en la que los jugadores más esenciales son Estados Unidos y sus contrincantes (hablando en términos geopolíticos y económicos) China y Rusia.

“Una preocupación esencial es el uso de la inteligencia artificial en armas autónomas, que podrían tomar resoluciones de ataque sin intervención del ser humano. Esto plantea preocupaciones morales y de seguridad significativas”, afirma ChatGPT sobre los usos peligrosos de la tecnología que le dio vida al chatbot que atrajo miles y miles de millones de dólares estadounidenses de las cuentas de Microsoft, un movimiento que representa la relevancia de la inteligencia artificial para los negocios y otros ámbitos.

FORMAS EN QUE LA IA PODRÍA SER PELIGROSA, SEGÚN CHATGPT:

Armas autónomas: Una preocupación esencial es el uso de IA en armas autónomas, que podrían tomar resoluciones de ataque sin intervención del ser humano. Esto plantea preocupaciones morales y de seguridad significativas.Vigilancia masiva: La IA se puede usar para compendiar grandes cantidades de datos sobre las personas y sus actividades, lo que plantea preocupaciones sobre la privacidad y el potencial abuso por la parte del gobierno o de las compañías.Discriminación: Si la IA se adiestra con datos sesgados, puede perpetuar y amplificar la discriminación, en especial en áreas como la contratación y el crédito.Manipulación: La IA se puede usar para crear contenido falso y falso, lo que podría emplearse para manipular a las personas o influir en la política.Desempleo masivo: La IA asimismo tiene el potencial de mover a los trabajadores de determinadas industrias, lo que podría tener un impacto significativo en la economía y en la calidad de vida de las personas.

Consultado una vez más sobre si conoce cuáles son los países que están desarrollando armas autónomas, ChatGPT responde: “hay múltiples países que se sabe que trabajan en el desarrollo de armas autónomas, si bien es bastante difícil conseguir información precisa sobre las actividades de defensa de cada país”, mas ofrece la próxima lista de países: Estados Unidos, Rusia, China, Israel y Reino Unido.

De pacto con un informe publicado el catorce de febrero pasado por el Servicio de Investigación del Congreso de Estados Unidos, los sistemas de armas autónomas mortales (LAWS, por sus siglás en inglés) “aún no están en desarrollo extendido. Sin embargo, conforme avanza la tecnología, en particular la inteligencia artificial, un mayor número de países pueden estimar desarrollar y operar” esta clase de armas, lo que va a suponer retos legales, éticos, estratégicos y operativos.

En la película Juegos de Guerra (mil novecientos ochenta y tres), un sistema de Inteligencia Artificial se sale de control y está a puntito de provocar una guerra nuclear entre EE.UU y Rusia

Las armas autónomas son definidas como “sistemas que, una vez activados, pueden elegir y agredir objetivos sin la intervención auxiliar de un operador (humano)”. El documento del Congreso de Estados Unidos señala que “aunque la busca de sistemas de armas autónomas mortales aún no está extendida, ciertos analistas han argumentado que la munición merodeadora Harpy de Israel”. califica como tal.

Harpy fue desarrollada por Israel Aerospace Industries. Se encarga de buscar y destruir con una ojiva explosiva sistemas de defensa aérea contrincantes por cuenta propia. Se considera un arma de disparar y olvidar, por el hecho de que una vez que se lanza desde una aeronave, no requiere control humano para buscar y destruir los radares contrincantes. Según el Congreso estadounidense, esta arma autónoma ha sido exportada a Chile, China, India, Corea del Sur y Turquía.

El exsecretario de Defensa de Estados Unidos, Mark Esper, ha señalado que el fabricante chino Ziyan ha anunciado un sistema absolutamente autónomo, el helicóptero no tripulado Blowfish A3, que, conforme se notifica, ha exportado a Oriente Medio. Además, conforme un informe de la Junta de Innovación de Defensa, Estados Unidos desarrolló un sistema autónomo mortal a lo largo de la década de mil novecientos ochenta mas ya no tiene esta clase de armas en su inventario.

¿QUÉ OPINA LA COMUNIDAD INTERNACIONAL?

Las armas autónomas han sido objeto de discute de la comunidad internacional desde dos mil catorce, cuando la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CCW, por sus iniciales en inglés) convocó a los países parte, observadores y sociedad civil para discutir los aspectos legales, éticos, tecnológicos y militares de los LAWS. En dos mil diecisiete esas asambleas pasaron a ser un conjunto formal de especialistas gubernativos.

En dos mil diecinueve, los Estados una parte de la CCW acordaron que el derecho internacional humanitario se aplicaría a los LAWS, por lo que los humanos deben continuar siendo responsables de las resoluciones sobre el uso de la fuerza, y que los Estados deben estimar los peligros de la adquisición o proliferación de semejantes sistemas por la parte de los terroristas.

Países como Chile, México Austria, Brasil, Nueva Zelanda, entre otros muchos, se han posicionado en favor de la prohibición precautoria de las armas autónomas. Además, ciento sesenta y cinco organizaciones no gubernativos han pedido una prohibición precautoria de las armas autónomas debido a preocupaciones morales.

“Estas preocupaciones incluyen una falta percibida de responsabilidad por el uso y una incapacidad percibida para cumplir con los requisitos de proporcionalidad y distinción del derecho internacional humanitario”, mienta el informe del Congreso sobre armas autónomas consultado por FORBES. Por ejemplo, el analista del Centro para una Nueva Seguridad Americana, Paul Scharre, advierte de que fallos de software en los LAWS podrían derivar en bajas civiles.

“Aunque semejantes peligros podrían estar presentes en los sistemas automatizados, podrían acrecentar en los sistemas autónomos, en los que el operador humano no podría intervenir físicamente para acabar los enfrentamientos, lo que podría resultar en casos de fratricidio, bajas civiles o más abundantes o a mayor escala”, describe el documento del Congreso publicado el pasado catorce de febrero.

Los países que se oponen a la prohibición precautoria de las armas autónomas arguyen que estas tienen utilidad militar potencial, por poner un ejemplo, para operar en ambientes con comunicaciones degradadas o rechazadas donde los sistemas tradicionales pueden no marchar, o la posibilidad de crear enjambres de armas autónomas para agobiar a los sistemas protectores contrincantes.

“Los países que se oponen a una prohibición precautoria asimismo han señalado los posibles beneficios humanitarios de las armas autónomas, que pueden ser capaces de ‘atacar objetivos militares con mayor precisión y con menos peligro de daños colaterales o bajas civiles’ que los sistemas tradicionales. Estos países mantienen que los operadores humanos proseguirán siendo responsables del despliegue de los sistemas y de asegurar que el uso de los sistemas cumpla con el derecho humanitario internacional”.

TIPOS DE ARMAS AUTÓNOMAS, SEGÚN LA IA CHATGPT:

Drones de combate autónomos: Estos son aeroplanos no tripulados que pueden volar y agredir objetivos sin la necesidad de intervención del ser humano. Algunos drones de combate autónomos ya están en uso por ciertos países.Sistemas de armas terrestres autónomos: Estos son robots terrestres que pueden moverse y agredir objetivos sin intervención del ser humano. Algunos ejemplos incluyen sistemas de armas autónomas montados en automóviles terrestres.Munición merodeadora: Estos son sistemas de armas autónomos que se lanzan desde aeroplanos y procuran y atacan objetivos en tierra.Sistemas de defensa antiaérea autónomos: Estos son sistemas de armas autónomos diseñados para advertir, rastrear y derruir aeroplanos contrincantes sin la necesidad de intervención del ser humano.

EE.UU., CHINA Y RUSIA EN LA CARRERA

La carrera por la aplicación de IA en el campo militar es encabezada por las 3 potencias mundiales en la materia: Estados Unidos, China y Rusia, países que tienen ciertas disputas políticas, económicas y militares, particularmente del gobierno estadounidense con el ruso y el chino. Los 3 países se han opuesto a una prohibición precautoria del desarrollo y producción de armas autónomas.

Estados Unidos arguye que los LAWS “podrían suministrar un beneficio humanitario y que el derecho humanitario internacional existente basta para regir el desarrollo y uso de éstas”.

Rusia considera que las armas autónomas podrían “’garantizar una mayor precisión de la guía de armas en objetivos militares, al paso que contribuye a una menor tasa de ataques no intencionales contra civiles y objetivos civiles’. También ha argumentado que no hay un precedente legal conveniente para una prohibición internacional precautoria de una clase de armas”.

China por su cuenta “ha declarado que apoya la prohibición del uso, mas no del desarrollo de armas autónomas, que define como sistemas indiscriminados y mortales que no tienen supervisión humana y no se pueden suprimir. China es el único país que define las armas autónomas de esta forma, y los analistas apuntan que tal arma no podría cumplir con el derecho humanitario internacional y, por consiguiente, sería intrínsecamente ilegal. Algunos analistas han argumentado que China sostiene una ‘ambigüedad estratégica’ sobre su situación sobre las armas autónomas”.

Tal es la relevancia del tema que, como una parte de la conferencia de La Haya, el pasado dieciseis de febrero Estados Unidos lanzó una iniciativa que fomenta la colaboración internacional sobre el uso responsable de la IA y las armas autónomas con miras a regular y supervisar esta tecnología.

“Como una tecnología que cambia velozmente, tenemos la obligación de crear reglas sólidas de comportamiento responsable respecto a los usos militares de la inteligencia artificial y de una forma que tenga presente que las aplicaciones de la IA por la parte de los militares indudablemente cambiarán en los próximos años”, afirmó Bonnie Jenkins, la subsecretaria de control de armas y seguridad internacional del Departamento de Estado.

“Estamos a tiempo de atenuar los peligros y eludir que la inteligencia artificial se salga de control, y estamos a tiempo de eludir que la inteligencia artificial nos lleve a un sitio en el que sencillamente no deseamos estar”, afirmó el ministro de Asuntos Exteriores holandés, Wopke Hoekstra como una parte de la conferencia de La Haya.

Marco Novak

Monterrey (México), 1990. Estudió una licenciatura en comunicación y comenzó trabajando en medios locales de su ciudad, como periódicos, revistas, estaciones de radio o canales de televisión. Tiene un gran interés por la cultura mexicana, incluyendo la música, la comida y la historia. Es un apasionado de los deportes, especialmente del fútbol.