El papel de la inteligencia artificial en conflictos armados
La inteligencia artificial (IA) ha entrado en el campo de batalla, planteando desafíos éticos y humanitarios. Aunque sus defensores argumentan que puede mejorar la precisión de los ataques y reducir su letalidad, la realidad parece contradecir estas afirmaciones. Cordula Droege, responsable legal del Comité Internacional de la Cruz Roja (CICR), afirmó ante el Consejo de Seguridad de la ONU que los conflictos bélicos más avanzados tecnológicamente han resultado en un aumento de la devastación civil en lugar de su protección.
Droege, jurista alemana de 52 años, expuso tres aplicaciones de la IA que generan preocupaciones significativas:
- Sistemas de armas autónomas: Estos incluyen drones no tripulados que, tras ser lanzados, eligen sus propios objetivos mediante algoritmos, lo que plantea serias dudas sobre su capacidad para distinguir entre combatientes y civiles.
- Programas de apoyo a decisiones militares: Estos sistemas analizan enormes volúmenes de datos para ofrecer recomendaciones rápidas, pero pueden llevar a decisiones automáticas que carecen de juicio humano.
- Capacidades cibernéticas: La IA puede facilitar ataques cibernéticos que aumentan el riesgo de daño a infraestructura civil, al ignorar las barreras tradicionales entre militares y civiles.
Consecuencias de la IA en la guerra
Las implicaciones del uso de la IA en conflictos no solo afectan a los soldados, sino que también ponen en riesgo a la población civil. Droege menciona que las normas jurídicas existentes establecen que las armas no deben causar daño superfluo ni sufrir víctimas civiles innecesarias. Sin embargo, la realidad de la guerra en el ciberespacio borra las líneas que separan lo militar de lo civil.
La jurista destaca que la aleatoriedad introducida por la IA en la elección de objetivos convierte a estas armas en indiscriminadas y, por tanto, ilegales. Estas tecnologías no han traído la paz prometida; al contrario, han exacerbado la letalidad en los conflictos.
Prohibiciones y tratados
Droege enfatiza que no todos los sistemas armamentísticos impulsados por IA son problemáticos. Por ejemplo, se podría permitir el uso autónomo de sistemas antimisiles siempre que estén adecuadamente regulados. Sin embargo, el CICR aboga por un tratado que prohíba el uso de armas autónomas en confrontaciones directas con humanos, señalando la dificultad de distinguir entre combatientes y civiles en situaciones complejas.
Cuando se le pregunta sobre el futuro de las armas completamente autónomas, Droege reconoce que, aunque actualmente los drones se operan de manera remota, los avances están permitiendo el desarrollo de sistemas que operan sin intervención humana en entornos hostiles. Esto plantea serios dilemas éticos, pues el uso de algoritmos para seleccionar víctimas humanas es inaceptable.
Dictamen sobre el uso de la IA
La jurista expresa su preocupación de que la innovación en armamento, lejos de mejorar las condiciones humanitarias, ha llevado a conflictos más devastadores. Ella subraya que la historia demuestra que cada avance militar tiende a ser utilizado para infligir un mayor daño.
Aunque el CICR ha luchado por prohibir diversas armas durante su historia, Droege se mantiene optimista. La historia ha mostrado que los tratados sobre otras armas, como las químicas y biológicas, han sido efectivos en crear tabúes. A pesar de la actual carrera armamentista, la funcionaria subraya que el esfuerzo por un tratado sobre sistemas de armas autónomas es más vital que nunca, en un intento por proteger a las futuras generaciones.
Dado que la IA amplifica la letalidad en guerras, es fundamental abordar estos riesgos antes de que se normalicen. La comunidad internacional debe unirse para establecer regulaciones que garanticen la protección de la vida humana en conflictos armados, asegurando que las decisiones del futuro no sean dictadas por algoritmos, sino por la razón y la ética.
