¿Robots de combate fuera de control?
27 de agosto de 2018¿De qué armas se trata?
Su nombre oficial es "Sistemas de Armas Autónomos Letales", en inglés: "Lethal Autonomous Weapon Systems (LAWS)". A menudo se habla de robots de combate, pero también pueden ser drones, submarinos o vehículos no tripulados. Los críticos hablan principalmente de "robots asesinos".
¿Cuál es la definición exacta?
No existe una definición universal para estos sistemas de armas. El Comité Internacional de la Cruz Roja (CICR) los describe como armas que seleccionan y atacan objetivos de forma independiente, sin intervención humana.
¿Ya están disponibles?
Todavía no existe un sistema de armas completamente autónomo que lleve a cabo un ataque mortal contra humanos. Pero, debido al rápido progreso en el campo de la inteligencia artificial y la robótica, su desarrollo es solo una cuestión de tiempo.
¿Cuáles son las armas precursoras?
Ya hay muchas armas con funciones autónomas. Hoy hay cohetes inteligentes que pueden identificar, seleccionar y atacar independientemente a sus objetivos. Los submarinos no tripulados buscan minas por su cuenta. Por ejemplo: hay drones que ya pueden conformar enjambres y llevar a cabo ciertas tareas de forma independiente.
¿Cuál sería el escenario posible del uso de LAWS?
Un robot de ataque es "alimentado” con los datos biométricos de una persona "objetivo". Este elige autónomamente su objetivo, sin control remoto, solo con la ayuda de radares o satélites. Esta es la práctica común en aviones no tripulados o drones. Los sistemas autónomos de armas letales se trasladan con independencia absoluta de la mano del hombre y no requieren ningún comando de fuego por parte de un soldado. Nadie sabe cuándo atacarán.
¿Por qué expertos piensan que esto es un cambio fundamental de la esencia de la guerra?
Algunos expertos creen que esto es un cambio de paradigma, porque la decisión sobre la vida y la muerte no la toma un ser humano, sino una máquina. Esto no cambia el hecho de que los humanos hayan construido y programado previamente el arma letal.
¿Por qué las armas autónomas entran en conflicto con el Derecho Internacional Humanitario?
Una de las reglas más importantes del Derecho Internacional Humanitario establece que en los ataques se debe diferenciar claramente entre combatientes y civiles (Condición de distinción). Se debe evitar, al máximo, que tanto los civiles como sus espacios sean afectados por una confrontación. Los sistemas de armas autónomos no pueden hacer dicha distinción. Los juristas especializados exigen, por lo tanto, que siempre sea una persona la última instancia de control en un ataque ("Man in the loop").
¿Dónde y cómo se debate este tema a nivel internacional?
Desde 2014 el tema se debate en la sede ginebrina de Naciones Unidas, en el marco de la Convención sobre Armas Convencionales (CAC). Las primeras conversaciones informales en 2017 derivaron en negociaciones oficiales que involucraron a más de 70 Estados, así como a científicos y organizaciones no gubernamentales. Del 27 al 31 de agosto se retoman las negociaciones.
¿Cómo van las negociaciones?
Muy lentamente, porque las posturas están aún muy distantes. Las potencias militares más grandes del mundo se oponen a la prohibición de estas armas, con las que buscan defender su supremacía. No se vislumbra un acuerdo.
¿Cuál es la postura de Alemania?
En el acuerdo de coalición de Gobierno entre los partidos CDU, CSU y SPD dice: "Rechazamos el uso de los sistemas de armas autónomas que no están bajo el control de una persona. Queremos su una proscripción mundial”.
A pesar de ello, Alemania no se ha unido a los países que exigen una prohibición vinculante de los sistemas autónomos de armas en la ONU en Ginebra. El Gobierno federal promueve una declaración política no vinculante como paso preliminar a un contrato de prohibición.
Nina Werkhäuser (JOV/CP)
Deutsche Welle es la emisora internacional de Alemania y produce periodismo independiente en 30 idiomas. Síganos en Facebook | Twitter | YouTube |