Los rápidos avances tecnológicos han hecho que los “sistemas de armas autónomas letales” (LAWS), lo que coloquialmente se llaman “robots asesinos”, salten definitivamente de la ficción de las pantallas de cine a la realidad de un mundo, donde ya están cambiando cómo se hacen las guerras y cómo se desarrollan algunas acciones en entornos tan cercanos como nuestras calles. Esta nueva realidad, puede provocar una carrera armamentística letal para la humanidad, si no se para.

El 8 de marzo de 2021, el grupo de expertos sobre Libia adjuntó al Consejo de Seguridad de la ONU el informe final sobre su labor en ese país. Dentro del mismo, en la página 20, se informaba del primer ataque de drones autónomos a personas.

Concretamente, se señalaba que con fecha 27 de marzo de 2020, “los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 (véase el anexo 30) y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de “disparar, olvidar y encontrar”.

Estos hechos muestran varias tendencias. La primera, es que ya se están utilizando armas dirigidas por inteligencia artificial, que pueden elegir sus objetivos sin intervención humana. Los “sistemas de armas autónomas letales” (LAWS) o las AKM (Autonomous Killing Machine) son una categoría de armamento novedosa, que por sí sola, toman las decisiones en relación con la selección y ataque de objetivos. Algo que atenta gravemente contra los derechos humanos y el respeto a la dignidad de las personas. Por no hablar de las cuestiones éticas o la rendición de cuentas en sus acciones.

La segunda, es que desde hace años hay numerosos países, y empresas privadas que están desarrollando este tipo de armas letales autónomas. Armas que van desde misiles que seleccionan los blancos a máquinas con capacidad de aprendizaje para decidir a quién, cuándo y dónde atacar. Armas que sabemos que existen, pero que desconocemos cuantas y su alcance.

La tercera, es que suponen tal cambio en las formas de hacer la guerra o de utilizarlo para otros fines letales, que hay que reafirmar que no se puede sustituir algún tipo de control humano, a la hora de tener que decidir qué, cuando y a quien atacar, por unas máquinas o robots que no pueden tomar decisiones de carácter humano, que pueden tener fallos en sus códigos o ser presa de ciberataques perpetrados por otros países o por grupos terroristas o delictivos.

La cuarta, es la creciente preocupación por este tipo de armamento desde la década pasada. Algunos ejemplos: en el año 2013, la ONU realizó un estudio sobre los aspectos de derechos humanos del uso de vehículos aéreos y robots no tripulados en conflictos bélicos. En agosto de 2017, 116 fundadores de empresas internacionales líderes en el ámbito de la inteligencia artificial y la robótica enviaron una carta abierta a las Naciones Unidas en la que solicitaban a los gobiernos que impidiesen una carrera armamentística con este tipo de armas y evitasen los efectos desestabilizadores de estas tecnologías. El 5 de julio de 2018, la ONU elaboró una recomendación donde pedía la prohibición a escala internacional de los sistemas armamentísticos autónomos letales. El 12 de septiembre de 2018, el Parlamento Europeo aprobó una resolución en el mismo sentido.

Pero también, iniciativas como la “Campaña para detener a los robots asesinos”, donde participan más de 70 organizaciones en 30 países, entre las que se encuentran Amnistía Internacional o Human Rights Watch, han puesto esta trascendental cuestión no solo en el ámbito del debate, sino que pretenden llevarla hacia el de una decisión definitiva.

Nos encontramos en un momento decisivo donde los Estados y las Organizaciones Internacionales, no solo deben ser conscientes de los desafíos éticos, de derechos humanos y de seguridad que suponen estas nuevas armas letales autónomas, que lo son, sino que hay que tomar medidas ya.

Es cierto que en la mayoría de los Estados apoyan que se desarrolle una nueva legislación internacional sobre sistemas de armas autónomos letales. Es cierto que crece el número de los que piden que se prohíba el uso de sistemas de armas totalmente autónomos.

Sin embargo, Estados Unidos, Rusia, Reino Unido, Francia, Israel y Corea del Sur, entre otros, se oponen a crear prohibiciones jurídicamente vinculantes, imagino que, porque directa o indirectamente estarán desarrollando este tipo de robot asesinos y sistemas de armas autónomos.

Aunque ya es tarde, no es todavía demasiado tarde, para dar un paso al frente por la paz, por el desarme, por prevenir los conflictos y por la seguridad en el mundo, con el fin de garantizar los derechos humanos y la vida de las personas en todos los lugares del planeta.

Y aquí, los ciudadanos deben presionar a sus gobiernos para que trabajen y ratifiquen un acuerdo vinculante de prohibición total de los sistemas armamentísticos autónomos letales. Su desarrollo, producción y uso. Nos estamos jugando la paz, los derechos humanos y la convivencia, ya que estas armas pueden ser utilizadas no solo en zonas de guerra, sino también en las calles de cualquier ciudad del mundo.

¿Difícil de hacer? Sí, porque hay en juego muchos intereses y poder. Pero posible también, como lo demuestra el hecho de que ya antes se han prohibido otras armas. Como las armas químicas, las armas biológicas, el uso de rayos láser para cegar al enemigo, entre otras.

Hay que hacerlo, si no queremos encontrarnos más pronto que tarde con un T-800, como el de la película “Terminator”.

 

Fotografía: Carmen Barrios