Nuevas tecnologías armamentísticas: qué pasa cuando un algoritmo reemplaza a un humano

Nuevas tecnologías armamentísticas: qué pasa cuando un algoritmo reemplaza a un humano
Las armas que operan en forma autónoma hacen que se tengan que repensar las convenciones internacionales sobre lo que está permitido en una guerra o no
Por iProUP
05.06.2021 12.57hs Innovación

Para desgracia de los derechos civiles y humanos, las armas autónomas han llegado para quedarse, y ya se ha utilizado en varias ocasiones, como en Libia en marzo de  2020, según un informe de la revista New Scientist, que desata profundos debates éticos y legales porque hace que se tambaleen las convenciones internacionales sobre  lo que está permitido en una guerra.

 

Bajo el concepto coloquial de robots asesinos se esconde un campo amplísimo de armamento, explica el analista de defensa Jesús Manuel Pérez Triana: "Estos van desde  drones que caben en la palma de una mano a los de gran tamaño a aparatos como el Global Hawk estadounidense, cuya envergadura es mayor que la de un Boeing 737 y que es  capaz de cruzar sin problemas el Océano Atlántico, pasando por vehículos blindados autónomos como los desarrollados por la empresa estonia Milrem Robotics, que ya han  sido probados en guerras como la de Malí".

El uso de drones parcialmente autónomos (es decir, necesitan alguna intervención humana) se ha generalizado de tal manera que han sido más que frecuentes en las  guerras en Libia y Siria, y se convirtieron "en la verdadera estrella" del conflicto del Alto Karabaj que enfrentó a Armenia y Azerbaiyán en 2020, explica Pérez  Triana. En esta última contienda se dio a conocer al gran público la llamada munición merodeadora, que se basa en la idea de no emplear drones para lanzar armamento,  sino que el propio dron esté dotado de una ojiva y cuando localiza un objetivo, un operario lo lance hacia él porque el propio dron es un arma. "El paso evidente es  dotarle a ese dron kamikaze de un sistema de reconocimiento de objetivos que le permita operar autónomamente".

Ya están aquí

Para su funcionamiento, los drones autónomos van equipados con una cámara y un algoritmo de procesamiento de imágenes: de la misma manera que se puede enseñar a un  programa a reconocer caras, se le enseña a reconocer objetivos. Y a atacarlos. Hasta ahora, las fuerzas aéreas debatían cuál sería el último avión con piloto. "Lo que  estamos viendo", explica Pérez Triana, "es que se ha lanzado una carrera tecnológica por fabricar masivamente drones kamikazes baratos que puedan lanzarse en enjambre  gracias a la computación distribuida, en la que cada dron por sí mismo no tiene mucha potencia de procesamiento, pero que actuando en enjambre funciona como una mente  colmena. Y si lo que se pretende es lanzar enjambres de drones de forma masiva no puedes depender de un humano sentado detrás de una consola".

Este paso adelante ya se ha dado, según la carta que remitió el grupo de expertos al Consejo de Seguridad de la ONU. En ella, se relata un episodio acaecido en marzo  de 2020 durante la guerra de Libia. Sobre el terreno, las fuerzas del general Jalifa Hafter, de 77 años, entonces hombre fuerte del este del país respaldado por Rusia.  Sus tropas lanzaron un ataque sobre Trípoli y fueron repelidas por el ejército del primer ministro reconocido por la ONU, Fayez Sarraj. "Los convoyes logísticos y las  fuerzas aliadas de Hafter en retirada fueron perseguidos posteriormente y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas  autónomos letales como el STM Kargu-2 [un dron militar de fabricación turca] y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para  atacar objetivos sin requerir la conectividad de datos entre el operador y la munición". La carta no revela si hubo víctimas mortales. Fuentes de la industria en  España, sin embargo, ven con escepticismo esta posibilidad. "Más allá de los avances de la técnica en ámbitos puramente académicos, y hasta donde sabemos, los  programas industriales y las innovaciones llevadas a sistemas en uso en defensa se encuentran en un nivel de autonomía muy bajo", aseguran.

Estos robots asesinos, explica Rahul Uttamchandani, abogado experto del gabinete de Legal Army, contravienen "todos los principios sobre los que se basan las guerras  modernas". Los básicos son el de humanidad (toda persona que no participa o que ha dejado de participar en las hostilidades debe ser tratada humanamente); necesidad  (no usar armas o métodos que causen daños excesivos con respecto a la ventaja militar prevista); proporcionalidad (no se deben causar al adversario males  desproporcionados en relación con el objetivo del conflicto armado); y distinción (hay que diferenciar en todo momento entre la población y los combatientes).

El dron de fabricación turca STM Kargu-2
El dron de fabricación turca STM Kargu-2

Se necesita un debate profundo

Las armas autónomas (conocidas como limited automated weapons, o LAWS) o las automatizadas (o parcialmente autónomas) ya existen hace tiempo, recuerda Joaquín  Rodríguez Álvarez, doctor en Derecho Público Internacional, profesor en la UAB y responsable en España de la campaña Stop Killing Robots (detener los robots asesinos).  Hasta ahora, asegura, su uso se había limitado a la defensa. El ejemplo más reciente de ello es la Cúpula de Hierro, el sistema de defensa de Israel que, según su  ejército, logró interceptar el 90% de los misiles lanzados por las milicias de Hamás en la contienda desencadenada el mes pasado.

Existe en la actualidad una considerable actividad internacional que trata de lograr su prohibición. Las posibles negociaciones, sin embargo, están en punto muerto.  Tanto Estados Unidos como el Reino Unido y los países de la OTAN sostienen que el Derecho Internacional Humanitario (DIH) existente ya "proporciona un marco integral  para controlar el uso de la autonomía en los sistemas armados", según manifestó en 2019 el representante norteamericano ante el Convenio sobre Ciertas Armas  Convencionales (CCW). El razonamiento legal, sin embargo, está lleno de recovecos que dificultan cualquier avance, según explica Vicente Garrido Rebolledo, profesor de  la Universidad Rey Juan Carlos y miembro entre 2014 y 2017 del Consejo Asesor de la Oficina de Asuntos de Desarme de las Naciones Unidas para los secretarios generales  de Ban Ki-moon y Antonio Gutérres.

Las convenciones de Ginebra constituyen la columna vertebral de esta legislación humanitaria. Ni EE UU ni Turquía (entre otros) han firmado sin embargo parte de los  protocolos, sobre todo los que se refieren a los conflictos internos. Esta circunstancia dejaría ya de por sí sin efectos el DIH para casos como el libio. Por otra  parte, para que se respeten sus cuatro principios básicos (humanidad, necesidad, proporcionalidad y distinción) resulta necesario atribuir las acciones de guerra a  alguien. "En el caso de las armas autónomas, ¿cómo le preguntas a una máquina que explique su comportamiento? A una máquina no cabe atribuirle responsabilidad. Y si  hemos llegado a la automatización total, algo que pongo en duda, habremos pasado a una etapa superior, para lo cual se hace necesario una regulación específica",  explica Garrido Rebolledo. Otra posibilidad es pactar una moratoria hasta que se llegue a un acuerdo. "Si se alcanza esa medida, los perjudicados serían los Estados y  las industrias, por lo cual la consigna es que no se hable del asunto". Es la posición que han adoptado los países productores, con los que se alinea España.

"Donde no hay discusión alguna es en que asistimos apenas al prólogo de lo que puede llegar a ser", vaticina Pérez Triana. "Solo estamos al comienzo de las pesadillas  tipo Terminator, que se plasmarán cuando se desarrolle aún más la capacidad de la inteligencia artificial".

Fuente: El País

Innovación en tu mail
Suscribite a nuestro newsletter y recibí diariamente las últimas noticias en economía digital, start ups, fintech, innovación corporativa y blockchain.
Lo más leído