Las tecnologías de la información y la comunicación cambian la defensa y la guerra. En los últimos años crece el empleo de la inteligencia artificial (IA). Las posibilidades que se abren con vehículos que actúen por sí solos pueden ser grandes, casi de ciencia ficción, pero también los riesgos, sobre quién está al mando.

La IA va más allá de una mera respuesta parametrizada. Se busca crear una máquina dotada de sensores que sean capaces de captar la situación de su entorno, evaluar los datos y tomar la decisión adecuada para cumplir la tarea asignada. En el fondo, se trata de replicar el modelo cognitivo de un ser humano y tanto mejor será esa IA cuanto más se acerque al comportamiento de una persona.

Golden Horde y Skyborg son dos programas norteamericanos de defensa que parecen sacados de una de esas películas de la saga Terminator. La Fuerza Aérea (USAF) estadounidense trabaja en una línea que denomina Vanguard, con tecnologías futuristas y que abarca tres programas: Skyborg, NTS-3 y Golden Horde. La AFRL (Air Force Research Laboratory), un organismo de la USAF que investiga con tecnologías vanguardistas, está a cargo de su desarrollo.

Skyborg trata de buscar la integración de sistemas de inteligencia artificial en vehículos aéreos autónomos no tripulados, de tal manera que sean capaces no solo de funcionar ellos solos, sino de integrarse con una formación de aviones tripulados y no tripulados. Avanza en el concepto del loyal wingman, un avión no tripulado capaz de realizar múltiples misiones y de colaborar en equipo con aviones tripulados.

El objetivo es claro: abaratar el costo, cada vez más desorbitado, de los aviones de combate tripulados. Con Skyborg, se conseguiría un conjunto de elementos de combate aéreo capaces de trabajar junto a aeronaves tripuladas, seguir sus instrucciones o actuar de manera independiente, tomando decisiones y actuando en cualquier rol, como elemento defensivo, atacante o de reconocimiento.

El funcionamiento es muy sencillo. Trata de emular lo que haría un piloto humano en situación de combate, que en el fondo es recibir una misión y una serie de ROE (rules of engagement) que establecen las reglas del juego.

El piloto, en el curso de la acción, recibe diferente información de múltiples fuentes, bien sean los propios sensores de su avión, información de otras aeronaves, inteligencia, etc. y, por supuesto, lo que él percibe: la conciencia situacional. Todo esto lo evalúa y toma sus decisiones de combate.

Las aeronaves autónomas recibirían estas reglas del juego en forma de matriz parametrizada, dispondrían de sensores y fuentes de información y tratarían de evaluar la situación y tomar sus propias decisiones, utilizando para ello unos algoritmos muy complejos.

Si por ejemplo, su misión es atacar un objetivo concreto, una estación de radar, en el curso de la acción puede detectar un avión enemigo. Evaluará el tipo de amenaza, sus posibilidades y sus prioridades y decidirá si intenta evadirse o eliminarlo.

Sobre la zona del objetivo utilizará sus sensores para analizar el entorno y, si por ejemplo detectara otro objetivo como un centro de mando enemigo, tomará la decisión de atacar el nuevo objetivo o continuar con la misión.

Todo ello en un entorno donde no tendría necesariamente que mantener comunicación con el centro de mando propio, que es la gran ventaja actual de las aeronaves tripuladas sobre los UCAV o drones de combate controlados en remoto.

El 20 de diciembre un avión F-22 y un F-35 de la USAF, ambos de quinta generación, realizaron con éxito una prueba en la que volaron en formación con el XQ-58A Valkyrie, un vehículo aéreo no tripulado que en esa prueba funcionó de forma autónoma.

Desarrollos militares tecnológicos de EEUU

El programa europeo FCAS de un avión de combate multinacional está concebido como un sistema de sistemas, donde una parte va más allá de la plataforma aérea (el avión en sí) y busca la creación de un conjunto de aeronaves tripuladas y no tripuladas con capacidad de trabajar en equipo.

El programa Navigation Technology Satellite-3 (NTS-3) es quizás el más pragmático y desarrolla nuevos receptores GPS que incorporen múltiples señales para las unidades militares.

Parece un simple avance en una tecnología cotidiana, pero resulta trascendental en caso de conflicto y para operaciones militares. Basta pensar la cantidad de ingenios y armas que hoy basan su precisión y eficacia en establecer su situación geográfica, rutas y objetivos mediante posicionamiento satelital.

Horda Dorada es un programa que investiga un armamento que trabaje de forma conjunta e inteligente. Se denomina Air Force Golden Horde Vanguard, pero se suelen referir a él como Golden Horde.

En Horda Dorada se busca un sistema de armas, en general bombas o misiles guiados, capaces de funcionar en modo colaborativo unas con otras. La idea es que un grupo o enjambre de armas compartan entre sí determinados datos, como podría ser la ubicación de sus objetivos y de sus defensas. Esta información compartida consigue una mayor eficacia que el trabajo independiente de cada una.

Las armas actúan de acuerdo a un conjunto de parámetros establecidos cargado previamente en sus computadoras. Estos parámetros condicionan su modo de funcionamiento de tal manera que analizan la situación y la información que les llega, la comparan con su conjunto de parámetros (que se denomina playbook) y eligen la opción más adecuada.

Supone un gran avance frente a los ingenios convencionales, cuya misión está fijada con antelación y donde una reacción inesperada del enemigo puede dar al traste con todo.

Con este programa, un enjambre de bombas o misiles interconectados podría reaccionar en tiempo real ante un escenario cambiante, podrían saturar a las defensas del enemigo, repartirse tareas y lograr una efectividad sin precedentes.

Esta tecnología también se ha puesto a prueba y el 15 de diciembre pasado un F-16 lanzó dos bombas colaborativas denominadas CSDB (collaborative small diameter bombs).

Estas bombas son en realidad una modificación de la GBU-39, un ingenio de altísima precisión y peso reducido (unos 130 kg) con una pequeña carga explosiva, entre los 90 y 20 kg, y con diferentes tipos de guiado, desde GPS —inercial, radar, infrarrojos y láser—.

Durante la prueba las bombas, una vez lanzadas, se dirigieron en vuelo de planeo hasta la zona de sus objetivos. Una vez allí y en modo colaborativo, fueron capaces de identificar un objetivo enemigo no previsto.

¿Quién está al mando?

Solo EEUU dedica cada año más de 1.000 millones de dólares a investigación militar para IA, de los que, por ejemplo, casi 200 millones han ido al trabajo de bombas colaborativas.

Uno de los retos tecnológicos es el de la seguridad. Por ejemplo, el riesgo de que el avión autónomo sea pirateado y el enemigo le engañe o tome el control de sus funciones.

En marzo de 2019 un laboratorio chino especializado en seguridad demostró que podía engañar a los sofisticados algoritmos de IA de los automóviles Tesla. Les hizo cometer errores en su modo de conducción autónoma.

También está el tema moral. ¿Hasta dónde puede una máquina tomar decisiones que impliquen acciones de guerra? ¿Dónde se pone el límite? La Unión Europea emitió una directriz en diciembre, e indicó que "los sistemas autónomos letales deben estar sujetos al control humano".

Te puede interesar