La inteligencia artificial aplicada al armamento o la guerra cibernética presenta desafíos para la democracia. Qué opinan los expertos
26.09.2019 • 21:19hs • Debate
Debate
Robots, ¿en un vacío legal?: alerta sobre su falta de regulación a nivel mundial
Cuando los robots comenzaron a aparecer en los viejos cómics de ciencia ficción en los años 50, casi nadie pensó que en 2019 la mayor parte de autómatas militares estarían surcando los cielos. El uso de drones para acciones militares está tan extendido que incluso un grupo paramilitar de Yemen utilizó artefactos de este tipo para atacar una refinería de Arabia Saudí, disparando el precio del petróleo en todo el mundo. Aunque se piensa que este drone en realidad contaba con tecnología iraní.
Según explica La Vanguardia, el despliegue de armas robóticos va en aumento. Basta con fijarse en el aumento de operaciones realizadas con drones para comprobarlo. Si a eso sumamos la inteligencia artificial está avanzando a gran velocidad, no es descabellado pensar que los robots inteligentes se lancen a corto o medio plazo al campo de batalla como un soldado más.
Aunque no debemos pensar simplemente en robots humanoides. Barcos o tanques inteligentes pueden comenzar a usarse en acciones de guerra como ya se usan los aviones inteligentes no tripulados.
La inteligencia artificial aplicada al armamento, la guerra cibernética o los desafíos que la tecnología plantea para el mantenimiento de la democracia son algunas de las amenazas que señala el presidente de Microsoft
Brad Smith ha alertado en unas declaraciones que recoge Telegraph sobre esta cuestión. De hecho pide una Convención digital de Ginebra que se sume a las actuales convenciones de Ginebra. Estas regulan las actuaciones que son contrarias al derecho internacional en los conflictos bélicos. Como es por ejemplo el uso de armamento químico.
Smith de hecho lanza esta propuesta no sólo refiriéndose a la amenaza de los robots, en realidad se refiere a todas aquellas acciones en las que la tecnología puede suponer un gran riesgo para la humanidad. Ese es a grandes rasgos el tema que desarrolla en el libro que ha escrito con la comunicadora Carol Ann Browne: Tools and Weapons: The Promise and the Peril of the Digital Age. Una obra en la que trata cuestiones como la guerra cibernética o los desafíos que la tecnología plantea para el mantenimiento de la democracia.
El uso de robots en seguridad y en conflictos armados plantea dilemas morales bastante importantes, pues dejar en manos de una inteligencia artificial si una persona debe morir parece algo bastante atroz. Incluso en el contexto de una guerra. Hasta ahora los autómatas militares son controlados en su inmensa mayoría a distancia.
O bien son programados para realizar un plan bélico. Es lo que hace por ejemplo el drone más sofisticado con el que cuenta el ejército español: el Sistema Integrado de Vigilancia Aérea, SIVA, que puede ser controlado a distancia o programado para alcanzar un objetivo.
En realidad la creación de robots asesinos es hoy más factible que nunca debido a la popularización de los drones. El vídeo viral Slaughterbots lanzado en 2017 ponía el dedo en la llaga. Esta ficción realizada con apariencia de documento real, mostraba a un CEO de una supuesta empresa presentando un pequeño drone asesino. El documento engañaba porque lo que narra no parece en absoluto una realidad descabellada.
Otro ejemplo inquietante de lo sencillo que puede ser crear un arma robotizada: un aficionado a la tecnología equipa un drone con armas de fuego que se pueden disparar a distancia. Esta vez no se trata de un truco. El vídeo de ese artefacto fue publicado en Youtube por su creador.
Es cierto que muchos autómatas pueden ya tomar ciertas decisiones. Por ejemplo para desplazarse por un terreno accidentado. Como hace el robot Curiosity de la NASA. Ya que no puede ser controlado a distancia en tiempo real debido al retardo de las señales de radio entre la Tierra y Marte.
Por el momento la inteligencia artificial aún está en un estadio de desarrollo demasiado inmaduro para ir más allá de esas pequeñas tomas de decisiones. Al menos en el sector civil, porque se desconocen los programas de robótica militar que los diferentes ejércitos del mundo puedan tener en marcha. De hecho es probable que esta tecnología inteligente se esté probando ya con éxito, aunque quizá su costo sea demasiado elevado como para plantearse su uso en un campo de batalla.