Un nuevo sistema, llamado iBorderCtrl, será puesto a prueba en cruces fronterizos de Hungría, Letonia y Grecia. Dudas respecto a su funcionamiento
01.11.2018 • 11:15hs • Pruebas en tres países
Pruebas en tres países
La UE utilizará Inteligencia Artificial para detectar mentiras en las declaraciones de viajeros en pasos fronterizos
Los ensayos para la implementación de un sistema de detección de mentiras basado en Inteligencia Artificial en los puntos de control de patrullas fronterizas están programados para comenzar muy pronto en la Unión Europea. El programa, llamado iBorderCtrl, tendrá una duración de seis meses en cuatro puntos fronterizos en Hungría, Letonia y Grecia con países que se encuentran fuera de la UE.
iBorderCtrl es un proyecto que utiliza AI para facilitar los cruces fronterizos a los viajeros. El sistema solicita que los usuarios completen una solicitud en línea y carguen algunos documentos, como su pasaporte, antes de que un agente de fronteras virtual asuma el control para hacer preguntas.
Según New Scientist, algunas de estas preguntas incluyen "¿Qué hay en tu maleta?" Y "Si abres la maleta y me enseñas lo que hay dentro, ¿confirmará que tus respuestas fueron ciertas?" Los viajeros responderán mientras se enfrentan a una cámara web, a través de la cual el sistema analizará y calificará docenas de micro-gestos.
Si iBorderCtrl determina que el viajero dice la verdad, éste recibirá un código QR que le permitirá pasar la frontera. Si existe la sospecha de que el viajero está mintiendo, se le tomará información biométrica, incluidas las huellas dactilares, la lectura de la vena de la palma de la mano y el mapeo de la cara, antes de pasarlo a un agente humano que revisará su información y realizará una evaluación.
El programa aún se considera altamente experimental y, en su estado actual, no impedirá que nadie cruce una frontera. Las pruebas iniciales de una versión anterior solo tuvieron una tasa de éxito del 76 por ciento, pero un miembro del equipo de iBorderCtrl le aseguró a New Scientist que están "bastante seguros" de que se puede aumentar al 85 por ciento.
Incluso si se alcanza ese objetivo, deja un gran margen de error. Pero eso no es del todo sorprendente, ya que los estudios han demostrado que muchos algoritmos de reconocimiento facial tienen problemas significativos de error y sesgo. Estos sistemas también han levantado banderas con los grupos de libertades civiles como el Proyecto de Litigios Fronterizos de ACLU, quienes temen que puedan conducir a una vigilancia más generalizada.