La inteligencia artificial es una de las tecnologías más prometedoras de la actualidad. Con aplicaciones en diversos sectores, su potencial parece no tener límites. Sin embargo, no es perfecta.

Así lo demostraron tres estudiantes e investigadores belgas de la Universidad de Lovaina, quienes demostraron que pueden engañar a cámaras de vigilancia con inteligencia artificial y no reconocer a las personas en la imagen.

"La idea detrás de esta investigación radica en ser capaz de eludir los sistemas de seguridad que generan una alarma cuando una persona entra en el campo de visión de una cámara", explicaron.

$( document ).ready(function() {var player1556026740504 = videojs('inside-news-video-player-1556026740504');var options = {id: 'inside-news-video-player-1556026740504',adTagUrl: 'http://ads.e-planning.net/cm/5/36c7/Notas?o=p&e=player_notas_pre_roll player_notas_post_roll&vv=3'};player1556026740504.ima(options);})

El auge de las redes neuronales convolucionales (CNN) se ha traducido en grandes éxitos en el campo de la visión artificial. El problema es que, en paralelo a la mejora de su precisión, ha ido disminuyendo su interpretabilidad: a estas alturas resulta difícil saber, por ejemplo, por qué una red identifica a una persona como tal.

Para lograr el engaño, los investigadores diseñaron "parches" de colores que posicionaron sobre la ropa. "El hecho de que el parche deba colocarse alrededor de la cintura podría indicar que la transición camisa/pantalón es importante para el algoritmo. Tendría sentido, dado que los datos de entrenamiento posiblemente estén llenos de personas vestidas", aseguró Wiebe Van Ranst, uno de los investigadores.

Te puede interesar