Reconocimiento facial: una ONG pide que el sistema de cámaras de la Ciudad se declare inconstitucional

Reconocimiento facial: una ONG pide que el sistema de cámaras de la Ciudad se declare inconstitucional
La Asociación por los Derechos Civiles pidió que se declare "inconstitucional" la resolución que habilitó el sistema de vigilancia de la Ciudad
Por iProUP
21.11.2019 13.00hs Innovación

El Sistema de Reconocimiento Facial de Prófugos (SRFP) comenzó a regir desde abril de 2019 en la ciudad de Buenos Aires con 300 cámaras de vigilancia. Impulsado desde el Gobierno para promover la seguridad en las calles al identificar a personas con pedido de captura, generó controversia por considerarlo una medida que limita los derechos de los ciudadanos que circulan por el espacio público.

El operativo de video vigilancia funciona bajo la órbita del Centro de Monitoreo Urbano de la Policía de la Ciudad de Buenos Aires, y utiliza la base de datos de la Consulta Nacional de Rebeldías y Capturas (CONARC), en conjunto con los datos biométricos del Registro Nacional de las Personas (RENAPER).

La Asociación por los Derechos Civiles (ADC), que promueve los derechos civiles y sociales en Argentina y Latinoamérica, pidió declarar inconstitucional el sistema por considerar que la tecnología de vigilancia no tiene las bases legales apropiadas, y "afecta gravemente los derechos y las garantías constitucionales de todas las personas que desarrollan su vida en la ciudad".

"La resolución no es una ley, y no puede de ninguna forma la limitación de derechos reemplazarse por una resolución o un decreto, tiene que haber un debate legislativo. Para poder argumentar y sostener la medida, desde el punto de vista jurídico se tiene que detallar cómo puede afectar el reconocimiento facial a la vida de los ciudadanos", explicó Leandro Ucciferri, abogado y analista de políticas públicas en la ADC, en una charla de la que además participó un representante de la American Civil Liberties Union (ACLU), informó Perfil. 

Desde la Asociación por los Derechos Civiles ponen el foco en las tasas de error del reconocimiento facial. Al funcionar con algoritmos que contrastan datos para evaluar si se trata de la persona en cuestión buscada, el sistema corre el riesgo de llegar a un "falso positivo", ya que tiene tasas de error. De hecho, en lo que se detectó hasta el 4/6 en base a 595 casos de alertas, 5 fueron incorrectas por no corresponderse con la base de datos de prófugos.

Si bien desde la gestión de Diego Santilli aluden que "esos archivos son destruidos", la Asociación plantea la incertidumbre ante lo que consideran una falta de regulación concreta. Ante la consulta de la asociación mediante un pedido de información pública, desde el gobierno respondieron que la tasa de efectividad del software "se encuentra por encima del 90%" de aciertos, algo que desde la organización no gubernamental señalan no poder constatar su veracidad.

El factor de la proporcionalidad es también otro de los puntos clave del litigio que presentaron desde ADC: el hecho de que se esté buscando a 50 mil personas en las líneas de subte que todos los días utilizan un millón de personas, dicen, no es proporcional, y afecta los derechos de todos los ciudadanos que circulan por allí a diario.

Innovación en tu mail
Suscribite a nuestro newsletter y recibí diariamente las últimas noticias en economía digital, start ups, fintech, innovación corporativa y blockchain.
Lo más leído