El big data ya marca las vidas de millones de ciudadanos en todo el planeta. En Estados Unidos llevan tiempo debatiendo sobre la constitucionalidad de la recopilación de datos que realizan algunas aseguradoras médicas. Ahora empieza a sumarse el auge del reconocimiento facial y los usos a la hora de combinar ambas tecnologías mediante IA.

En algunas tiendas de Estados Unidos ya fían su sistema de seguridad a las IA que abren o no las puertas a los clientes usando reconocimiento facial y cruzando la información con bases de datos propias que son inaccesibles a los ciudadanos.

Según algunas de las empresas instaladoras de estos equipos, el software nunca identifica erróneamente a nadie. Pero según los propios Google o Amazon, todavía que están lejos de lograr un acierto del 100%.

Ante los márgenes de error que deja entrever la tecnología, numerosos abogados piensan que los vacíos de información se rellenan en base a tópicos y prejuicios. Un detalle a valorar en el reconocimiento facial es que suele desarrollarse para la identificación de caras de ciudadanos blancos, con las personas negras suelen mostrar un mayor porcentaje de error, lo que genera una desconfianza general.

La investigadora Cathy O´Neil, en su ensayo Armas de destrucción matemática, llegaba a la conclusión de que los mismos sesgos que tienen los programadores se trasladan al big data. Si la matemática puede ser objetiva, estos sistemas nunca lo son porque es inasumible llegar a cada aspecto de la tarea para la que son programadas. 

Ser vecino de un barrio conflictivo puede jugar en contra de alguien a pesar de no haber cometido nunca una infracción, así como otros detalles más que discutibles que no definen ni la personalidad ni el historial del afectado. Estas bases de datos son las que posteriormente se cruzan con el reconocimiento facial, la IA trabaja sobre estas bases para valorar a la persona: reconocimiento facial y big data.

Como se dijo anteriormente, no existe un sistema totalmente fiable a día de hoy para identificar a una persona por su aspecto. Los resultados con estas técnicas son ineficientes porque, ante la duda, la IA no deja pasar. Los locales con estos sistemas hacen uso del derecho de admisión y no informan de las vías por las que se toman las decisiones ni sobre ningún otro dato. Delegan la responsabilidad a las empresas que controlan las IA.

En Estados unidos se enfrentan a continuos debates sobre el uso de las nuevas tecnologías en entornos públicos y privados. Las libertades civiles son muy importantes en el país y desde los atentados del 11S existe un debate sobre la seguridad y la privacidad. 

En San Francisco se prohibió hace unos meses el uso de reconocimiento facial por parte de la misma policía y otros cuerpos de seguridad. Según miembros de American Civil Liberties, esta prohibición es un "recordatorio de que no estamos a merced de las novedades relacionadas con la tecnología". Pero es sabido que esto no suele ser así y muchos políticos son ejemplo del deseo de implementación de cualquier novedad tecnológica que aparezca. Y tampoco se puede detener el avance tecnológico a pesar de que su uso sea discutible.

Los problemas que pueden causar estos sistemas son éticos y legales. La estadística es tan cruel como impersonal, y es probable que para cuando se tomen medidas ya se hayan sufrido cientos o miles de injusticias. Y nadie puede augurar si con el tiempo se dará vía libre a los negocios para usar esta tecnología de forma indiscriminada.

Te puede interesar