Más artículos

Una mirada al futuro: así funciona el nuevo sistema de inteligencia artificial que detecta robos antes de que ocurran

Una mirada al futuro: así funciona el nuevo sistema de inteligencia artificial que detecta robos antes de que ocurran
En Japón ya están probando este sistema de inteligencia artificial que a través de lenguaje corporal intenta captar indicios de posibles robos
21.05.2019 15.28hs Innovación

Vaak es una startup japonesa que desarrolló un sistema llamado VaakEye que en base al comportamiento físico busca predecir conductas criminales. El mes pasado se implementó en 50 tiendas de todo Japón y, según la empresa, las pérdidas por robos bajaron un 77%. Según el Global Shrink Index, los costos globales por hurto ascendieron en 2017 a los 34.000 millones de dólares.

Ryo Tanaka, fundador de la empresa, explicó que el algoritmo del sistema está hecho en base a 100.000 horas de datos de vigilancia para monitorear expresiones faciales así como movimientos y ropa.

Esta tecnología levanta preocupaciones morales de parte de especialistas como Hannah Couchman, oficial de políticas y defensa de Liberty, organización en defensa de los derechos humanos. "La gente está al tanto de lo que está pasando, ¿dan su consentimiento? ¿Es un consentimiento significativo? ¿Qué pasa con los datos? ¿Cómo se protegen?" declaró Couchmann.

Respondiendo a estas cuestiones Tanaka afirma que "debería haber un aviso antes de que ellos (los clientes) entren a la tienda para que puedan optar por no participar". Además, destacó el papel de los gobiernos en este tema: "Deberían aplicar reglas que obliguen a las tiendas a revelar información: dónde y qué analizan, cómo la utilizan, cuánto tiempo la utilizan".

Otra preocupación del sistema es el caracter discriminatorio que puede provocar. Michelle Grant, analista de Euromonitor, cuestiona "si es legal o incluso moral impedir que alguien entre en una tienda basada en este software". Tanaka responde a este planteo diciendo que "nosotros no decidimos quién es el criminal, la tienda decide quién es el criminal" y que ellos solo proporcionan información de una imagen sospechosa.

A su vez, un estudio del Centro de Georgetown para la Privacidad y la Tecnología afirma que los sistemas de reconocimiento facial tienen mayor margen de error con afroamericanos. Al respecto Tanaka explica que Vaak analiza comportamientos y no raza o género, por lo que no existirían problemas.

Todavía hay poca legislación respecto al tema del reconocimiento facial en el mundo. Hace unos días se aprobó en San Francisco la primera ley que prohíbe el uso de estos sistemas ya que "debe primar el derecho a la privacidad y a la protección de las minorías, especialmente si esa herramienta es usada por agencias del orden".

Enterate lo último sobre economía digital, startups, fintech, innovación corporativa y blockchain
Innovación en tu mail
Suscribite a nuestro newsletter y recibí diariamente las últimas noticias en economía digital, start ups, fintech, innovación corporativa y blockchain.
Más sobre Innovación
Te puede interesar