La película 'Minority Report', en la que Tom Cruise interpretaba a un policía que contaba con una tecnología capaz de predecir los crímenes que iban a suceder, ya no pertenece al mundo de la ciencia ficción.

La empresa tecnológica Voyager Labs asegura haber creado un de un programa que analiza las publicaciones de Facebook y de Instagram de cualquier usuario, además de sus relaciones dentro de estas redes sociales, y hacer con esta información un informe que podría ayudar a la policía a averiguar si has cometido o planeas cometer un delito.

Voyager indicó que consideraba que usar tuitear sobre el Islam eran signos de una posible inclinación hacia el extremismo.

¿De qué se trata?

Voyager Labs es una de las docenas de empresas estadounidenses que han surgido en los últimos años con tecnología que pretende aprovechar las redes sociales para ayudar a resolver y predecir delitos.

Al extraer información de todos los perfiles de las redes sociales de un individuo, Voyager ayuda a la policía a investigar y vigilar a las personas reconstruyendo toda su vida digital, tanto pública como privada. Basándose en la inteligencia artificial, la empresa afirma que su software puede descifrar el significado y la importancia del comportamiento humano en línea, y puede determinar si los sujetos ya han cometido un delito, pueden cometer un delito o se adhieren a ciertas ideologías.

Pero nuevos documentos, obtenidos a través de solicitudes de información pública por el Centro Brennan, una organización sin ánimo de lucro, y compartidos con The Guardian, muestran que las suposiciones en las que se basa el software para sacar esas conclusiones pueden ir en contra de las protecciones de la privacidad y la libertad de culto o de expresión.

En un caso, Voyager indicó que consideraba que usar un nombre de Instagram que mostrara orgullo árabe o tuitear sobre el Islam eran signos de una posible inclinación hacia el extremismo.

Los documentos también revelan que Voyager promueve una serie de estrategias éticamente cuestionables para acceder a la información de los usuarios, como permitir a la policía utilizar personas falsas para acceder a grupos o perfiles privados de las redes sociales.

El informe del medio inglés es parte de una investigación más extensa hecha por el Brennan Center y también muestra que el software saca conclusiones que podrían ir en contra de las protecciones de la primera enmienda. E incluso podría representar violaciones a los derechos humanos de perfiles que sean adversos al régimen que contrate el software.

Voyager Labs firmó una alianza con Microsoft para ofrecer plataformas de investigación SaaS basadas en IA para reforzar la seguridad pública.

¿Todo legal?

Pero además, cabe destacar que Voyager Labs firmó una alianza con Microsoft para ofrecer plataformas de investigación SaaS basadas en IA para reforzar la seguridad pública en marzo de este año y algunos analistas apuntan que su crecimiento ha sido tal por el número de solicitudes que hacen los cuerpos policíacos, según publicó el sitio Yahoo Finanzas.

Además, el Brennan Center afirma que los departamentos de policía a menudo no están dispuestos a renunciar al uso de esas herramientas, incluso ante la protesta pública y, a pesar de las pocas pruebas, ayudan a reducir la delincuencia.

Un portavoz de Voyager, Lital Carter Rosenne, dijo al medio inglés que el software de la compañía fue utilizado por una amplia gama de clientes para permitir búsquedas a través de bases de datos, pero dijo que la empresa no construyó esas bases de datos por su cuenta ni proporcionó personal de para ejecutar su software.

"Estas son las responsabilidades y decisiones de nuestros clientes, en las que Voyager no tiene ninguna participación", apuntó Rosenne. "Como empresa, seguimos las leyes de todos los países en los que operamos. También tenemos confianza en que aquellos con quienes hacemos negocios son organizaciones públicas y privadas que respetan la ley", concluyó.

Te puede interesar