Las tecnologías de inteligencia artificial (IA) se desarrollan con rapidez y cada vez son más asequibles, aunque podrían usarse con propósitos malintencionados. Un ejemplo explica los temores en torno a esta tecnología. Un dron de rastreo fabricado por la empresa Skydio cuesta 2.499 dólares.

Se armó con piezas de construcción tecnológicas disponibles para cualquiera: cámaras ordinarias, programa de código abierto y procesadores de computadora de bajo costo. Con el tiempo, reunir estos componentes será cada vez más fácil y barato.

Estas mismas tecnologías aportan un nuevo nivel de autonomía a los vehículos, los robots en los almacenes, las cámaras de seguridad y una amplia gama de servicios de Internet.

A veces, los nuevos sistemas de IA también exhiben comportamientos inesperados y extraños debido a que no se entiende por completo la manera en que aprenden a partir de enormes cantidades de datos.

Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos para que, por ejemplo, vean cosas que no existen. En un contexto como éste, los delincuentes podrían burlar cámaras de seguridad o afectar a un vehículo autónomo.

Darío Goldfarb, arquitecto de Seguridad de IBM Argentina, explica en la siguiente entrevista con iProUP cómo trabaja el Gigante Azul para evitar que la IA se aplique con fines malos.

-Las tecnologías de inteligencia artificial se desarrollan con rapidez y cada vez son más asequibles. Pero ¿podrían usarse con propósitos malintencionados?

Para IBM, la inteligencia artificial debe amplificar el conocimiento humano para resolver los desafíos más complejos que tenemos como sociedad. Así como las tecnologías nos ayudan a quienes queremos construir un mundo mejor y ser capaces de detectar las actividades maliciosas de atacantes, también pueden ser utilizadas por personas con objetivos malintencionados.

Por ejemplo, existen programas maliciosos (malware) que se expanden de manera sigilosa y utilizan inteligencia artificial para reconocer fotos, voz, y combinarlo con el geoposicionamiento para identificar a la víctima y solo activar acciones maliciosas en la PC de un perfil de alto valor (un CEO, un famoso, etc.).

Trabajamos con nuestros equipos de Seguridad, Research y clientes para adelantarnos a estos ataques con soluciones de analítica avanzada. Un ejemplo de esto es Watson for Cybersecurity, una poderosa herramienta que ayuda a los analistas de seguridad a responder a las amenazas con mayor confianza y velocidad.

A través de aprendizaje automático y procesamiento de lenguaje natural, el sistema es capaz de analizar millones de documentos de investigación, blogs, noticias, etc., para proporcionar información instantánea de valor, por sobre el ruido de las miles de alertas diarias que se producen.

Sobre el entrenamiento de Watson for Cybersecurity, IBM tiene un acuerdo con ocho universidades a nivel mundial -entre ellas el MIT- que participan en el proceso de aprendizaje, revisión e iteración.

-¿Se puede engañar a los algoritmos de la inteligencia artificial, por ejemplo, para que vean cosas que no existen?

-Los sistemas de inteligencia artificial deben ser transparentes y confiables, sino no deberían estar disponible en el mercado. En IBM nos tomamos con gran responsabilidad la seguridad, la protección de los datos y el entrenamiento de nuestros sistemas de IA.

En cuanto a técnicas de ataque hacia una IA, hablamos de "envenenamiento", que consiste en corromper los datos que ingiere la inteligencia artificial para aprender, a partir de los cuales forma su base de conocimiento.

Otra técnica es la "evasión" que ofusca los contenidos para no ser detectados (spam), o simular los comportamientos normales para que los algoritmos de detección no generen alarmas.

Con nuestros clientes aplicamos entrenamiento dirigido de la inteligencia artificial. Un equipo diverso de profesionales -del cliente e IBMers- es responsable de curar los datos con que el sistema aprenderá y, a la vez, es fundamental que especialistas sobre el tópico (salud, jurisprudencia, retail, etc.) sean parte del grupo de entrenamiento.

A su vez, se realizan revisiones periódicas del aprendizaje para detectar si es necesario ajustar o corregir. Iteramos en el proceso de entrenamiento para asegurar el máximo nivel de calidad en cada paso de adquisición de conocimiento.

Además, continuamente estamos desarrollando avances y nuevas tecnologías para perfeccionar las soluciones, por ejemplo, en la búsqueda de la imparcialidad de los sistemas con entrenamientos sofisticados que eliminen los sesgos.

IBM anunció recientemente Diversity in Faces (DiF), un conjunto de datos de un millón de imágenes faciales humanas con el objetivo de avanzar en la imparcialidad del reconocimiento facial, un área que representa un desafío porque es necesario considerar no solo edad, género y tono de piel, sino también simetría de la cara, contraste facial, postura de la cara, longitud y distancia entre cejas y ojos, etc.

-¿Estas técnicas automatizadas harán que sea más fácil perpetrar ataques que ahora requieren mucha labor humana, entre ellos phishing o ciberestafa, que involucra reunir y usar los datos personales de las víctimas?

-Hoy existen numerosas formas de perpetrar ataques, extorsión y ciberestafas con o sin IA: vulnerabilidades en el sistema operativo y/o en el browser, el uso de publicidades online para llevar a las personas hacia sitios maliciosos (malvertising), entre otras.

En la conferencia de ciberseguridad BlackHat de 2018, el grupo de investigación y desarrollo en ciberseguridad de IBM (X-Force) demostró como programas maliciosos pueden usar machine learning para evadir la detección y expandirse sigilosamente.

Esto es parte del esfuerzo de IBM por anticiparse a los atacantes y crear constantemente nuevas alertas y defensas para proteger a las personas, los datos, los dispositivos y la infraestructura.

La seguridad debe ser una prioridad en todas las compañías y organizaciones. Las defensas actuales pueden volverse obsoletas pronto, necesitamos nuevas defensas y en esto estamos trabajando.

-En los próximos años, las máquinas serán más capaces de recolectar e implementar estos datos por sí mismas. Los sistemas de IA también son cada vez más capaces de generar contenido de audio y video verosímil por su cuenta. ¿Esto facilitará que quienes tengan malas intenciones?

-En la actualidad existen algunos métodos de autenticación biométricos que pueden ser engañados con imágenes o audio generado por computadora. Sin embargo, también están ganando adopción los mecanismos de autenticación que combinan múltiples factores, lo que permite fortalecer la defensa: el atacante debe superar diferentes vallas antes de poder lograr su objetivo.

Por ejemplo, utilizando soluciones de IBM, hoy podemos pedirle a un usuario que además de saber su clave (algo que sabe), confirme su identidad desde una aplicación móvil en su celular (algo que tiene) enviando un numero cambiante cada 30 segundos (Token), y requerir autenticación con su huella digital o su cara (algo que es). Incluso la velocidad e intensidad de tipeo, o cómo mueve el mouse (como se comporta) puede ser usado para detectar intentos de fraude.

-¿Qué medidas deben tomar las organizaciones para prevenir estos usos malintencionados?

Hay mucho por hacer. Se recomienda un enfoque de seguridad en capas, siendo las siguientes algunas de las principales contramedidas para este tipo de ataques:

* Incorporar mecanismos la verificación de identidad (autenticación) que utilicen múltiples factores.

* Incorporar herramientas de inteligencia en seguridad, donde se utilizan analíticos de comportamiento de usuario (User Behavior Analytics), analíticos de comportamiento en la red (Network Behavior Anomaly Detection), e inteligencia artificial para detectar ataques.

* Tener una estrategia de protección de datos con soluciones que eviten abusos. Por ejemplo: si hago 100 consultas al padrón electoral en 5 minutos probablemente no es por tener una familia numerosa.

-¿Qué principios deben adoptar las organizaciones al diseñar, desarrollar o utilizar la inteligencia artificial? Por ejemplo, los derechos humanos.

-En una economía digital donde los datos son un activo valioso, y donde se recolectan datos sensibles de clientes para mejorar su experiencia de usuario, el principal cuidado que las organizaciones deben tener es la protección de dichos datos, siendo transparentes sobre cómo se usan, y anonimizando o eliminando la información sensible una vez cumplida la función para la que fue recolectada. Se debe tomar en cuenta el impacto que causaría la difusión de esos datos ante una brecha, y minimizarlo.

Al construir sistemas de inteligencia artificial debemos asegurarnos de que la fuente de datos para el aprendizaje no tenga sesgos, ni sea influenciable por personas maliciosas, así como de proteger la base de conocimiento.

Creo que la sociedad misma será quien delimitará la frontera ética de la Inteligencia Artificial, eligiendo a aquellas compañías que respetan su privacidad y penalizando severamente a quienes abusan de sus datos, o son negligentes en su protección.

Te puede interesar