A la hora de hablar sobre ciberseguridad tengo dos noticias; una muy mala, otra muy buena. La noticia mala, primero: los criminales están usando inteligencia artificial de una manera masiva, sofisticando las amenazas, creando estafas más creíbles, mejorando los videos, perfeccionando los deepfakes, y armando agendas de teléfonos celulares para hacer miles de ataques por mensajes de forma automática. Todo eso es verdad.
La buena noticia es que nosotros conseguimos reconocer amenazas creadas con inteligencia artificial con nuestra propia inteligencia artificial, la cual usamos desde ya hace 20 años. Entonces, lo importante es analizar antes que nada qué es lo que hace y cómo trabaja la IA.
Porque inteligencia artificial aparece como un nombre muy bonito para algo complejo, que embarca muchas cosas distintas: machine learning, sistemas especializados, algorítmos, fórmulas matemáticas. Todo eso es inteligencia artificial.
La inteligencia artificial generativa, esa que está de moda en estos momentos, genera textos, reportes, imágenes, fotografías. Pero es solo una parte de la inteligencia artificial. Por detrás de "la cocina" aparece cómo aplicamos la inteligencia artificial en nuestras soluciones.
Los criminales avanzan mucho, pero ellos basan todo en Big Data. Sin embargo, la inteligencia artificial es mucho más que eso y abarca todo esto que comento: Big Data, pero también muchos datos, fórmulas matemáticas y combinación de esos elementos en una forma nueva.
Por ejemplo un texto generado por ChatGPT –o por cualquier otro modelo– se basó en hechos que ya existen, o sea, datos, palabras, fórmulas, eventos, comportamientos que ya pasaron. Los modelos recopilan esto y crean un texto, un código, un programa basado en esto. Entonces, siempre habrá un caso, un identificador, una huella digital que está ahí, porque ya fue reutilizada de alguna forma.
Y mucho más que esto. Si lo descubrimos una vez –porque el criminal no usa una fórmula para atacar una única vez sino que las repite–, e identificamos sus peculiaridades o señales, entonces podemos identificar todos sus intentos de fraudes.
Esta es la complejidad que ofrecemos con nuestros sistemas especializados en detección de amenazas. Hay una frase que escucho siempre de la gente que es: "La industria de protección está retrasada en relación al criminal". Y no es verdad. Nosotros estamos retrasados una vez y 99.9% de las veces estamos adelantados.
Tal vez un ataque funcione en la primera víctima, como pasa con un virus biológico. Después de esa primera víctima, aparece la vacuna; hay medicina y ya están todos las otras personas protegidas. En el mundo digital es más o menos así. Después que descubro el comportamiento, el origen, la lengua, los trazos, los identificadores, la huella digital, todos los que usan mis tecnologías están protegidos.
Hay dos temas que me preocupan muchísimo: por un lado, ataques a sistemas de salud como por ejemplo, a un laboratorio que tiene los datos de sangre de mucha gente. El otro tema son los ataques a sistemas críticos, como pueden ser la energía, el petróleo, el agua o las comunicaciones, que pueden significar pérdida de muchas vidas. Y eso los criminales también lo saben.
Esta belleza de la inteligencia artificial aplicada a nuestros sistemas transforma realmente esta tarea humana, imposible de llevar adelante con 467.000 mil nuevas amenazas por día. Hay muchos tipos de ataques, pero los criminales son democráticos: atacan a todos por igual.
*Por Claudio Martinelli, director general de Americas de Kaspersky