El último informe de Eye on the Market de JP Morgan profundiza en un análisis los últimos avances en inteligencia artificial. Es, en rigor, una advertencia sobre un cambio de régimen.
El desarrollo de modelos de frontera como Mythos marca un punto de inflexión: "La IA deja de ser un vector de productividad y pasa a convertirse en un factor de riesgo sistémico con implicancias directas para los mercados financieros, la estabilidad bancaria y la infraestructura tecnológica global", alerta el documento.
Lo relevante no es únicamente la potencia del modelo. La IA no sólo busca fallas: también cómo explotarlas. Según el reporte, sus habilidades no fueron diseñadas explícitamente, sino que emergen como subproducto de su capacidad de razonamiento.
El informe traza un paralelismo inquietante con la dinámica de proliferación nuclear: "Un período inicial de concentración de capacidades en pocos actores seguido por una expansión hacia un mundo más multipolar y, por definición, más inestable. A medida que estas herramientas se difundan, la posibilidad de eventos cibernéticos de gran escala deja de ser un escenario de cola para convertirse en un factor a incorporar en valuaciones, spreads y primas de riesgo".
La IA pone en riesgo las finanzas
En ese contexto, el sistema bancario aparece como el eslabón más expuesto "por su dependencia estructural de infraestructura compartida", ya que las entidades operan sobre una red interconectada de proveedores cloud, software de terceros, sistemas de pago y redes de compensación.
Esa interdependencia, que busca la eficiencia, se convierte en un canal de transmisión de riesgo cuando la amenaza es capaz de escalar de manera simultánea sobre múltiples capas del sistema: un evento aislado puede transformarse rápidamente en un problema sistémico.
Esto redefine la agenda regulatoria. La ciberseguridad deja de ser un aspecto operativo para convertirse en una dimensión central de la estabilidad financiera. En términos prácticos, implica mayores exigencias de supervisión, presión sobre la resiliencia de proveedores tecnológicos y una suba estructural en los costos de cumplimiento.
Las grandes tecnológicas, por su parte, quedan en una posición ambivalente. Son, al mismo tiempo, las principales beneficiarias del desarrollo de inteligencia artificial y el núcleo donde se concentra el riesgo. El informe destaca que muchas de las vulnerabilidades detectadas afectan componentes básicos del ecosistema digital, desde sistemas operativos hasta librerías open source, lo que convierte a la infraestructura tecnológica en un punto único de falla con alcance global.
A esto se suma un problema crítico: "El desfase entre la detección de vulnerabilidades y su corrección. En entornos cloud, ese proceso puede ser relativamente ágil, pero en sistemas legacy, especialmente en infraestructura industrial o no actualizada, los ciclos de parcheo pueden extenderse durante años. Esa brecha temporal es, en la práctica, el espacio donde se define si la tecnología actúa como mecanismo de defensa o como herramienta de ataque".
El impacto sobre el ecosistema cripto es más sutil, pero no menos relevante. Aunque la narrativa del sector se apoya en la descentralización, gran parte de su operativa depende de la misma infraestructura tecnológica que el sistema financiero tradicional, como proveedores cloud, librerías de código y entornos de ejecución que no son inmunes.
La aparición de modelos capaces de explotar fallas de forma automatizada reduce los márgenes de seguridad y eleva el riesgo operativo, al mismo tiempo que abre la puerta a una nueva generación de herramientas de auditoría y defensa basadas en IA.
Cómo la inteligencia artificial cambia el mapa del riesgo global
Néstor Markowicz, COO de CertiSur, dice que las advertencias de organismos como la Reserva Federal, el Tesoro de EE.UU. y actores financieros como JP Morgan reflejan un cambio de escala en la inteligencia artificial.
El experto plantea que no se trata solo de más capacidad, "sino de mayor autonomía y velocidad aplicada a entornos críticos", y asegura que es un punto de inflexión que obliga a repensar la ciberseguridad a nivel sistémico, "especialmente en la protección de identidades digitales y transacciones".
En esa línea, desliza que lo verdaderamente disruptivo de estos modelos es que integran capacidades que antes estaban separadas: "Pueden detectar vulnerabilidades, analizarlas y generar formas de explotación en tiempos muy reducidos".
Asegura que esto cambia completamente la ecuación, ya que tareas que antes demandaban semanas o meses ahora se realizan de forma automatizada y a gran escala, lo que refuerza el rol de la criptografía robusta, la gestión de identidades y los certificados digitales como primera línea de defensa.
Markowicz plantea que los sectores más expuestos son aquellos con alta dependencia tecnológica e impacto sistémico: el financiero, la infraestructura crítica, energía y telecomunicaciones, organismos de gobierno, salud y grandes plataformas digitales.
"En estos entornos, asegura que contar con esquemas sólidos de autenticación, firma digital y gestión de certificados no es opcional, sino parte central de la resiliencia operativa", analiza el experto.
Además, advierte que el principal riesgo es la escalabilidad del ataque, ya que la inteligencia artificial permite industrializar el descubrimiento y explotación de vulnerabilidades, y suma que la democratización del cibercrimen habilita a actores con menor experiencia a ejecutar ataques sofisticados.
También plantea un riesgo sistémico, ya que un mismo modelo puede identificar debilidades comunes en múltiples organizaciones de forma simultánea, por lo que considera clave fortalecer la infraestructura de confianza digital para garantizar la integridad, autenticidad y confidencialidad de la información.
En este contexto, confiesa que el sistema entra en una nueva carrera entre capacidades ofensivas y defensivas, donde la misma tecnología que puede ser utilizada para atacar también es fundamental para mejorar la detección temprana y la prevención. Señala que en CertiSur trabajan sobre ese eje, a través de soluciones de identidad digital, PKI y protección criptográfica.
Finalmente, asegura que el camino no pasa por frenar la tecnología, sino por acompañarla con mayor madurez en ciberseguridad, regulación y gestión del riesgo. Desliza que estos avances también abren una oportunidad: utilizar la IA para anticiparse a las amenazas y fortalecer la confianza digital, donde herramientas como la firma digital, los certificados SSL/TLS y la gestión de identidades se vuelven pilares clave en un entorno cada vez más automatizado.
La IA acelera el riesgo: por qué ahora atacar es más barato y más rápido
Facundo Balmaceda, especialista en ciberseguridad de SONDA Argentina, dice que el avance de la inteligencia artificial no representa solo una mejora tecnológica, "sino un cambio de escala con impacto directo en los mercados y en la dinámica del riesgo".
Plantea que estas herramientas, cada vez más potentes, pueden analizar información, tomar decisiones y automatizar tareas a una velocidad inédita, lo que redefine tanto la productividad como la superficie de ataque.
En ese sentido, asegura que la fortaleza de la IA radica en "liberar al humano de tareas repetitivas para enfocarlo en decisiones estratégicas". Sin embargo, desliza que ese mismo diferencial puede ser aprovechado con fines maliciosos si no existen controles adecuados.
Balmaceda coincide en que los sectores más expuestos son aquellos que manejan información crítica o infraestructura clave, como el financiero, energía, industria, salud y el sector público. Explica que el problema no es la IA en sí, "sino su capacidad para amplificar errores y acelerar ataques cuando se implementa sin una estrategia de ciberresiliencia o seguridad integral".
En ese marco, destaca un punto central: "La inteligencia artificial reduce drásticamente el costo de los ataques, permitiendo que actores con pocos recursos escalen ofensivas que antes requerían estructuras complejas".
Además, plantea que el riesgo real no está en la tecnología, sino en su adopción sin reglas claras, sin supervisión humana y sin resguardar la privacidad e integridad de los datos. Asegura que las organizaciones que comprendan este cambio a tiempo ganarán competitividad, mientras que aquellas que no lo hagan quedarán expuestas a riesgos innecesarios.
Por último, confiesa que el desafío actual "no es frenar el avance de la inteligencia artificial, sino aprender a gobernarla de manera eficiente".