Una investigación de Microsoft reveló una falla de seguridad en los modelos de lenguaje con IA, capaz de exponer las conversaciones de los usuarios sin necesidad de descifrar el contenido.

El hallazgo fue bautizado como "Whisper Leak", y afecta a casi todos los modelos que los investigadores analizaron.

Según el informe, la vulnerabilidad no compromete directamente la encriptación TLS (Transport Layer Security), la misma que protege operaciones bancarias o pagos online, sino que aprovecha los metadatos que quedan expuestos cuando los modelos de IA envían y reciben información. 

TLS impide que terceros lean el texto de las conversaciones pero no oculta completamente los patrones de tráfico, como el tamaño de los paquetes o el tiempo que tardan en enviarse y responderse.

Esa información, detallaron los investigadores, puede ser utilizada para inferir el tema de la conversación, incluso sin conocer las palabras exactas.

"No es una falla criptográfica, sino una explotación de lo que TLS deja ver sobre la estructura y el ritmo del tráfico cifrado", detalló el estudio.

Cómo se detectó la vulnerabilidad "Whisper Leak"

Para comprobarlo esta falla, el equipo de Microsoft probó 28 modelos de lenguaje diferentes. Primero diseñaron dos conjuntos de preguntas: uno con temas sensibles (como lavado de dinero o evasión fiscal) y otro con consultas cotidianas aleatorias. Luego, mientras los modelos respondían, grabaron:

Después entrenaron una IA para reconocer, únicamente a partir de esos metadatos, cuál era el tema de conversación.

Según los resultados, la IA acertó con más del 98% de precisión y logró identificar conversaciones sensibles el 100% de las veces, incluso cuando representaban solo 1 de cada 10.000 interacciones.

En otras palabras, el sistema fue capaz de "escuchar sin escuchar", es decir, que pudo inferir de qué hablaban los usuarios sin romper la encriptación.

"Nuestros hallazgos subrayan la necesidad de que los proveedores de modelos de lenguaje aborden la filtración de metadatos, ya que los sistemas de IA procesan información cada vez más sensible", concluyó el reporte.

El estudio de Microsoft se suma a una creciente preocupación sobre la privacidad y seguridad en la era de la inteligencia artificial, donde incluso las conexiones cifradas pueden dejar rastros detectables.

Mientras las grandes tecnológicas siguen avanzando en la integración de chatbots en buscadores, sistemas empresariales y dispositivos móviles, "Whisper Leak" deja en claro que la protección total de los datos personales aún es un desafío pendiente.

Te puede interesar