Matías Nahón, consultor y gerente general de Analityx, describe cómo la herramienta puede ser utilizada con fines maliciosos y perjudicar más que ayudar
13.06.2025 • 14:05hs • Columna
Columna
Sin reglas, la IA es un arma
Mountainhead (HBO, 2025) no es una distopía exagerada. Es un espejo apenas deformado de un presente donde la inteligencia artificial, en manos de actores sin escrúpulos ni regulación, ya produce daños reales: deepfakes que alteran procesos electorales, estafas millonarias, manipulación de información, erosión de la confianza social.
La película incomoda porque muestra lo que muchos aún prefieren negar: la IA no es sólo una herramienta. Es un arma de poder.
La sátira dirigida por Jesse Armstrong sigue a cuatro magnates tecnológicos que usan la IA generativa para provocar caos global y obtener ganancias.
Lo hacen sin frenos éticos ni límites institucionales. Deepfakes masivos, campañas de desinformación, colapsos financieros inducidos. El guion parece ficción, pero se basa en hechos verificables.
En 2024, una falsa llamada por Zoom permitió una transferencia ilegal de 25 millones de dólares en Hong Kong. En Estados Unidos, deepfakes de voces de candidatos presidenciales circularon días antes de las elecciones.
En Reino Unido, una imagen falsa generada por IA provocó la caída de un banco. En Alemania, la BKA detectó una red de manipulación informativa con contenidos deepfake dirigidos a interferir en la opinión pública.
Todo eso ocurrió antes de que se aprobara una legislación básica en la mayoría de los países. Hoy, en junio de 2025, Estados Unidos -donde operan las principales plataformas de IA generativa- sigue sin una ley federal que regule el uso de estas tecnologías.
Las big tech avanzan sin restricciones, capturando gobiernos, marcando agenda, y ensayando formas nuevas de dominio simbólico y económico. Y lo hacen con algoritmos opacos, sin supervisión, sin responsabilidad.
El poder de la IA no es técnico: es político. Lo que Mountainhead revela con crudeza es que los nuevos centros de decisión no están en los parlamentos ni en los tribunales, sino en salas de servidores donde un puñado de ejecutivos decide cómo procesar, filtrar o alterar la percepción global.
No hay ficción ahí. Hay un riesgo estratégico: la desinformación automatizada, combinada con concentración tecnológica, es hoy la forma más eficaz de intervención en los asuntos internos de cualquier país.
Ya no se trata de especular con escenarios apocalípticos. Se trata de entender que el descontrol de la IA ya genera pérdidas, vulnerabilidades y fracturas sociales. El problema no es el futuro. El problema es la inacción presente.
*Por Matías Nahón, consultor y gerente general de Analityx