La Casa Blanca implementaría un sistema de revisión previa para modelos avanzados de inteligencia artificial (IA), una iniciativa que redefiniría el equilibrio entre innovación tecnológica y seguridad nacional en los Estados Unidos.

La administración del presidente Donald Trump evalúa un plan que otorgue al gobierno federal un rol directo en la evaluación de sistemas de IA de frontera antes de su lanzamiento público o su integración en plataformas estatales.

De concretarse, la medida marcaría un giro significativo en la política tecnológica del país, cuyo mandatario ya afirmó en el pasado que desea que la nación sea líder en el desarrollo de la IA.

No obstante, la principal preocupación detrás de esta posible regulación podría ser el uso indebido de modelos cada vez más potentes y sus posibles aplicaciones.

Funcionarios temen que estas herramientas puedan facilitar la detección de vulnerabilidades en software, la generación de código malicioso o incluso la aceleración de ciberataques sofisticados.

De esta forma, uno de los sistemas bajo potencial examen sería Claude Mythos, desarrollado por la empresa Anthropic.

¿A qué apunta la medida?

Por su parte, especialistas en ciberseguridad advertieron que su capacidad avanzada de programación podría reducir las barreras técnicas para planificar y ejecutar ataques complejos.

No obstante, desde la Casa Blanca por le momento no confirmaron una política concreta, aunque voceros oficiales señalaron que cualquier mención a una nueva orden ejecutiva es, por ahora, especulativa, y subrayaron que un eventual anuncio provendría directamente del presidente.

El debate, sin embargo, ya está planteado, ya que por un lado, un mecanismo de revisión previa podría mitigar riesgos reales asociados al uso malicioso de la IA.

Sin embargo, existe el temor de que un control excesivo ralentice el desarrollo tecnológico, introduzca presiones políticas en el proceso de innovación y otorgue a Washington una influencia sin precedentes sobre empresas privadas del sector.

Las discusiones internas incluirían la creación de un grupo de trabajo especializado en inteligencia artificial, integrado por agencias federales, organismos de seguridad nacional y líderes de la industria tecnológica.

Trump sigue un mismo camino

Este modelo es similar la iniciativa impulsada por Trump en enero de 2025, cuando estableció un "Crypto Task Force" para coordinar políticas entre distintas agencias.

Aquel grupo terminó desempeñando un papel clave en la definición de regulaciones sobre stablecoins y otras áreas del ecosistema cripto.

La cuestión central ahora será delimitar el alcance de la posible regulación, con una revisión acotada a aplicaciones de seguridad nacional o uso gubernamental podría resultar más aceptable.

En cambio, un sistema amplio de aprobación obligatoria para todos los modelos avanzados de IA abriría un frente de controversia con la industria tecnológica y defensores de la innovación abierta.

Te puede interesar