La gestión de Trump apunta contra la "IA woke" y exige modelos neutrales, sin contenidos ligados a diversidad o género. A continuación, todos los detalles
29.07.2025 • 08:01hs • Innovación
Innovación
Cuál es la Inteligencia Artificial que Donald Trump prohibió utilizar en su gobierno
Bajo el título "Previniendo la inteligencia artificial woke en el Gobierno federal", la última medida de la gestión de Donald Trump prohíbe que las agencias estatales utilicen sistemas de inteligencia artificial alineados con políticas de "diversidad, equidad e inclusión".
La orden ejecutiva establece que las herramientas de IA contratadas por el Gobierno deben priorizar la "veracidad" y la "neutralidad ideológica". La intención es alejarse del "fantasma" woke, como la ultraderecha despectivamente llama a las agendas progresistas ligadas a los derechos de minorías, la equidad de género o el ambiente.
El objetivo es restringir los Grandes Modelos de Lenguaje (LLM) que reflejen o promuevan enfoques DEI, al considerar que "una de las ideologías más extendidas y destructivas es la denominada diversidad, equidad e inclusión".
En la web oficial de la Casa Blanca se enumeran ejemplos como:
-
"La incorporación de conceptos como la teoría crítica de la raza, el transgenerismo, el sesgo inconsciente, la interseccionalidad y el racismo sistémico".
En este contexto, a partir de ahora solo se podrán contratar LLM que promuevan la "búsqueda de la verdad", la "precisión histórica, la investigación científica y la objetividad"; y que respeten la "neutralidad ideológica", evitando cualquier sesgo hacia "dogmas ideológicos como la DEI".
¿Los modelos de lenguaje tienen ideología?
En el fondo, esta discusión parece carecer de sentido. Los LLM (modelos de lenguaje de gran escala) se entrenan con enormes volúmenes de datos disponibles en internet.
No tienen ideología ni razonan sobre lo que es verdadero o falso: simplemente procesan información y generan respuestas según probabilidades estadísticas.
Cuando el material con el que se los entrena contiene sesgos —por ejemplo, de género o raza—, lo que suelen hacer las empresas es aplicar un ajuste fino (fine-tuning).
Esto implica establecer ciertos límites para evitar contenidos discriminatorios o violentos. No se trata de una postura "woke", sino de corregir un problema: los datos de origen no son neutrales.
Un caso ilustrativo fue Tay, el bot creado por Microsoft, diseñado para imitar el comportamiento de una joven estadounidense de 19 años y aprender de sus interacciones en Twitter.
El experimento duró menos de un día: al ser expuesto a los propios usuarios de la red, comenzó a emitir mensajes cargados de odio, antisemitismo, xenofobia y teorías conspirativas.