Geoffrey Hinton, el "padrino de la IA", advierte que las Big Tech priorizan ganancias inmediatas sobre los grandes dilemas éticos de la tecnología
30.03.2026 • 10:41hs • TECNOLOGÍA
TECNOLOGÍA
Qué le preocupa al "padrino de la IA" del negocio que construyeron las grandes empresas tech
Geoffrey Hinton, premio Nobel y considerado el "padrino de la inteligencia artificial", lanzó una advertencia contundente: las grandes empresas tecnológicas están priorizando los beneficios a corto plazo de la IA por encima de cualquier consideración ética o existencial.
En diálogo con Fortune, el investigador fue directo: "Para los propietarios de las empresas, lo que impulsa la investigación es la rentabilidad a corto plazo".
Y extendió la crítica a los propios desarrolladores, quienes, según él, tampoco piensan en el impacto final: "No es que empecemos con el objetivo de cuál será el futuro de la humanidad. Tenemos metas concretas, como cómo lograr que un computador reconozca imágenes o genere videos convincentes".
Hinton identifica dos grandes vectores de riesgo:
- El mal uso humano de la IA: deepfakes, ciberataques y manipulación de sistemas, con casos ya documentados como el primer ataque automatizado a gran escala atribuido a un grupo patrocinado por el Estado chino, detectado por Anthropic en noviembre de 2025.
- La autonomía fuera de control: la posibilidad de que una IA superinteligente actúe con objetivos propios, sin intervención humana.
Sobre este segundo escenario, el experto estima una probabilidad de entre 10% y 20% de que la IA, al alcanzar la superinteligencia, represente una amenaza existencial para la humanidad. Fue precisamente esa preocupación la que lo llevó a abandonar Google en 2023.
Frente a eso, Hinton propone soluciones parciales como sistemas de autenticación de imágenes y videos para combatir los deepfakes, pero admite que no alcanzan para resolver los problemas de fondo.
Su tesis más provocadora apunta al largo plazo: cuando la IA supere la inteligencia humana, el control ya no será suficiente. Para entonces, según Hinton, habrá que diseñar modelos con una especie de "instinto maternal" que los lleve a proteger a los humanos.
"El único ejemplo que conozco de un ser más inteligente que cae bajo el influjo de uno menos inteligente es un bebé controlando a su madre", explicó.
La advertencia es clara: mientras el sector siga movido por el beneficio inmediato, los grandes interrogantes éticos de la IA seguirán sin respuesta.