Propuso que al menos un tercio de la capacidad de cómputo destinada al desarrollo de IA se enfoque en mejorar la seguridad y regulación de estos sistemas
09.06.2025 • 20:33hs • Inteligencia Artificial
Inteligencia Artificial
Gurú de IA y Nobel de Física advierte sobre el futuro de la humanidad: "La gente no sabe lo que se viene"
Geoffrey Hinton, uno de los pioneros y referentes mundiales en el desarrollo de la inteligencia artificial (IA), lanzó una seria advertencia sobre el futuro de esta tecnología que él mismo ayudó a crear.
En recientes declaraciones, el científico británico, galardonado con el Nobel de Física, comparó el crecimiento de la IA con "criar un cachorro de tigre": al principio parece inofensivo, pero a medida que crece puede volverse extremadamente peligroso.
"La gente no sabe lo que se viene", remarcó con preocupación y subrayó la necesidad urgente de establecer regulaciones claras y rigurosas para el desarrollo y uso de la IA.
Referente de IA y Nobel de Física advirtió sobre el futuro de la humanidad: "La gente no sabe lo que se viene"
Hinton indicó que existe entre un 10% y un 20% de probabilidad de que la inteligencia artificial evolucione hasta un punto en el que escape al control humano, un escenario que coincide con las advertencias de otros expertos del sector, como Elon Musk.
Según el científico, el ritmo acelerado de los avances tecnológicos, impulsado por la presión comercial de las grandes empresas, lleva a sistemas cada vez más autónomos que podrían tomar decisiones sin supervisión humana a corto plazo, lo que representaría consecuencias devastadoras para la sociedad.
Además, Hinton criticó la falta de compromiso de algunas compañías del sector, incluyendo a su antiguo empleador Google, por haber abandonado políticas que impedían colaborar con proyectos militares relacionados con IA.
Geoffrey Hinton, científico que recibió el premio Nobel de Física, anticipó un futuro "devastador" a causa de la IA
En su opinión, estas medidas "despreocupadas" añaden un riesgo adicional a la combinación de intereses comerciales y desarrollo militar.
Para mitigar estos peligros, propone que al menos un tercio de la capacidad de cómputo destinada al desarrollo de IA se enfoque en mejorar la seguridad y regulación de estos sistemas.
Entre sus preocupaciones figura la capacidad futura de la IA para manipular psicológicamente a las personas, aprendiendo técnicas de influencia política y social, lo que "socavaría la democracia y la estabilidad social".
Más allá de los riesgos, el científico reconoció el potencial positivo de la inteligencia artificial para áreas como la educación y la lucha contra el cambio climático, pero insiste en que ese potencial no debe nublar la atención sobre los posibles daños.