Aunque la IA genera impactos significativos en la humanidad, también está cambia de manera radical la forma en la que nos relacionamos con las máquinas.

En ese sentido, Yuval Noah Harari, autor de bestsellers como Sapiens y Homo Deus y una de las voces más influyentes en la reflexión sobre tecnología, explicó que la IA actual ya no se limita a reproducir la inteligencia humana: también está perfeccionando la capacidad de imitar emociones y sentimientos de manera muy convincente.

"Incluso si la IA no tiene sentimientos ni conciencia, se vuelve muy buena fingiendo tenerlos", agregó.

El especialista alertó que podríamos llegar a otorgar derechos o trato especial a sistemas de IA solo por parecer conscientes, aunque en realidad no lo sean.

En los Estados Unidos, por ejemplo, más de 70% de los adolescentes ya interactuó con bots como Grok, y la generación Z utiliza ChatGPT como un "psicólogo" disponible todo el día y a bajo costo.

El riesgo, según Harari, es confiar decisiones importantes o buscar apoyo emocional en sistemas que solo manejan datos, sin comprender realmente la complejidad humana.

La superinteligencia, el futuro que preocupa a Harari

Si se desarrolla una inteligencia artificial superinteligente –un objetivo que muchas empresas están buscando activamente– la humanidad podría estar jugando a ser Dios, un experimento que, según él, podría marcar el comienzo del fin.

Harari se plantea una pregunta clave: ¿qué pasará cuando llegue una superinteligencia? Según él, esto podría suceder en los próximos 5 a 10 años. El gran problema es que nunca el humano compitió con algo más inteligente, adviertió.

Ni siquiera los animales más inteligentes se acercan a nuestra habilidad para organizar y compartir información. Pero la IA sí tiene ese potencial. Y va más allá: "Escribirá sus propios libros, generará ideas y tomará decisiones sin nosotros", explicó.

El especialista pone ejemplos claros: una IA podría influir en elecciones mediante noticias falsas muy convincentes, o redactar leyes con trampas ocultas para beneficiar a quienes la diseñaron. "No es ciencia ficción", agrega. "Ya ocurre a pequeña escala en redes sociales".

En otra entrevista, Harari señaló: "Hemos creado una nueva inteligencia potencialmente más poderosa e inteligente que nosotros. Y si se sale de nuestro control, las consecuencias podrían ser catastróficas".

El peligro no está en que la IA sea malintencionada, sino en que, al alcanzar un nivel muy avanzado, podría dejar de preocuparse por los intereses humanos.

Este futuro se relaciona con la llamada Inteligencia Artificial General (AGI), una IA capaz de aprender, razonar y resolver problemas como un ser humano, o incluso mejor. Mientras algunos expertos consideran que la AGI es solo un objetivo lejano, Harari la toma como una posibilidad real que requiere atención.

Te puede interesar