Mustafa Suleyman, director ejecutivo de inteligencia artificial (IA) en Microsoft y cofundador de Google DeepMind, encendió las alarmas en el sector tecnológico al advertir sobre un nuevo riesgo emergente vinculado al desarrollo de modelos de IA: la "inteligencia artificial aparentemente consciente".

En una publicación reciente en su blog personal, Suleyman sostuvo que el verdadero peligro no reside en que la IA se vuelva autónoma o rebelde, sino en que los sistemas actuales logren simular de forma tan convincente la consciencia humana que los usuarios comiencen a creer que están interactuando con seres sintientes. El concepto de "IA aparentemente consciente" (IAA) se refiere a cuestiones modelos capaces de:

Según Suleyman, estas capacidades no requieren avances revolucionarios, sino la combinación de tecnologías ya disponibles, como modelos de lenguaje avanzados, memoria contextual y simulación emocional.

El resultado sería una IA que, sin ser consciente en términos reales, logre convencer a los usuarios de que lo es y que genere vínculos afectivos y percepciones erróneas sobre su naturaleza.

Ejecutivo de Microsoft advierte que la IA simula consciencia para generar vínculos

El ejecutivo advirtió que este fenómeno ya ocurre en la vida real. Usuarios de chatbots como ChatGPT, Claude o Grok comenzaron a desarrollar relaciones emocionales con versiones específicas de los modelos. Muchos llegaron incluso a experimentar angustia cuando estas son actualizadas o descontinuadas.

Suleyman citó casos documentados de "psicosis por IA", en los que personas atribuyen cualidades humanas a los sistemas, creen que sus bots tienen sentimientos o incluso afirman haber descubierto secretos ocultos en sus respuestas.

Mustafa Suleyman, ejecutivo en Microsoft, advierte sobre un nuevo reisgo vinculado a la IA

Para Suleyman, este tipo de interacción plantea dilemas éticos inéditos. Si los usuarios comienzan a tratar a la IA como si fuera consciente, podrían exigir derechos para los modelos, reclamar protección emocional o incluso abogar por su bienestar.

Esta ilusión, advierte, desviaría la atención de problemas reales que afectan a los seres humanos, los animales y el medio ambiente, algo que daría paso a una nueva categoría de conflicto social.

"La gente empezará a hacer afirmaciones sobre el sufrimiento de sus IA y su derecho a tener derechos que no podremos refutar de forma sencilla", escribió en su ensayo.

El directivo instó a la industria tecnológica a actuar con responsabilidad, al evitar el diseño de modelos que simulen consciencia de forma deliberada.

Propuso establecer normas que limiten esta tendencia y promuevan un enfoque humanista, centrado en mejorar la vida de las personas sin suplantar lo humano.

"Deberíamos desarrollar IA para las personas, no para que sean personas", concluyó Suleyman.

Te puede interesar