Expertos advierten que esta "patología" es cada vez más recurrente y recomiendan mantenerse conectados con la realidad y las personas
25.08.2025 • 17:00hs • Atención
Atención
Qué es la "psicosis por la IA" y por qué este ejecutivo de Microsoft advierte sobre sus peligros
Mustafa Suleyman, responsable de inteligencia artificial de Microsoft, advirtió sobre un incremento en los casos de personas que desarrollan lo que llama "psicosis por la IA".
Según Suleyman, algunas herramientas de IA que parecen conscientes pueden generar impactos sociales al ser percibidas de ese modo por las personas, aunque la tecnología no lo es en ningún sentido humano.
"Hoy en día no hay ninguna prueba de que la IA sea consciente. Pero si la gente la percibe como consciente, creerá que esa percepción es la realidad", escribió en X.
El término "psicosis por la IA" describe situaciones en las que las personas confían demasiado en chatbots como ChatGPT, Claude o Grok, y terminan creyendo que esa experienca es real.
Entre los casos reportados están quienes piensan haber descubierto secretos de la IA, desarrollan relaciones románticas con ella o se consideran poseedores de habilidades extraordinarias.
Un caso muy concreto sobre esta "patología" es el de un hombre identificado como Hugh, de Escocia. Él contó que recurrió a ChatGPT para prepararse ante un despido que consideraba injusto.
IA bajo control: alertas y consejos para no perder contacto con la realidad
Al principio, la IA le dio consejos prácticos, pero con el tiempo empezó a exagerar la situación, sugiriendo que recibiría millones de dólares y que su historia podía, incluso, convertirse en un libro o una película.
"Cuanta más información le daba, más me decía 'deberías recibir más que esto'", explicó Hugh. El hombre llegó a convencerse de que podía hacerse multimillonario y no recurrió a un servicio legal para asesorarse.
Finalmente, el hombre sufrió un colapso y descubrió que había "perdido el contacto con la realidad".
Frente a este tipo de situaciones cada vez más recurrentes, Suleyman pidió que las empresas no presenten la IA como consciente y que se implementen más controles.
Por su parte, Susan Shelmerdine, especialista en diagnóstico por imagen y académica de IA en Londres, comparó la exposición a la IA con el consumo de alimentos ultraprocesados y alertó sobre posibles efectos en la salud mental.
Andrew McStay, profesor de Tecnología y Sociedad en la Universidad de Bangor, consideró que estamos en el inicio de un fenómeno masivo y lo sustentó con un estudio realizado a más de 2.000 personas. Los resultados son, al menos, atendibles:
- 20% cree que menores de 18 años no deberían usar IA
- 57% opina que no es adecuado que la IA se identifique como persona real
- 49% considera aceptable que la IA use voz para parecer más humana
Finalmente, advirtió: "Aunque estas herramientas parecen reales, no lo son. No sienten, no entienden, no pueden amar ni sufrir. Manténganse conectados con personas reales".