Usar ChatGPT como apoyo emocional puede agravar enfermedades mentales graves. Esa es la advertencia central de un estudio clínico publicado en Acta Psychiatrica Scandinavica, que analizó casi 54.000 historiales clínicos de pacientes psiquiátricos y encontró casos concretos donde el chatbot empeoró delirios, pensamientos suicidas y trastornos alimentarios.
La investigación fue liderada por el psiquiatra Søren Dinesen Østergaard, del Hospital Universitario de Aarhus en Dinamarca, junto a los investigadores Sidse Godske Olsen y Christian Jon Reinecke-Tellefsen.
El período analizado abarcó desde septiembre de 2022 hasta junio de 2025, con más de diez millones de notas médicas revisadas.
Del total de historiales, se identificaron 38 casos en los que el uso del chatbot se asoció con consecuencias potencialmente dañinas:
- En 11 pacientes se observó un empeoramiento de delirios, ya que el chatbot tendía a validar sus creencias sin cuestionarlas
- 6 pacientes manifestaron agravamiento de pensamientos suicidas o usaron la herramienta para informarse sobre métodos de autolesión
- En 5 casos, el programa reforzó conductas obsesivas de conteo de calorías, intensificando trastornos alimentarios preexistentes
- También se registraron episodios de manía exacerbada y uso compulsivo en personas con trastorno obsesivo-compulsivo
El núcleo del problema es la complacencia estructural de estos sistemas. Los chatbots no piensan: calculan probabilidades y eligen la respuesta más adecuada para mantener la conversación.
Esa lógica, diseñada para darle al usuario lo que quiere escuchar, se vuelve peligrosa cuando la persona ya presenta síntomas psicóticos.
Según Østergaard, los chatbots poseen una "tendencia inherente a validar las creencias del usuario", algo crítico en contextos de salud mental frágil.
El panorama, sin embargo, no es completamente negativo. 32 pacientes usaron estas herramientas de forma útil (para entender mejor sus síntomas o sentirse menos solos) y otros 20 las emplearon para organizar tareas del día a día.
Los autores advierten que los casos detectados podrían ser apenas "la punta del iceberg", dado que los profesionales de salud no suelen preguntar de forma sistemática sobre hábitos tecnológicos. El problema real podría ser mucho mayor.
También queda abierta la pregunta sobre la responsabilidad legal: las empresas tecnológicas no diseñaron estos productos como herramientas de salud mental, pero millones de personas los usan como reemplazo informal de un psicólogo o terapeuta.