La inteligencia artificial puede ser una aliada para resolver dudas, crear ideas y aprender, pero no todo lo que responde debe tomarse al pie de la letra
13.08.2025 • 09:53hs • Innovación
Innovación
Persona quedó hospitalizada tras seguir este consejo de ChatGPT: qué le dijo la IA
Desde su lanzamiento a fines de 2022, ChatGPT se convirtió en una de las herramientas más populares del mundo. Millones de personas lo usan a diario para responder dudas, redactar textos, resolver tareas, escribir código, traducir, planificar viajes e incluso buscar ideas creativas.
Pero, como cualquier herramienta, no es infalible. ChatGPT no es médico, abogado ni nutricionista, aunque pueda "sonar" convincente. Su información proviene de patrones de texto, no de experiencia clínica ni supervisión profesional.
Por eso, si bien puede ser útil para comprender conceptos o como punto de partida para investigar, usarlo como única fuente para tomar decisiones sobre la salud puede ser muy peligroso.
La historia que encendió alarmas
Un reciente caso médico publicado en Annals of Internal Medicine: Clinical Cases lo demuestra. Un hombre de 60 años, sin antecedentes de salud, terminó internado de urgencia con un cuadro grave de intoxicación después de seguir una recomendación que le dio ChatGPT.
El paciente quería eliminar la sal de mesa (cloruro de sodio) de su dieta y buscó un reemplazo "más sano" consultando al chatbot. La respuesta lo llevó a sustituirla por bromuro de sodio, una sustancia que se puede comprar por internet y que, ingerida, puede ser altamente tóxica.
Durante tres meses consumió este compuesto, hasta que desarrolló un síndrome conocido como bromismo, que a principios del siglo XX llegó a representar hasta el 8% de las internaciones psiquiátricas.
Su estado empeoró rápidamente: paranoia, alucinaciones, insomnio, fatiga y problemas en la piel. Incluso llegó a pensar que su vecino intentaba envenenarlo. Los análisis confirmaron niveles peligrosos de bromuro en sangre.
Tras suspender la sustancia y recibir tratamiento con fluidos intravenosos, el hombre se recuperó y fue dado de alta, pero la experiencia dejó el mensaje claro de que no hay que hacer todo lo que ChatGPT sugiere.
Para qué sí y para qué no usar ChatGPT
Casos como este son un recordatorio de que, aunque ChatGPT y otras IA generativas sean herramientas poderosas, su uso en temas de salud, medicación o dieta debe limitarse a lo informativo y complementario. Nunca deben reemplazar la consulta con profesionales.
La recomendación es simple:
- ChatGPT sí se puede usar para obtener explicaciones, comparar información, organizar ideas o aprender sobre un tema.
- No para diagnósticos, tratamientos o cambios drásticos en la alimentación o medicación.
- Siempre contrastar la información con fuentes confiables y especialistas humanos.