La inteligencia artificial (IA) avanza sobre uno de los territorios más sensibles que existen: la salud.

En las últimas semanas, ChatGPT y otros modelos comenzaron a ofrecer análisis personalizados a partir de datos de relojes inteligentes y registros médicos, una promesa que entusiasma a millones de usuarios pero que también enciende alarmas en la comunidad médica.

El caso que expuso el debate surgió cuando un columnista del Washington Post, Geoffrey Fowler, permitió que ChatGPT analizara diez años de datos de su Apple Watch.

El bot accedió a 29 millones de pasos y más de 6 millones de registros cardíacos. La devolución fue tan contundente como inquietante: una calificación F (su equivalente en Argentina sería una nota reprobatoria, comúnmente del 1 al 3) sobre su salud cardiovascular.

El problema no fue solo el diagnóstico. Al repetir la consulta, ChatGPT modificó la evaluación varias veces y pasó de una F a una D, luego a una C y finalmente a una B. Médicos reales descartaron el análisis y subrayaron que no existía ningún riesgo cardíaco relevante.

El cardiólogo Eric Topol calificó el informe como "infundado" y advirtió que la herramienta "no está lista para ningún tipo de consejo médico". El médico personal del periodista ordenó estudios que la IA jamás sugirió y confirmó que el riesgo cardiovascular era bajo.

El dato de origen también importa

Esa variabilidad encendió la alarma. En salud, la inconsistencia no es un detalle técnico sino un riesgo concreto: uno de los puntos más cuestionados fue el uso de métricas del Apple Watch como el VO₂ máx o la variabilidad de la frecuencia cardíaca.

Aunque Apple valida estas estimaciones, no se trata de mediciones clínicas directas.

"El problema no es únicamente la inteligencia artificial, sino la calidad del dato que se le entrega", explica a iProUP el doctor Enrique Majul, experto en IA y Salud, MP 23603 y agrega: "Los relojes inteligentes realizan estimaciones mediante fórmulas matemáticas y no mediciones directas, por lo que no deben considerarse un estándar médico".

Para Majul, "el riesgo surge cuando se cargan estos datos en una inteligencia artificial como ChatGPT para obtener diagnósticos: si la información de origen es inexacta, el sistema inevitablemente arrojará conclusiones erróneas basados en datos que ya venían mal desde el principio".

El fenómeno no es marginal. Según Majul, "se hacen 230 millones de consultas semanales sobre medicina, sólo a ChatGPT". El volumen impresiona y explica por qué estas herramientas ya influyen en decisiones personales de salud.

El dato más llamativo viene ahora. "Una de cada cuatro respuesta son incorrectas, pero la gente confia más en estas devoluciones que en el médico", advierte el especialista. Esa combinación de error y confianza excesiva forma un cóctel peligroso.

Cuando la IA también entra al consultorio

El avance no se limita a los pacientes. La adopción también crece entre profesionales. "Actualmente, el 68% de los médicos utilizan ChatGPT o alguna de estas tecnologías para ayudarse en su consultorio médico. O sea que los mismos médicos por ahí están confiando en esto", puntualiza Majul.

Los modelos, además, muestran progresos técnicos reales. "Reciben entrenamiento cada vez más avanzado, de hecho pasaron exámenes para residencias en EE.UU.", enfatiza el experto. El problema no es la capacidad, sino el uso sin contexto clínico completo.

Existen casos donde la integración de IA muestra resultados concretos. "Desde el año pasado, un hospital en Arabia integró al ‘Doctor Chua’, una inteligencia artificial surcoreana que intervino en cada etapa del proceso médico, desde la entrevista inicial hasta el diagnóstico y tratamiento final. El impacto fue inmediato: la tasa de error médico cayó del 10% habitual a un ínfimo 0,3%", relata el entrevistado.

La diferencia es clave. Se trata de una IA integrada, entrenada y supervisada dentro de un sistema médico real, no de un chatbot generalista que responde con seguridad aunque no tenga certezas.

OpenAI y Anthropic repiten que sus herramientas no reemplazan médicos ni realizan diagnósticos. Sin embargo, el formato de respuesta, el lenguaje seguro y la profundidad del análisis empujan al usuario a interpretarlas como una opinión clínica.

Para Majul, el equilibrio resulta claro. "Una IA buena nos puede ayudar, pero es indispensable la mirada de un médico humano". La tecnología puede ordenar datos, detectar patrones y ahorrar tiempo, pero no reemplaza la interpretación clínica ni el contexto humano.

Mientras la IA avanza y gana protagonismo, el desafío no pasa por frenarla, sino por definir con precisión dónde aporta valor y dónde puede causar daño. En salud, ese límite no admite improvisaciones.

Te puede interesar