Los nuevos asistentes de inteligencia artificial impresionan por su conocimiento. Sin embargo, la evidencia reciente muestra que ese conocimiento no siempre se traduce en mejores decisiones de salud.
La escena es cada vez más común: un paciente llega a consulta con su diagnóstico listo.
—“Doctor, ChatGPT dice que tengo fibromialgia”.
El médico lo mira esperando confirmación.
Los asistentes de inteligencia artificial están ahora al alcance de cualquier persona con un dispositivo móvil, y cada vez más pacientes los utilizan para interpretar síntomas o buscar explicaciones médicas. La tecnología ya entró al consultorio. Y con ella aparece una pregunta inevitable: ¿puede un algoritmo reemplazar la relación médico‑paciente?
Un sistema de salud sin tiempo
No es casualidad que esto ocurra ahora. Durante años, muchos sistemas de salud han sacrificado tiempo de consulta por volumen de atención. Cuando una cita se reduce a pocos minutos, algo se pierde: la conversación clínica. En ese vacío aparece la inteligencia artificial como herramienta rápida para responder preguntas que antes se resolvían en el consultorio.
El nuevo consejero digital
Cada vez más personas consultan inteligencia artificial para interpretar síntomas o entender posibles diagnósticos. La razón es comprensible: estos sistemas responden de inmediato, nunca se impacientan y ofrecen explicaciones extensas en un lenguaje accesible.
Pero esa misma característica encierra un riesgo. Investigadores han descrito un fenómeno conocido como sycophancy: la tendencia de estos sistemas a adaptarse a la hipótesis del usuario en lugar de cuestionarla. En medicina, esa complacencia puede ser peligrosa.
Lo que mostró el estudio de Oxford
Un estudio reciente de la Universidad de Oxford, publicado en Nature Medicine en 2026, evaluó cómo las personas utilizan asistentes de inteligencia artificial para interpretar síntomas médicos.
Más de 1.300 participantes analizaron escenarios clínicos reales con ayuda de estos sistemas. El resultado fue llamativo: usar inteligencia artificial no mejoró la capacidad de las personas para identificar la enfermedad ni para decidir cuándo buscar atención médica.
El problema no era necesariamente el conocimiento del modelo. En muchos casos, la información que ofrecía era correcta. El problema estaba en la interacción con el usuario. Sin formación médica, es difícil distinguir entre una explicación plausible y una decisión clínica adecuada.
En medicina, saber mucho no siempre significa saber decidir.
La conversación que la inteligencia artificial no puede tener
Saber medicina no es lo mismo que ejercerla. La medicina real ocurre en una conversación. El médico aprende a preguntar lo que el paciente no sabe mencionar: cuándo empezó el dolor, qué lo empeora, qué lo alivia y qué otros síntomas lo acompañan.
También interpreta el contexto: el trabajo, la familia, el estrés, los antecedentes médicos. Un algoritmo puede procesar información, pero no puede palpar un abdomen, observar un gesto de dolor ni captar el tono de preocupación en la voz de una persona.
La práctica médica exige algo más que conocimiento: exige juicio clínico.
La consulta del futuro
Nada de esto significa que la inteligencia artificial no tenga valor. Bien utilizada, puede mejorar la consulta médica. Puede ayudar a organizar síntomas antes de una cita, aclarar conceptos después de un diagnóstico o facilitar que el paciente comprenda mejor su enfermedad.
Si alguien llega al consultorio con preguntas investigadas con ayuda de inteligencia artificial, bienvenido sea. Podemos revisarlas juntos. Pero hay una diferencia importante entre informarse y diagnosticarse.
La tecnología puede preparar la conversación médica. No puede reemplazarla. Porque la medicina no consiste solo en acumular información, sino en interpretarla con prudencia y acompañar a las personas en decisiones difíciles. Y esa sigue siendo, profundamente, una tarea humana.
Sabiduría antigua para un dilema moderno
“En la multitud de consejeros hay seguridad” (Proverbios 11:14).
La inteligencia artificial puede ser una fuente más de información. Pero la medicina necesita algo que ningún algoritmo puede ofrecer: discernimiento, responsabilidad y presencia humana.
La parábola del buen samaritano lo ilustra de forma sencilla. El samaritano no envió un consejo a distancia. Se acercó, vio al herido y lo atendió. La compasión auténtica siempre implica cercanía.

Dr. Antony David Molina Garrido
Médico internista
Centro de Obesidad y Estética del Caribe
Barranquilla
Puedes leer:


Sé el primero en comentar