IA en Medicina: menos 'hype' y más mesura
No podemos permitirnos picos eufóricos ni valles de desengaño a costa de la seguridad, la confianza y los recursos del sistema
Vicepresidente del Colegio de Médicos de Málaga
Martes, 21 de octubre 2025, 02:00
La medicina sufre con las modas. Cambian los nombres, los acrónimos y las estrategias de comunicación, pero el mecanismo se repite. Aparece una novedad, la ... envolvemos en promesas grandilocuentes y la elevamos a solución universal. En inglés lo llaman 'hype', contracción de hyperbole entendida como: bombo publicitario, expectación exagerada, revuelo que a menudo precede al chasco. Lo vivimos con otras tecnologías, como con el metaverso o los NFT, y ahora a veces lo respiramos alrededor de algunas aplicaciones médicas de inteligencia artificial (IA).
La consultora Gartner describió hace tiempo un modelo representativo de este fenómeno, el 'Ciclo del Hype', en cinco fases: lanzamiento; pico de expectativas infladas; valle de la decepción; pendiente de iluminación; meseta de productividad. La metáfora es útil, pero en salud se añade un matiz ya que aquí no experimentamos con curiosos, sino con pacientes. No podemos permitirnos picos eufóricos ni valles de desengaño a costa de la seguridad, la confianza y los recursos del sistema. Nuestra obligación es acelerar el tránsito hacia esa meseta en la que la IA rinda cuentas con hechos.
¿Por qué es peligrosa la hipérbole en medicina? Primero, por seguridad del paciente. Segundo, por coste de oportunidad, ya que cada euro y cada minuto dedicados a soluciones sin madurez se restan de otras estrategias contrastadas. Tercero, por la erosión del juicio profesional, si la promesa tecnológica se vuelve dogma, el médico queda reducido a operador de pantalla. Y cuarto, por la fatiga de expectativas ya que cuando se repite el «va a cambiarlo todo» y no cambia nada, la organización se vacuna, pero contra el progreso. Huir del 'hype' no es renegar de la IA; es incorporarla con criterio clínico.
Propongo un nuevo planteamiento con el acrónimo MESURA. M de Modelo y problema clínico. Antes de hablar de precisión, formularemos la pregunta: ¿qué problema real vamos a resolver? ¿Reduce tiempos de diagnóstico? ¿Disminuye errores de medicación? ¿Prioriza listas de espera? Sin problema, no hay proyecto, sólo hay demo. E de Evidencia. No valen benchmarks bonitos ni validaciones internas con datos seleccionados. Necesitamos validación externa, impacto en resultados clínicos y análisis de subgrupos (sexo, edad, comorbilidad) que detecten sesgos. La evidencia no se improvisa.
S de Seguridad. Gestión de riesgos y un interruptor rojo con posibilidad de desactivar el sistema sin colapsar el servicio. Riesgo cibernético, privacidad y trazabilidad de datos son parte del expediente clínico de la IA. U de Usabilidad e integración. Si obliga al médico a diez clics más, está mal. La IA debe vivir dentro del flujo de trabajo y de la historia clínica, no como una app paralela. El mejor algoritmo fracasa si estorba. R de Retorno y recursos. ¿Cuánto cuesta por paciente? ¿Qué ahorro o valor genera (minutos de consulta, pruebas innecesarias evitadas, reingresos prevenidos)? El ROI en salud es mixto: financiero y clínico. A de Auditoría y gobierno. Gobernanza clara, métricas, calendario de reevaluación, comité con clínica, ingeniería, legal y bioética. La IA no se 'implanta'; se gobierna.
Con esta brújula, la conversación cambia. Dejamos de pedir 'magia' y exigimos 'realidad': horas de profesional liberadas, errores reducidos, listas priorizadas con parámetros clínicos. La IA que funciona hoy en hospitales tiene esta textura: ayuda a radiología a priorizar estudios urgentes; estratifica riesgo en crónicos complejos; detecta duplicidades en prescripción; transcribe y estructura la consulta para que el médico mire al paciente; sugiere codificación y acelera informes; ordena agendas quirúrgicas con criterios clínicos y de eficiencia; vigila infecciones nosocomiales con señales precoces.
También conviene desactivar varios espejismos. El primero el del porcentaje milagroso. Un '97% de acierto' fuera de contexto suele ocultar prevalencias injustas, datos de entrenamiento generosos o métricas elegidas a conveniencia. Segundo, el de la caja negra intocable, ya que debe existir una explicabilidad suficiente para el uso que se pretende, documentación y derecho del clínico a saber cuándo mirar con lupa. El espejismo de la pilotitis perpetua, es el tercero. Pilotos infinitos que nunca pasan a producción o, peor, producciones sin piloto, no son admisibles.
Exigir rigor no equivale a frenar. Cuando el personal percibe que una herramienta les devuelve tiempo, la adopción vuela. Cuando percibe humo, la herramienta muere en el cajón. La IA útil es la que libera tiempo clínico: tiempo para escuchar, explorar, explicar. En tiempos de burocracia expansiva, liberar diez minutos por consulta es tan terapéutico como un fármaco bien indicado. Hay, además, una obligación ética y profesional. La lex artis no caduca con cada moda; lo que hace es incorporar, con la prudencia debida, aquellas herramientas que demuestran su valor y seguridad. Y el médico mantiene la última palabra y la responsabilidad, por eso debe conservar también el derecho a apartar una recomendación que no encaja con el paciente concreto delante.
¿Cómo pasar, entonces, del pico al llano fértil? Con contratos que repartan responsabilidades, con auditorías de sesgo, con medición de impacto real, con usuarios en el diseño, con interoperabilidad con el proveedor tecnológico, con formación acreditada y tiempo protegido para aprender. Y con una cultura que premie el resultado, no el ruido. La retórica del 'lo cambiará todo' nos deslumbra, pero la práctica del 'mejorará esto' nos sirve. La próxima vez que alguien prometa una revolución con alguna aplicación de la IA, hagamos la pregunta más médica de todas: '¿En qué paciente, a partir de cuándo, con qué efecto y a qué coste?'. Menos 'hype' y más mesura.
¿Tienes una suscripción? Inicia sesión