Hoy quiero compartirles un artículo reciente publicado en The Lancet Digital Health que aborda un tema crucial para quienes trabajamos en el ámbito de la salud: la integración de la inteligencia artificial (IA) en la toma de decisiones clínicas y cómo sus diferencias fundamentales con el razonamiento humano pueden generar desafíos inesperados. Aunque el artículo se centra en radiología, sus conclusiones son relevantes para farmacéuticos, médicos y cualquier profesional que interactúe con herramientas de IA.
¿En qué se diferencian los clínicos de la IA?
Los autores destacan que los profesionales de la salud, como los radiólogos, utilizan un razonamiento ecológicamente acotado: filtran información irrelevante gracias a su experiencia y contexto clínico. Por ejemplo, un farmacéutico podría descartar rápidamente una interacción medicamentosa improbable en un paciente joven sin antecedentes complejos, basándose en su conocimiento y en señales contextuales. La IA, en cambio, opera mediante correlaciones matemáticas aprendidas de grandes conjuntos de datos, sin distinguir entre señales clínicamente relevantes y artefactos irrelevantes (como marcas técnicas en una radiografía). Esto puede llevar a decisiones «descontextualizadas» que, aunque estadísticamente precisas, carecen de sentido clínico.
El peligro de los atajos engañosos
Un punto clave es el aprendizaje por atajos (shortcut learning), donde la IA utiliza patrones no clínicos (ejemplo: identificar neumonía por artefactos en la imagen en lugar de hallazgos pulmonares). En farmacia, esto podría traducirse en un algoritmo que recomiende un fármaco basándose en correlaciones espurias (como la frecuencia de prescripción en ciertos hospitales) en lugar de evidencia clínica sólida. Los autores advierten que, a mayor precisión de la IA, menor alineación con el razonamiento humano, lo que dificulta anticipar sus errores o sesgos.
Explicabilidad: ¿Una ilusión peligrosa?
El artículo critica la explicabilidad de la IA (XAI), señalando que las explicaciones técnicas (ejemplo: «el modelo detectó un patrón en el píxel X») no son intuitivas para los clínicos. Esto puede generar una falsa confianza (ilusión de profundidad explicativa), donde creemos entender la decisión de la IA cuando en realidad no es así. En farmacia, esto es crítico: si un sistema sugiere ajustar una dosis basándose en correlaciones oscuras, necesitamos transparencia real, no justificaciones técnicas incomprensibles.
Tres niveles para entender la interacción humano-IA
Los autores proponen analizar esta relación desde tres perspectivas:
- Conductual: Observar cómo los clínicos usan la IA (confianza, rendimiento).
- Cognitivo: Estudiar procesos mentales como la atención o la carga cognitiva al interactuar con IA.
- Modelos cognitivos: Integrar factores neurofisiológicos y ambientales en modelos predictivos.
Para los farmacéuticos, esto implica reflexionar sobre cómo la IA afecta nuestro juicio: ¿Nos hace más eficientes o nos distrae? ¿Complementa nuestra experiencia o la desplaza?
Conclusiones clave para la práctica farmacéutica
- La IA es una herramienta, no un reemplazo: Su valor depende de cómo la integremos, manteniendo un enfoque crítico.
- Validación rigurosa: Los algoritmos usados en farmacia (ejemplo: detección de interacciones) deben evaluarse no solo por su precisión, sino por su alineación con el razonamiento clínico.
- Regulación proactiva: Urge desarrollar estándares que garanticen seguridad y transparencia, especialmente en contextos de alto riesgo como la farmacoterapia.
En resumen, este artículo nos recuerda que la IA no piensa como nosotros. Su integración exitosa requiere entender sus limitaciones, fomentar la humildad epistemológica («sé que no sé cómo funciona del todo») y diseñar sistemas que respeten la expertise humana. Como farmacéuticos, nuestro rol es asegurar que la IA sirva para potenciar —no erosionar— la calidad y seguridad del cuidado al paciente.
¿Y ustedes? ¿Han usado herramientas de IA en su práctica? ¡Cuéntenme sus experiencias en los comentarios!
Referencia: Tikhomirov, L., Semmler, C., McCradden, M., Searston, R., Ghassemi, M., & Oakden-Rayner, L. (2024). Medical artificial intelligence for clinicians: the lost cognitive perspective. The Lancet. Digital health, 6(8), e589–e594. https://doi.org/10.1016/S2589-7500(24)00095-5