Enrique de la Peña Zarzuelo
Servicio de Urología
Hospital Universitario Fundación Alcorcón
Facultad de Ciencias de la Salud
Universidad Rey Juan Carlos
1. Introducción
En los últimos años, la irrupción de la inteligencia artificial (IA) en el ámbito sanitario ha modificado de manera profunda la relación entre médico y paciente. Herramientas como chatbots clínicos, buscadores especializados, modelos generativos capaces de resumir información científica o aplicaciones de salud que interpretan analíticas y traducen informes han permitido que los pacientes accedan directamente a la información e interpretaciones que antes quedaban restringidas al ámbito clínico.
El paciente, que tradicionalmente dependía casi por completo del saber del profesional para comprender su enfermedad, puede ahora consultar, comparar e incluso anticipar posibles diagnósticos o estrategias terapéuticas antes de su cita médica.
Este fenómeno ha transformado la asimetría clásica del conocimiento médico. El paciente ya no acude “en blanco” a la consulta: llega con hipótesis formuladas a partir de algoritmos, con informes generados automáticamente y con expectativas moldeadas por sistemas de IA que se presentan como neutrales, pero que en realidad reproducen —y a veces amplifican— sesgos presentes en los datos de entrenamiento. La consulta médica se convierte así en un espacio nuevo, donde el médico no sólo debe interpretar la realidad clínica del paciente, sino también “interpretar la interpretación” que éste trae consigo desde su interacción con la IA.
Este cambio de paradigma plantea, al mismo tiempo, riesgos y oportunidades. Entre los primeros, destacan la posible difusión de información errónea o descontextualizada, la falta de criterios para discriminar fuentes fiables y el riesgo de generar ansiedad o falsas expectativas ante datos incompletos o probabilísticos. Pero el reverso es prometedor: un paciente mejor informado puede participar de forma más activa en la toma de decisiones, comprender mejor las recomendaciones clínicas y adherirse con mayor convicción al tratamiento. El desafío para el médico contemporáneo consiste, por tanto, en canalizar la autonomía del paciente informado por IA sin renunciar al juicio clínico, garantizando que la tecnología amplíe la comprensión y no la confusión.
En este contexto emergente, la preparación del médico adquiere una nueva dimensión: no basta con el dominio científico, sino que se requiere una alfabetización digital y ética que le permita integrar la información algorítmica en la práctica clínica, reconociendo sus límites, sus sesgos y su potencial transformador. La consulta del siglo XXI se configura así como un espacio híbrido entre el conocimiento humano y el conocimiento artificial, donde el equilibrio entre ambos determinará la calidad de la atención y la confianza entre médico y paciente.
En este nuevo ecosistema de información médica mediada por algoritmos, emerge una figura que todavía no cuenta con una denominación formal en la literatura científica o legislativa, pero cuya presencia en la práctica clínica es ya evidente. A efectos analíticos, podemos referirnos a él como “paciente aumentado”, entendiendo por ello al paciente que accede a información médica, interpretaciones clínicas o análisis probabilísticos mediante herramientas de IA antes de la consulta, incorporando ese contenido al diálogo con su médico. El término no pretende describir una categoría jurídica ni técnica estandarizada, sino ofrecer una propuesta conceptual que permita caracterizar la transformación del rol del paciente en la era digital.
La finalidad de introducir este concepto en el discurso clínico no es conferirle un estatus normativo que aún no posee, sino explicar con claridad que el paciente que entra hoy en la consulta no es el mismo paciente que la medicina ha descrito durante décadas. Sus preguntas, sus inquietudes y su interpretación de la enfermedad están ya mediadas —a veces orientadas, a veces distorsionadas— por herramientas que procesan grandes volúmenes de información biomédica y generan respuestas de apariencia experta. Reconocer esta realidad es un paso previo imprescindible para comprender los desafíos comunicativos, éticos y epistemológicos que se derivan de ello.
Al incorporar este marco conceptual, el presente artículo pretende dotar al lector de una imagen operativa de un fenómeno en auge: un paciente que no solo consulta fuentes digitales, sino que llega a la consulta con contenidos generados por sistemas capaces de sintetizar estudios, inferir riesgos o proponer tratamientos. Este paciente, “aumentado” por su interacción con la IA, exige al médico no solo competencias clínicas, sino también competencias de mediación cognitiva, capaces de integrar, filtrar y contextualizar el conocimiento algorítmico dentro del proceso de toma de decisiones compartido.
2. Formación ante la nueva consulta híbrida
La transformación del paciente en la era de la IA exige un replanteamiento profundo de las competencias profesionales del médico. No se trata únicamente de incorporar nuevas herramientas tecnológicas, sino de asumir una forma distinta de ejercer el juicio clínico, de establecer la relación con el paciente y de gestionar la información que entra en la consulta. La preparación del médico debe comprender cuatro dimensiones clave: la alfabetización tecnológica, la competencia crítica, la comunicación clínica y el fundamento ético-legal.
2.1. Alfabetización tecnológica y comprensión de la IA aplicada a la salud
El médico contemporáneo debe poseer un nivel básico de alfabetización en IA, suficiente para entender qué hace y qué no hace un modelo algorítmico. Esto incluye comprender:
- cómo se entrenan los modelos y cómo pueden incorporar sesgos,
- qué significa que una IA “prediga” o “interprete” algo a partir de datos,
- por qué los sistemas generativos pueden producir errores factuales o información no verificada,
- qué diferencia existe entre un sistema de apoyo a la decisión clínica regulado (dispositivo médico) y un chatbot generalista sin certificación sanitaria.
No se espera que el médico sea ingeniero, pero sí que disponga de una cultura digital suficiente para evaluar críticamente aquello que el paciente trae a consulta. Entender la lógica básica de estos sistemas es condición necesaria para poder explicarla, matizarla o contrarrestarla en diálogo con el paciente.
2.2. Competencia crítica en el análisis de la información aportada por IA
La IA no sustituye al juicio clínico; exige, por el contrario, que este sea más robusto y más explícito. El médico debe desarrollar la capacidad de:
- identificar la procedencia y fiabilidad de la información que aporta el paciente,
- distinguir entre resultados probabilísticos y diagnósticos confirmados,
- reconocer cuándo la IA extrapola más allá de la evidencia disponible,
- detectar errores, sesgos o conclusiones no aplicables al caso concreto,
- integrar la información válida sin sobredimensionarla.
El médico actúa aquí como un filtrado epistemológico, evaluando la calidad del dato algorítmico del mismo modo que evalúa cualquier otra prueba complementaria. Esta competencia crítica será determinante para evitar que una interpretación automatizada sin contraste derive en decisiones inadecuadas.
2.3. Nueva comunicación clínica: mediación entre paciente e información digital
La presencia del “paciente aumentado” implica un tipo de conversación clínica diferente. El médico debe estar preparado para:
- escuchar activamente la información que trae el paciente sin desautorizarla de entrada,
- clarificar la naturaleza de la IA empleada por el paciente,
- explicar de manera comprensible los límites y riesgos del resultado interpretado por el algoritmo,
- reconducir expectativas desmesuradas o falsas certezas generadas por herramientas no reguladas,
- reincorporar la información válida al proceso de toma de decisiones compartida.
Este es el nuevo terreno de la mediación cognitiva: el médico traduce lo que la IA ha dicho —o lo que el paciente cree que la IA ha dicho— y lo sitúa dentro del razonamiento clínico. Sin esta capacidad comunicativa, el riesgo de conflicto, desconfianza o malentendido aumenta de forma significativa.
2.4. Dimensión ética y normativa: supervisión humana, responsabilidad y seguridad
La llegada de información generada por IA a la consulta requiere también una preparación ética y legal adecuada. El médico debe conocer:
- los principios que rigen la supervisión humana en el uso de IA en salud (el denominado human-in-the-loop),
- el marco regulatorio que diferencia IA certificada como dispositivo médico de IA generalista,
- la necesidad de documentar las decisiones en las que la IA —aunque traída por el paciente— ha influido,
- la responsabilidad profesional de validar cualquier contenido antes de incorporarlo al proceso asistencial,
- las implicaciones de privacidad y seguridad cuando el paciente aporta datos generados fuera del sistema sanitario.
El profesional debe integrar estos principios en su práctica diaria para garantizar que la IA no introduce vulnerabilidades en la atención, al tiempo que salvaguarda la confianza y la autonomía del paciente.
2.5. Del dominio clínico al “dominio híbrido”: una competencia transversal
En definitiva, prepararse para este escenario implica entender que la medicina se ha convertido en un dominio híbrido: humano y algorítmico. El médico debe ser capaz de navegar en ambos espacios, sin perder la esencia del razonamiento clínico personalizado. La capacidad de integrar datos digitales, modelos predictivos y resultados generados fuera del ámbito sanitario será una competencia transversal tan importante como la anamnesis, la exploración física o la interpretación de pruebas.
3. Cómo debe adquirir el médico estas nuevas competencias
El desarrollo de competencias para abordar al paciente que llega con información generada por IA no puede dejarse al azar ni a la iniciativa individual. Requiere una formación sistemática, estructurada y alineada con los marcos éticos y regulatorios emergentes. Estas competencias pueden adquirirse a través de cinco vías principales.
3.1. Necesidad urgente de una formación estructurada en IA para médicos en ejercicio y para los futuros planes de estudio
En el momento actual, la mayoría de los planes de estudio de Medicina no incorporan de manera sistemática formación en IA aplicada a la salud. Esto genera un desfase evidente entre la práctica clínica real —donde los pacientes ya interactúan con sistemas algorítmicos— y la formación recibida por los profesionales que los atienden. Por ello, es imprescindible reconocer que nos encontramos ante una urgencia educativa.
Los médicos en ejercicio constituyen el grupo más directamente afectado por este cambio. Han de enfrentarse a pacientes que llegan a la consulta con informes, interpretaciones, riesgos calculados y resúmenes diagnósticos generados por IA, sin haber recibido formación reglada para interpretar o contextualizar ese material. Para este colectivo, la adquisición de competencias en IA no es opcional, sino una necesidad inmediata de actualización profesional.
Pero el problema no puede resolverse únicamente con formación continuada. Es necesario un giro estructural en la educación médica, mediante el cual los planes de estudio incorporen de forma obligatoria:
- conocimientos básicos sobre cómo funcionan los modelos de IA,
- identificación de sesgos algorítmicos y limitaciones,
- principios regulatorios aplicables a la IA médica,
- competencias de mediación clínica y comunicación con pacientes informados por IA,
- simulaciones clínicas donde se integren datos generados por algoritmos.
Esta adaptación debe ser profunda y rápida: la medicina contemporánea se desarrolla ya en un entorno IA, y la formación académica debe reflejarlo. No se trata de añadir un módulo aislado, sino de reorientar la formación médica hacia la convivencia entre conocimiento clínico y conocimiento algorítmico, garantizando que los futuros médicos estén preparados para ejercer en un escenario donde la información generada por IA será parte cotidiana del acto asistencial.
En respuesta a esta urgencia formativa, comienzan a surgir programas educativos tanto de nivel ejecutivo como de formación continua que abordan la IA en el contexto sanitario. Por ejemplo, el programa de ocho semanas de Harvard Medical School, “AI in Health Care: From Strategies to Implementation”, está orientado a profesionales del cuidado de la salud y aborda desde los fundamentos de IA hasta la ética y aplicación clínica (1). Asimismo, la Johns Hopkins University ofrece un certificado online “AI in Healthcare Program” dirigido a profesionales sanitarios, con contenido que incluye integración clínica de la IA, ética y proyectos de implementación real (2). El Royal College of Surgeons in Ireland propone un curso online autoguiado “AI in Healthcare” que cubre conceptos básicos, aplicaciones clínicas, ética y gobernanza para profesionales de salud y gestores (3).
Aunque estas iniciativas muestran que la formación en IA para médicos ya está en marcha, revisiones recientes documentan que su incorporación sistemática en los planes de estudio de Medicina y en la formación reglada del médico en ejercicio sigue siendo incipiente (4). Por ejemplo, una revisión que buscaba la integración de IA en la educación médica de grado encontró que, pese al uso creciente de tecnologías de IA en la práctica clínica, los planes de estudio “no han logrado ponerse al día” con ese entorno (5). En Canadá, un estudio Delphi definió competencias esenciales para IA en el currículo médico, lo cual representa un paso hacia la transformación estructural de la formación (6).
Estos datos confirman la necesidad de un giro estructural urgente en la educación médica que incluya: conocimientos sobre funcionamiento de modelos de IA, identificación de sesgos algorítmicos, principios regulatorios, mediación clínica con pacientes informados por IA y simulaciones clínicas que integren datos generados por algoritmos.
3.2. Entrenamiento específico en análisis crítico de información generada por IA
La capacidad del médico para analizar críticamente la información generada por sistemas de inteligencia artificial no surge de manera espontánea: requiere un entrenamiento deliberado, estructurado y continuo. En el nuevo contexto asistencial, donde el paciente puede aportar a la consulta informes, interpretaciones probabilísticas, resúmenes diagnósticos o análisis automatizados, resulta imprescindible que el clínico sea capaz de distinguir entre información útil, ruido algorítmico y potenciales sesgos. Esta competencia se desarrolla mediante estrategias formativas específicas que comienzan a consolidarse en la literatura.
Una primera línea de actuación es la revisión sistemática de casos clínicos reales en los que los pacientes hayan aportado datos generados por IA. Analizar en equipo la validez de la información, sus limitaciones y las discrepancias con la evidencia clínica permite comprender cómo se comportan los modelos ante situaciones concretas. Complementariamente, las simulaciones clínicas —en las que el médico debe integrar información algorítmica en el proceso de toma de decisiones— se han mostrado especialmente útiles para entrenar el razonamiento clínico en escenarios híbridos humano-máquina.
En este ámbito empiezan a aparecer marcos metodológicos y programas educativos que refuerzan esta necesidad formativa. Un ejemplo destacado es el trabajo de van Smeden et al., que propone 12 preguntas críticas para evaluar la validez, aplicabilidad y fiabilidad de modelos de predicción basados en IA, ofreciendo a los profesionales de la salud cardiovascular un esquema operativo para el análisis crítico de estas herramientas (7). Este tipo de guías proporciona una estructura concreta y reproducible para el juicio clínico frente a modelos complejos y opacos.
Más allá de herramientas conceptuales, existen ya programas formativos específicos orientados a profesionales sanitarios. El curso “AI for Doctors”, desarrollado por Hedderich et al., constituye uno de los primeros programas diseñados para médicos en ejercicio, centrado en la interpretación crítica de modelos de IA aplicados a imagen médica (8). Este tipo de iniciativas demuestra que es posible entrenar a clínicos para dialogar con herramientas algorítmicas y entender sus limitaciones operativas. En una perspectiva más amplia, Charow et al. revisaron 24 programas educativos acreditados dirigidos a profesionales de la salud, destacando que la mayoría de ellos incluye formación en fundamentos de IA, análisis de datos, ética y habilidades para evaluar sesgos y riesgos (9). Aunque heterogéneos, estos programas muestran que el entrenamiento en IA para clínicos está comenzando a tomar forma institucional.
La literatura reciente también ha comenzado a proponer marcos formativos avanzados. Schubert et al. plantean un modelo de “tres niveles de especialización en IA clínica” —consumidor, traductor y desarrollador— que define competencias progresivas para médicos de diferentes perfiles y grados de responsabilidad (10). En paralelo, Tolentino et al. analizan marcos curriculares emergentes para profesionales sanitarios y describen cómo estructurar programas docentes que integren IA de forma transversal (4). Por su parte, Ahsan et al. han realizado una revisión narrativa de métodos pedagógicos para incorporar IA en la educación médica, concluyendo que la evidencia disponible es prometedora pero todavía limitada y metodológicamente débil (11).
Finalmente, aunque existen ensayos clínicos aleatorizados que evalúan el impacto de herramientas basadas en IA en formación médica, la mayoría se centra en estudiantes de medicina o en contextos educativos generales, no en médicos en ejercicio. Por ejemplo, un reciente metaanálisis de Li et al. mostró que las estrategias educativas basadas en IA generativa mejoran el rendimiento práctico de los estudiantes frente a métodos tradicionales, aunque sin impacto significativo en el conocimiento teórico (12). Este tipo de evidencia, aun no aplicable directamente al escenario clínico, refuerza la idea de que las intervenciones formativas basadas en IA pueden tener efectos medibles.
En conjunto, la literatura científica muestra que existen bases reales para fundamentar un entrenamiento crítico del médico en IA, aunque aún fragmentadas y en evolución. La revisión de casos clínicos, las simulaciones con datos algorítmicos, los talleres de validación y la auditoría crítica de modelos deben consolidarse como prácticas estándar. La incorporación de estos métodos permitirá que el médico pueda ejercer su papel de supervisor humano, garante de seguridad y mediador cognitivo en la interacción entre el paciente, la IA y el acto clínico.
3.3. Formación en comunicación clínica en el contexto IA
La consulta con un “paciente aumentado” exige del médico un perfil comunicativo avanzado y adaptado al contexto IA, por el que será considerado su papel como mediador entre información algorítmica y realidad clínica. Por ello, el profesional debe recibir formación en habilidades en comunicación (communication skills training) que contemple los siguientes aspectos:
- Cómo explorar la interacción del paciente con la IA, indagando qué herramienta utilizó, cómo lo interpretó y qué entendió.
- Cómo explicar con claridad las limitaciones, incertidumbres y sesgos de las herramientas algorítmicas, adoptando una actitud explícita y no defensiva.
- Cómo desescalar expectativas generadas por sistemas que simulan precisión sin tenerla, ayudando al paciente a situar esa información en su contexto individual.
- Cómo integrar el dato algorítmico en la decisión compartida sin desautorizar ni humillar al paciente, asegurando que su contribución se considere, se valore y se incluya de forma colaborativa.
Estas habilidades se entrenan mediante formatos de role-playing, consultas simuladas, escenarios grabados y retroalimentación estructurada. En este sentido, estudios recientes ofrecen ejemplos concretos de este tipo de formación: por ejemplo, la revisión de Fernández-Alcántara et al. analiza herramientas de simulación virtual para profesionales sanitarios (13). Asimismo, Haut et al. describen el programa “SOPHIE”, una plataforma digital interactiva de pacientes virtuales con IA para practicar habilidades de comunicación clínica (14). Otro Proyecto piloto de Nash et al. evaluó un simulador de telemedicina centrado en competencias comunicativas de equidad y acceso para clínicos en ejercicio, y evidenció mejoras en sus habilidades de comunicación (15). Además, la revisión de Stamer et al. documenta cómo la IA y el machine learning se han utilizado para el desarrollo de habilidades de comunicación clínica en entornos académicos de salud (16). Y estudios más clásicos de communication skills training, como el de McCarrick et al., muestran que la formación estructurada mejora la confianza y las competencias de comunicación entre quienes participan (17).
En conjunto, este corpus demuestra que la formación en comunicación clínica adaptada al entorno IA ya no es una propuesta teórica exclusiva, sino que está iniciando su implementación con resultados preliminares positivos. Para el médico que atiende al paciente que trae información algorítmica, participar en un programa de communication skills training específico para IA representa una estrategia profesional indispensable de adaptación.
3.4. Actualización en el marco ético y regulatorio vigente
El uso de sistemas de IA en el ámbito sanitario está sujeto a un marco normativo europeo específico que determina cómo deben diseñarse, supervisarse e integrarse en la práctica clínica. En este contexto, el médico debe adquirir conocimiento actualizado sobre cinco áreas esenciales.
- En primer lugar, los principios de supervisión humana (“human-in-the-loop”) constituyen un requisito central de regulación: (EU) 2024/1689 – Artificial Intelligence Act (AI Act), que establece que todo sistema de IA de alto riesgo —en especial los que tienen finalidad médica— debe garantizar que una persona cualificada pueda intervenir, corregir o anular la salida algorítmica (18).
- En segundo lugar, el médico debe conocer los requisitos de seguridad, transparencia y trazabilidad que el AI Act exige a los sistemas de IA en salud: calidad del dataset, gestión de riesgos, explicabilidad suficiente, registro de logs (Un log es un archivo de registro donde un sistema deja constancia detallada de todo lo que hace, de forma cronológica y no manipulable), documentación técnica y vigilancia postcomercialización (18,19). Estos requisitos se articulan, además, junto con las normas europeas de productos sanitarios, especialmente el Medical Device Regulation (MDR, Regulation EU 2017/745) y el In Vitro Diagnostic Regulation (IVDR, Regulation EU 2017/746), que clasifican como dispositivos médicos a muchos sistemas de IA utilizados para diagnóstico, tratamiento o apoyo a decisiones clínicas (20).
- En tercer lugar, el médico debe diferenciar entre IA con certificación sanitaria (marcado CE, regulada por MDR/IVDR) y herramientas no certificadas (como chatbots generalistas, apps de bienestar o modelos de propósito general), cuyo uso clínico no está permitido y que no cuentan con garantías de calidad, seguridad o validación (20,21). En otras palabras: Un chatbots generalista o un modelo de propósito general es al médico lo que un estetoscopio de plástico es a la exploración clínica real: puede sonar, puede sugerir algo, pero no sustituye al instrumento diseñado, calibrado y certificado para el acto asistencial.
- En cuarto lugar, es necesario conocer las obligaciones de documentación en la historia clínica cuando interviene un sistema de IA: debe registrarse qué sistema se ha usado, qué resultado generó, qué revisión humana se realizó y cuál fue la decisión final del profesional. Este requisito está recogido en el AI Act (obligación de logging y trazabilidad) y en las normas regulatorias de vigilancia poscomercialización de dispositivos médicos (18,20).
- En quinto lugar, el médico debe comprender las implicaciones del Reglamento General de Protección de Datos (GDPR, Regulation EU 2016/679) cuando el paciente aporta resultados generados por IA externa. Estas situaciones implican evaluar la calidad y fiabilidad de la información aportada, garantizar la confidencialidad, y documentar adecuadamente la incorporación de esos datos al expediente clínico (22,23)
La adquisición de estas competencias puede realizarse a través de varias vías:
- Cursos de actualización organizados por comités de ética asistencial que abordan IA en salud, supervisión humana, sesgos y equidad.
- Formación conjunta con los servicios jurídicos e innovación del hospital, revisando casos reales, obligaciones de documentación, límites de uso clínico y responsabilidad profesional.
- Participación en seminarios sobre AI Act, MDR, IVDR y GDPR organizados por agencias reguladoras, sociedades profesionales o instituciones académicas.
- Revisión de guías operativas recientes, como las recomendaciones del Parlamento Europeo, la Comisión Europea y asociaciones científicas sobre el uso seguro y ético de IA en sanidad (19,23)
En síntesis, el marco regulatorio europeo exige que el médico no solo conozca los límites y las posibilidades de la IA en la práctica clínica, sino que actúe como garante de seguridad, responsabilidad y transparencia ante el paciente y el sistema sanitario.
3.5. Integración en equipos multidisciplinares y práctica supervisada
La adquisición de competencias técnicas y éticas no es suficiente si no se integra en la práctica real. Se hace ya necesario trabajar en equipos multidisciplinares con ingenieros, bioinformáticos, estadísticos y expertos en protección de datos. Así mismo es necesario participar en proyectos piloto de IA en el propio hospital para comprender de primera mano las limitaciones y retos operativos. En cualquier caso, se recomienda contar con supervisors de casos, mentores o tutores que ya tengan experiencia en interpretación crítica de herramientas algorítmicas. Finalmente es hora ya de incorporar estos aprendizajes en comités asistenciales, sesiones de morbimortalidad y sesiones clínicas.
Solo mediante práctica supervisada y colaboración transversal se consolida la competencia real en el manejo del paciente que llega con información generada por IA.
4. Conclusiones finales
La irrupción de la inteligencia artificial en la práctica sanitaria no representa únicamente la adopción de nuevas herramientas tecnológicas, sino una transformación profunda del acto clínico, de la relación médico-paciente y de las competencias profesionales necesarias para ejercer con solvencia en este nuevo escenario. El paciente que acude a la consulta con información generada por algoritmos —el “paciente aumentado”— introduce una realidad asistencial que exige nuevas capacidades, nuevas actitudes y un marco regulatorio sólido.
En primer lugar, el médico debe comprender que la asimetría clásica del conocimiento médico se ha modificado. El paciente llega con hipótesis, interpretaciones y dudas condicionadas por sistemas de IA que procesan información biomédica de forma no siempre transparente. Este escenario abre oportunidades en términos de autonomía y participación, pero también riesgos derivados de información errónea, sesgos o expectativas irreales.
En segundo lugar, se requiere una formación específica y urgente para que los profesionales en ejercicio adquieran una alfabetización funcional en IA aplicada a la salud. La educación médica, tanto en grado como en posgrado y formación continua, debe incorporar contenidos obligatorios relacionados con el funcionamiento de los modelos, sus limitaciones, sus riesgos y su interacción con la decisión clínica. La evidencia disponible muestra que los programas educativos comienzan a emerger, pero aún no responden plenamente a las necesidades asistenciales reales.
Asimismo, el médico debe cultivar una competencia crítica estructurada para analizar los datos algorítmicos que aporta el paciente. Esta capacidad no se improvisa: exige entrenamiento específico basado en simulaciones, revisión de casos, auditorías de modelos y uso de marcos evaluativos que permitan discriminar información fiable de ruido o sesgo. Solo así podrá el profesional actuar como mediador cognitivo, situando la información de la IA dentro del proceso clínico con rigor y prudencia.
Del mismo modo, la comunicación clínica en el contexto IA se convierte en una competencia central: explorar la interacción del paciente con la IA, corregir malentendidos sin desautorizarlo, explicar límites con claridad y co-decidir con transparencia. Los programas de communication skills training, enriquecidos por simulación y herramientas virtuales, demuestran que esta competencia puede entrenarse de forma estructurada.
Finalmente, la integración segura de la IA en la práctica clínica requiere un conocimiento preciso del marco ético y regulatorio europeo, que impone supervisión humana, transparencia, trazabilidad, calidad de datos y protección de la privacidad. El médico debe situarse como garante de que la IA se utiliza de forma responsable, ajustada a la normativa y con un objetivo inequívoco de beneficio para el paciente.
En conjunto, la práctica clínica en un entorno de inteligencia artificial exige que el médico evolucione hacia un perfil técnico, crítico, comunicativo y ético, capaz de integrar datos algorítmicos sin renunciar al juicio profesional y la humanización del cuidado. Este reto no puede atribuirse únicamente a la iniciativa individual: requiere un esfuerzo institucional, académico y regulatorio que sitúe al médico en el centro supervisado de un ecosistema digital en expansión. Solo a través de esta transformación será posible preservar la calidad asistencial, la confianza del paciente y la responsabilidad clínica en la era de la IA.
Referencias
- Harvard Medical School. AI in Health Care: From Strategies to Implementation [Internet]. Boston (MA): Harvard Medical School Executive Education; 2025 [citado 2025 nov 26]. Disponible en: https://execonline.hms.harvard.edu/artificial-intelligence-in-health-care- from-strategies-to-implementation.
- Johns Hopkins University. AI in Healthcare Program [Internet]. Baltimore (MD): Johns Hopkins University; 2025 [citado 2025 nov 26]. Disponible en: https://online.lifelonglearning.jhu.edu/jhu-ai-in-healthcare-certificate-program.
- Royal College of Surgeons in Ireland. AI in Healthcare [Internet]. Dublin: RCSI Graduate School of Healthcare Management; 2025 [citado 2025 nov 26]. Disponible en: https://www.rcsi.com/online/find-a-course/cpd/a/i/ai-in-healthcare.
- Tolentino R, Baradaran A, Gore G, Pluye P, Abbasgholizadeh-Rahimi S. Curriculum frameworks and educational programs in AI for medical students, residents, and practicing physicians: scoping review. JMIR Med Educ. 2024;10:e54793. doi:10.2196/54793. PMID:39023999. [mededu.jmir.org]
- Rincón EHH, Jimenez D, Chavarro Aguilar LA, Pérez Flórez JM, Romero Tapia ÁE, Jaimes Peñuela CL. Mapping the use of artificial intelligence in medical education: a scoping review. BMC Med Educ. 2025;25:526. doi:10.1186/s12909-025-07089-8.
- Singla R, Pupic N, Ghaffarizadeh SA, Kim C, Hu R, Forster BB, Hacihaliloglu I. Developing a Canadian artificial intelligence medical curriculum using a Delphi study. NPJ Digit Med. 2024;7:136. doi:10.1038/s41746-024-01307-1.
- van Smeden M, Heinze G, Van Calster B, Asselbergs FW, Vardas PE, Bruining N, et al. Critical appraisal of artificial intelligence-based prediction models for cardiovascular disease: 12 questions for health professionals. Eur Heart J. 2022;43(31):2921-2930. doi:10.1093/eurheartj/ehac238.
- Hedderich DM, Keicher M, Wiestler B, Gruber MJ, Burwinkel H, Hinterwimmer F, et al. AI for doctors—A course to educate medical professionals in artificial intelligence for medical imaging. Healthcare (Basel). 2021;9(10):1278. doi:10.3390/healthcare9101278.
- Charow R, Ahmad Z, Bhatia RS, Khan S, Mamdani M, Pai M, et al. Artificial intelligence education programs for health care professionals: scoping review. JMIR Med Educ. 2021;7(4):e31043. doi:10.2196/31043. PMID:34813496.
- Schubert T, Oosterlinck T, Stevens RD, Maxwell PH, van der Schaar M. AI education for clinicians. eClinicalMedicine. 2025;79:102968. doi:10.1016/j.eclinm.2024.102968.
- Ahsan Z, et al. Integrating artificial intelligence into medical education: a narrative systematic review of current applications, challenges, and future directions. BMC Med Educ. 2025;25:1187. doi:10.1186/s12909-025-07744-0.
- Li J, Yin K, Wang Y, Jiang X, Chen D. Effectiveness of generative artificial intelligence-based teaching versus traditional teaching methods in medical education: a meta-analysis of randomized controlled trials. BMC Med Educ. 2025;25:1175. doi:10.1186/s12909-025- 07750-2.
- Fernández-Alcántara M, García-Caro MP, Pérez-Marfil MN, Martínez-Riera JR, Montoya- Juárez R. Virtual simulation tools for communication skills training in healthcare professionals: a systematic review. Med Educ. 2025;e63082. doi:10.1111/medu.63082.
- Haut KG, Epstein R, Carroll TM, Kane B, Schubert L, Hoque E. SOPHIE: testing a virtual, interactive, AI-augmented end-of-life communication training tool. J Pain Symptom Manage. 2024;67(5):e794-e795. doi:10.1016/j.jpainsymman.2024.02.012.
- Nash CJ, Farrell SE, Carreras Tartak JA, Wagner A, Brandt LC, Hayden EM. Telehealth equity and access communication skills pilot simulation for practicing clinicians. PLoS One. 2025;20(1):e0302804. doi:10.1371/journal.pone.0302804.
- Stamer T, et al. Artificial intelligence supporting the training of communication skills in academic health care. Patient Educ Couns. 2023;106(8):e10337453. doi:10.1016/j.pec.2023.10337453.
- McCarrick CA, Moynihan A, McEntee PD, Boland PA, Donnelly S, Heneghan H, Cahill RA. Impact of simulation training on communication skills and informed consent practices in medical students: a randomised controlled trial. BMC Med Educ. 2025;25:1078. doi:10.1186/s12909-025-07671-0.
- European Commission. Artificial Intelligence Act. Regulation (EU) 2024/1689 of the European Parliament and of the Council. Brussels: European Union; 2024 [citado 2025 nov 26]. Disponible en: https://health.ec.europa.eu/ehealth-digital-health-and-care/artificial- intelligence-healthcare_en.
- European Parliament. Artificial Intelligence Act: implications for public health and healthcare. Strasbourg: European Parliament; 2024 [citado 2025 nov 26]. Disponible en: https://www.europarl.europa.eu.
- European Commission. Medical Device Regulation (EU) 2017/745 and In Vitro Diagnostic Regulation (EU) 2017/746: guidance for AI-based medical devices. Brussels: European Union; 2023 [citado 2025 nov 26]. Disponible en: https://www.twobirds.com/en/insights/2025/liability-of-healthcare-ai-providers-in-the-eu-how-to-navigate-risks-in-a-shifting-regulatory-ecosys.
- World Health Organization. Ethics and governance of artificial intelligence for health: guidance. Geneva: WHO; 2021 [citado 2025 nov 26]. Disponible en: https://www.who.int.
- European Commission. General Data Protection Regulation (EU) 2016/679 (GDPR). Brussels: European Union; 2016 [citado 2025 nov 26]. Disponible en: https://gdpr.eu.
- COCIR. Analysis on AI in medical device legislation. Brussels: European Coordination Committee of the Radiological, Electromedical and Healthcare IT Industry; 2021 [citado 2025 nov 26]. Disponible en: https://dev.cocir.org/wp- content/uploads/COCIR_Analysis_on_AI_in_medical_Device_Legislation_-_May_2021- 2.pdf.