Alberto Artiles Medina1, 2, Carolina de la Pinta Alonso 2 , 3.
1 Servicio de Urología. Hospital Universitario Ramón y Cajal, Madrid.
2 Vocal del Comité de Ética para la Asistencia Sanitaria (CEAS) del Hospital Ramón y Cajal.
3 Servicio de Oncología radioterápica. Hospital Universitario Ramón y Cajal, Madrid.
1. Introducción
Con el conocimiento disponible y la creciente implantación de la inteligencia artificial (IA) en todos los ámbitos, ya no es una visión futurista, sino realista, prever que en un futuro cercano un software de IA pueda diagnosticar enfermedades del aparato genitourinario con mayor precisión que un urólogo especializado. El incesante crecimiento del conocimiento biomédico, a un ritmo sin precedentes, hace imposible que los profesionales de la salud estemos actualizados de todas las novedades y publicaciones relevantes en nuestro campo. Además, la creciente cantidad de información sobre los pacientes, con un volumen cada vez mayor de pruebas, variables y datos, dificulta enormemente el acceso, gestión y análisis eficiente de esta información, especialmente cuando es necesario integrarla de manera coherente.
En este contexto, la IA, con su compleja red de sistemas informáticos y algoritmos avanzados, se perfila como una herramienta prometedora para optimizar estas tareas. Esta combinación de modelos matemáticos sofisticados y algoritmos refinados, diseñados para imitar la inteligencia humana, ya ha revolucionado múltiples sectores y está transformando el ámbito médico y las ciencias de la vida[1].
En la presente revisión, nos proponemos analizar el panorama de oportunidades clínicas emergentes y tendencias futuras que supondría la llegada de la IA en todo el espectro de atención urológica: prevención, estratificación del riesgo, detección temprana, diagnóstico, manejo y recuperación o rehabilitación. Siendo conocedores del potencial de la IA para avanzar hacia una Medicina Personalizada de Precisión, en la que se cuente con una información más precisa e integrada para la toma de decisiones, planteamos algunos desafíos bioéticos y las correspondientes garantías exigibles, sobre las que debe pivotar la implantación de esta novedosa tecnología en las dinámicas de trabajo en la práctica clínica; a saber: equidad, protección de datos, seguridad del paciente y la existencia de marcos estrictos para la regulación de su uso[2].
2. Definiciones: inteligencia artificial, “big data”, “machine learning”, “deep learning”
En las siguientes líneas, se introducen algunos conceptos básicos, con los que es imperativo familiarizarse en los tiempos de desarrollo tecnológico que vivimos y cuyo conocimiento resulta altamente recomendable para la comprensión del contenido del presente artículo.
La IA, es decir, la «inteligencia demostrada por las máquinas», y su rama destacada, el aprendizaje automático (o “machine learning” -ML-), consiste en la optimización de modelos matemáticos para predecir variables de interés a partir de datos[2]. El término fue acuñado en la década de 1950 por McCarthy et al[3].
El “Big Data” consiste en el manejo masivo de datos que puede aportar nuevos conocimientos sobre cuestiones esenciales, siendo necesario para su análisis una gran infraestructura informática que va más allá del equipo disponible para un investigador individual, un concepto que se desarrolla a medida que los recursos informáticos evolucionan exponencialmente. El análisis de “Big Data” mediante aprendizaje automático (ML) ofrece ventajas considerables para la asimilación y evaluación de grandes cantidades de datos sanitarios complejos[4][5]. Por tanto, los conceptos de IA y “Big Data” están íntimamente relacionados, ya que la IA se nutre habitualmente de grandes volúmenes de datos.
El aprendizaje profundo (“Deep Learning” o DL) es un subconjunto del aprendizaje automático (ML). En ambos casos, los algoritmos suelen aprender analizando grandes cantidades de datos. El aprendizaje profundo se diferencia del ML en la profundidad de su análisis y el tipo de automatización que proporciona[6].
Las redes neuronales convolucionales (CNN) representan una categoría de algoritmos de aprendizaje profundo que se utilizan predominantemente para procesar datos de matrices estructuradas, como imágenes. Caracterizadas por sus capas convolucionales, las CNN son expertas en capturar patrones espaciales y jerárquicos en los datos. En tareas médicas, las CNN se combinan comúnmente con otras arquitecturas neuronales (por ejemplo, redes neuronales recurrentes) para mejorar su aplicabilidad y eficacia en el análisis de datos médicos complejos[7][8].
La aplicación de la IA en medicina se describió por primera vez en 1976, cuando se utilizó un algoritmo informático para identificar las causas de un dolor abdominal agudo[9]. Desde entonces, se han propuesto múltiples aplicaciones, que van desde la ayuda en la detección de enfermedades, como el cáncer de piel en dermatología o la retinopatía diabética en oftalmología; a la mejora de la clasificación de patologías, por ejemplo, en radiología o en cardiología[10]; a la predicción de patrones de enfermedad y su epidemiología, como en el COVID-19. Sin embargo, a pesar de la fuerte inversión del sector de la salud en tecnología de IA, la adopción de soluciones de IA y su aplicación en la atención sanitaria se encuentra en fases precoces[11][12].
Además, debemos tener en cuenta que el rendimiento de las máquinas no es perfecto y a menudo requiere que una persona cualificada supervise el proceso, siendo complejo debido a la falta de expertos[13].
3. Usos de la inteligencia artificial en el campo de la Urología: diagnóstico, tratamiento y otros
La producción científica relacionada con la IA se ha disparado en los últimos años (Figura 1), sobre todo en el ámbito urooncológico. En Urología, el principal impacto de la IA se observará principalmente en el diagnóstico preciso, la predicción de resultados, la planificación del tratamiento y la evaluación de las habilidades quirúrgicas[14].
Figura 1. Producción científica relacionada con la inteligencia artificial indexada en la base Pubmed (MEDLINE), según cronología (en urooncología y en las revistas con mayor factor de impacto en Urología según SCImago Journal Rank -SJR-).
La aplicación de la IA, el aprendizaje automático (ML) y el aprendizaje profundo (DL) en la atención médica ha logrado avances significativos en numerosos campos, incluida la detección de las enfermedades, la atención preoperatoria, el diagnóstico de enfermedades y la evaluación del riesgo, así como en el tratamiento. Gracias al uso de la IA, se han logrado predecir y diagnosticar con éxito diversas enfermedades, entre ellas el cáncer, las enfermedades cardiovasculares, las enfermedades de transmisión sexual, la osteoporosis, la diabetes mellitus, o la hipertensión, entre otras[15].
Es de destacar el desarrollo de la patología digital (PD), que implica la digitalización de las imágenes de la histopatología y su posterior análisis utilizando varios métodos computacionales. Mediante el uso de IA, la PD puede revolucionar potencialmente la práctica de la anatomía patológica, ya que no solo transfiere una imagen del portaobjetos al monitor, sino que también aumenta la capacidad diagnóstica, analizando patrones que podría ser imposible visualizar para el “ojo humano”[3].
Otro campo que ha florecido en la última década es la IA en su aplicación quirúrgica. Las aplicaciones de IA son útiles en las fases preoperatoria (de planificación), intraoperatoria y posoperatoria de la atención; y también han tenido resultados alentadores en la formación quirúrgica y en cirugía robótica. Sin embargo, es importante señalar que muy pocas de estas aplicaciones han llegado “a la cabecera del paciente”, y la mayoría aún se encuentran en fase preclínica, con obstáculos considerables que deben superarse antes de su implementación. Un área en expansión dentro de la IA aplicada a la cirugía es la visión con IA, que se dedica al análisis de imágenes y vídeos a partir de píxeles para caracterizar estructuras anatómicas, herramientas quirúrgicas y fases de la cirugía y, en última instancia, brindar apoyo a los equipos quirúrgicos para la toma de decisiones[16].
En particular en el campo de la Urología, se han propuesto aplicaciones de la IA para prácticamente todas las etapas del manejo del cáncer urológico, particularmente del cáncer de próstata[17]. La IA está transformando el tratamiento del cáncer de próstata, desde el diagnóstico hasta el tratamiento. Se han diseñado herramientas de IA para el análisis de histopatología digitalizada y las exploraciones de resonancia magnética (RM), la generación de tomografías computarizadas (TC) sintéticas y la mejora de los resultados de la cirugía robótica.
El Prostate cANcer graDe Assessment (PANDA), un conjunto de datos sobre histopatología del cáncer de próstata con más de 10.000 biopsias digitalizadas, es un perfecto ejemplo del uso de la IA. Los algoritmos generados a partir del análisis de dicha base funcionaron tan bien como los patólogos expertos en cohortes internacionales independientes (grados de concordancia de 0.862 y 0.868 para poblaciones americana y europea). Esta aplicación de la IA puede servir como complemento y refrendo a los informes humanos de los patólogos. Gracias a esta sólida validación externa, se soslaya uno de los principales escollos para la diseminación de la IA: la reproducibilidad y falta de transparencia, ya que los códigos de los algoritmos de IA no son públicos en >90% de los artículos publicados[14].
Otra área donde puede tener protagonismo la IA es la “cirugía personalizada”, permitiendo la integración con imágenes tridimensionales de las pruebas de imagen (MonaAI Label), incluyendo los haces neurovasculares[14], o incluso realizar un análisis de las variables cinemáticas del cirujano en la prostatectomía radical robótica y su influencia en la recuperación de la continencia[18], o para la capacitación quirúrgica y evaluación de los resultados (MASTERY)[17].
Por otro lado, gracias al aprendizaje profundo (“Deep learning” o DL), se ha avanzado en la generación de tomografías computarizadas sintéticas a partir de imágenes de RM para calcular de forma más precisa la dosis en la radioterapia[19]. La TC sintética, una nueva técnica de RM, es una tecnología basada en DL que realiza un mapeo tridimensional de la RMN a la TC, que se aprende a partir de datos emparejados de RMN y TC, generando imágenes «similares a la TC» sin radiación ionizante.
Otros estudios en curso sobre la utilidad de la IA en el tratamiento del cáncer de próstata son: el estudio PROSAIC-DS como herramienta para evaluar las recomendaciones de manejo del cáncer de próstata comparado con casos discutidos en comités multidisciplinares, estudios para la evaluación de modelos de diagnóstico y manejo (NCT05384002, NCT05443412), así como para el pronóstico como la supervivencia en base a la carga tumoral determinada por PET-PSMA (NCT06363435). Otros muchos ejemplos para el cáncer avanzado pueden ser consultados en la revisión narrativa llevada a cabo por Irbaz Bin Riaz et al. (2024)[20].
Un grado de desarrollo creciente de los modelos de IA también se observa en el cáncer de vejiga (Figura 2).
Figura 2. Aplicación de la inteligencia artificial y sus variantes para el diagnóstico del cáncer de vejiga y la predicción de los resultados. Las aplicaciones del diagnóstico del cáncer de vejiga incluyen la detección de tumores (incluyendo la cistoscopia), la estadificación del riesgo, la clasificación y la segmentación de imágenes. Permite asimismo la predicción de la recurrencia, la supervivencia y la respuesta a la quimioterapia utilizando IA. CNN: red neuronal convolucional.
Varios estudios han investigado la integración de modelos de aprendizaje profundo durante la cistoscopia para la detección del cáncer vesical (Shkolyar et al[21], Ikeda et al[22], Ali et[23], etcétera). Las técnicas de aprendizaje profundo, como las CNN y las redes neuronales recurrentes, han demostrado, asimismo, potencial para mejorar la capacidad diagnóstica de las técnicas de imagen en el cáncer de vejiga. Al entrenar estos algoritmos en grandes conjuntos de datos de imágenes, se pueden discernir patrones y características complejos. Los modelos de aprendizaje profundo pueden segmentar con precisión los tumores de vejiga, clasificarlos según la malignidad y predecir los resultados del paciente en función de las características radiológicas. Asimismo, existen herramientas para el análisis citológico basado en IA, con potencial para mejorar la rapidez y la precisión del diagnóstico del cáncer de vejiga.
Numerosos grupos han desarrollado modelos de aprendizaje profundo que predicen la progresión de la enfermedad en pacientes con cáncer de vejiga en función de las características clínicas y patológicas. Dichos modelos de estratificación de riesgo basados en IA (Barrios et al[24], Mundhada et al[25], Zheng et al[26], Harmon et al[27], Wu et al[28], etcétera) permiten identificar a los pacientes de alto riesgo que requieren un tratamiento más agresivo o programas de vigilancia adaptados. La integración de la IA con los procesos de citología, patología y estratificación de riesgo ofrece vías prometedoras para mejorar el manejo del cáncer de vejiga y los resultados de los pacientes. Además, las firmas genéticas basadas en aprendizaje profundo se utilizan cada vez más para la predicción y el pronóstico del cáncer vesical.
Por último, la radioterapia basada en aprendizaje profundo está surgiendo como un enfoque prometedor para el tratamiento del cáncer vesical. Esta técnica utiliza inteligencia artificial para optimizar la planificación y la administración de la radioterapia, con el objetivo de maximizar la dosis para el tumor y minimizar la exposición a los tejidos sanos circundantes. Los modelos de aprendizaje profundo se pueden entrenar para segmentar automáticamente la vejiga y otras estructuras críticas en los datos de imágenes, una tarea que tradicionalmente requiere mucho tiempo y es propensa a la variabilidad entre observadores[29].
Con respecto al cáncer renal, la mayor parte de la literatura publicada consiste en artículos que analizan la capacidad de los modelos de IA para diferenciar masas renales benignas (oncocitoma y angiomiolipoma) de malignas (carcinoma de células renales, CCR). De estos, la tomografía computarizada fue la entrada de datos (“input”) más común para los modelos de aprendizaje automático, mientras que la RM y la ecografía se aplicaron con menos frecuencia. Estos modelos radiómicos ofrecen resultados alentadores con un área bajo la curva elevada (AUC 0,97)[30].
Otras publicaciones se han centrado en el desarrollo de modelos de segmentación de tumores renales. La puntuación Dice se utilizó comúnmente para medir la capacidad del modelo para identificar correctamente las regiones de interés. Otros estudios emplearon datos histológicos para diferenciar e identificar los subtipos de CCR, incluidos cromófobo, papilar y de células claras.
Un importante aspecto en el cual la IA parece tener un papel es en la evaluación de la recurrencia y la supervivencia tras cirugía renal. Varios trabajos han evaluado las capacidades predictivas de la IA en el riesgo de recurrencia del CCR localizado. Un modelo de aprendizaje automático basado en TC con una cohorte de validación de 814 pacientes (Khene et al[31]) ha demostrado tener un índice de concordancia de 0,794. Por otro lado, varios estudios han aplicado la IA para la predicción de la supervivencia global de los pacientes con CCR. Unos pocos estudios evaluaron información histológica para algoritmos de aprendizaje automático (AUC 0,81-0,99), mientras otros utilizaron una combinación de características clínicas y de imágenes de TC para predecir la supervivencia global[30].
4. Aspectos éticos del uso de la inteligencia artificial
Mencionadas ya algunas de las infinitas oportunidades que nos brinda la IA, se deben enumerar en este punto algunos de los desafíos que entraña, especialmente si se pretende que estos modelos de IA sean aplicables en la práctica clínica; para lo cual, deben ser generalizables, fácilmente interpretables y lo suficientemente específicos y seguros, minimizando el riesgo de diagnósticos falsos positivos o imprecisiones diagnósticas o pronósticas.
Los principales desafíos se relacionan con los errores de predicción, la calidad y la fiabilidad de los datos generados, los potenciales sesgos del modelo y las preocupaciones por la privacidad de los datos, inherentes al uso de esta tecnología. Atendiendo a lo anterior, es imperativo la creación de organismos reguladores y asesores que promuevan pautas e instrucciones claras sobre cómo debe usarse la IA, protegiendo los datos, mitigando los sesgos y permitiendo una auditoría y evaluación de su funcionamiento[14], sobre todo en el ámbito biomédico.
- Errores en la predicción
La toma de decisiones incorrectas conlleva graves consecuencias y el paradigma actual es que algún responsable debe rendir cuentas. La IA suele verse como una “caja negra” en la que no se puede discernir por qué el algoritmo llegó a una determinada predicción o recomendación. Se podría argumentar que el fenómeno de la “caja negra” no es tal y no tiene por qué ser tan preocupante para los algoritmos en aplicaciones en las que hay menos en juego[32], como por ejemplo en decisiones no centradas en el paciente, como decisiones de eficiencia o mejora de las operaciones. Sin embargo, es mucho más importante en aplicaciones de IA que pretenden mejorar los resultados de los pacientes, especialmente cuando las cosas van mal. Por ello, no está claro quién debe asumir la responsabilidad si el sistema se equivoca. Responsabilizar al médico puede parecer injusto, ya que el algoritmo no está desarrollado ni controlado en modo alguno por él; si bien responsabilizar al desarrollador parece demasiado alejado del contexto clínico. En China, por ejemplo, es ilegal que la IA tome decisiones en la asistencia sanitaria[33].
Esta cuestión se complica por la ausencia de directrices internacionales sobre el uso ético de la IA y en la atención sanitaria. Sin normas universales sobre el uso de la IA, no está claro hasta qué punto puede adoptarse éticamente en los hospitales. En este sentido, diferentes organismos están trabajando en directrices para evaluar la seguridad y eficacia de los sistemas de IA. Además, es importante que se produzca un debate público sobre estas cuestiones éticas con miras a la adopción de una norma ética universal que beneficie a los pacientes[12].
- Privacidad de datos
La vulnerabilidad de los sistemas de gestión de la información de los pacientes se ha puesto de manifiesto en múltiples ocasiones. Recientemente, el Hospital Clínic de Barcelona sufrió un ciberataque en marzo de 2023, con la publicación de varios datos de carácter personal de pacientes, profesionales y entidades colaboradoras y proveedores (4,5T), solicitándose un rescate económico por la información[34]. La vulnerabilidad es mayor si cabe cuando se trata de aplicaciones web basadas en IA o en la cesión de datos a nivel internacional para el uso y desarrollo de herramientas de ML.
Esto ejemplifica uno de los obstáculos que hay que superar para la incorporación en la práctica clínica del uso de sistemas autónomos para apoyar la toma de decisiones en el ámbito sanitario. En este sentido, obtener el consentimiento informado es una preocupación de la mayoría de los bioeticistas.
Los modelos actuales de IA dependen en gran medida de la información de los registros médicos. ¿Es posible garantizar que la información personal siga siendo confidencial incluso cuando los datos viajan por Internet?[1] Es fundamental blindar con rígidas políticas de seguridad la información para que no existan filtraciones de la misma, mediante la codificación o el cifrado, sobre todo cuando existen colaboraciones multicéntricas.
Otro ejemplo que pone el foco en esta cuestión y nos hace preguntarnos si están seguros los datos de los pacientes y si son conscientes éstos del uso de sus datos, se puede comprobar en el escándalo de 2015 en el National Health Service (NHS). Google y su filial DeepMind, centrada en IA, obtuvieron un amplio acceso a 1,6 millones de datos de pacientes como parte de un acuerdo con el hospital Royal Free NHS Trust de Londres [35].
- Transparencia y seguridad
Además, cuando se trata de las ciencias médicas y de la salud, en concreto, destacan otros riesgos. Uno de ellos es la falta de transparencia en la toma de decisiones o la incapacidad de explicar el “razonamiento” para obtener el resultado final, representado por las llamadas “cajas negras”[1]. Otra preocupación tiene que ver con la reproducibilidad y replicabilidad de los algoritmos de IA.
Comúnmente, estamos acostumbrados a utilizar técnicas de análisis simples, fáciles de interpretar, basadas en modelos lineales (como la regresión logística), en los que están basados la mayoría de herramientas, calculadoras, scores y nomogramas utilizados hoy día. Sin embargo, el DL puede llegar a utilizar redes neuronales complejas, que permiten identificar patrones en grandes bases de datos, pero que son “difíciles de interpretar” para los profesionales de la medicina.
Múltiples publicaciones han comenzado a generar nuevas herramientas de ML para predecir resultados clínicos, como ya se ha comentado; algunas de ellas han comparado estas herramientas con los tradicionales modelos de regresión logística, resaltando las virtudes de la IA en, por ejemplo, la predicción de la necesidad de atención sanitaria en pacientes con insuficiencia cardíaca[36], del desarrollo de un episodio de insuficiencia renal aguda[37], o de los resultados y complicaciones esperadas tras una cirugía de nefrolitotomía percutánea por litiasis renal[38].
Se puede definir la transparencia como la comprensión a nivel humano del funcionamiento interno del modelo de IA. La fortaleza de un modelo matemático para la predicción de resultados depende de la calidad de las variables de entrada (“input”), la cantidad de casos, la distribución de entrada de la muestra de casos y los métodos computacionales de procesamiento de datos de “input” y “output”[39]. En este sentido, cabe destacar que el fallo normalmente no deriva de la máquina, sino que puede tratarse de errores en los datos de los que esta se sirve para su función.
Aunque muchos médicos siguen siendo cautelosos con el aprendizaje automático debido a las antiguas preocupaciones sobre los modelos de «caja negra», muchos expertos pueden considerar que dichas preocupaciones a menudo suelen provenir de futuros usuarios de IA poco formados en el análisis de datos.
La falta de interpretabilidad en los modelos predictivos puede socavar la confianza en esos modelos, especialmente en la atención médica, en la que tantas decisiones son, literalmente, cuestiones de vida o muerte. Recientemente, ha habido una explosión de investigación en el campo del aprendizaje automático explicable destinada a abordar estas preocupaciones. Si bien no es objeto de este artículo ahondar en este tema, sí es conveniente hacer mención a algunos aspectos globales.
Se han realizado grandes avances en la interpretabilidad y explicabilidad, y en la mejora de las explicaciones globales (del funcionamiento general del modelo) y locales (de cómo el modelo alcanza una decisión concreta). Se emplean diversas técnicas: “permutation importance”, árboles de decisión sustitutos, explicaciones agnósticas del modelo interpretables, “partial dependence plots”,…[40]. También ha mejorado el estudio y compresión de los modelos transparentes (que operan con métodos más simples) y modelos opacos (con relaciones más complejas como las redes neuronales multicapa, entre otras), y se han mejorado los llamados enfoques de explicabilidad post-hoc específicos o agnósticos de los modelos. No obstante, en algunos casos, puede ser apropiado aún el empleo de modelos de “caja negra” con explicaciones, en lugar de modelos interpretables[41].
Habría expertos que podrían alegar, más allá de la deseada explicabilidad aquello de “Mientras funcione…”. A colación de esta afirmación, es pertinente recordar la analogía de Cassie Kozyrkov, conocida por su trabajo como Chief Decision Scientist en Google: <<¿Preferiría usted volar en un avión que ha inspeccionado a fondo técnicamente y diseccionado hasta el último tornillo, o en uno que ha superado con éxito todas las normas de ensayos prescritas y los vuelos de prueba?>> Seguramente casi todo el mundo carece de los conocimientos de ingeniería o, al menos, de la paciencia para la primera opción. Por eso nos decantamos por la segunda opción[42].
Este tema ha sido explorado, incluso, en un workshop titulado “Transparencia de los dispositivos médicos basados en inteligencia artificial y aprendizaje automático” en octubre de 2021, donde se exhortó a desarrollar medidas encaminadas a incrementar la confianza de los usuarios y pacientes dada la complejidad técnica de los dispositivos de IA/ML y la naturaleza poco familiar de los conceptos que rodean el desarrollo y uso de los mismos. Esto podría incluir el uso de un lenguaje apropiado para los diferentes niveles de alfabetización, alfabetización técnica y alfabetización en salud, así como adaptarse a aquellos con diferentes estilos de aprendizaje. Si bien los dispositivos de IA/ML ya han impactado en numerosas especialidades médicas, existen algunos matices que pueden afectar a la atención al paciente, como son el cambio de la práctica a lo largo del tiempo y los posibles sesgos. Mejorar la transparencia en el uso de IA/ML, especialmente en lo que respecta a la comunicación de la capacitación/ formación en esta materia, la validación y el funcionamiento de los modelos en mundo real, sigue siendo un área que necesita un mayor crecimiento[43].
- Preferencias de los pacientes
La relación médico-paciente es uno de los fundamentos de la medicina desde Hipócrates. Existen dudas sobre si una IA es capaz de tener en cuenta el contexto social de la persona, los factores ambientales, las preferencias y los valores morales en el algoritmo de decisión del tratamiento.
Otro aspecto importante es la representación de las minorías étnicas, sociales y culturales en los registros médicos que sirven de base al algoritmo de la IA. Si estos datos son poco representativos o están sesgados, pueden producirse errores de interpretación[1].
A pesar de todo esto, los retos actuales a los que se enfrenta la sanidad son la reducción del gasto, la escasez y el agotamiento de los médicos. La mano de obra parece crítica y, por ello, se ha propuesto que la IA, en particular el aprendizaje profundo, podría ser la clave para llenar este vacío. Si los sistemas de IA se adoptan, pueden ayudar a reducir la carga de trabajo, y aumentar la calidad de la atención al paciente.
5. Transparencia de la información e inteligencia artificial
Como define Keskinbora[44], para confiar en la IA necesitamos lo siguiente: transparencia de los datos y algoritmos, y de su funcionamiento; credibilidad y auditabilidad, incluyendo el reporte de sesgos y errores; confiabilidad, con IA clínicamente validada y posibilidad de recuperar el control “humano” del funcionamiento en caso de ser necesario[1]. Este escenario trae consigo la necesidad de una discusión sobre el uso de la IA en salud y sus límites considerando los principios fundamentales de la bioética: justicia, no maleficencia, beneficencia, y respeto a la autonomía del paciente.
La pregunta que surge en este contexto es: ¿cómo incorporar la IA a la práctica clínica respetando estos principios para obtener beneficio? Aunque no hay una respuesta definitiva a la pregunta, una estrategia prometedora incluye los elementos que se resumen en la Figura 3.
Figura 3. Propuesta de implementación de la IA en la práctica clínica considerando los aspectos éticos. Adaptado de: Souza et al. Ethics, Artificial Intelligence and Cardiology. Arq. Bras. Cardiol. 2020;115(3):579-83.
Conviene hacer énfasis en la alfabetización en salud. A medida que los modelos de IA se incorporan a la práctica clínica, es esencial que también se amplíe la alfabetización sobre ellos. Esto incluye una relación médico-paciente ampliada, que se ocupa de incluir al paciente en el centro de la toma de decisiones multifactorial y multiprofesional. Del mismo modo, se debe fomentar la alfabetización/ formación de los profesionales de la salud en materia de IA[1].
En este momento, una proporción en aumento de pacientes/ usuarios de servicios de salud utilizan herramientas de IA, como chatGPT. Es importante que el paciente conozca también las limitaciones de estas herramientas en el asesoramiento. Erkan et al evaluaron la fiabilidad de la información sobre el tratamiento del cáncer urológico proporcionada por tres “chatbots” de IA: ChatGPT y Gemini proporcionan información de calidad moderada y CoPilot proporciona información de baja calidad. Además, no ofrecen opciones de tratamiento específicas para cada estadio[45]. El uso de ChatGPT por parte de usuarios no expertos puede conducir fácilmente a información errónea, especialmente si el “input” no es correcto. Desafortunadamente, ChatGPT sufre las mismas limitaciones que el “Dr. Google”; sin embargo, tiene al menos la capacidad de dar respuestas equilibradas a preguntas clínicas relevantes[46].
Otro aspecto a resaltar es la finalidad del desarrollo de estas herramientas de IA, que debe ser promover la calidad de vida, la salud y el bienestar de los seres humanos, dejando a un lado los intereses económicos. No obstante, estos algoritmos a menudo están en manos de las grandes empresas que los desarrollan, como Google.
Por último, la auditoría de errores y vigilancia pública es crucial. Los modelos de IA pueden cometer errores y sus decisiones no siempre son comprensibles para los humanos. Por ello, es fundamental que los algoritmos sean auditados periódicamente y que su funcionamiento y probabilidad de éxito sean informados al paciente antes de usarlos para la toma de decisiones[1].
6. Regulación del uso de la inteligencia artificial
Hasta ahora, han tenido eco mediático las trabas a la diseminación de ciertas tecnologías basadas en la IA, como ha sido el caso de la “Apple Intelligence” que se pretende incorporar a la telefonía móvil, debido a las normas del mercado europeo[47].
En el plano legislativo, merece mención la regulación europea recién estrenada. En agosto de 2024 entró en vigor la Ley de Inteligencia Artificial de la UE (Ley de IA). Este instrumento jurídicamente vinculante establece normas para el desarrollo, la comercialización y el empleo de sistemas de IA en el ámbito de la Unión Europea. Como primer marco jurídico amplio sobre IA a nivel mundial, tiene por objeto impulsar la innovación al tiempo que protege a las personas contra los daños potenciales de la IA. La Ley de IA adopta un enfoque basado en el riesgo: cuanto mayor sea el riesgo, más estricta será la norma aplicable. La Ley se aplica a todos los sectores. Por tanto, abarca los sistemas utilizados en la atención sanitaria, pero no da pautas específicas diferenciales por sectores. Por consiguiente, los requisitos exigibles dependen de si el sistema de IA relacionado con la salud se considera de alto riesgo, de bajo riesgo o de riesgo mínimo, o un modelo de IA de uso general. Algunos sistemas de IA deben someterse a una rigurosa evaluación de conformidad, que puede implicar una evaluación de terceros, para garantizar el cumplimiento de las normas aplicables[48].
Las prácticas de IA que presentan riesgos inaceptables están prohibidas (por ejemplo, determinadas IA utilizadas para la vigilancia biométrica). Los sistemas de IA de alto riesgo (por ejemplo, las herramientas de diagnóstico, prevención, seguimiento, predicción, pronóstico, tratamiento o alivio de enfermedades, lesiones o discapacidades basadas en IA) deben cumplir determinados requisitos de seguridad y calidad, y los operadores tienen obligaciones específicas con respecto a su uso. En el sector sanitario, estas obligaciones se aplican principalmente a los dispositivos médicos de IA que deben someterse a una evaluación de conformidad de terceros según el Reglamento de Dispositivos Médicos de la UE (artículo 6 de la Ley de IA) y cumplir otros requisitos estrictos, como la gestión de los riesgos, el control de datos y la supervisión humana.
La mayoría de las demás herramientas de IA relacionadas con la salud que no tienen un propósito puramente médico -y, por lo tanto, no entran en la definición del Reglamento de Dispositivos Médicos de la UE- se consideran IA de bajo riesgo. Esto también se aplica a los dispositivos médicos que no están obligados a someterse a una evaluación de conformidad de terceros (Clase I). Esto incluye una amplia gama de sistemas de IA relacionados con la salud, implementados con fines relacionados con el bienestar, la promoción de la salud o el seguimiento de la actividad. Algunos ejemplos concretos son las aplicaciones de salud móviles que controlan el estado de ánimo y el bienestar u ofrecen recomendaciones dietéticas personalizadas basadas en los datos del usuario, y los sensores basados en IA que se utilizan para asistencia a las personas mayores. Estos sistemas solo necesitan cumplir con ciertos requisitos de transparencia debido a su interacción directa con las personas, como los “chatbots” que brindan asesoramiento sobre el bienestar[48].
7. Difusión de la inteligencia artificial y perspectivas futuras
Pese a la extensa implementación de la IA que puede experimentar potencialmente nuestra especialidad, que abarca desde el diagnóstico de enfermedades urológicas, hasta la predicción de resultados postoperatorios y la evaluación de las habilidades quirúrgicas, se reconocen algunos desafíos importantes para la utilización y la adopción generalizada de estas aplicaciones de IA en la Urología, incluidos: la escasez de estudios multiinstitucionales, la falta de comprensión de la «ciencia detrás de la IA» entre los médicos, y específicamente los urólogos, así como el elevado coste asociado con las tecnologías relacionadas con la IA y su integración en la práctica diaria[49].
Uno de los principales obstáculos a la difusión de la IA en el ámbito biomédico es la ya mencionada opacidad existente tras los sistemas de funcionamiento de los algoritmos; o mejor, la falta de conocimiento para su explicabilidad por parte de los profesionales sanitarios. Como se ha señalado, han proliferado un sinnúmero de publicaciones basadas en IA, lo que pone de relieve la necesidad de establecer códigos éticos y científicos a la hora de aceptar y dar visibilidad a dichas herramientas. En relación con lo anterior, es fundamental que un experto en IA verifique el desarrollo del algoritmo propuesto. Asimismo, en esta era de la IA para predecir resultados clínicos, la racionalidad debería guiar la promoción de algoritmos de IA, y debería restringirse a aquellos con grandes cohortes de validación y/o una comparación precisa con las calculadoras que se utilizan actualmente en la práctica clínica diaria.
Otra de las preocupaciones que suscita la IA en la sanidad es el temor a que los puestos de trabajo o diversas tareas puedan ser sustituidos, dejando obsoletos a los trabajadores sanitarios, lo que se traduce en desconfianza y rechazo hacia las intervenciones basadas en la IA. Sin embargo, esta creencia ha sido intensamente rebatida, alegándose el tiempo que hipotéticamente tardaría la IA en sustituir al personal sanitario y la necesidad de que los puestos de trabajo se rediseñen.
Muchos aspectos de la medicina son innatamente humanos e impredecibles, y no pueden ser completamente lineales o estructurados como un algoritmo[50]. Innegablemente, existe un efecto perjudicial de la desconfianza en la IA y esto representa un reto más para su implementación. Un conocimiento insuficiente de la IA puede provocar expectativas poco realistas sobre sus resultados y eficacia. La falta de conocimiento y formación puede llevar a una inadecuada interpretación de las capacidades actuales de la IA, y la consiguiente decepción puede dar paso a una reticencia a confiar en esta tecnología. Por otro lado, sería inasumible exigir al médico un conocimiento profundo de la ingeniería de datos, que de ningún modo sería comparable a las nociones básicas de bioestadística con las que la mayoría de profesionales puede contar.
Por todo lo anteriormente expuesto, se mantiene el debate público sobre el papel de la IA en la atención sanitaria[12] y muchas son las incógnitas que solo el tiempo podrá despejar sobre el lugar que esta tecnología ocupará.
8. Conclusión
El desarrollo de la IA y su aplicabilidad en la medicina, y la urología en particular, son imparables y su alcance, desconocido. No obstante, existe una clara necesidad de regular su uso y promover herramientas de IA seguras y que respeten los principios bioéticos.
Referencias
1. Filho EM de S, Fernandes F de A, Pereira NC de A, Mesquita CT, Gismondi RA. Ethics, Artificial Intelligence and Cardiology. Arq Bras Cardiol. 2020;115(3):579–83.
2. Voigtlaender S, Pawelczyk J, Geiger M, Vaios EJ, Karschnia P, Cudkowicz M, et al. Artificial intelligence in neurology: opportunities, challenges, and policy implications. J Neurol. 2024;271(5):2258–73.
3. Shafi S, Parwani A V. Artificial intelligence in anatomical pathology. Artif Intell Clin Pract How AI Technol Impact Med Res Clin. 2024;35–46.
4. Ngiam KY, Khor IW. Big data and machine learning algorithms for health-care delivery. Lancet Oncol. 2019;20(5):e262–73.
5. Charalambous A, Dodlek N. Big Data, Machine Learning, and Artificial Intelligence to Advance Cancer Care: Opportunities and Challenges. Semin Oncol Nurs. 2023;39(3).
6. John Paul Mueller, Luca Massaron. Deep Learning For Dummies. John Wiley & Sons. 2019; ISBN: 1119543045
7. Jia H, Zhang J, Ma K, Qiao X, Ren L, Shi X. Application of convolutional neural networks in medical images: a bibliometric analysis. Quant Imaging Med Surg. 2024;14(5):3501–18.
8. Erickson BJ. Basic Artificial Intelligence Techniques: Machine Learning and Deep Learning. Radiol Clin North Am. 2021;59(6):933–40.
9. Fogel AL, Kvedar JC. Artificial intelligence powers digital medicine. npj Digit Med 2018;1(1):1–4.
10. Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med. 2019;25(1):44–56.
11. Chen J, See KC. Artificial Intelligence for COVID-19: Rapid Review. J Med Internet Res. 2020;22(10).
12. Aung YYM, Wong DCS, Ting DSW. The promise of artificial intelligence: a review of the opportunities and challenges of artificial intelligence in healthcare. Br Med Bull. 2021;139(1):4–15.
13. Haug CJ, Drazen JM. Artificial Intelligence and Machine Learning in Clinical Medicine, 2023. N Engl J Med. 2023;388(13):1201–8.
14. Dasgupta P. Re: Artificial Intelligence for Diagnosis and Gleason Grading of Prostate Cancer: The PANDA Challenge. Eur Urol. 2022;82(5):571.
15. El Sherbini A, Glicksberg BS, Krittanawong C. Artificial intelligence in primary care. Artif Intell Clin Pract How AI Technol Impact Med Res Clin. 2024;1–13.
16. Laplante S, Madani A. Artificial intelligence in surgery. Artif Intell Clin Pract How AI Technol Impact Med Res Clin. 2024;211–6.
17. Khanna R, Martinez AG, Raison N, Ourselin S, Briganti A, Montorsi F, et al. Artificial intelligence in the management of prostate cancer. Nat Rev Urol. 2024;1–2.
18. Hung AJ, Chen J, Ghodoussipour S, Oh PJ, Liu Z, Nguyen J, et al. Deep learning on automated performance metrics and clinical features to predict urinary continence recovery after robot-assisted radical prostatectomy HHS Public Access. BJU Int. 2019;124(3):487–95.
19. La Greca Saint-Esteven A, Dal Bello R, Lapaeva M, Fankhauser L, Pouymayou B, Konukoglu E, et al. Synthetic computed tomography for low-field magnetic resonance-only radiotherapy in head-and-neck cancer using residual vision transformers. Phys Imaging Radiat Oncol. 2023;27:100471.
20. Riaz I Bin, Harmon S, Chen Z, Naqvi SAA, Cheng L. Applications of Artificial Intelligence in Prostate Cancer Care: A Path to Enhanced Efficiency and Outcomes. Am Soc Clin Oncol Educ B. 2024;44(3).
21. Shkolyar E, Jia X, Chang TC, Trivedi D, Mach KE, Meng MQH, et al. Augmented Bladder Tumor Detection Using Deep Learning. Eur Urol. 2019;76(6):714–8.
22. Ikeda A, Nosato H, Kochi Y, Negoro H, Kojima T, Sakanashi H, et al. Cystoscopic Imaging for Bladder Cancer Detection Based on Stepwise Organic Transfer Learning with a Pretrained Convolutional Neural Network. J Endourol. 2021;35(7):1030–5.
23. Ali N, Bolenz C, Todenhöfer T, Stenzel A, Deetmar P, Kriegmair M, et al. Deep learning-based classification of blue light cystoscopy imaging during transurethral resection of bladder tumors. Sci Reports. 2021;11(1):1–10.
24. Barrios W, Abdollahi B, Goyal M, Song Q, Suriawinata M, Richards R, et al. Bladder cancer prognosis using deep neural networks and histopathology images. J Pathol Inform. 2022;13.
25. Mundhada A, Sundaram S, Swaminathan R, D’Cruze L, Govindarajan S, Makaram N. Differentiation of urothelial carcinoma in histopathology images using deep learning and visualization. J Pathol Inform. 2022;14:100155.
26. Zheng Q, Yang R, Ni X, Yang S, Xiong L, Yan D, et al. Accurate Diagnosis and Survival Prediction of Bladder Cancer Using Deep Learning on Histological Slides. Cancers (Basel). 2022;14(23).
27. Harmon SA, Sanford TH, Thomas Brown ; G, Yang C, Mehralivand S, Jacob JM, et al. Multiresolution Application of Artificial Intelligence in Digital Pathology for Prediction of Positive Lymph Nodes From Primary Tumors in Bladder Cancer. JCO Clin Cancer Informatics. 2020;4(4):CCI.19.00155.
28. Wu E, Hadjiiski LM, Samala RK, Chan HP, Cha KH, Richter C, et al. Deep Learning Approach for Assessment of Bladder Cancer Treatment Response. Tomogr (Ann Arbor, Mich). 2019;5(1):201–8.
29. Laurie MA, Zhou SR, Islam MT, Shkolyar E, Xing L, Liao JC. Bladder Cancer and Artificial Intelligence: Emerging Applications. Urol Clin North Am. 2024;51(1):63–75.
30. Durant AM, Medero RC, Briggs LG, Choudry MM, Nguyen M, Channar A, et al. The Current Application and Future Potential of Artificial Intelligence in Renal Cancer. Urology. 2024;193.
31. Khene ZE, Bigot P, Doumerc N, Ouzaid I, Boissier R, Nouhaud FX, et al. Application of Machine Learning Models to Predict Recurrence After Surgical Resection of Nonmetastatic Renal Cell Carcinoma. Eur Urol Oncol. 2023;6(3):323–30.
32. Wang F, Kaushal R, Khullar D. Should Health Care Demand Interpretable Artificial Intelligence or Accept “Black Box” Medicine? Ann Intern Med. 2020;172(1):59–61.
33. Sun TQ, Medaglia R. Mapping the challenges of Artificial Intelligence in the public sector: Evidence from public healthcare. Gov Inf Q. 2019;36(2):368–83.
34. Ciberataque al hospital Clínic de Barcelona | Hospital Clínic Barcelona [Internet]. [cited 2025 Jan 2]. Available from: https://www.clinicbarcelona.org/prensa/ultima-hora/ciberataque-al-hospital-clinic-de-barcelona
35. DeepMind faces legal action over NHS data use [Internet]. [cited 2025 Jan 2]. Available from: https://www.bbc.com/news/technology-58761324
36. Lewis M, Elad G, Beladev M, Maor G, Radinsky K, Hermann D, et al. Comparison of deep learning with traditional models to predict preventable acute care use and spending among heart failure patients. Sci Reports. 2021;11(1):1–10.
37. Song X, Liu X, Liu F, Wang C. Comparison of machine learning and logistic regression models in predicting acute kidney injury: A systematic review and meta-analysis. Int J Med Inform. 2021;151:104484.
38. Geraghty RM, Thakur A, Howles S, Finch W, Fowler S, Rogers A, et al. Use of Temporally Validated Machine Learning Models To Predict Outcomes of Percutaneous Nephrolithotomy Using Data from the British Association of Urological Surgeons Percutaneous Nephrolithotomy Audit. Eur Urol Focus. 2024;10(2):290–7.
39. Veltri RW, Chaudhari M, Miller MC, Poole EC, O’Dowd GJ, Partin AW. Comparison of logistic regression and neural net modeling for prediction of prostate cancer pathologic stage. Clin Chem. 2002;48(10):1828–34.
40. Petch J, Di S, Nelson W. Opening the Black Box: The Promise and Limitations of Explainable Machine Learning in Cardiology. Can J Cardiol. 2022;38(2):204–13.
41. Belle V, Papantonis I. Principles and Practice of Explainable Machine Learning. Front Big Data. 2021;4.
42. La transparencia de la IA no es un problema para el ML y el fenómeno de la caja negra | E3-Magazin [Internet]. [cited 2025 Jan 6]. Available from: https://e3mag.com/es/ki-transparencia-no-es-un-problema-para-ml-y-el-fenomeno-de-la-caja-negra/
43. Shick AA, Webber CM, Kiarashi N, Weinberg JP, Deoras A, Petrick N, et al. Transparency of artificial intelligence/machine learning-enabled medical devices. npj Digit Med. 2024;7(1):1–4.
44. Keskinbora KH. Medical ethics considerations on artificial intelligence. J Clin Neurosci. 2019;64:277–82.
45. Erkan A, Koc A, Barali D, Satir A, Zengin S, Kilic M, et al. Can Patients With Urogenital Cancer Rely on Artificial Intelligence Chatbots for Treatment Decisions? Clin Genitourin Cancer. 2024;22(6).
46. Lombardo R, Cicione A, Santoro G, De Nunzio C. ChatGPT in prostate cancer: myth or reality? Prostate Cancer Prostatic Dis. 2024;27(1):9–10.
47. Apple delays launch of AI-powered features in Europe, blaming EU rules | Apple | The Guardian [Internet]. [cited 2025 Jan 5]. Available from: https://www.theguardian.com/technology/article/2024/jun/21/apple-ai-europe-regulation
48. van Kolfschooten H, van Oirschot J. The EU Artificial Intelligence Act (2024): Implications for healthcare. Health Policy. 2024;149.
49. Gupta R, Pedraza Bermeo AM, Pandav K, Tewari AK. Artificial intelligence in urology. Artif Intell Clin Pract How AI Technol Impact Med Res Clin. 2024;259–65.
50. Meskó B, Hetényi G, Gyorffy Z. Will artificial intelligence solve the human resource crisis in healthcare? BMC Health Serv Res. 2018;18(1):1–4.