Lafuente Puentedura, Alfonso1; Caño Velasco, Jorge1; Artero Fullana, Silvia1; Subiela, José Daniel2; Hernández Fernández, Carlos1.
1 Servicio de Urología. Hospital General Universitario Gregorio Marañón
2 Servicio de Urología. Hospital Universitario Ramón y Cajal.
1. Introducción
La inteligencia artificial (IA) está revolucionando la medicina moderna, y la oncología urológica no es una excepción. Los avances en aprendizaje automático y análisis de imágenes han permitido el desarrollo de modelos capaces de identificar patrones sutiles en imágenes médicas, que van más allá de las capacidades del diagnóstico tradicional. Estas herramientas no invasivas ofrecen nuevas oportunidades para detectar y clasificar tumores, evaluar su agresividad y predecir su evolución clínica, mejorando tanto la precisión diagnóstica como las decisiones terapéuticas (1).
En particular, el uso de algoritmos avanzados en el análisis de imágenes obtenidas por tomografía computarizada (TC), resonancia magnética (RM) y ecografía, ha demostrado ser útil en la estratificación de riesgos, la selección de tratamientos personalizados y el seguimiento de la respuesta terapéutica en pacientes con cáncer renal, vesical o prostático (2,3). Por ejemplo, los modelos basados en IA permiten predecir el grado nuclear en carcinomas renales o identificar características genómicas asociadas con un pronóstico adverso, abordajes que antes sólo eran posibles mediante métodos invasivos como la biopsia.
Este artículo explora el papel de la IA en la oncología urológica, destacando sus aplicaciones más recientes en modelos diagnósticos y pronósticos basados en imagen. Además, se discuten sus beneficios, desafíos, y el potencial para transformar la práctica clínica, fomentando una atención médica más precisa, eficiente y personalizada.
2. Conceptos básicos de la Inteligencia Artificial
La IA es una disciplina que abarca un conjunto de técnicas diseñadas para imitar o superar ciertas capacidades cognitivas humanas, como aprender, razonar, resolver problemas y tomar decisiones. En el ámbito de la medicina, la IA ha permitido avances significativos en el diagnóstico y pronóstico de enfermedades, especialmente en la oncología, al combinar datos clínicos con tecnologías avanzadas como el aprendizaje automático, el aprendizaje profundo y la radiómica (4–6).
Aprendizaje automático (machine learning): es una rama de la IA que utiliza algoritmos para que los sistemas puedan identificar patrones en datos y hacer predicciones basadas en ellos, sin necesidad de programación explícita para cada tarea. Estos algoritmos son esenciales en el análisis de datos médicos, especialmente en la clasificación de imágenes diagnósticas y la estratificación de riesgos. Dentro del aprendizaje automático, se incluyen enfoques como:
- Aprendizaje supervisado, donde se entrena al modelo con datos etiquetados. Por ejemplo, en oncología urológica, se pueden usar imágenes de tumores clasificadas como benignos o malignos.
- Aprendizaje no supervisado, empleado para descubrir patrones en datos no etiquetados, como agrupar tumores según su textura o densidad.
- Aprendizaje por refuerzo, que permite a los sistemas mejorar su rendimiento a través de interacciones iterativas con un entorno, maximizando recompensas (7).
Aprendizaje profundo (deep learning): es una subrama del aprendizaje automático que utiliza redes neuronales artificiales con múltiples capas para analizar datos de forma más sofisticada. Una de las aplicaciones más prominentes del aprendizaje profundo en oncología es el análisis de imágenes médicas, como las obtenidas mediante TC, RMN y ecografía (8).
Redes neuronales: son un componente fundamental del aprendizaje profundo y consisten en modelos informáticos inspirados en el funcionamiento del cerebro humano. Estas redes están formadas por capas de nodos o «neuronas» artificiales, que trabajan juntas para reconocer patrones y aprender de los datos. Se pueden identificar dos tipos principales:
- Las redes neuronales artificiales (RNA): son estructuras formadas por múltiples capas de neuronas interconectadas, adecuadas para tareas como clasificación o predicción de datos complejos. En medicina, se utilizan para la clasificación de datos clínicos y la predicción de riesgos (9).
- Las redes neuronales convolucionales (RNC): son una subcategoría de las RNA, especializadas en el procesamiento de imágenes. Estas redes están diseñadas para identificar características visuales en diferentes niveles de detalle, desde bordes básicos hasta patrones más complejos relacionados con la estructura interna de los tejidos. Las RNC se utilizan para tareas como la segmentación tumoral, la clasificación de tejidos y la predicción del comportamiento tumoral, apoyando decisiones clínicas basadas en imágenes (10).
Análisis radiómico: combina la extracción cuantitativa de características de imágenes médicas con la aplicación de modelos avanzados de IA. Estas características, derivadas de datos de textura, intensidad, forma y patrón de las imágenes, pueden revelar información oculta que no es perceptible a simple vista. En oncología urológica, la radiómica se utiliza para predecir el grado de agresividad de un tumor, evaluar su heterogeneidad y, potencialmente, correlacionar estas características con datos genómicos y clínicos (11,12).
Aplicaciones combinadas: la integración de radiómica con aprendizaje profundo y RNC ha permitido el desarrollo de modelos capaces de realizar tareas complejas, como la clasificación de carcinomas de células renales según su grado nuclear o la predicción de mutaciones genómicas asociadas. Este enfoque proporciona no solo diagnósticos más precisos, sino también una ventana hacia la personalización de tratamientos, optimizando resultados clínicos (12).
Sistema CAD (Computer-Aided Diagnosis): en el contexto de la IA, se refiere a herramientas y programas asistidos por computadora que, a través de algoritmos de IA, ayudan en el análisis y diagnóstico de imágenes médicas u otros datos clínicos.
3. Material y métodos
Se lleva a cabo una revisión narrativa de los artículos originales y de revisión relacionados con la IA en urooncología, publicados entre 2018 y 2023 en la base de datos PubMed. Para la búsqueda, se utilizaron los siguientes términos MeSH, solos o combinados: artificial intelligence, urooncology, urology, prostate cancer, kidney cancer, bladder cancer, image, machine learning, deep learning, neural networks, entre otros.
Se seleccionaron los artículos más relevantes mediante la evaluación de sus resúmenes/abstracts, y se procedió a obtener los textos completos de los documentos seleccionados. Se excluyeron aquellos estudios que desarrollaban modelos de IA que no empleaban imágenes radiológicas y cuyo propósito no era diagnóstico o pronóstico.
4. Aplicaciones de la Inteligencia Artificial en oncología urológica
4.1. Inteligencia Artificial en cáncer de próstata
La IA ha transformado significativamente el diagnóstico y manejo del cáncer de próstata, con un enfoque particular en la Resonancia Magnética Nuclear multiparamétrica (RMNmp). Desde los primeros modelos hasta los más recientes, los investigadores han buscado mejorar la precisión diagnóstica, y a su vez, reducir procedimientos invasivos innecesarios.
Uno de los avances iniciales se observó en el trabajo de Ishioka et al., quienes desarrollaron un sistema CAD basado en RNC. Utilizando 2 millones de imágenes aumentadas, este modelo demostró valores AUC (Area Under the Curve- área bajo la curva) de aproximadamente 64%, destacando su capacidad para estandarizar el diagnóstico y minimizar errores interobservador (13). Posteriormente, Gaur et al. demostraron que los sistemas CAD podían igualar la sensibilidad de los radiólogos en la detección de lesiones índice, pero con una mejora significativa en la especificidad para pacientes con PI-RADS≥3, reduciendo así falsos positivos y biopsias innecesarias (14).
Estos sistemas evolucionaron con enfoques más complejos. Viswanath et al. y Armato et al. exploraron múltiples clasificadores y métodos de validación cruzada para detectar cáncer en zonas periféricas y diferenciar lesiones clínicamente significativas (15). En particular, el reto PROSTATEx reveló que algunos modelos alcanzaron un AUC de hasta 0,87, los resultados subrayaron la necesidad de mejorar en la predicción de agresividad tumoral (16).
El aprendizaje profundo introdujo una nueva dimensión en esta área. Takeuchi et al. desarrollaron un modelo de RNA que evitó biopsias innecesarias en casi la mitad de los pacientes sin cáncer (17). De manera similar, Zhong et al. utilizaron aprendizaje por transferencia profunda para diferenciar lesiones significativas e indolentes, alcanzando una especificidad superior al 80% (18). Varghese et al. y Aldoj et al. continuaron esta línea de investigación con enfoques radiómicos y redes neuronales 3D, logrando resultados comparables a los de radiólogos experimentados (19). En particular, Aldoj et al. demostraron que la combinación de diferentes secuencias de RMNmp, como T2 ponderada, ADC y K-trans, mejoraba significativamente la precisión del diagnóstico (20).
En los últimos años, los modelos han alcanzado un nivel de sofisticación sin precedentes. Por ejemplo, Wildeboer et al. integraron datos de ecografía transrectal con algoritmos de aprendizaje automático para desarrollar un modelo capaz de detectar cáncer de próstata clínicamente significativo (Gleason >3+4) con un AUC de 0,90 (21). Este avance no sólo mejoró la localización precisa de tumores, sino que también abrió nuevas posibilidades para técnicas de imagen más accesibles. De manera similar, Seetharam et al. presentaron SPCNet, una RNC diseñada para detectar automáticamente lesiones agresivas que pasaban desapercibidas para los radiólogos (22). Esta capacidad de identificación adicional destacó la importancia de los sistemas de IA como herramientas complementarias en la práctica clínica.
FocalNet, desarrollado por Cao et al., también se destacó por complementar la labor de radiólogos al detectar un 9% de lesiones críticas omitidas, mejorando la confianza en las decisiones diagnósticas (23). Bertelli et al. realizaron un estudio centrado en el uso combinado de aprendizaje automático y profundo para predecir la agresividad del cáncer de próstata utilizando imágenes por RMNmp. Los modelos alcanzaron un AUC de 0,875 en aprendizaje profundo y 0,795 en aprendizaje automático (24). Aunque los resultados de aprendizaje profundo superaron a los de aprendizaje automático, ambos enfoques demostraron ser útiles al reducir la variabilidad entre observadores y facilitar decisiones terapéuticas más precisas.
Estudios como el de Zhu et al. han descrito un modelo de aprendizaje profundo que alcanzan sensibilidades y especificidades por encima del 90% (25). Por último, Wang et al. llevaron la IA más allá de la RMNmp, desarrollando un modelo basado en videos de ecografía transrectal (26). Esta innovación no sólo amplía el acceso a tecnologías avanzadas, sino que también facilita diagnósticos en tiempo real, con aplicaciones potenciales en regiones con recursos limitados.
En conjunto, estas investigaciones ilustran un progreso continuo hacia la integración de la IA como herramienta clave en el manejo del cáncer de próstata.
Tabla 1. Modelos de IA diagnósticos y pronósticos en cáncer de próstata
Estudio | Objetivo y diseño | Pacientes y parámetros | Algoritmo/método | Resultados | Validación externa |
Ishioka et al. [2018] | Detectar CaP en RMN | 335 pacientes que se sometieron a RMN y BTRP (301 entrenamiento y 34 validación) | RNC basado en arquitectura U-Net | AUC 0,64 | No |
Gaur et al. [2018] | Detectar CaP en RMN | 216 pacientes (144 pacientes con CaP confirmado y 77 sin CaP, controles) | Algoritmos de aprendizaje automático (RF) | PI-RADS≥3 S 81,5% E 71,5% AUC 0,831 |
Multicéntrico |
Viswanath et al. [2018] | Detectar tumores en la zona periférica de la próstata mediante RMN (T2WI) | 85 pacientes con CaP de tres centros diferentes (16 entrenamiento y 69 validación externa) | Algoritmos de aprendizaje automático (RF) | AUC 0,744 | Cohorte externa (n=69) AUC 0,768 |
Armato et al. [2018] | Reto PROSTATEx. Distinguir lesiones CaP clínicamente significativas y predecir Gleason | 278 lesiones de CaP de 203 pacientes (Parte 1-208 lesiones y Parte 2-70 lesiones) | Multimodelo (Parte 1: 71 métodos de IA, Parte 2: 43 métodos) | AUC Parte 1 0,45-0,87 | – |
Takeuchi et al. [2019] | Predecir la tasa de detección de CaP en RMN | 334 pacientes que se sometieron a RMN y BTRP (232 entrenamiento y 102 validación) | RNA multicapa | AUC 0,74 | No |
Zhong et al. [2019] | Discriminar diferentes grados de CaP en RMN | 140 pacientes con 216 lesiones CaP (110 entrenamiento y 30 validación) | RNC | AUC 0,726 | No |
Varghese et al. [2019] | Estratificar el riesgo de CaP utilizando RMNmp | 68 pacientes con CaP en entrenamiento | Algoritmos de aprendizaje automático (SVM y RF), regresión logística | AUC RF 0,92 | Cohorte externa (n=53) AUC 0,71 |
Aldoj et al. [2020] | Desarrollar un modelo de clasificación semiautomático del CaP en RMN | 200 pacientes sometidos a RMN con 318 lesiones prostáticas (175 entrenamiento y 25 validación) | RNC | AUC 0,89 S 81,9% E 86,1% |
No |
Wildeboer et al. [2020] | Detección de CaP mediante elastografía de ondas transversales, modo B y ecografía dinámica con contraste | 48 pacientes con CaP intervenidos de prostatectomía radical | Algoritmos de aprendizaje automático | AUC 0,75 (detectar CaP) AUC 0,90 (detectar Gleason >3+4) |
No |
Seetharam et al. [2021] | Detectar CaP indolente y agresivo en RMN | 424 pacientes (102 entrenamiento y 322 validación) | RNC basado en SPCNet | AUC indolente 0,75 AUC agresivo 0,89 |
No |
Cao et al. [2021] | Detectar CaP usando RMNmp 3T | 553 pacientes con RMN 3T previa prostatectomía radical (427 entrenamiento y 126 validación) | Algoritmos de aprendizaje profundo (FocalNet) | FocalNet tuvo una S un 5,1% menor a los radiólogos en la detección de lesiones clínicamente significativas | No |
ADC: Apparent Diffusion Coefficient; AUC: Area Under the Curve; CaP: Cáncer de próstata; E: especificidad; RF: Random Forest; RMNmp: Resonancia Magnética Nuclear multiparamétrica; RNA: Red Neuronal Artificial; RNC: Red Neuronal Convolucional; S: Sensibilidad; SVM: Support Vector Machine; T2WI: T2-weighted Imaging; 3T: 3 Teslas.
4.2. Inteligencia Artificial en cáncer renal
El cáncer renal también ha sido objeto de innovación mediante la IA, con un enfoque significativo en el análisis de imágenes por TC. Estos avances han permitido mejorar la diferenciación entre tipos de tumores y la predicción de características tumorales críticas.
Feng et al. implementaron un modelo basado en análisis de textura que diferenciaba angiomiolipomas (AML) pobres en grasa de carcinomas de células renales (CCR), logrando una precisión del 93,9% (27). Kocak et al. expandieron este enfoque, distinguiendo subtipos de CCR mediante características texturales, con especificidades que alcanzaron el 100% en validación externa (28).
Los pacientes con carcinoma de células renales tipo células claras (CCRcc) grado III o IV tienen un riesgo cuatro veces mayor de desarrollar metástasis comparado con los grados I o II. Ding et al. desarrolló un modelo radiómico para clasificar CCRcc según el grado de Fuhrman, con un AUC de 0,878 en validación (29). Modelos similares como el de Bektas et al., Kocak et al. y Lin et al. también predijeron la agresividad tumoral según el grado Fuhrman con precisiones superiores al 80% o AUC superiores a 0,86 (30–32). Estos modelos demostraron una capacidad comparable a la biopsia percutánea, ofreciendo una alternativa no invasiva para predecir la agresividad tumoral.
Autores como Shu et al. y Sun et al. refinaron estas predicciones, combinando múltiples fases de TC y algoritmos de aprendizaje automático como Random Forest (RF) o Support Vector Machine (SVM), para mejorar la precisión diagnóstica y preoperatoria. Consiguieron con sus modelos AUC superiores a 0,90 (33,34).
Coy et al. emplearon aprendizaje profundo con TensorFlow Inception para diferenciar CCRcc de oncocitoma (ONC), destacando la utilidad de la fase excretora de TC, con una sensibilidad del 88,3% (35). Simultáneamente, estudios como los de Kocak et al. exploraron la relación entre características texturales y mutaciones genéticas, como la de PBRM1 (segunda mutación más frecuente en el CCR y asociada a una peor supervivencia), logrando predicciones con AUC superiores a 0,98 (36).
En la misma línea, diversos autores como Erdim et al. o Uhlig et al., implementaron algoritmos de aprendizaje automático para diferenciar entre masas renales benignas y malignas, con un AUC superior a 0,83 (37,38). Otro modelo, como el de Cui et al. ha integrado TC y RM para diferenciar grados ISUP en CCRcc, con resultados que rivalizan con métodos invasivos como la biopsia (39). Pedersen et al. evaluó el uso de una RNC modificada, ResNet50V2, para distinguir CCRcc de ONC en imágenes de TC, alcanzando un AUC de 0,946 en validación externa (40).
Posteriormente, se han introducido modelos más integradores. Ning et al. desarrollaron un marco multimodal que combina datos de TC, histopatología y genómica, logrando estratificar significativamente a los pacientes en subgrupos de riesgo (41). De manera similar, Schulz et al. y Uhm et al. implementaron aprendizaje profundo para clasificar subtipos tumorales y predecir pronósticos, alcanzando AUC superiores a 0,85 (42,43).
Más recientemente, Nikpanah et al. describieron un modelo de RNC, AlexNet, para diferenciar entre CCRcc y ONC, obteniendo una precisión del 91% (44). Finalmente, la combinación de IA y radiómica ha permitido abordar desafíos más complejos. Modelos recientes como el de Yang et al., que aplicando una RNC, integraron TC y RM para diferenciar grados ISUP en CCRcc, obteniendo una precisión promedio del 87% (45). Resultados que rivalizan con métodos invasivos como la biopsia.
Estos desarrollos destacan el potencial de la IA para transformar el manejo del cáncer renal, facilitando diagnósticos más precisos y menos invasivos.
Tabla 2. Modelos de IA diagnósticos y pronósticos en cáncer renal
Estudio | Objetivo y diseño | Pacientes y parámetros | Algoritmo/método | Resultados | Validación externa |
Feng et al. [2018] (27) | Diferenciar entre AML y CCR mediante TC | 58 pacientes (17 AML y 41 CCR) | Algoritmos de aprendizaje automático | Precisión 93,9% S 87,8% E 100% AUC 0,955 | No |
Kocak et al. [2018] (28) | Predecir subtipos histológicos de CCR utilizando TC | 81 pacientes con CCRcc | Algoritmos de aprendizaje automático (SVM)y RNA | MCC RNA: 0,728 | 26 pacientes de bases públicas (RNA): Precisión 84,6% S 69,2% E 100% |
Ding et al. [2018] (29) | Discriminar entre bajo y alto grado (Fuhrman) en CCRcc mediante TC | 114 pacientes tratados con nefrectomía (entrenamiento) | Análisis de textura, regresión logística | AUC 0,878 | Cohorte independiente (n=92) AUC 0,771 |
Bektas et al. [2019] (30) | Discriminar entre bajo y alto grado (Fuhrman) en CCRcc mediante TC | 53 pacientes con 54 CCRcc (31 bajo grado y 23 alto grado) | RNC, algoritmos de aprendizaje automático (SVM) y análisis de textura | Precisión 85,1% S 91,3% E 80,6% AUC 0,860 | No |
Kocak et al. [2019] (31) | Discriminar entre bajo y alto grado (Fuhrman) en CCRcc mediante TC | 81 pacientes (25 bajo grado y 56 alto grado) | RNC, regresión lineal y análisis de textura | Precisión 81,5% AUC 0,714 | No |
Lin et al. [2019] (32) | Discriminar entre bajo y alto grado (Fuhrman) en CCRcc mediante TC | 231 pacientes con 232 CCRcc (189 bajo grado y 43 alto grado) | Algoritmos de aprendizaje automático y análisis de textura | Precisión 74% AUC 0,87 | No |
Shu et al. [2019] (33) | Discriminar entre bajo y alto grado (ISUP) en CCRcc mediante TC | 271 pacientes con CCRcc pacientes: 164 bajo grado y 107 alto grado (163 entrenamiento y 108 validación) | Algoritmos de aprendizaje automático (SVM y RF), regresión lineal y análisis de textura | Precisión 93,5% AUC 0,98 | No |
Sun et al. [2019] (34) | Discriminar entre bajo y alto grado (ISUP) en CCRcc mediante TC | 227 pacientes con CCRcc (155 bajo grado y 72 alto grado) | Algoritmos de aprendizaje automático (SVM) y análisis de textura | S 83% E 89% AUC 0,91 | No |
Coy et al. [2019] (35) | Diferenciar entre CCRcc y ONC mediante TC | 179 pacientes (128 CCRcc y 51 ONC) | RNC | Precisión 75,4% S 88,3% | No |
Kocak et al. [2019] (36) | Identificar la mutación PBRM1 en CCRcc mediante análisis de textura en TC | 45 pacientes con CCRcc (16 pacientes con mutación PBRM1) | Algoritmos de aprendizaje automático (RNA y RF) | Precisión RF: 94,6% AUC RF 0,987 S RF 95,4% | No |
Erdim et al. [2020] (37) | Diferenciar entre masas renales sólidas benignas y malignas mediante TC | 84 masas renales (21 benignas y 68 malignas) | Algoritmos de aprendizaje automático | Precisión 91,7% AUC 0,916 | No |
Uhlig et al. [2020] (38) | Diferenciar entre masas renales T1 benignas y malignas en TC | 94 pacientes (76 masas malignas y 18 benignas) | Algoritmos de aprendizaje automático (RF) | S 88% E 67% AUC 0,83 | No |
Cui et al. [2020] (39) | Discriminar entre bajo y alto grado (ISUP) en CCRcc mediante TC y RMNmp | 440 pacientes con CCRcc sometidos a TC y a RMNmp | Algoritmos de aprendizaje automático y análisis de textura | Precisión TC 79% Precisión RMN 73% | Cohorte externa (n=20) Precisión TC 69% Precisión RMN 74% |
Pedersen et al. [2020] (40) | Distinguir entre CCRcc y ONC mediante TC | 2.000 imágenes de TC de 369 pacientes (300 CCRcc y 69 ONC) | RNC | Precisión 93,3% E 93,5% AUC 0,973 | Cohorte independiente (12 pacientes-365 imágenes) Precisión 90% E 98% AUC 0,946 |
Ning et al. [2020] (41) | Predecir el pronóstico de CCRcc mediante TC e imágenes anatomopatológicas | 209 pacientes con CCRcc (139 entrenamiento y 70 validación) | RNC | Índice C 0,808 | No |
Schulz et al. [2020] (42) | Precedir el pronóstico del CCRcc mediante TC y datos genómicos | 248 pacientes con CCRcc (230 validación interna y 18 validación externa) | Modelo multimodal de aprendizaje profundo | Precisión 83,43% Índice C 0,779 | Cohorte externa de 18 pacientes. Índice C 0,799 AUC 0,905 |
Uhm et al. [2021] (43) | Diferenciar entre tipos de CCR (5 subtipos) | 1.035 imágenes de TC de 308 pacientes (entrenamiento) | Algoritmo de aprendizaje profundo | AUC 0,889 | Cohorte externa (n=184) Precisión 64% AUC 0,855 |
Nikpanah et al. [2021] (44) | Diferenciar entre CCRcc y ONC mediante RMN | 74 pacientes con 243 masas renales (203 CCRcc y 40 ONC) | RNC (AlexNet) | Precisión 91% AUC 0,9 | No |
Yang et al. [2022] (45) | Predecir el grado nuclear (Fuhrman) en CCRcc usando TC | 759 pacientes con CCRcc (477 bajo grado y 282 alto grado) | RNC (TransResNet) | Precisión 87,1% S 91,3% E 85,3% AUC 90,3% | Cohorte externa (n=20) Precisión 81,9% S 76,6% E 87,2% AUC 85,4% |
AML: Angiomiolipoma; AUC: Area Under the Curve; CCR: Carcinoma Células Renales; CCRcc: Carcinoma Celulas renales tipo células claras; E: especificidad; ISUP: International Society of Urological Pathology; MCC: Mathews Correlation Coefficient; ONC: Oncocitoma; RF: Random Forest; RMNmp: Resonancia Magnética Nuclear multiparamétrica; RNA: Red Neuronal Artificial; RNC: Red Neuronal Convolucional; S: Sensibilidad; SVM: Support Vector Machine; TC: Tomografía Computarizada.
4.3. Inteligencia Artificial en cáncer de vejiga
El cáncer de vejiga ha sido otro campo donde la IA ha mostrado gran promesa, especialmente en la distinción entre tumores musculo-infiltrantes (TVMI) y no musculo-infiltrantes (TVNMI). Los modelos han buscado mejorar la precisión diagnóstica y optimizar la planificación terapéutica.
Tong et al. describieron un modelo radiómico basado en RMN que alcanzó una precisión del 78,5% al diferenciar TVNMI de TVMI (46). Este enfoque fue perfeccionado por Xu et al., cuyo modelo superó al diagnóstico visual de expertos radiólogos, logrando una especificidad del 100% y un AUC de 0,9857 (47). Estudios como el de Zheng et al. introdujeron nomogramas radiómicos que combinan características de imagen y factores clínicos, alcanzando AUC superiores a 0,922 (48).
La integración de múltiples secuencias de imágenes ha sido clave en estudios posteriores. Wang et al. y Xu et al. utilizaron análisis radiómico en RMNmp para predecir el grado tumoral, con AUC cercanos a 0,93 (49,50). De manera similar, Wang et al. desarrollaron un modelo multicéntrico basado en radiómica y RMN para predecir la invasión muscular en el cáncer de vejiga. Este modelo, llamado «Radscore», logró un AUC de 0,924 en entrenamiento y 0,877 en validación al combinarlo con la identificación del pedículo tumoral (51).
Más recientemente, el aprendizaje profundo ha llevado la predicción del cáncer de vejiga a otros niveles. Yang et al. desarrollaron un modelo de RNC que alcanzó un AUC de 0,998 en pruebas internas, aunque con sensibilidad limitada (52). El modelo de Zhang et al., también basado en imágenes de TC para predecir la invasión muscular obtuvo un AUC de 0,791 en validación externa (53).
Hammouda et al. presentaron un sistema basado en RMNmp que emplea RNC para segmentar tumores y extraer características texturales, funcionales y morfológicas. Este modelo alcanzó una precisión del 95,24% y un AUC de 0,9864, destacando como un sistema de alta precisión para clasificar estadios T1 y T2 del cáncer de vejiga (54). Zheng et al. refinaron estos enfoques, combinando IA con sistemas como VI-RADS para diferenciar TVMI y TVNMI, alcanzando AUC superiores a 0,94 en validación (55).
Zhou et al. desarrollaron un modelo que combina radiómica basada en TC con factores clínicos, como la albuminuria y el síndrome metabólico. Este enfoque alcanzó un AUC de 0,846, mostrando cómo la combinación de imágenes y datos clínicos mejora la predicción de la invasión muscular en cáncer de vejiga (56). Por su parte, Cui et al. diseñaron un modelo radiómico basado en TC que extrajo 102 características, seleccionando 8 como relevantes. Este sistema alcanzó un AUC de 0,894 en validación, con sensibilidades y especificidades de hasta el 90% y 96,7%, respectivamente (57).
Modelos más recientes como los de Chen et al. y Song et al. han explorado otros enfoques de radiómica y aprendizaje profundo para predecir la invasión muscular y el grado patológico, logrando resultados sobresalientes en precisión y AUC. Siendo ambos validados externamente con un AUC de 0,784 y un AUC de 0,947 (58,59).
Por último, Sarkar et al. (2023) desarrollaron un modelo híbrido que combina aprendizaje profundo y automático para clasificar el carcinoma urotelial. Basado en imágenes de TC y utilizando XceptionNet, este modelo logró una precisión del 86,07% y una sensibilidad del 96,75% para distinguir tejido normal de cáncer, ofreciendo una herramienta robusta para diferenciar TVNMI de TVMI (60).
En conjunto, estas investigaciones demuestran cómo la IA está redefiniendo el diagnóstico y manejo del cáncer de vejiga, ofreciendo herramientas más precisas y accesibles para mejorar la atención al paciente.
Tabla 3. Modelos de IA diagnósticos y pronósticos en cáncer de vejiga
Estudio | Objetivo y diseño | Pacientes y parámetros | Algoritmo/método | Resultados | Validación externa |
Tong et al. [2018] (46) | Detectar invasión muscular en RMN | 65 pacientes intervenidos de cistectomía radical previa realización de RMN | Análisis de textura | Precisión 78,5% S 74,2% E 82,4% | No |
Xu et al. [2019] (47) | Evaluar el rendimiento de la RMN para diferenciar entre TVNMI y TVMI | 54 pacientes (24 TVNMI y 30 TVMI) 1.104 características radiómicas | Algoritmos de aprendizaje automático (SVM) | Precisión 96,3% S 92,6% E 100% AUC 0,9857 | No |
Zheng et al. [2019] (48) | Discriminar entre TVMI y TVNMI en RMN | 199 pacientes: 112 TVNMI y 87 TVMI (130 entrenamiento y 69 validación) | Regresión logística | AUC 0,876 | No |
Wang et al. [2019] (49) | Discriminar entre bajo y alto grado en CaV mediante RMN | 100 pacientes: 78 TVNMI y 22 TVMI (70 entrenamiento y 30 validación) | Regresión logística | Precisión 83,3% S 76,9% E 88,2% AUC 0,927 | No |
Xu et al. [2020] (50) | Diferenciar entre TVMI y TVNMI en RMN | 218 pacientes intervenidos de RTU previa realización de RMN: 141 TVMI, 77 TVNMI (131 entrenamiento y 87 validación) | Análisis radiómico | Precisión 89,7% S 96,4% | No |
Wang et al. [2020] (51) | Predecir la invasión muscular en RMN | 106 pacientes intervenidos de RTU o cistectomía previa realización de RMN | Análisis de textura (Modelo “Radscore”), regresión logística | AUC Radscore 0,813 AUC Radscore + pedículo tumoral 0,877 | Multicéntrico |
Yang et al. [2021] (52) | Desarrollar un modelo para diferenciar entre TVNMI y TVMI mediante TC | 1200 imágenes de TC de 369 pacientes sometidos a cistectomía radical (249 TVNMI y 120 TVMI) | Múltiples RNC | AUC 0,998 S 72,2% E 100% | No |
Zhang et al. [2021] (53) | Diferenciar entre TVNMI y TVMI mediante TC | 441 pacientes diagnosticados de CaV de dos centros, con TC preoperatorio: 319 TVNMI y 122 TVMI (183 desarrollo, 110 ajuste, 73 validación interna, 75 validación externa) | Algoritmos de aprendizaje profundo | AUC 0,861 S 73,3% E 81% | Cohorte externa (n=75) AUC 0,791 S 71% E 77,3% |
Hammouda et al. [2021] (54) | Distinguir entre estadios T1 y T2 mediante RMN | 42 pacientes diagnosticados de CaV, con RMN preoperatoria | RNC, análisis textural | Precisión 95,24% AUC 0,9864 | No |
Zheng et al. [2021] (55) | Diferenciar preoperatoriamente entre TVNMI y TVMI mediante RMNmp | 185 pacientes: 123 TVNMI y 62 TVMI (129 entrenamiento y 56 validación) | Algoritmos de aprendizaje automático (SVM, RF), regresión logística | Precisión 89,3% AUC 0,943 | No |
Zhou et al. [2021] (56) | Predecir la invasión muscular a partir de imágenes TC y factores clínicos | 100 pacientes: 50 TVMI y 50 TVNMI (70 entrenamiento y 30 validación) | Análisis radiómico, algoritmos de aprendizaje automático (SVM) | AUC 0,846 | No |
Cui et al. [2022] (57) | Predecir la invasión muscular en TC | 188 pacientes: 94 TVNMI y 94 TVMI (120 entrenamiento y 68 validación) | Análisis radiómico | S 90% E 96,7% AUC 0,897 | No |
Chen et al. [2022] (58) | Predecir la invasión muscular a partir de imágenes TC | 173 pacientes: 43 TVMI y 130 TVNMI (129 prueba y 44 validación) | Múltiples modelos basados en aprendizaje automático y arquitectura ResNet50 | Precisión 81,8% S 90,9% E 78,8% | Cohorte externa (n=75) AUC 0,784 |
Song et al. [2023] (59) | Predecir el grado patológico del CaV mediante TC | 686 pacientes con CaV sometidos a TC (469 entrenamiento) | Algoritmos de aprendizaje automático y RNA basados en arquitectura ResNet18 | Precisión 91,9% AUC 0,961 | Cohorte externa (n=219) AUC 0,947 |
Sarkar et al. [2023] (60) | Mejorar la estadificación del CaV por TC | 165 pacientes sometidos a TC (24 TVNMI, 41 TVMI, 100 no CaV) | Múltiples RNC | Precisión: Normal vs CaV 86,07% TVNMI vs TVMI 79,72% | No |
AUC: Area Under the Curve; CaV: Cáncer Vesical; E: especificidad; RF: Random Forest; RMN: Resonancia Magnética Nuclear; RNA: Red Neuronal Artificial; RNC: Red Neuronal Convolucional; RTU: Resección Transuretral; S: Sensibilidad; SVM: Support Vector Machine; TC: Tomografía Computarizada; TVMI: Tumor vesical musculoinvasico; TVNMI: Tumor vesical no musculoinvasivo.
5. Limitaciones y desafíos de la Inteligencia Artificial en oncología urológica
Aunque los avances de la IA están transformando la oncológica urológica, optimizando el diagnóstico, pronóstico y tratamiento de la enfermedad, se enfrenta con numerosas limitaciones y desafíos (61).
Uno de los principales retos a los que se enfrenta es la necesidad de grandes volúmenes de datos etiquetados de alta calidad. Las bases de datos actuales son insuficientes, y la heterogeneidad en los protocolos de adquisición de imágenes dificulta la generalización de los modelos. Además, muchos algoritmos carecen de interpretabilidad, lo que genera desconfianza en su uso clínico (62).
Otro aspecto crítico es que muchos de estos modelos aún requieren validación externa en poblaciones diversas para garantizar que sus resultados sean reproducibles y aplicables en escenarios reales.
El uso de datos sensibles en IA plantea riesgos significativos en torno a la privacidad y seguridad. La validación y regulación de los sistemas es un desafío complejo, ya que deben cumplir rigurosos estándares internacionales para garantizar la seguridad y eficacia en los pacientes (1).
La superación de estos obstáculos pasa por crear bases de datos más amplias, desarrollar modelos más explicables, implementar procesos rigurosos de validación externa y establecer regulaciones éticas claras, fomentando así una transformación segura y efectiva de la oncología urológica.
6. Conclusiones
La IA está marcando una transformación en la oncología urológica, con aplicaciones prometedoras en el diagnóstico y pronóstico de cánceres como el de próstata, riñón y vejiga. Herramientas como el aprendizaje profundo, las redes neuronales convolucionales y la radiómica están permitiendo enfoques más precisos, personalizados y no invasivos, destacándose en la detección de tumores, la evaluación de su agresividad y la optimización de tratamientos. Estos avances, a menudo comparables al rendimiento de expertos clínicos, ofrecen un potencial significativo para mejorar los resultados en la atención médica.
No obstante, la implementación de estos sistemas se enfrenta a desafíos importantes, como la necesidad de bases de datos más amplias, la heterogeneidad en los protocolos de imagen, la interpretabilidad de los modelos y la limitada validación externa.
A pesar de estos retos, el desarrollo continuo y la validación rigurosa de tecnologías de IA en contextos multicéntricos y diversos respaldan su integración futura, apuntando hacia un futuro prometedor. La IA no solo mejora la precisión diagnóstica y la toma de decisiones, sino que también representa un paso hacia la medicina personalizada, transformando la oncología urológica en un campo más efectivo y accesible.
7. Bibliografía
1. Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med. enero de 2019;25(1):44-56.
2. Gillies RJ, Kinahan PE, Hricak H. Radiomics: Images Are More than Pictures, They Are Data. Radiology. febrero de 2016;278(2):563-77.
3. Pak S, Park SG, Park J, Cho ST, Lee YG, Ahn H. Applications of artificial intelligence in urologic oncology. Investig Clin Urol. mayo de 2024;65(3):202-16.
4. Erickson BJ, Korfiatis P, Akkus Z, Kline TL. Machine Learning for Medical Imaging. Radiogr Rev Publ Radiol Soc N Am Inc. 2017;37(2):505-15.
5. Shen D, Wu G, Suk HI. Deep Learning in Medical Image Analysis. Annu Rev Biomed Eng. 21 de junio de 2017;19:221-48.
6. Froń A, Semianiuk A, Lazuk U, Ptaszkowski K, Siennicka A, Lemiński A, et al. Artificial Intelligence in Urooncology: What We Have and What We Expect. Cancers. 26 de agosto de 2023;15(17):4282.
7. Litjens G, Kooi T, Bejnordi BE, Setio AAA, Ciompi F, Ghafoorian M, et al. A survey on deep learning in medical image analysis. Med Image Anal. diciembre de 2017;42:60-88.
8. Lundervold AS, Lundervold A. An overview of deep learning in medical imaging focusing on MRI. Z Med Phys. mayo de 2019;29(2):102-27.
9. Shickel B, Tighe PJ, Bihorac A, Rashidi P. Deep EHR: A Survey of Recent Advances in Deep Learning Techniques for Electronic Health Record (EHR) Analysis. IEEE J Biomed Health Inform. septiembre de 2018;22(5):1589-604.
10. Yamashita R, Nishio M, Do RKG, Togashi K. Convolutional neural networks: an overview and application in radiology. Insights Imaging. agosto de 2018;9(4):611-29.
11. Lambin P, Rios-Velazquez E, Leijenaar R, Carvalho S, van Stiphout RGPM, Granton P, et al. Radiomics: extracting more information from medical images using advanced feature analysis. Eur J Cancer Oxf Engl 1990. marzo de 2012;48(4):441-6.
12. Hosny A, Parmar C, Quackenbush J, Schwartz LH, Aerts HJWL. Artificial intelligence in radiology. Nat Rev Cancer. agosto de 2018;18(8):500-10.
13. Ishioka J, Matsuoka Y, Uehara S, Yasuda Y, Kijima T, Yoshida S, et al. Computer-aided diagnosis of prostate cancer on magnetic resonance imaging using a convolutional neural network algorithm. BJU Int. septiembre de 2018;122(3):411-7.
14. Gaur S, Lay N, Harmon SA, Doddakashi S, Mehralivand S, Argun B, et al. Can computer-aided diagnosis assist in the identification of prostate cancer on prostate MRI? a multi-center, multi-reader investigation. Oncotarget. 18 de septiembre de 2018;9(73):33804-17.
15. Viswanath SE, Chirra PV, Yim MC, Rofsky NM, Purysko AS, Rosen MA, et al. Comparing radiomic classifiers and classifier ensembles for detection of peripheral zone prostate tumors on T2-weighted MRI: a multi-site study. BMC Med Imaging. 28 de febrero de 2019;19(1):22.
16. Armato SG, Huisman H, Drukker K, Hadjiiski L, Kirby JS, Petrick N, et al. PROSTATEx Challenges for computerized classification of prostate lesions from multiparametric magnetic resonance images. J Med Imaging Bellingham Wash. octubre de 2018;5(4):044501.
17. Takeuchi T, Hattori-Kato M, Okuno Y, Iwai S, Mikami K. Prediction of prostate cancer by deep learning with multilayer artificial neural network. Can Urol Assoc J J Assoc Urol Can. mayo de 2019;13(5):E145-50.
18. Zhong X, Cao R, Shakeri S, Scalzo F, Lee Y, Enzmann DR, et al. Deep transfer learning-based prostate cancer classification using 3 Tesla multi-parametric MRI. Abdom Radiol N Y. junio de 2019;44(6):2030-9.
19. Varghese B, Chen F, Hwang D, Palmer SL, De Castro Abreu AL, Ukimura O, et al. Objective risk stratification of prostate cancer using machine learning and radiomics applied to multiparametric magnetic resonance images. Sci Rep. 7 de febrero de 2019;9(1):1570.
20. Aldoj N, Lukas S, Dewey M, Penzkofer T. Semi-automatic classification of prostate cancer on multi-parametric MR imaging using a multi-channel 3D convolutional neural network. Eur Radiol. febrero de 2020;30(2):1243-53.
21. Wildeboer RR, Mannaerts CK, van Sloun RJG, Budäus L, Tilki D, Wijkstra H, et al. Automated multiparametric localization of prostate cancer based on B-mode, shear-wave elastography, and contrast-enhanced ultrasound radiomics. Eur Radiol. febrero de 2020;30(2):806-15.
22. Seetharaman A, Bhattacharya I, Chen LC, Kunder CA, Shao W, Soerensen SJC, et al. Automated detection of aggressive and indolent prostate cancer on magnetic resonance imaging. Med Phys. junio de 2021;48(6):2960-72.
23. Cao R, Zhong X, Afshari S, Felker E, Suvannarerg V, Tubtawee T, et al. Performance of Deep Learning and Genitourinary Radiologists in Detection of Prostate Cancer Using 3-T Multiparametric Magnetic Resonance Imaging. J Magn Reson Imaging JMRI. agosto de 2021;54(2):474-83.
24. Bertelli E, Mercatelli L, Marzi C, Pachetti E, Baccini M, Barucci A, et al. Machine and Deep Learning Prediction Of Prostate Cancer Aggressiveness Using Multiparametric MRI. Front Oncol. 2021;11:802964.
25. Zhu L, Gao G, Zhu Y, Han C, Liu X, Li D, et al. Fully automated detection and localization of clinically significant prostate cancer on MR images using a cascaded convolutional neural network. Front Oncol. 2022;12:958065.
26. Wang K, Chen P, Feng B, Tu J, Hu Z, Zhang M, et al. Machine learning prediction of prostate cancer from transrectal ultrasound video clips. Front Oncol. 2022;12:948662.
27. Feng Z, Rong P, Cao P, Zhou Q, Zhu W, Yan Z, et al. Machine learning-based quantitative texture analysis of CT images of small renal masses: Differentiation of angiomyolipoma without visible fat from renal cell carcinoma. Eur Radiol. abril de 2018;28(4):1625-33.
28. Kocak B, Yardimci AH, Bektas CT, Turkcanoglu MH, Erdim C, Yucetas U, et al. Textural differences between renal cell carcinoma subtypes: Machine learning-based quantitative computed tomography texture analysis with independent external validation. Eur J Radiol. octubre de 2018;107:149-57.
29. Ding J, Xing Z, Jiang Z, Chen J, Pan L, Qiu J, et al. CT-based radiomic model predicts high grade of clear cell renal cell carcinoma. Eur J Radiol. junio de 2018;103:51-6.
30. Bektas CT, Kocak B, Yardimci AH, Turkcanoglu MH, Yucetas U, Koca SB, et al. Clear Cell Renal Cell Carcinoma: Machine Learning-Based Quantitative Computed Tomography Texture Analysis for Prediction of Fuhrman Nuclear Grade. Eur Radiol. marzo de 2019;29(3):1153-63.
31. Kocak B, Durmaz ES, Ates E, Kaya OK, Kilickesmez O. Unenhanced CT Texture Analysis of Clear Cell Renal Cell Carcinomas: A Machine Learning-Based Study for Predicting Histopathologic Nuclear Grade. AJR Am J Roentgenol. junio de 2019;212(6):W132-9.
32. Lin F, Cui EM, Lei Y, Luo LP. CT-based machine learning model to predict the Fuhrman nuclear grade of clear cell renal cell carcinoma. Abdom Radiol N Y. julio de 2019;44(7):2528-34.
33. Shu J, Wen D, Xi Y, Xia Y, Cai Z, Xu W, et al. Clear cell renal cell carcinoma: Machine learning-based computed tomography radiomics analysis for the prediction of WHO/ISUP grade. Eur J Radiol. diciembre de 2019;121:108738.
34. Sun X, Liu L, Xu K, Li W, Huo Z, Liu H, et al. Prediction of ISUP grading of clear cell renal cell carcinoma using support vector machine model based on CT images. Medicine (Baltimore). abril de 2019;98(14):e15022.
35. Coy H, Hsieh K, Wu W, Nagarajan MB, Young JR, Douek ML, et al. Deep learning and radiomics: the utility of Google TensorFlowTM Inception in classifying clear cell renal cell carcinoma and oncocytoma on multiphasic CT. Abdom Radiol N Y. junio de 2019;44(6):2009-20.
36. Kocak B, Durmaz ES, Ates E, Ulusan MB. Radiogenomics in Clear Cell Renal Cell Carcinoma: Machine Learning-Based High-Dimensional Quantitative CT Texture Analysis in Predicting PBRM1 Mutation Status. AJR Am J Roentgenol. marzo de 2019;212(3):W55-63.
37. Erdim C, Yardimci AH, Bektas CT, Kocak B, Koca SB, Demir H, et al. Prediction of Benign and Malignant Solid Renal Masses: Machine Learning-Based CT Texture Analysis. Acad Radiol. octubre de 2020;27(10):1422-9.
38. Uhlig J, Biggemann L, Nietert MM, Beißbarth T, Lotz J, Kim HS, et al. Discriminating malignant and benign clinical T1 renal masses on computed tomography: A pragmatic radiomics and machine learning approach. Medicine (Baltimore). abril de 2020;99(16):e19725.
39. Cui E, Li Z, Ma C, Li Q, Lei Y, Lan Y, et al. Predicting the ISUP grade of clear cell renal cell carcinoma with multiparametric MR and multiphase CT radiomics. Eur Radiol. mayo de 2020;30(5):2912-21.
40. Pedersen M, Andersen MB, Christiansen H, Azawi NH. Classification of renal tumour using convolutional neural networks to detect oncocytoma. Eur J Radiol. diciembre de 2020;133:109343.
41. Ning Z, Pan W, Chen Y, Xiao Q, Zhang X, Luo J, et al. Integrative analysis of cross-modal features for the prognosis prediction of clear cell renal cell carcinoma. Bioinforma Oxf Engl. 1 de mayo de 2020;36(9):2888-95.
42. Schulz S, Woerl AC, Jungmann F, Glasner C, Stenzel P, Strobl S, et al. Multimodal Deep Learning for Prognosis Prediction in Renal Cancer. Front Oncol. 2021;11:788740.
43. Uhm KH, Jung SW, Choi MH, Shin HK, Yoo JI, Oh SW, et al. Deep learning for end-to-end kidney cancer diagnosis on multi-phase abdominal computed tomography. NPJ Precis Oncol. 18 de junio de 2021;5(1):54.
44. Nikpanah M, Xu Z, Jin D, Farhadi F, Saboury B, Ball MW, et al. A deep-learning based artificial intelligence (AI) approach for differentiation of clear cell renal cell carcinoma from oncocytoma on multi-phasic MRI. Clin Imaging. septiembre de 2021;77:291-8.
45. Yang M, He X, Xu L, Liu M, Deng J, Cheng X, et al. CT-based transformer model for non-invasively predicting the Fuhrman nuclear grade of clear cell renal cell carcinoma. Front Oncol. 2022;12:961779.
46. Tong Y, Udupa JK, Wang C, Chen J, Venigalla S, Guzzo TJ, et al. Radiomics-guided therapy for bladder cancer: Using an optimal biomarker approach to determine extent of bladder cancer invasion from t2-weighted magnetic resonance images. Adv Radiat Oncol. 2018;3(3):331-8.
47. Xu X, Zhang X, Tian Q, Wang H, Cui LB, Li S, et al. Quantitative Identification of Nonmuscle-Invasive and Muscle-Invasive Bladder Carcinomas: A Multiparametric MRI Radiomics Analysis. J Magn Reson Imaging JMRI. mayo de 2019;49(5):1489-98.
48. Zheng J, Kong J, Wu S, Li Y, Cai J, Yu H, et al. Development of a noninvasive tool to preoperatively evaluate the muscular invasiveness of bladder cancer using a radiomics approach. Cancer. 15 de diciembre de 2019;125(24):4388-98.
49. Wang H, Hu D, Yao H, Chen M, Li S, Chen H, et al. Radiomics analysis of multiparametric MRI for the preoperative evaluation of pathological grade in bladder cancer tumors. Eur Radiol. noviembre de 2019;29(11):6182-90.
50. Xu S, Yao Q, Liu G, Jin D, Chen H, Xu J, et al. Combining DWI radiomics features with transurethral resection promotes the differentiation between muscle-invasive bladder cancer and non-muscle-invasive bladder cancer. Eur Radiol. marzo de 2020;30(3):1804-12.
51. Wang H, Xu X, Zhang X, Liu Y, Ouyang L, Du P, et al. Elaboration of a multisequence MRI-based radiomics signature for the preoperative prediction of the muscle-invasive status of bladder cancer: a double-center study. Eur Radiol. septiembre de 2020;30(9):4816-27.
52. Yang Y, Zou X, Wang Y, Ma X. Application of deep learning as a noninvasive tool to differentiate muscle-invasive bladder cancer and non-muscle-invasive bladder cancer with CT. Eur J Radiol. junio de 2021;139:109666.
53. Zhang G, Wu Z, Xu L, Zhang X, Zhang D, Mao L, et al. Deep Learning on Enhanced CT Images Can Predict the Muscular Invasiveness of Bladder Cancer. Front Oncol. 2021;11:654685.
54. Hammouda K, Khalifa F, Soliman A, Ghazal M, El-Ghar MA, Badawy MA, et al. A multiparametric MRI-based CAD system for accurate diagnosis of bladder cancer staging. Comput Med Imaging Graph Off J Comput Med Imaging Soc. junio de 2021;90:101911.
55. Zheng Z, Xu F, Gu Z, Yan Y, Xu T, Liu S, et al. Combining Multiparametric MRI Radiomics Signature With the Vesical Imaging-Reporting and Data System (VI-RADS) Score to Preoperatively Differentiate Muscle Invasion of Bladder Cancer. Front Oncol. 2021;11:619893.
56. Zhou Q, Zhang Z, Ang X, Zhang H, Ouyang J. A nomogram combined with radiomics features, albuminuria, and metabolic syndrome to predict the risk of myometrial invasion of bladder cancer. Transl Cancer Res. julio de 2021;10(7):3177-91.
57. Cui Y, Sun Z, Liu X, Zhang X, Wang X. CT-based radiomics for the preoperative prediction of the muscle-invasive status of bladder cancer and comparison to radiologists’ assessment. Clin Radiol. junio de 2022;77(6):e473-82.
58. Chen W, Gong M, Zhou D, Zhang L, Kong J, Jiang F, et al. CT-based deep learning radiomics signature for the preoperative prediction of the muscle-invasive status of bladder cancer. Front Oncol. 2022;12:1019749.
59. Song H, Yang S, Yu B, Li N, Huang Y, Sun R, et al. CT-based deep learning radiomics nomogram for the prediction of pathological grade in bladder cancer: a multicenter study. Cancer Imaging Off Publ Int Cancer Imaging Soc. 18 de septiembre de 2023;23(1):89.
60. Sarkar S, Min K, Ikram W, Tatton RW, Riaz IB, Silva AC, et al. Performing Automatic Identification and Staging of Urothelial Carcinoma in Bladder Cancer Patients Using a Hybrid Deep-Machine Learning Approach. Cancers. 8 de marzo de 2023;15(6):1673.
61. Brodie A, Dai N, Teoh JYC, Decaestecker K, Dasgupta P, Vasdev N. Artificial intelligence in urological oncology: An update and future applications. Urol Oncol. julio de 2021;39(7):379-99.
62. Esteva A, Robicquet A, Ramsundar B, Kuleshov V, DePristo M, Chou K, et al. A guide to deep learning in healthcare. Nat Med. enero de 2019;25(1):24-9.