Al Borde de la Obsolescencia: ¿Es el futuro de los médicos incierto?

Andres Rico. Médico Internista. CEO AIpocrates

El personal sanitario y en especial los médicos, han pasado de ser héroes (2020-2022) a ser nuevamente los representantes de Atlas, la figura mitológica que carga el mudo en sus hombros, preocupados por la productividad, el bienestar de los demás y el propio, las angustias de la toma errada de decisiones para el flujo de trabajo del día a día, los sistemas engorrosos denominados historias clínicas electrónica.

A pesar de las concepciones populares de el super humanismo de los médicos, como el de la “entrega” por encima del bienestar propio mal llamado vocación, los médicos seguimos siendo humanos con necesidades emocionales, físicas, psicológicas y con una búsqueda de la certidumbre y el confort, en un mundo lleno de incertidumbre.

La incertidumbre desde tiempos inmemoriales ha sido el objeto de inmensos esfuerzos por ser aniquilada buscado la predicción, ya sea por la astronomía como por la astrología, las matemáticas y los patrones o la mágica, las visiones y los oráculos. En ocasiones dando origen tragedias como las de Edipo, que, a pesar del análisis prescriptivo y las intervenciones derivadas de él, conllevaron a que la predicción se cumpliera.

El estudio de como el humano toma las decisiones ha sido fruto de estudios, de como usa la información, la interacción entre los factores, los pesos que se le dan a cada una y así mismo el efecto de “caja negra” de cada individuo, lo que genera un pendulo que va de  la intuición al conocimiento, lo que Daniel Kahneman autor del best seller ‘Thinking, Fast and Slow,’ denominó pensamiento Tipo 1 y Tipo 2.

La combinación entre la incertidumbre, la variabilidad en la asignación de pesos a los factores (emocionalidad, tiempo disponible para la toma de decisiones, información disponible, conocimiento, experiencia previa, entre otras), está naturaleza que hace parte de la humanidad lleva en ocasiones a predicciones y decisiones equivocadas.

La naturaleza humana conlleva inherentemente la imperfección, el error y los miedos. Pero, en el contexto de la medicina, ¿cuáles son los temores actuales de los médicos? Entre ellos se encuentran el temor a errar, derivado de la falta de conocimiento, la impericia, la imprudencia, la sobrecarga de pacientes y la proliferación de guías clínicas. A esto se suma la escasez de tiempo y el constante dilema entre dedicarse a la academia o priorizar la vida familiar.

Dentro del estudio del error médico, se le considera como un fenómeno multifactorial que resultan de una compleja interacción de factores. Entre estos factores involucrados en el error se incluyen las limitaciones humanas como la fatiga y el estrés, fallos en los sistemas y procesos hospitalarios, la falta de comunicación efectiva entre el personal de salud, insuficiencias en la formación médica, y la sobrecarga de trabajo. La identificación y estudio de componentes resalta la importancia de un abordaje sistémico y sistemático, buscando minimizar su ocurrencia mediante mejoras en la gestión de los entornos de atención médica, donde la inteligencia artificial está irrumpiendo con fuerza.

La inercia clínica se puede clasificar en dos categorías principales, diagnóstica y terapéutica, las cuales se definen y manifiestan de la siguiente manera:

Dentro del error médico se han abierto perspectivas como la inercia clínica, que se define como la falta de iniciación o intensificación de un tratamiento adecuado en un paciente que no ha alcanzado los objetivos terapéuticos establecidos, a pesar de la existencia de evidencia que justifica la modificación del tratamiento. Como factores facilitadores para la ocurrencia está:  la resistencia al cambio por parte del médico, la subestimación de la gravedad de la condición del paciente, la preocupación por posibles efectos secundarios de tratamientos más intensivos ypuede conducir a un control inadecuado de la enfermedad y a un aumento del riesgo de complicaciones a largo plazo, siendo barrera significativa para el manejo óptimo de enfermedades crónicas. Se puede dividir en:

Inercia Diagnóstica que se refiere a la demora o el fracaso en establecer un diagnóstico adecuado ante la presentación de síntomas o signos clínicos, está relacionada con la falta de reconocimiento de la presentación clínica o signos de severidad o demora en la realización o interpretación de pruebas diagnósticas.

La inercia terapéutica ocurre cuando no se inicia, modifica, o intensifica el tratamiento de manera oportuna, a pesar de la evidencia clara de que el manejo actual no está logrando los objetivos terapéuticos. Su presencia de ha relacionando con resistencia del médico a cambiar un régimen establecido, desconocimiento o desconfianza en las directrices clínicas actualizadas, preocupación por los efectos secundarios potenciales de los tratamientos, desacuerdo del paciente con los cambios propuestos.

Como estrategias para prevenirla o manejarla están la evaluación continua y crítica del paciente, el conocer y adherirse a guías clínicas basadas en evidencia.

Sin embargo, y para no hacer este ecosistema menos complicado, surge el término “inacción adecuada” que se refiere a la decisión deliberada basada en una evaluación cuidadosa de la situación clínica del paciente, donde factores como el riesgo de efectos secundarios, la estabilidad de la condición del paciente, la presencia de comorbilidades, y las preferencias del paciente indican que mantener el tratamiento actual es más beneficioso que ajustarlo,  de no modificar o intensificar un régimen terapéutico en un momento dado, a pesar de que los objetivos específicos de tratamiento no se hayan alcanzado. La inacción adecuada es un enfoque ponderado que busca el equilibrio entre proporcionar beneficio o hacer daño con la intervención, reconociendo que, en ciertas circunstancias, la intervención mínima o la no intervención es preferible a una intervención excesiva.

En la práctica clínica, los médicos se ven desafiados por la incertidumbre diagnóstica y de pronóstico, en el contexto de las limitaciones propias de su humanidad, un entorno impregnado de miedos, derivados de la responsabilidad hacia el paciente y la posible repercusión de los errores.  Por esto, la capacidad de admitir la incertidumbre y trabajar dentro de un ecosistema de salud con una óptica desde el pensamiento crítico y reflexivo, centrado en el paciente, es necesario equilibrar el conocimiento científico con la comprensión de nuestras vulnerabilidades, no solo desde un punto de vista técnico sino también del de medicina de humanos para humanos.

Para reducir la incertidumbre en la medicina, se crearon las guías de práctica clínica con el propósito de estandarizar las decisiones médicas en torno a las «buenas prácticas clínicas», buscando garantizar tanto la seguridad del paciente como la eficiencia en costos. Originalmente diseñadas para ser herramientas accesibles y fáciles de usar, estas guías han evolucionado hacia complejos manuales sobre enfermedades. Este cambio las ha alejado de su objetivo inicial, dificultando que proporcionen respuestas rápidas a las interrogantes cotidianas del médico, en un contexto donde la velocidad en la toma de decisiones es crucial.

Desde 1970, ha habido varios intentos para implementar una toma de decisiones automatizada o más eficiente a través de sistemas basados en reglas o «sistemas expertos». Sin embargo, debido al limitado poder computacional de la época y a las dificultades para mantener estos sistemas actualizados, estas iniciativas se vieron afectadas por el denominado «invierno de la inteligencia artificial», al igual que otros sectores.

Desde finales de la década de 1990, el retorno de la inversión tras alcanzar objetivos específicos con herramientas de inteligencia artificial, impulsó la creación de nuevos desarrollos tecnológicos, favoreciendo la terminación del “segundo invierno”. Recientemente, a partir de noviembre de 2022, el auge de los Modelos de Lenguaje de Gran Escala (LLM) ha incentivado esfuerzos para incorporarlos en los procesos clínicos y para facilitar respuestas a preguntas médicas específicas. No obstante, la aplicación de modelos generales a necesidades médicas concretas ha llevado a una correcta implementación de los modelos.

Sin embargo, mediante el uso de prácticas de «design thinking» y una metodología de desarrollo, entrenamiento y ajuste fino apropiados, es posible lograr una integración efectiva de la inteligencia artificial en el flujo de trabajo clínico. Esto permitiría que estos modelos sirvan de apoyo, en lugar de convertirse en un obstáculo, como ha ocurrido con algunos desarrollos de la historia clínica electrónica.

Esto plantea una pregunta fundamental: ¿Podrán los sistemas de soporte al razonamiento clínico basados en inteligencia artificial reemplazar a las Guías de Práctica Clínica?

Utilidades actuales de la inteligencia artificial y la medicina

Los desarrollos en otros campos de la actividad humana, diferentes a la medicina, ha permitido la generación de herramientas aplicables a la medicina interna como:

Percepción Computacional

Visión por ComputadoraAnálisis de Imagen  Aplicaciones
      1. Reconocimiento de Objetos       2. Detección de Rostros       3. Seguimiento de Objetos1. Procesamiento de Imágenes       2. Segmentación de Imágenes       3. Descriptores de Imágenes      1. Reconocimiento Facial       2. Diagnóstico Médico por Imágenes       3. Vehículos Autónomos       4. Análisis de Video para Seguridad       5. Realidad Aumentada

Procesamiento de Señales

Señales BiomédicasProcesamiento de AudioSeñales de ComunicaciónProcesamiento de Imágenes y VideoAplicaciones
      1. Ruidos Cardíacos       2. Ruidos Respiratorios       3. Fonogramas Médicos      1. Filtrado de Sonido       2. Análisis Espectral       3. Reconocimiento de Patrones de Audio      1. Modulación y Demodulación       2. Codificación de Señales       3. Ecualización de Canal      1. Filtrado de Imágenes       2. Compresión de Imágenes       3. Seguimiento de Objetos en VideoDiagnóstico Médico       2. Reconocimiento de Voz       3. Procesamiento de Audio para Dispositivos       4. Comunicaciones Inalámbricas       5. Visión por Computadora en Salud

La minería de datos, la medicina de precisión, la medicina personalizada y la inteligencia artificial

La minería de datos en la inteligencia artificial, ¿Qué es?

La minería de datos es la exploración y análisis de un gran volumen de datos para descubrir patrones, tendencias y relaciones ocultas, a través de algoritmos y técnicas de aprendizaje automático en modelos y herramientas de inteligencia artificial, transformando los datos brutos en información útil y conocimientos accionables. Esto permite tomar decisiones informadas, predecir tendencias y mejorar la eficiencia operativa.

Minería de Datos en Inteligencia Artificial: Mejoras en el Sector Salud

  1. Mejorar la Precisión Diagnóstica

   – Análisis Predictivo: Utilizar modelos predictivos para identificar riesgos de enfermedad antes de que se manifiesten clínicamente.

   – Reconocimiento de Patrones: Identificar patrones complejos y ocultos en datos clínicos y de laboratorio para reconocer enfermedades y clasificar en estadios con mayor precisión.

   – Diagnósticos Comparativos: Comparar síntomas y resultados de pruebas con bases de datos globales para mejorar la elaboración de diagnósticos diferenciales.

–  Comparación con Casos Históricos: Referencia cruzada de síntomas y resultados de pruebas con bases de datos de casos históricos para identificar diagnósticos precisos.

2. Personalización del Tratamiento

   – Modelos de Riesgo Personalizado: Desarrollar perfiles de riesgo individuales basados en análisis Genético y de biomarcadores genómicos, transcriptómicos y exposómicos (estilo de vida), integrando los datos en la planificación del tratamiento para ajustes personalizados.

   – Optimización de Tratamientos: Utilizar el análisis de datos para determinar los tratamientos más efectivos para perfiles de pacientes específicos, usando las respuestas del individuo a tratamientos anteriores o la evaluación de como pacientes similares han respondido a tratamientos, guiando decisiones personalizadas.

   – Monitoreo Continuo en Tiempo Real:  Implementar sistemas de seguimiento en tiempo real para ajustar tratamientos basados en la respuesta del paciente.

3. Mejora de la Eficiencia Operativa en el Sector Salud

   – Gestión de Recursos: la asignación eficiente y optimizada de recursos (como personal, equipamiento y camas) mediante el análisis predictivo de la demanda de servicios.

   – Automatización de Tareas Administrativas: Reducir la carga de trabajo manual mediante el procesamiento automático de información de historias clínicas y la codificación. Automatización de la entrada de datos y otras tareas administrativas para liberar tiempo del personal médico.

   – Gestión de Citas y reducción de Ttiempos de Eespera: Predicción de demanda mejorando la programación de citas y procedimientos mediante análisis predictivos para disminuir los tiempos de espera.

4. Mejoras en las Historias Clínicas

– Extracción de Información: Uso de técnicas de procesamiento de lenguaje natural para extraer información útil de notas médicas no estructuradas.

 – Estructuración de Datos: Transformar notas clínicas libres y datos no estructurados en información organizada y accesible (dato estructurado).

   – Integración de Datos: Consolidar datos de diversas fuentes (laboratorios, imágenes médicas, registros clínicos) en un solo registro electrónico, transformación de la historia clínica en el tablero de control y seguimiento para una visión holística del paciente.

   –  Alertas Tempranas: Implementar sistemas de alerta para basados en la minería de datos para identificar anomalías, patrones o riesgos de salud que requieran atención médica inmediata y recordar intervenciones preventivas.

La minería de datos a través de los modelos y herramientas de aprendizaje de máquina clásico y profundo usa las técnicas estadísticas avanzadas para describir, predecir y hacer a través de la identificación de patrones, que facilitan realizar predicciones, promete integrar y mejorar la atención al paciente, optimizar las operaciones y la gestión de recursos en el sector salud, al revolucionar el diagnóstico, tratamiento, y operaciones en el sector salud, contribuyendo a una atención más precisa, personalizada, y eficiente.

Medicina personalizada y medicina de precisión, ¿parecidas pero diferentes?

Desde el discurso del presidente Obama, en el cual sedió difusión al término de medicina de precisión, centro de vorágine de eventos y publicaciones, que hay dificultado el distinguir el término medicina de precisión del de medicina personalizada.

Medicina Personalizada

Es un enfoque en el cual se adapta la atención médica y el tratamiento a las características de cada paciente, abarcando consideraciones genéticas, ambientales y estilo de vida del paciente. Busca mejorar la eficacia de los tratamientos y minimizar los efectos secundarios al considerar cómo los factores individuales influyen en la dinámica de salud y la enfermedad, pero no desde el punto de vista del modelo biológico, sino desde el punto de vista de las relaciones multidireccionales del modelo bio psicosocial. Es un enfoque holístico que puede incluir, pero no se limita a, terapias y tratamientos basados en la genética del individuo.

Medicina de Precisión

Es un término que se centra en identificar cuáles enfoques médicos serán efectivos para pacientes basados en su carga genética, biomarcadores y otros factores diagnósticos, por medio del análisis de grandes cantidades de información genética y biomolecular, para clasificar a los individuos en fenotipos y en subpoblaciones (endotipos) que difieren en su susceptibilidad a una enfermedad particular o en su respuesta a un tratamiento específico. La meta es desarrollar intervenciones para prevenir y tratar, con un alto grado de eficacia y efectividad, minimizando las probabilidades de efectos secundarios.

La medicina personalizada y la medicina de precisión son términos que a menudo se usan de manera intercambiable, pero tienen matices distintos en su enfoque y aplicación.

Diferencias

– Enfoque: La medicina personalizada tiene un enfoque más amplio que incluye la adaptación del cuidado de salud a todos los aspectos de la persona, mientras que la medicina de precisión tiene un enfoque más específico en la selección de tratamientos basados en el análisis genético y molecular.

– Aplicación La medicina de precisión se apoya más en datos y tecnologías específicas, como la secuenciación genómica, para guiar la toma de decisiones clínicas. La medicina personalizada, aunque puede incluir estos elementos, también considera factores ambientales y del estilo de vida.

Punto de Convergencia o Intersección

Ambas, la medicina personalizada y la de precisión, comparten el objetivo común de mejorar los cuidados médicos haciéndolos más efectivos y seguros para el paciente. La convergencia se encuentra en su objetivo mutuo de moverse más allá de un «enfoque único para todos» en medicina hacia tratamientos que son más adaptados y efectivos para individuos o grupos de pacientes.

La medicina de precisión puede considerarse como una herramienta o componente dentro del marco más amplio de la medicina personalizada, enfocándose en la precisión de los tratamientos a nivel molecular y genético para mejorar los resultados de salud individualizados.

Invierno (IA) poder computacional, datos, programación

El crecimiento exponencial del poder computacional, junto con el avance de algoritmos de programación y la amplia disponibilidad de datos para entrenar modelos de aprendizaje automático, tanto clásico como profundo, ha impulsado la automatización en la medicina. Este avance genera preocupaciones sobre la posible irrelevancia del rol tradicional del médico, comenzando con la automatización de tareas simples y extendiéndose gradualmente a tareas más complejas. Mejoras en la explicabilidad y transparencia de los modelos, así como en la replicabilidad de la toma de decisiones, han mitigado en parte el temor a la “caja negra”, minimizando las reservas de propiedad intelectual para salvaguardar los derechos de autor.

Quedan en el aire una serie de interrogantes derivados de los postulados anteriores, que aparentemente solo el tiempo los podrá responder.

¿La IA aumentará los costos de la atención?

¿Aumentará la brecha social?

¿Las clínicas los implementarán de manera adecuada?

¿Seremos solo consumidores? ¿adaptadores de costosos modelos extranjeros fruto del colonialismo de los datos? ¿O importadores de modelos basados en datos foráneos?  ¿generaremos nuestras soluciones?

Implementación y usabilidad de los modelos de IA

Independientemente del modelo y su complejidad, la interfase que bride un uso fácil e intuitivo a las herramientas impulsadas por modelo de inteligencia artificial, donde el usuario no perciba la utilización como una sobrecarga o trabajo adicional ya contemplado en su fijo de trabajo, o observe una facilitación en la realización de sus funciones con las mismas, favorecerá su implementación.

Dentro de la implementación uno puntos más álgidos es el manejo de los datos, la confidencialidad, privacidad, el almacemiento y la transmisión de datos sensibles, y la vulnerabilidad a los ciberataques.  Que requiere de una política para el manejo de un sistema de información unificado, con protocolos de gestión y gobernanza de la información claro y transparentes para el usuario final.

De la gobernanza del dato a la Gobernanza de conocimiento

El dato es elemento primario de la inteligencia artificial y a su vez de la toma de decisión inteligente, pero los datos crudos directamente derivado de la observación, una forma estructurada, cuando vienen estructurado cuando provienen de texto libre. Estos se deben someter al pre-procesamiento, convertirlos en un “data lake” y luego según en un “data warehouse”, que al ser sometidos a modelos de inteligencia artificial se logre la interpretación de información, generar el conocimiento y progresar a la sabiduría.

Dos cerebros piensan mejor que uno

La generación de datos e información al día de hoy, 2024, supera ampliamente la capacidad de recolección, almacenamiento, procesamiento y análisis de la mente humana, espero que herramientas impulsadas por inteligencia artificial, ante relevancia y salud, aunadas con iniciativas como las de Porter, que propone, una medicina basada en valor, cimentada en cuatro principios, para buscar una mejor experiencia para el paciente, donde se busca la cuádruple meta descrita como:

1. Mejorar la experiencia.

2. Mejorar la salud poblacional.

3. Reducir costos.

4. Mejorar la calidad de vida del proveedor de cuidado de la salud.

Pero ¿Qué hacer cuando los puntos uno, dos y tres entran en conflicto con el punto número cuatro? Cuando mejorar la experiencia del paciente y los costos del proveedor divergen del bienestar médico para uno, se debe sacrificar.

Entonces…

Las redes de servicios  ¿Una oportunidad para la IA? 

El médico como científico y humanista debe aprender a entender la realidad y aplicar los conocimientos necesarios para lograr el bienestar de su paciente,

Principalmente que debería saber el personal de Salud no experto en datos sobre el diseño de modelos predictivos con ML

Algunos puntos que hemos identificado:

¿Cuales son las diferencias entre un modelo predictivo por epidemiologia tradicional y uno realizado en machine Learning?

La elección depende del objetivo del estudio, la naturaleza de los datos disponibles y la necesidad de interpretabilidad frente a la capacidad predictiva.

Datos en volúmenes masivos inclinan la balanza hacia el aprendizaje profundo.

⁠¿Cuál es la mejor forma de escoger el algoritmo correcto de ML para el modelo?

La elección entre machine learning (ML) clásico y profundo, entre distintos modelos de ML clásico, y entre diversas arquitecturas de aprendizaje profundo depende de varios factores clave:

Machine Learning Clásico vs. Profundo

1. Volumen de Datos: El aprendizaje profundo generalmente requiere grandes cantidades de datos para entrenarse efectivamente, mientras que el ML clásico puede ser más adecuado para conjuntos de datos más pequeños.

2. Complejidad de la Tarea: Para tareas que implican patrones complejos y no lineales, especialmente en imágenes, texto y sonido, el aprendizaje profundo suele ser más eficaz. El ML clásico es preferible para tareas más simples.

3. Recursos Computacionales: El aprendizaje profundo necesita más poder computacional y tiempo para entrenar y ajustar modelos, comparado con el ML clásico.

4. Interpretabilidad: Si la interpretabilidad del modelo es una prioridad, el ML clásico ofrece modelos más transparentes y fáciles de explicar.

Entre Diferentes Modelos de ML Clásico

1. Linealidad de los Datos: Algunos modelos, como la regresión lineal, son adecuados para relaciones lineales, mientras que otros, como los árboles de decisión, pueden manejar relaciones no lineales.

2. Tipo de Problema: La elección del modelo puede depender de si se trata de una tarea de clasificación, regresión o agrupación.

3. Dimensionalidad de los Datos: Algunos modelos manejan mejor la alta dimensionalidad (muchas características), mientras que otros pueden requerir reducción de dimensionalidad previa.

Entre Diferentes Tipos de Arquitecturas de Aprendizaje Profundo

1. Tipo de Datos: Las redes neuronales convolucionales (CNN) son ideales para datos visuales, las recurrentes (RNN) para secuencias temporales o lingüísticas, y las redes generativas adversarias (GAN) para la generación de nuevos datos similares a los existentes.

2. Tamaño y Formato de los Datos: El tamaño y formato de los datos de entrada pueden favorecer una arquitectura sobre otra, por ejemplo, CNN para imágenes y RNN para texto.

3. Objetivo Específico: Algunas arquitecturas son más adecuadas para ciertos objetivos, como las autoencoders para la reducción de dimensionalidad o las GAN para la generación de imágenes.

¿Hay un Algoritmo Correcto de ML?

No existe un único «algoritmo correcto» de ML para todas las situaciones. La elección del algoritmo más adecuado depende de la naturaleza específica del problema, los datos disponibles, los recursos computacionales y los objetivos del proyecto. La experimentación y la validación cruzada son esenciales para determinar qué modelo o arquitectura funciona mejor en un contexto dado.

⁠¿Como validar el modelo?

Validar un modelo de aprendizaje de máquina es un paso crítico para asegurar su fiabilidad y eficacia en la predicción o clasificación sobre nuevos datos.  Algunos métodos y prácticas comunes para la validación de modelos:

División de Datos: Entrenamiento, Validación y Prueba

– Divir los datos de en tres partes: un conjunto para entrenamiento para ajustar el modelo, un conjunto de validación interna para ajuste de los parámetros y un conjunto de prueba para evaluar el rendimiento del modelo. Para evitar el sobreajuste y garantizar que el modelo generalice bien a nuevos datos.

Validación Cruzada

–  Validación cruzada (k-fold cross-validation): Divide el conjunto de datos en «k» subconjuntos. El modelo se entrena en «k-1» de estos subconjuntos y se valida en el subconjunto restante. Este proceso se repite «k» veces, rotando el conjunto de validación, y el rendimiento promedio se utiliza para evaluar la eficacia del modelo. La validación cruzada es útil para estimar cómo el modelo se desempeñará en un conjunto de datos independiente.

Métricas de Rendimiento

– Utilizar métricas de rendimiento específicas para tu problema, como precisión, recall, F1-score para tareas de clasificación, y MSE (Mean Squared Error), RMSE (Root Mean Squared Error), o MAE (Mean Absolute Error) para tareas de regresión. Estas métricas proporcionan una cuantificación del rendimiento del modelo.

– La curva ROC (Receiver Operating Characteristic) y el área bajo la curva (AUC) son herramientas útiles para evaluar la calidad de los modelos de clasificación, especialmente en contextos de clases desbalanceadas. Proporcionan una medida de la capacidad del modelo para distinguir entre clases.

Pruebas de Robustez**

– Evalúa la robustez del modelo ante variaciones en los datos de entrada, como valores atípicos o datos faltantes. Esto ayuda a entender cómo el modelo se comportará en condiciones menos ideales o con datos imperfectos.

Validación Externa

– Valida el modelo en un conjunto de datos externo no utilizado durante el entrenamiento ni la validación cruzada. Esto proporciona la prueba más fuerte de la capacidad del modelo para generalizar a nuevos datos, que es diferente a la realización de las pruebas.

La elección del método de validación y las métricas específicas dependerá del tipo de modelo, el problema a resolver y la naturaleza de los datos. La validación efectiva asegura que el modelo es confiable y aplicable en situaciones reales.

La Medicina está evolucionando, no solo con la IA ¿y los médicos? ¿Será irrelevante el que hacer y como hacer del médico?

Deja un comentario