Qué es realmente la IA para los profesionales en salud: Una mirada desde la Disrupción Ontológica del siglo XXI

Autores: Fabrizio Salas – Miembro de AIpócrates / Andrés Eduardo Rico – CEO AIpócrates

La integración de la Inteligencia Artificial (IA) en el ecosistema sanitario no constituye meramente una innovación técnica incremental; representa una verdadera disrupción ontológica que exige una reestructuración radical de la epistemología médica y de la gobernanza sanitaria global. Persistir en el reduccionismo de categorizar la IA como una simple «herramienta», o subsumirla bajo marcos conceptuales preexistentes como la Informática Médica (IM), constituye una falacia categórica. Este error de clasificación ignora la naturaleza de la IA como disciplina científica autónoma y precipita riesgos sistémicos que comprometen la seguridad del paciente, la autonomía profesional y la soberanía de los sistemas de salud frente a un emergente tecnofeudalismo.

Para comprender la magnitud del error actual, es necesario establecer una distinción fenomenológica entre la Informática Médica (IM) y la Inteligencia Artificial.

La IM es una disciplina fundacional cuya teleología es la gestión, almacenamiento y recuperación eficiente de datos biomédicos; su foco es la infraestructura de la información (interoperabilidad, estándares, Historia Clínica Electrónica). La IM garantiza la sintaxis del dato: que esté disponible, limpio y estandarizado.

En contraste, la ontología de la IA es radicalmente distinta. Se define como la disciplina ocupada en la generación de conocimiento inferencial y la emulación de capacidades cognitivas superiores. Mientras la IM busca optimizar el flujo de información para asistir la decisión humana, la IA busca generar nuevas inferencias, replicando o superando dicha decisión. La IA no es el contenedor, sino el agente que utiliza el dato para elucidar patrones no explícitos y crear nuevo conocimiento.

Subsumir la IA dentro de la IM es un error conceptual que minimiza su complejidad inherente. La IM provee el cimiento de datos («el suelo»), pero no constituye la arquitectura cognitiva («el edificio») de la IA. Esta confusión se perpetúa en la academia, donde programas de posgrado abordan la IA como un módulo periférico y no como un eje disciplinar central , fomentando un «minimalismo formativo» que gesta la desprofesionalización. El resultado es la formación de «usuarios críticos pasivos», limitados a una superficial ingeniería de prompts en lugar de interlocutores competentes ante la arquitectura algorítmica

La Atrofia del Juicio Clínico y la Opacidad Algorítmica

La misclasificación de la IA conlleva una degradación de la praxis médica. 

Tal reduccionismo no es inocuo. Al equiparar algoritmos complejos con herramientas deterministas, se transforma erróneamente a modelos estocásticos —sujetos a incertidumbre y de naturaleza probabilística— en fuentes de supuesta verdad absoluta. Bajo esta ilusión de infalibilidad, el médico cede su autonomía cognitiva y desactiva el escepticismo necesario, convirtiendo la validación humana en un mero trámite. Esta mentalidad determinista, que asume el resultado del algoritmo como un dictamen en lugar de una inferencia, es el sustrato del problema. Es precisamente en la renuncia a interrogar el porcentaje de confianza y el margen de error donde el clínico abdica su rol crítico. De ahí que la dependencia acrítica de Sistemas de Apoyo a la Decisión Clínica (CDSS) basados en IA induce el fenómeno de la Dependencia Algorítmica (Automation Bias). 

Este sesgo cognitivo se manifiesta en la aceptación pasiva de recomendaciones sistémicas sin verificación crítica, derivando en una atrofia de las habilidades de razonamiento diferencial y diagnóstico.

Adicionalmente, la naturaleza de «caja negra» (black box) de los modelos avanzados instaura una crisis de responsabilidad ética y legal. La alta precisión sin explicabilidad (Explainable AI o XAI) es éticamente insostenible. La opacidad del algoritmo complica la determinación jurídica de la malpractice , dejando al facultativo en una posición de vulnerabilidad indefendible al tener que justificar decisiones basadas en inferencias que no puede desglosar

Se produce así una devaluación ontológica del médico: el juicio humano se subordina sistemáticamente a la inferencia estadística, transformando al experto en un mero operador de interfaz. A diferencia de la calculadora electrónica que es una herramienta determinista y pasiva que automatiza tareas cognitivas de bajo nivel, la IA trasciende esa categoría. 

La IA es un agente cognitivo que infiere y analiza. El profesional que no desarrolla una «doble competencia» (clínica y computacional) corre el riesgo de obsolescencia, no por fallo tecnológico, sino porque su capacidad de juicio es superada por la sinergia entre el agente artificial y un operador cualificado. La extinción no amenaza a la tecnología, sino al operador insuficiente.

Reducir la IA a una herramienta, oculta su función como mecanismo de poder sociopolítico. Nos enfrentamos a un escenario de Tecnofeudalismo , un sistema poscapitalista donde corporaciones tecnológicas («tecnolords») ejercen un control feudal sobre la infraestructura digital y los datos, tratando a los sistemas de salud como vasallos.

Este fenómeno precipita dos consecuencias devastadoras:

Concentración de Inteligencia y Pérdida de Soberanía: Los sistemas de salud entregan sus datos clínicos que son el «petróleo» del siglo XXI— a las Big Tech. El conocimiento generado (la «inteligencia») se privatiza como activo corporativo, despojando a las naciones de su soberanía sanitaria al depender de algoritmos externos.

El Imperativo del Lucro vs. Seguridad Pública: El desarrollo acelerado de la IA, motivado por beneficios a corto plazo, compromete la seguridad. Como advierte Geoffrey Hinton, entidades motivadas por el lucro no priorizarán la seguridad humana. El problema es teleológico: una IA subordinada al capital corporativo es inherentemente peligrosa para la autonomía profesional y la salud pública.

La falta de reconocimiento de la IA como disciplina autónoma exacerba deficiencias técnicas críticas. Como sistema de inferencia estadística, la IA perpetúa y amplifica sesgos históricos inherentes en los datos de entrenamiento. La OMS alerta que estos sesgos cristalizan desigualdades estructurales, resultando en un rendimiento inferior en poblaciones subrepresentadas y automatizando la discriminación sanitaria.

Asimismo, la validación de modelos enfrenta una crisis de generalización y reproducibilidad. Modelos entrenados en entornos específicos sufren caídas drásticas de rendimiento al ser trasladados a nuevos contextos clínicos. La ausencia de estandarización en métricas y protocolos de prueba impide la comparabilidad de resultados, poniendo en tela de juicio la validez científica de la tecnología cuando se traslada del laboratorio («in silico») a la cabecera del paciente («in vivo»).

El futuro de la medicina digital no puede edificarse sobre cimientos conceptuales erróneos. La IA no es un accesorio de la IM; requiere su propia arquitectura epistemológica, ética y regulatoria. Para mitigar los riesgos de dependencia, sesgo y tecnofeudalismo, es imperativo actuar sobre tres ejes estratégicos:

1. Reconocimiento Disciplinar y Formación Rigurosa: 

Instituir programas de posgrado que forjen profesionales con doble competencia (clínica y computacional). Estos profesionales híbridos deben comprender la arquitectura tecnológica y la necesidad imperativa de la IA Explicable (XAI). La IM es el cimiento; la IA es la arquitectura cognitiva que exige un currículo propio.

2. Gobernanza Ética: 

El error fundamental al abordar la ética de la IA es buscar un juez paternalista que nos dé una respuesta binaria de «bueno» o «malo». Como lo señaló Efraín Méndez, director de la maestría de ética de la PUJ, en una conversación académica con uno de los autores, esta ciencia no es un semáforo; es una brújula que nos ofrece el marco deliberativo para tomar decisiones en favor de la humanidad, ponderando siempre la beneficencia y los riesgos de maleficencia. Esta distinción nos lleva al dilema central en la IA aplicada a la medicina. Luis Quintero, Bioeticista, profesor universitario y miembro del tanque de pensamiento, planteó la pregunta crucial: ¿La responsabilidad ética debe residir en dotar a los modelos (LLM) de parámetros que excedan sus marcos técnicos (pre-entrenamiento, fine-tuning, RAG, aprendizaje reforzado por retroalimentación humana, etc.), o debemos enfocarnos en reforzar la formación del humano que diseña, implementa y usa? La respuesta es clara: la verdadera urgencia no es blindar al algoritmo, sino formar al ser humano.  El llamado es ineludible: La ética no se codifica en un software, se ejerce en la praxis.  La acción requiere capacitarnos en IA, asumir la autorregulación profesional y ejercer un escepticismo deliberativo como única garantía de que la tecnología servirá a la beneficencia, evitará la maleficencia, la inequidad, la injusticia, no girará  sólo entorno a la conveniencia. 

Legal Autónoma: Implementar marcos regulatorios que aseguren la transparencia, auditabilidad y representatividad de los datasets. La regulación debe ser autónoma, trascendiendo la normativa de dispositivos médicos convencionales y estableciendo responsabilidades claras ante errores algorítmicos.

3. Soberanía Sanitaria y Estandarización Global: 

Fomentar la soberanía de datos mediante infraestructuras nacionales o regionales que permitan el entrenamiento de modelos de IA locales y éticos. Esto debe acompañarse de protocolos internacionales para la validación y reproducibilidad, asegurando que la tecnología sirva a la ética del cuidado y no a la acumulación de capital.

Solo mediante la adopción de un enfoque académico, técnico y sociopolítico riguroso, que trascienda el minimalismo de la «herramienta» y la insuficiencia de la Informática Médica, podrá la IA cumplir su promesa transformadora. Es hora de garantizar la seguridad, la equidad y la autonomía en la práctica clínica, rechazando el vasallaje digital en favor de una verdadera soberanía epistémica.

Palabras claves: 

Disrupción Ontológica, Epistemología Médica, Tecnofeudalismo, Soberanía Sanitaria, Dependencia Algorítmica (Automation Bias), Inteligencia Artificial Explicable (XAI), Gobernanza de Datos, Bioética Digital, Informática Médica vs. IA

Meta descripción: 

Este análisis postula que la Inteligencia Artificial en salud constituye una disrupción ontológica y no una mera herramienta técnica. Se critica la insuficiencia de la Informática Médica como marco regulador y se examinan los riesgos sistémicos de la atrofia clínica, el sesgo algorítmico y el tecnofeudalismo, proponiendo una nueva arquitectura disciplinar orientada hacia la soberanía epistémica y sanitaria

Reconocimiento de uso de inteligencia artificial: 

los autores reconocen el uso de inteligencia artificial generativa tipo modelos de lenguaje a gran escala (LLM) para la optimización semántica y de sintaxis del presente escrito, así como para la generación de ilustraciones 

Referencias

Mujica, P. (2024). El capitalismo ha fracasado, ahora vivimos en el tecnofeudalismo: las grandes corporaciones nos tratan como vasallos digitales.

Hinton, G. (2024, Diciembre 10). Speech at the Nobel Prize banquet.

Shortliffe, E. H., & Cimino, J. J. (Eds.). (2014). Biomedical Informatics: Computer Applications in Health Care and Biomedicine. Springer.

Russell, S. J., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach. Pearson Education.

Kuhn, T. S. (1962). The Structure of Scientific Revolutions. University of Chicago Press.

Programa de Especialización y Maestría en Informática en Salud (EMIS). (2026). Plan de Estudios.

Sauer, J., Schmauder, M., & Weyer, J. (2021). The effects of automation on human performance: a review of the literature and a framework for future research. Ergonomics, 64(1), 1-21.

Mendiola, M. S. (2024). El lado oscuro de la inteligencia artificial generativa. Revista de Investigación Educativa en Ciencias de la Salud, 1295(1494).

Reyna, O. G. P. (2024). Desventajas de la inteligencia artificial en medicina. Revista de la Sociedad Peruana de Medicina Interna.

Saber en Salud. (2025, Agosto 30). Los riesgos de la inteligencia artificial en la práctica médica.

Qinggui, H., Xiuqiong, T., Hui, C., & Jinsong, W. (2025). Los riesgos éticos y las soluciones de la caja negra algorítmica en la inteligencia artificial médica. Acta bioethica.

Montevive AI. (2025, Julio 21). IA en Medicina: Cuando la Precisión no Basta si No se Explica.

Reclama Médico. (2025, Abril 14). Cómo afecta la IA a las reclamaciones por negligencia médica.

Martínez, D. A. P. (2025). Proposal for Responsible Use of Generative Artificial Intelligence in Health. PubMed Central.

Durand, C. (2025). Desborde reaccionario del capitalismo: la hipótesis tecnofeudal. Nueva Sociedad.

Varoufakis, Y. (2025, Octubre 5). Los ‘tecnolords’ controlan nuestras mentes. El País.

Jasanoff, S. (2024). Hacia una comprensión pública de la inteligencia artificial y su impacto en el cuidado de la salud. En Derecho, poder y datos.

We Forum. (2025, Marzo 25). La soberanía sanitaria crea resiliencia en un mundo volátil.

TIME. Leaders, innovators, and visionaries from TIME.

Organización Mundial de la Salud (OMS). (2023, Mayo 16). La OMS propugna un uso seguro y ético de la inteligencia artificial para la salud.

Medicip Health. (2024, Octubre 17). 5 riesgos de la IA en salud.

Lippi, G, & Plebani, M. (2025). Luces y sombras de la inteligencia artificial en la medicina de laboratorio. Advances in Laboratory Medicine.

Menéndez Fernández-Miranda, P. (2022). El problema de la generalización de los algoritmos de aprendizaje profundo para el análisis de imagen médica. Repositorio Institucional de la Universidad de Oviedo.

Meza, N. G., & Mauricio, E. S. R. (2025). Efectividad de la inteligencia artificial en el diagnóstico médico por imágenes: Una revisión sistemática. Sapiens in Artificial Intelligence and Machine Learning. 

Canal Red. YANIS VAROUFAKIS: «Vivimos en el TECNOFEUDALISMO» [Internet]. YouTube; 2024 feb 19 [citado 2025 nov 22]. Disponible en: https://www.youtube.com/watch?v=baKvM1uZw7k 

Deja un comentario