El uso de la Inteligencia Artificial en los Comités de Ética en Investigación-CEI

Luis Jorge Hernandez Florez , medico especialista en epidemiologia y especialista en análisis de datos; magister en salud pública y magister en bioética; doctor en salud pública. Actualmente profesor asociado facultad de medicina Universidad de los Andes y presidente de su comité de ética de la investigación.Magister en Bioética, Especialista en Análisis de Datos y Epidemiólogo. Profesor Universidad de los Andes.

¿Por qué usar IA en los CEI?

Los CEI suelen enfrentarse a una alta carga de trabajo, plazos ajustados y una creciente complejidad de los protocolos de investigación. Frente a esto, la IA ofrece una serie de oportunidades. Lejos de reemplazar el juicio humano, la IA puede convertirse en una herramienta complementaria que fortalezca la calidad y consistencia del análisis ético.

Las principales oportunidades incluyen:

  • Automatizar la revisión de criterios metodológicos y éticos en los proyectos postulados.
    • Cómo: Se pueden emplear técnicas de Procesamiento del Lenguaje Natural (PLN) para analizar documentos, Sistemas Basados en Reglas para verificar el cumplimiento de normativas específicas, Aprendizaje Automático (Machine Learning) – Clasificación para identificar patrones asociados a problemas comunes entrenando modelos con protocolos previos, y Extracción de Información (IE) para verificar datos clave contra checklists.
  • Realizar búsquedas bibliográficas inteligentes y generar resúmenes ejecutivos que faciliten la comprensión del contexto del estudio.
    • Cómo: Utilizando Recuperación de Información (IR) avanzada con comprensión semántica para búsquedas más precisas y PLN – Resumen Automático de Texto (tanto extractivo como abstractivo, usando modelos como Transformers) para generar síntesis útiles de la literatura encontrada.
  • Detectar inconsistencias en los documentos presentados por los investigadores.
    • Cómo: Mediante PLN y Extracción de Información (IE) para obtener datos clave de diferentes secciones o documentos, y Análisis de Coherencia y Comparación Semántica para identificar contradicciones lógicas o semánticas entre ellos.
  • Apoyar el análisis deliberativo, identificando valores en conflicto y proponiendo escenarios éticamente razonables.
    • Cómo: A través de PLN – Minería de Argumentos para identificar razonamientos éticos, Modelado de Tópicos y Análisis de Sentimiento para detectar temas y énfasis éticos, Sistemas Basados en Conocimiento / Ontologías para relacionar el protocolo con principios éticos y señalar tensiones, y potencialmente IA Generativa (con supervisión humana) para sugerir escenarios basados en conflictos detectados, como insumo para la deliberación.

IA y deliberación bioética: ¿es posible?

En bioética, la toma de decisiones no es meramente técnica: se fundamenta en la deliberación. Este proceso implica un diálogo reflexivo entre las partes involucradas, explorando las implicaciones éticas de distintas opciones.

La IA puede ayudar en tres niveles de este análisis:

  1. Comprensivo: formulación de las preguntas éticas clave.
    • Cómo: La IA puede analizar el protocolo y compararlo con bases de datos, guías y regulaciones usando PLN y Extracción de Información para identificar características sensibles. Sistemas Basados en Conocimiento pueden mapear estas características a preguntas éticas estándar, y Sistemas de Generación de Preguntas podrían sugerirlas al comité.
  2. Analítico: identificación de principios en conflicto.
    • Cómo: Mediante PLN, Minería de Argumentos y Modelado de Tópicos, la IA puede identificar secciones del texto relacionadas con principios como autonomía, beneficencia, no maleficencia y justicia. Ontologías éticas y Sistemas Basados en Reglas pueden ayudar a detectar tensiones potenciales entre ellos.
  3. Resolutivo: evaluación de posibles cursos de acción.
    • Cómo: La IA puede asistir presentando información relevante a través de Sistemas de Soporte a la Decisión (DSS), Razonamiento Basado en Casos (CBR) para encontrar precedentes, o Análisis Predictivo (con cautela) para explorar implicaciones, siempre como apoyo al juicio humano final.

Pero es importante tener presente que el juicio prudente, el contexto cultural y la empatía no pueden ser sustituidos por algoritmos.

¿Qué modelo bioético utilizar?

Existen diversas corrientes bioéticas que pueden orientar la deliberación en los CEI. Algunos de los modelos más relevantes son:

  • Principialismo: basado en los principios de autonomía, beneficencia, no maleficencia y justicia.
  • Ética de la virtud: centrada en las cualidades morales del profesional.
  • Ética del cuidado: con énfasis en la empatía, la responsabilidad y las relaciones interpersonales.
  • Utilitarismo: prioriza el bienestar colectivo, aunque puede entrar en tensión con los derechos individuales.
  • Deontología: orientada al cumplimiento de deberes universales, como el consentimiento informado.
  • Bioética personalista y de la liberación: con fuerte énfasis en la dignidad humana, la justicia social y la voz de los grupos vulnerables.
  • Bioética latinoamericana: que promueve la interculturalidad y el respeto por cosmovisiones diversas.

Lo más recomendable es adoptar un enfoque pluralista, combinando diferentes marcos según el caso y el contexto.

Desafíos éticos del uso de IA

No todo son ventajas. La incorporación de IA en los CEI también implica riesgos y dilemas:

  • Sesgos algorítmicos, que pueden reproducir desigualdades o exclusiones si no se cuidan los datos de entrenamiento.
  • Pérdida del juicio humano, especialmente en casos que requieren sensibilidad, empatía o interpretación contextual.
  • Falta de transparencia en los procesos automatizados, que dificulta la rendición de cuentas ética.

Conclusión: IA como aliada, no reemplazo

La IA no viene a sustituir a los Comités de Ética ni a eliminar la deliberación humana. Su mayor valor radica en fortalecer los procesos éticos, automatizar tareas repetitivas y apoyar la toma de decisiones con mayor evidencia. Su uso, sin embargo, debe ser prudente, transparente y complementario al juicio ético de los profesionales.

El desafío no es solo técnico: es profundamente ético. ¿Estamos preparados para integrar estas herramientas sin perder el alma deliberativa que define a la bioética?

Bibliografía:

 Beauchamp, T. L., & Childress, J. F. (2019). Principles of Biomedical Ethics (8th ed.). Oxford University Press.

Floridi, L., & Cowls, J. (2019). A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review, 1(1). https://doi.org/10.1162/99608f92.8cd550d1  

Mittelstadt, B. D. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 1(11), 501–507. https://doi.org/10.1038/s42256-019-0114-4

Nebeker, C., Torous, J., & Bartlett Ellis, R. J. (2019). Building the case for actionable ethics in digital health research supported by artificial intelligence. BMC Medicine, 17(1), 137. https://doi.org/10.1186/s12916-019-1377-7  

Deja un comentario