Por: Alejandro Hernández-Arango MD, M.Sc. Miembro Fundador de AIpocrates.
“Pensar es olvidar diferencias, es generalizar, abstraer. En el abarrotado mundo de Funes no había sino detalles, casi inmediatos” (Borges, 1944).
Del dicho al hecho, la protección de la autonomía, el consentimiento informado y las herramientas de inteligencia artificial.
En salud, hemos hablado de la ética y bioética, y del como podemos lograr una implementación de la inteligencia artificial para los pacientes, logrando el máximo beneficio con los mínimos riesgos para ellos. Recientemente en la revista New England Journal of Medicine se publicó una reflexión en forma narrativa de cómo se generaron la normas que regulan la “Experimentación en Sujetos Humanos”, el reconocimiento y la necesidad de respeto a los principios como la autonomía, la privacidad y la confidencialidad de los datos. Esta narrativa menciona errores del pasado en los que se fundamentaron las nuevas reglas y como la historia de la medicina nos puede dar las respuestas para evitar cometer errores en el futuro, especialmente en lo relacionado con la implementación de nuevas tecnologías y tratamientos.
Así como se han extendido los esfuerzos para implementar en la práctica clínica el “Consentimiento Informado”, documento en el cual se da una explicación clara, concreta, en un lenguaje sencillo que logra un balance entre la explicación y la sustentación científica de los beneficios y los riesgos de los procedimientos, debe reconocerse el derecho del paciente a disentir, por lo cual también se ha incrementado el uso del “Disentimiento Informado” como un instrumento, un registro formal, en el que quedan consignados los riesgos y los beneficios, pero que además consta que se ha explicado de manera suficiente de la decisión de rechazar un tratamiento o un procedimiento médico, incluso luego de haberlo aceptado previamente.
Con el paso del tiempo y el aumento de la madurez tecnológica de los modelos de Inteligencia artificial, cada vez más estos conceptos juegan un papel activo en la atención de los pacientes y por lo tanto, si un paciente disiente de participar en una investigación o disiente de que sus datos sean usados para modelos de aprendizaje automático en el proceso de entrenamiento o implementación, sus datos deben ser borrados del modelo para respetar su voluntad y su confidencialidad, lo que nos enfrenta a un gran reto no solo ético, sino técnico, aplicar métodos basados en computación cognitiva “para olvidar”.
¿Qué es el desaprendizaje de máquinas y por qué es importante?
El caso de Funes ilustra los problemas y desafíos que implica la paradoja de tener una memoria perfecta en un mundo imperfecto, un mundo que cambia rápidamente, en el cual la verdad está a prueba constantemente. En un mundo en el que es cada vez más importante la necesidad de abstracción y generalización para el desarrollo de la ciencia y nuevas tecnologías, en el cual a veces es más importante aprender a desaprender que aprender algo nuevo.
Además, a medida que inexorablemente pasa el tiempo, las situaciones cambian, tanto sociales como biológicas así, en consecuencia, los datos se desactualizan y en algunas ocasiones pasan a ser poco representativos de la realidad, lo que puede provocar que los modelos sean inexactos o incluso injustos dado que el cambio del contexto puede hacer que los modelos finalmente se vuelvan obsoletos o irrelevantes.
Muchos estudios han señalado la falta de diversidad y la subrepresentación de las minorías en las bases de datos biomédicas, lo que puede conducir a sesgos y discriminaciones de sus resultados en el momento de la aplicación de la IA en salud. Además, es un problema que algunas de las publicaciones sobre IA en salud no informen adecuadamente sobre las características demográficas de los pacientes incluidos en los análisis, lo que dificulta la evaluación de la generalización y la aplicabilidad de los algoritmos a diferentes poblaciones
Para solucionar estos problemas, surge el desaprendizaje de máquinas, que consiste en aplicar técnicas matemáticas como la ingeniería de variables y/o de reducción de la dimensionalidad que permiten borrar, modificar o reemplazar los datos que ya no son necesarios o adecuados para el modelo, sin tener que reconstruirlo desde cero. Esta capacidad de las máquinas para aprender y olvidar se convierte en un instrumento crucial para la equidad y la adaptabilidad en la implementación de la IA en salud.
Referencias
- Borges, J. L. (1944). Funes el memorioso. En Ficciones (pp. 107-116). Buenos Aires: Sur.
- Carlos, R. C. (2023). Machine Un-Learning. Journal of the American College of Radiology, 20(9), 817-818. https://doi.org/10.1016/j.jacr.2023.06.007
- Sai, S., Mittal, U., Chamola, V., & others. (2023). Machine Un-learning: An Overview of Techniques, Applications, and Future Directions. Cognitive Computation. https://doi.org/10.1007/s12559-023-10219-3
- The STANDING Together collaboration. (2023). Recommendations for Diversity, Inclusivity, and Generalisability in Artificial Intelligence Health technologies and Health Datasets (1.0). Zenodo. https://doi.org/10.5281/zenodo.10048356
- Stark, L. (2023). Medicine’s Lessons for AI Regulation. The New England Journal of Medicine, 389, 2213-2215. https://doi.org/10.1056/NEJMp2309872
