Autora: Andrea Rincón. Medica Familiar MSc Salud Pública. Miembro Tanque de Pensamiento AIpocrates
Las enfermedades que afectan la salud mental representan más del 10% de la carga mundial de morbilidad. Dentro de este panorama, el suicidio emerge como una de las consecuencias más trágicas y complejas de abordar en el contexto de la salud mental. El suicidio es un problema de salud pública cada vez mayor y es responsable de aproximadamente 800.000 muertes en todo el mundo por año (1) . Sin embargo, la etiología del suicidio es muy compleja y no tiene una causa única, por lo que la evaluación del riesgo suicida y la prevención de esta conducta son desafíos críticos en el campo de la psiquiatría. La inteligencia artificial (IA) está comenzando a desempeñar un papel crucial en esta área, proporcionando nuevas herramientas y enfoques para identificar y apoyar a las personas en riesgo (1,2).
Los métodos actuales de evaluación del riesgo de suicidio se basan en preguntas y, por lo tanto, están sujetos a la subjetividad. Su precisión y valor predictivo son limitados. Se pueden utilizar varias escalas en la evaluación del riesgo de suicidio, pero su precisión parece insuficiente (2). La inteligencia artificial (IA) y el machine learning (ML) han surgido como formas de mejorar la detección de estos riesgo. Estas técnicas requieren una gran base de datos (Big data) para extraer el perfil de un paciente o sus factores de riesgo significativos, de esta manera se pueden identificar patrones en el conjunto de datos para generar algoritmos de predicción de riesgo (3).
Prevención del suicidio basada en IA
El impacto del suicidio a nivel mundial y la dificultad de acceder a apoyo especializado han generado un creciente interés en el uso de la tecnología para mejorar la atención en este ámbito. Gigantes tecnológicos junto con sus asistentes digitales como Siri de Apple, el Asistente de Google y Alexa de Amazon, pueden orientar a las personas hacia recursos y estrategias de prevención del suicidio. Las redes sociales también han avanzado en este terreno: Facebook y la ahora conocida como X (anteriormente Twitter) han implementado medidas similares. En particular, Twitter, en colaboración con la ONG británica Samaritans, quienes desarrollaron la aplicación Radar. Esta herramienta permitía a los usuarios de Twitter optar por recibir notificaciones si una persona que siguen publicaba un tuit que el algoritmo de IA de Radar identificaba como potencialmente relacionado con ideación suicida (3,4).
Por otro lado, Facebook ha estado trabajando durante más de 10 años en la prevención del suicidio, comenzando con informes activos por parte de los usuarios y evolucionando hasta el uso de machine learning (ML) para ampliar su capacidad de brindar ayuda oportuna. Con el uso del ML, Facebook puede reconocer patrones en publicaciones que indican una alta probabilidad de ideación suicida y así priorizar su revisión por parte de los equipos de operaciones. El ML también permite diferenciar publicaciones sarcásticas de aquellas con intenciones serias, proporcionando matices cruciales para la evaluación del riesgo.
Una de las tecnologías clave utilizadas por Facebook es DeepText, que emplea técnicas avanzadas de deep learning para comprender el contexto y el significado del texto en publicaciones y comentarios. DeepText puede analizar miles de publicaciones por segundo en más de 20 idiomas, identificando patrones de lenguaje que podrían indicar riesgo suicida. Además, Facebook utiliza un clasificador basado en Random Forest que integra características como la hora del día, el tipo de contenido publicado y las reacciones recibidas. Cuantas más características pueda aprender el clasificador, mejor podrá evaluar la probabilidad de que una publicación indique intención suicida, determinando la importancia relativa de cada característica en el proceso de evaluación (4).
Otra herramienta útil en este campo son los chatbots. Un estudio interesante se centró en un agente conversacional llamado Woebot, el cual funciona mediante NLP, fue diseñado para brindar apoyo y orientación en salud mental a partir de investigaciones sobre terapia cognitivo-conductual. Los datos revelaron que los usuarios podían establecer vínculos terapéuticos con Woebot, ya que sentían que el chatbot era «una persona real que mostraba preocupación». Esto podría deberse a las respuestas que el chatbot proporcionaba, incluyendo refuerzos positivos como «estoy orgulloso de ti». Para los usuarios, esto puede generar una sensación de que este chatbot puede entenderles, cuidarles y estar en sintonía con sus emociones. Como resultado para los participantes del estudio, Woebot proporciona un servicio terapéutico inicial que ha demostrado reducir la ansiedad y la depresión (4,5).

Imagen tomada de internet.
Panorama en la predicción del riesgo suicida.
Durante la última década, los investigadores han propuesto diversas soluciones y modelos de machine learning (ML) para mejorar la precisión en la predicción del riesgo de suicidio. Sin embargo, debido a que muchos de estos modelos funcionan como «cajas negras» y carecen de interoperabilidad, su aplicación en tratamientos clínicos resulta un reto. Recientemente, se han logrado avances al integrar la arquitectura de red C-Attention con múltiples modelos de ML, lo que facilita la identificación de individuos en riesgo de suicidio (5,6).
Paralelamente, la creciente necesidad de comprender la lógica subyacente en los modelos de ML ha llevado al desarrollo del paradigma XAI (Inteligencia Artificial Explicable). Este enfoque permite analizar cómo las variables contribuyen a las predicciones del modelo, lo que mejora la evaluación del riesgo suicida y ayuda a comprender mejor las causas y situaciones que aumentan el riesgo para un individuo. Por ejemplo, un estudio reciente que aplicó XAI logró identificar las variables más influyentes en las predicciones del modelo. Se encontró que la presencia de enfermedades crónicas, problemas de ira, aislamiento social y problemas de sueño están fuertemente correlacionados con conductas suicidas (6).
Recientemente, se han logrado avances significativos en el uso de la inteligencia artificial generativa en el campo de la salud mental. Uno de los modelos más avanzados es MentaLLaMA, una versión mejorada del LLaMA desarrollada por Meta AI. MentaLLaMA se destaca como un proyecto de investigación pionero, reconocido como el primer modelo de lenguaje de código abierto que sigue instrucciones para un análisis interpretable en salud mental. Además, tiene la capacidad de analizar datos de redes sociales y generar predicciones de alta calidad (7).
Los modelos de lenguaje grande (LLM) como LLaMA han mostrado un gran potencial en la evaluación del riesgo suicida. Estos modelos pueden procesar y entender grandes volúmenes de texto, incluyendo publicaciones en redes sociales, para identificar señales de ideación suicida y patrones de comportamiento asociados. Al aplicar técnicas avanzadas de NLP y ML, los LLM pueden ofrecer análisis detallados y contextualizados que ayudan a predecir y prevenir riesgos. Los datos de entrenamiento de MentaLLaMA incluyeron información proveniente de redes sociales, proporcionando una big data para detectar signos de riesgo suicida con una precisión mejorada (7).
| USUARIO: Hace unos meses, la ansiedad y la depresión comenzaron a apoderarse de mi vida. Me siento muy solo y triste. He venido pensando en la muerte, creo que es lo mejor. |
| LLM1 : Este post representa un riesgo medio. La persona menciona qué “ha venido pensando en la muerte” lo que indica una conexión directa con acabar su vida, aunque el contexto no especifica si es el plan de acción inminente. Además, los sentimientos de tristeza y soledad también contribuyen a está categorización |
Adaptado de MentaLLaMA: Interpretable Mental Health Analysis on Social Media with Large Language Models (7).
En conclusión, el suicidio representa una crisis de salud pública global, que exige soluciones eficaces. La inteligencia artificial parece ofrecer herramientas para abordar este desafío de manera más precisa y accesible. Desde modelos de lenguaje avanzados como MentaLLaMA hasta aplicaciones específicas para el análisis de riesgos en redes sociales, la IA está transformando la forma en que se entiende y se debe prevenir el suicidio. Estos avances no solo permiten una identificación más temprana de señales de advertencia, sino que también proporcionan un análisis detallado y contextualizado que puede guiar intervenciones y estrategias de prevención. Sin embargo, la implementación de estas tecnologías debe hacerse con cuidado, asegurando que se mantenga la ética y la privacidad de los individuos. La colaboración entre expertos en salud mental y desarrolladores de IA es fundamental para maximizar los beneficios de estas herramientas, mientras se abordan los desafíos y se minimizan los riesgos asociados. Con un enfoque equilibrado entre los especialistas de salud mental, los profesionales de salud y en general la sociedad, la inteligencia artificial puede ser una herramienta de gran utilidad en la lucha contra el suicidio, brindando estrategias y apoyo a quienes más lo necesitan.
A todos los lectores de esta columna: A pesar de los avances en la comprensión de los factores que contribuyen al suicidio, muchas personas en riesgo no son detectadas a tiempo debido a la complejidad y variabilidad de las señales de advertencia. La normalización de los trastornos depresivos se ha vuelto una constante que muchos profesionales experimentamos en algún momento de nuestra vida académica y laboral. Esta normalización, junto con la falta de empatía genuina hacia el sufrimiento ajeno y la desensibilización causada por la presión de aparentar fortaleza y no mostrar debilidades, nos convierte en observadores insensibles a las dolencias emocionales. La ausencia de compasión nos transforma en entidades casi robóticas, incapaces de reconocer las vulnerabilidades inherentes al ser humano como algo real y digno de atención.
La tecnología puede ser una herramienta poderosa, pero no reemplaza la necesidad de escuchar con el corazón, de ofrecer una mano amiga y de mostrar compasión genuina. Las máquinas pueden ayudarnos a identificar señales de advertencia, pero es nuestro toque humano, nuestra capacidad de empatizar y conectar, lo que realmente puede marcar la diferencia.
Referencias:
(1) Fonseka TM, Bhat V, Kennedy SH. The utility of artificial intelligence in suicide risk prediction and the management of suicidal behaviors. Australian & New Zealand Journal of Psychiatry. 2019;53(10):954-964. doi:10.1177/0004867419864428
(2) Lejeune, A., Le Glaz, A., Perron, P., Sebti, J., Baca-García, E., Walter, M., Lemey, C., & Berrouiguet, S. (2022). Artificial intelligence and suicide prevention: A systematic review. European Psychiatry, 65.
(3) Menon V, Vijayakumar L. Artificial intelligence-based approaches for suicide prediction: Hope or hype? Asian J Psychiatr. 2023 Oct;88:103728. doi: 10.1016/j.ajp.2023.103728. Epub 2023 Aug 9. PMID: 37573803.
(4) Gomes de Andrade, N., Pawson, D., Muriello, D. et al. Ethics and Artificial Intelligence: Suicide Prevention on Facebook. Philos. Technol. 31, 669–684 (2018). https://doi.org/10.1007/s13347-018-0336-0
(5) Fitzpatrick KK, Darcy A, Vierhile M Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial JMIR Ment Health 2017;4(2):e19
(6) Tang, H., Miri Rekavandi, A., Rooprai, D. et al. Analysis and evaluation of explainable artificial intelligence on suicide risk assessment. Sci Rep 14, 6163 (2024). https://doi.org/10.1038/s41598-024-53426-0
(7) Kailai Yang, Tianlin Zhang, Ziyan Kuang, Qianqian Xie, Jimin Huang, and Sophia Ananiadou. 2024. MentaLLaMA: Interpretable Mental Health Analysis on Social Media with Large Language Models. In Proceedings of the ACM on Web Conference 2024 (WWW ’24). Association for Computing Machinery, New York, NY, USA, 4489–4500. https://doi.org/10.1145/3589334.3648137
