La crisis mundial de salud mental se está profundizando, exacerbada por una escasez crónica de profesionales calificados. Según un informe de la Organización Mundial de la Salud, los trastornos de salud mental afectan a una de cada cuatro personas en todo el mundo durante su vida. Solo en Estados Unidos, 23% de los adultos experimentaron un problema de salud mental en 2022; sin embargo, casi la mitad de ellos no recibieron el tratamiento necesario, según la Administración de Recursos y Servicios de Salud de Estados Unidos (HRSA).
En México tres de cada 10 personas padece algún trastorno mental a lo largo de su vida y más del 60% de la población que sufre alguno de ellos no recibe tratamiento, según cifras gubernamentales.
Si bien los trastornos de salud mental representan 10% de la carga total mundial de enfermedades, solo 1% de los trabajadores de la salud mundial se dedican a la salud mental, informa la Biblioteca Nacional de Medicina. Las disparidades regionales resaltan aún más la inequidad en la atención: si bien algunas naciones desarrolladas tienen amplios recursos de salud mental, los países de bajos ingresos continúan enfrentando una escasez grave, a veces con menos de un psiquiatra por cada 100,000 personas.
Pero esta escasez de profesionales de la salud mental no se limita a los países de bajos ingresos. La HRSA prevé una reducción del 20% en el número de psiquiatras para 2030, una reducción significativa que podría provocar que millones de personas no reciban tratamiento.
Para abordar esta brecha creciente, muchos profesionales de la salud utilizan ahora productos de IA integrados y de terceros para brindar apoyo en el diagnóstico de salud mental y las intervenciones terapéuticas.
La IA como herramienta para los profesionales de la salud mental
Parte del atractivo de la IA es su capacidad para aprovechar datos de diversas fuentes, como interacciones de los usuarios, patrones vocales y análisis emocionales.
Tomemos, por ejemplo, Liv, la plataforma basada en un modelo de lenguaje grande (LLM) del Centro Médico Sheba que ayuda con el diagnóstico de los problemas de salud mental de las víctimas de la guerra en curso (en ambos lados de la división) y ofrece experiencias personalizadas para los pacientes, todo ello al tiempo que reduce las enormes cargas de los psiquiatras.
O Woebot, un chatbot impulsado por IA desarrollado por Woebot Health Labs que ofrece terapia cognitivo-conductual a través de conversaciones basadas en texto y guía a los usuarios a través de sus problemas de salud mental en tiempo real. O Emotion Logic, que puede detectar estados emocionales mediante el análisis de biomarcadores vocales no controlados y proporciona una intervención inmediata y una retroalimentación continua.
“Al proporcionar retroalimentación emocional en tiempo real, nuestra plataforma permite a los profesionales de la salud mental ajustar las estrategias de tratamiento sobre la marcha, adaptando la atención al estado emocional único y actual de cada paciente”, afirma Amir Liberman, director ejecutivo de Emotion Logic.
Preocupaciones éticas
Como ocurre con cualquier tecnología disruptiva, el papel cada vez mayor de la IA en la salud mental plantea una serie de preocupaciones éticas. Las herramientas de IA se destacan en el diagnóstico y la gestión de ciertos aspectos de la atención de la salud mental, como la detección de signos tempranos de angustia emocional. Sin embargo, los casos complejos a menudo requieren la comprensión matizada que solo un terapeuta humano capacitado puede ofrecer.
Las cuestiones relacionadas con el consentimiento del paciente, la privacidad de los datos y el uso responsable de las herramientas de IA también deben gestionarse con cuidado para garantizar que no comprometan la atención al paciente. Muchas plataformas de IA están adoptando salvaguardas que cumplen con las normas para proteger los datos emocionales y de salud mental de los usuarios, pero la naturaleza cambiante de las tecnologías de IA requiere una vigilancia constante.
Mark Weiser, presidente de la división de psiquiatría de Sheba, dice que Liv es esencialmente un sistema de apoyo a la toma de decisiones clínicas que aún requiere un “humano en el circuito”. La idea en esta etapa del examen psiquiátrico, dice, es que el paciente primero sea examinado por el programa antes de ir a ver a un psiquiatra humano en la etapa posterior.
“La tecnología no es independiente. El psiquiatra humano todavía habla con el paciente para validar lo que el programa basado en LLM ha descubierto”, agrega. “Pero es increíble que los pacientes puedan recibir primero un diagnóstico y, en algunos casos, recibir asesoramiento sobre el tratamiento, sin pasar por protocolos cada vez más estrictos”.
El futuro de la IA en la salud mental
A medida que la tecnología avance, las plataformas de IA se volverán aún más hábiles para reconocer patrones emocionales y de comportamiento, lo que permitirá una atención más personalizada y precisa. Los expertos predicen que las herramientas de salud mental impulsadas por IA pronto podrían ayudar a resolver la escasez de profesionales de la salud mental a nivel mundial.
“En los próximos años, la IA será un componente vital de la atención integral de la salud mental, permitiendo a los profesionales ofrecer un tratamiento mejor, más rápido y más accesible a quienes lo necesitan”, afirma Liberman, de Emotion Logic.
Para Liberman, las plataformas impulsadas por IA seguirán desempeñando un papel crucial a la hora de cubrir rápidamente las lagunas actuales en nuestros sistemas de atención sanitaria. En su opinión, el futuro será un cambio bastante radical. “La precisión y la consistencia de la IA están preparadas para convertirla en el método de atención preferido, lo que hará que el tratamiento tradicional dirigido por humanos parezca sorprendentemente obsoleto”, afirma. “Quizás incluso irresponsable”.