ADVERTISEMENT

| Tech

¿Hablas con la IA cuando te sientes mal? Aquí te explicamos cómo los chatbots obtienen consejos sobre salud mental

Hablar con una IA puede sentirse como terapia, pero estos modelos no son profesionales de la salud mental. Su efectividad —y sus riesgos— siguen en debate.

¿Hablas con la IA cuando te sientes mal? Aquí te explicamos cómo los chatbots obtienen consejos sobre salud mental [Foto: Matheus Bertelli/Pexels]

A medida que más personas pasan tiempo chateando con chatbots de inteligencia artificial (IA) como ChatGPT, el tema de la salud mental está de moda. Algunas personas tienen experiencias positivas que hacen que la IA parezca un terapeuta económico.

Pero las IA no son terapeutas. Son inteligentes y atractivas, pero no piensan como humanos. ChatGPT y otros modelos de IA generativa son como la función de autocompletar texto de tu teléfono, pero con esteroides. Aprendieron a conversar leyendo texto extraído de internet.

Cuando alguien hace una pregunta (llamada indicación) como: “¿Cómo puedo mantener la calma durante una reunión de trabajo estresante?”, la IA genera una respuesta eligiendo aleatoriamente palabras lo más cercanas posible a los datos que obtuvo durante el entrenamiento. Esto sucede tan rápido, con respuestas tan relevantes, que puede parecer como hablar con una persona.

Pero estos modelos no son personas. Definitivamente no son profesionales de la salud mental capacitados que trabajen bajo directrices profesionales, se adhieran a un código de ética ni cuenten con registro profesional.

¿Dónde aprende a hablar de estas cosas?

Cuando se activa un sistema de IA como ChatGPT, este extrae información de tres fuentes principales para responder:

  1. Conocimientos previos memorizados durante el entrenamiento.
  2. Fuentes de información externas
  3. Información que usted proporcionó anteriormente.

1. Conocimientos previos

Para desarrollar un modelo de lenguaje de IA, los desarrolladores enseñan al modelo haciéndole leer grandes cantidades de datos en un proceso llamado “entrenamiento”.

¿De dónde proviene esta información? En términos generales, de cualquier cosa que pueda obtenerse públicamente de internet. Esto puede incluir desde artículos académicos, libros electrónicos, informes y artículos de noticias gratuitos hasta blogs, transcripciones de YouTube o comentarios en foros de discusión como Reddit.

¿Son estas fuentes confiables para encontrar consejos sobre salud mental? A veces. ¿Siempre te convienen y se filtran mediante un enfoque basado en evidencia científica? No siempre. La información también se captura en un único momento durante el desarrollo de la IA, por lo que podría estar desactualizada.

También es necesario descartar muchos detalles para integrarlos en la memoria de la IA. Esto explica, en parte, por qué los modelos de IA son propensos a las alucinaciones y a equivocarse en los detalles.

2. Fuentes de información externas

Los desarrolladores de IA podrían conectar el chatbot con herramientas externas o fuentes de conocimiento, como Google para búsquedas o una base de datos seleccionada.

Cuando le haces una pregunta a Bing Copilot de Microsoft y ves referencias numeradas en la respuesta, esto indica que la IA recurrió a una búsqueda externa para obtener información actualizada además de la que está almacenada en su memoria.

Mientras tanto, algunos chatbots dedicados a la salud mental pueden acceder a guías y materiales de terapia para ayudar a dirigir las conversaciones hacia líneas útiles.

3. Información proporcionada previamente

Las plataformas de IA también tienen acceso a la información que proporcionaste previamente en conversaciones o al registrarse en la plataforma.

Cuando te registras en la plataforma de IA complementaria Replika, por ejemplo, esta aprende tu nombre, pronombres, edad, apariencia y género de compañero preferido, dirección IP y ubicación, el tipo de dispositivo que estás usando y más (así como los detalles de tu tarjeta de crédito).

En muchas plataformas de chatbots, cualquier cosa que le hayas dicho a una IA puede guardarse para futuras consultas. Todos estos detalles pueden recuperarse y consultarse cuando una IA responde.

Y sabemos que estos sistemas de IA son como amigos que confirman lo que dices (un problema conocido como adulación) y desvían la conversación hacia temas que ya trataron. Esto es diferente a un terapeuta profesional, que puede recurrir a su formación y experiencia para ayudarte a cuestionar o redirigir tu pensamiento cuando sea necesario.

¿Qué pasa con las aplicaciones específicas para la salud mental?

La mayoría de la gente está familiarizada con los grandes modelos como ChatGPT de OpenAI, Gemini de Google o Copilot de Microsoft. Estos son modelos de propósito general. No se limitan a temas específicos ni están capacitados para responder preguntas específicas.

Pero los desarrolladores pueden crear IA especializadas que estén entrenadas para discutir temas específicos, como la salud mental, como Woebot y Wysa.

Algunos estudios muestran que estos chatbots específicos para la salud mental podrían reducir los síntomas de ansiedad y depresión de los usuarios. O que pueden mejorar técnicas terapéuticas en el día a día cuando ofrecen orientación. También existe evidencia de que la terapia con IA y la terapia profesional ofrecen resultados de salud mental equivalentes a corto plazo.

Sin embargo, todos estos estudios examinaron el uso a corto plazo. Aún desconocemos el impacto del uso excesivo o prolongado de chatbots en la salud mental. Muchos estudios también excluyen a participantes con tendencias suicidas o con un trastorno psicótico grave. Además, muchos estudios están financiados por los desarrolladores de los mismos chatbots, por lo que la investigación podría estar sesgada.

Los investigadores también están identificando posibles daños y riesgos para la salud mental. La plataforma de chat Character.ai, por ejemplo, se ha visto implicada en un proceso legal en curso por el suicidio de un usuario.

Toda esta evidencia sugiere que los chatbots de IA pueden ser una opción para llenar los vacíos donde hay escasez de profesionales de la salud mental, ayudar con las derivaciones o al menos brindar apoyo provisional entre citas o para apoyar a las personas en listas de espera.

En resumen

En esta etapa, es difícil decir si los chatbots de IA son confiables y lo suficientemente seguros como para usarlos como una opción de terapia independiente.

Se necesita más investigación para identificar si ciertos tipos de usuarios corren un mayor riesgo de sufrir los daños que podrían ocasionar los chatbots de IA.

Tampoco está claro si debemos preocuparnos por la dependencia emocional , el apego no saludable, el empeoramiento de la soledad o el uso intensivo.

Los chatbots de IA pueden ser un punto de partida útil cuando tienes un mal día y solo necesitas charlar. Pero cuando los días malos persisten, también es momento de hablar con un profesional.


Centaine Snoswell es investigadora principal del Centro de Investigación en Servicios de Salud de la Universidad de Queensland; Aaron J. Snoswell, investigador principal en Rendición de Cuentas de la IA en la Universidad Tecnológica de Queensland y Laura Neil, candidata a doctora en el Centro de Investigación en Servicios de Salud de la Universidad de Queensland.

Este artículo se republicó de The Conversation bajo una licencia Creative Commons. Lee aquí el artículo original.

Author

  • The Conversation

    Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.

    View all posts

Author

  • The Conversation

    Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.

    View all posts

Sobre el autor

Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.

ADVERTISEMENT

ADVERTISEMENT