| Tech

¿Estamos delegando demasiado a la IA lo que nos hace humanos?

Hay una diferencia crucial entre usar IA como apoyo y usarla como sustituto.

¿Estamos delegando demasiado a la IA lo que nos hace humanos? [Foto: envato]

La inteligencia artificial (IA) es una de las herramientas más poderosas que la humanidad ha creado. Puede diagnosticar enfermedades, escribir código, analizar mercados financieros y traducir idiomas en tiempo real. Es brillante, incansable y, por lo menos a mí, me ha dejado con la boca abierta más de una vez. Pero hay una pregunta que me persigue últimamente: ¿le estamos delegando, no solo el trabajo, sino también las partes que nos definen como humanos?

No hablo de organizar nuestra agenda o automatizar hojas de cálculo. Hablo de votos de boda, de las palabras que le escribimos a quien amamos o de las crisis de identidad que antes resolvíamos mirándonos en el espejo. ¿Estamos delegando nuestra vulnerabilidad a un algoritmo, buscando que una máquina nos diga cómo sentir o expresar lo que, por naturaleza, debería de venir del corazón?

Los números que incomodan

Empecemos por los datos, porque son reveladores. Según encuestas de Zola y The Knot, plataformas que dominan la industria de las bodas en Estados Unidos, la cifra de parejas que admite haber usado IA para redactar o editar sus votos ronda entre 32% y 38%. La cifra sube a más de 50% si incluimos a quienes la usan para “buscar inspiración”.  

Un estudio publicado en 2025 por la Universidad de Sentio en California –institución especializada en psicología y tecnología– encontró que 48.7% de los adultos estadounidenses con condiciones de salud mental que usa IA la utiliza como soporte terapéutico. Para que te des una idea, eso podría hacer de ChatGPT el “proveedor de salud mental” más utilizado en todo Estados Unidos. 

Lo más impactante es que este fenómeno ocurrió de manera orgánica. ¿Por qué? Porque la IA ofrece algo que nos aterra pedirle a otro ser humano: que nos escuche sin juicio. Además de que, por supuesto, ChatGPT no te va a cobrar 100 dólares por hora. Además, 32% de las personas recurre a la IA porque “no quiere ser una carga” para familiares y amigos. 

Para echarle más limón a la herida, Kantar, una de las empresas de consultoría, investigación de mercados y análisis de datos más influyentes del mundo, hizo un estudio masivo con más de 10,000 personas, de las cuales más de la mitad aceptó haber usado IA al menos una vez para temas emocionales o de bienestar mental. 

Lo que está pasando en realidad

Estos datos no describen a personas flojas ni desconectadas. Describen algo más complejo y más humano: personas abrumadas, con bloqueos creativos, si acceso a salud mental asequible o simplemente viviendo en un mundo que se mueve demasiado rápido como para procesar sus propias emociones. 

La IA no llegó a robarnos nuestra humanidad. Llegó a llenar un vacío que ya existía. El problema es usarla, sino lo que dejamos de hacer nosotros cuando le aventamos la chamba a un algoritmo. 

Cuando una pareja usa ChatGPT para escribir sus votos de boda, hay algo que se pierde en el proceso: el momento incómodo de sentarse frente a una hoja en blanco y preguntarse ¿qué es lo que realmente quiero prometerle a esta persona? 

El problema del outsourcing interior

Hay una diferencia crucial entre usar IA como apoyo y usarla como sustituto. Usarla para superar el bloqueo creativo, organizar ideas o encontrar el tono correcto es inteligente, pero cuando alguien escribe algo directamente desde la pantalla sin editarlo, sin cuestionarlo, sin pasar por el proceso de sentir si esas palabras realmente le pertenecen, entonces no está usando una herramienta. Está subcontratando su vida interior. 

Lo mismo pasa con la salud mental. Sí, un chatbot puede estar disponible a las 3 a.m. cuando nadie más lo está. Puede ofrecer consistencia, anonimato y cero juicio, pero la psicoterapia no es solo recibir información o consejos, es una relación. Es ser visto por alguien –profesional– que tiene historia contigo, que puede detectar lo que no dices, que ve y analiza tus expresiones, que puede equivocarse. Eso no lo puede replicar un modelo de lenguaje, por más sofisticado que sea. 

La Asociación Americana de Psicología ya emitió en febrero de 2025 un llamado urgente al Congreso para regular el uso de IA en contextos de salud mental. No porque la IA sea mala, sino porque no hay estándares de cuidado, no hay licencias que protejan al usuario, y ya existen demandas legales por daños causados por chatbots que malinterpretaron crisis emocionales.

Entonces, ¿para qué sí y para qué no? 

Acá está la distinción que propongo, después de haberle dado muchas vueltas a todo este asunto. 

Usa la IA cuando quieras llegar a algo. Cuando necesitas organizar información, superar el bloqueo, mejorar la estructura, encontrar palabras para lo que ya sientes. Cuando es una escalera, no un elevador.

No la uses cuando el proceso mismo es el punto. Cuando la incomodidad de sentarte a escribir, de procesar una emoción, de enfrentarte a tu propio pensamiento, es el trabajo real. Cuando delegar el proceso significa nunca haberlo vivido.

Escribir unos votos de boda torpemente, tacharlos, volver a empezar, cambiar de opinión sobre lo que quieres prometer: ese proceso no es ineficiencia. Es la construcción de algo que te va a importar el resto de tu vida. La IA puede ayudarte a darle forma. No puede construirlo por ti.

Hay una investigadora de UC Berkeley, Jodi Halpern, que lo plantea de manera brillante al hablar de la relación entre IA y salud mental: “Podría ser un ciclo vicioso. No lo sabemos. Lo que sabemos es que cuando las personas están más deprimidas, es más probable que recurran a la IA para compañía”. El peligro, según Halpern, es que al elegir la “empatía diseñada” de un algoritmo, dejamos de practicar la curiosidad empática necesaria para conectar con otros humanos. Al final, si subcontratamos el esfuerzo de ser entendidos, corremos el riesgo de olvidar cómo entender a los demás.

Ese círculo merece atención. No para prohibir la IA, sino para preguntarnos qué estamos esquivando cuando la elegimos por encima del proceso humano.

La herramienta más poderosa del mundo puede hacernos más productivos, más informados, más capaces. Pero si se la delegamos también a nuestra vida emocional, a nuestras promesas más íntimas, a los momentos que deberían obligarnos a conocernos mejor, entonces no estamos siendo más eficientes. Estamos siendo menos nosotros. Y eso sí es un problema que ninguna IA puede resolver.

Author

Author

Sobre el autor

es directora de comunicación para las Américas en Intel.