ChatGPT o ser humano: ¿qué prefieres para tomar terapia?
Imagina contarle tus problemas más profundos a alguien que no te mira a los ojos, no capta tus silencios ni entiende si estás esquivando algo grande. Eso es ChatGPT intentando hacer terapia. Aunque puede sonar cool que una IA te escuche 24/7, desde el lente de la psicología, hay razones serias por las que no […]

Imagina contarle tus problemas más profundos a alguien que no te mira a los ojos, no capta tus silencios ni entiende si estás esquivando algo grande. Eso es ChatGPT intentando hacer terapia. Aunque puede sonar cool que una IA te escuche 24/7, desde el lente de la psicología, hay razones serias por las que no funciona. No es solo que le falte corazón; es que no tiene lo necesario para ayudarte de verdad.
¿Por qué no es adecuado hacer terapia con ChatGPT?
La terapia no es solo charlar; es entender todo el contexto. Un psicólogo observa cómo hablas, qué callas, tu tono, tus gestos (cosas que revelan más que las palabras solas). ChatGPT solo lee texto, no puede ver si estás evitando un tema, racionalizando o desconectándote del mundo. Esos detalles son oro para trabajar tus patrones, y una IA simplemente no los ve. Sin esta visión en vivo, se pierde el mapa de lo que realmente te pasa. Luego está el lazo humano. En psicología, la relación con tu terapeuta es un espacio seguro donde pruebas cosas nuevas y sientes apoyo. Sin empatía de carne y hueso, no hay magia. ChatGPT no te da esa mirada que dice “estoy contigo” ni maneja los momentos intensos que surgen entre dos personas. Es un teclado, no un compañero.
Los riesgos de confiar en un chatbot
No es solo que no entienda; puede meter la pata sin querer. ChatGPT podría alimentar hábitos que te traban, como rumiar pensamientos o darte las respuestas perfectas que te dejen en el mismo lugar. En terapia, el punto es moverte, no darte un loop infinito de palabras bonitas. Si te enganchas pidiéndole más y más, podrías quedarte atorado en vez de avanzar. ¿Y qué pasa si estás en crisis? Un terapeuta de carne y hueso evalúa riesgos (suicidio, violencia, abuso) y actúa rápido, conectándote con ayuda si hace falta. ChatGPT no tiene esa responsabilidad ni supervisión ética. No puede garantizar confidencialidad legal ni activar redes de apoyo. Es una herramienta, no un guardián.
Pseudo-terapia: el peligro de creer que es suficiente
Aquí viene el truco: ChatGPT puede darte información muy útil (psicoeducación, tips generales) y hasta sonar convincente. Pero eso no es terapia. Es contenido automatizado, no un proceso personal. El riesgo es que pienses “esto me basta” y te quedes con una pseudo-ayuda que no toca tus raíces ni te desafía. Peor aún, podría alinearse a tus sesgos, dándote lo que quieres oír en vez de lo que necesitas enfrentar.
María Dolores Delblanch, una paciente real, le creyó más a ChatGPT que a su psicóloga (historia real del 2025). Le dio un diagnóstico diferente al profesional, y ella prefirió irse con la IA. Su terapeuta vio los errores, pero María ya estaba convencida. Eso es lo que pasa cuando una máquina se mete donde no debe.
¿Qué sí puede hacer ChatGPT?
No todo es malo. Desde un lugar responsable, ChatGPT puede ser un apoyo básico: darte información sobre emociones, sugerir ejercicios simples como anotar cómo te sientes, o animarte a buscar un psicólogo de verdad. Es como un amigo que te da un libro de autoayuda (te orienta, pero no te transforma). Úsalo para aprender o dar un primer paso, no para reemplazar el trabajo real.