Hoy en día, la Inteligencia Artificial parece dominar gran parte del internet. Y es que, no solo la gente la está usando para mejorar su trabajo o incluso para hacer la tarea, sino también para encontrar apoyo, ya sea emocional o psicológico.
Así como lo lees, hay muchas personas que están utilizando a ChatGPT como terapeuta. Y, aunque muchos dicen que es increíblemente útil, la realidad es que no es lo mismo que ir a terapia. Entonces, ¿sabes qué riesgos podría tener esta práctica?
¿Por qué la gente usa ChatGPT como terapeuta?
Para muchos, abrir ChatGPT y escribir lo que sienten es más fácil que pedir una cita con un psicólogo. Es inmediato, gratuito y, según algunos usuarios en redes sociales, más "útil" que las sesiones reales.
Hay quienes afirman haberle contado a ChatGPT cosas que jamás le dirían a otro ser humano, y encuentran en sus respuestas un espacio para desahogarse, planear soluciones o simplemente sentirse escuchados.
Esto tiene sentido en un mundo donde el acceso a la salud mental sigue siendo desigual y costoso. Sumado a la cultura del “hazlo tú mismo”, no sorprende que las personas busquen autonomía emocional también en sus momentos de crisis.
Si le das las indicaciones adecuadas, ChatGPT responde con precisión, validación y un lenguaje neutral que puede sentirse reconfortante. Pero esta dinámica también genera una ilusión: que una conversación eficiente puede reemplazar un proceso emocional profundo.
Y aunque muchos lo usan como una herramienta complementaria o reflexiva, otros comienzan a depender emocionalmente de esta “voz digital” sin considerar los matices que hacen que la terapia real funcione.
Los riesgos de usar a ChatGPT como terapeuta
La terapia, en su esencia, es relacional. No se trata solo de lo que se dice, sino de cómo se siente la interacción con otro ser humano. La presencia de un terapeuta real, con su empatía, lenguaje corporal y respuestas emocionalmente conscientes, puede marcar la diferencia entre una charla útil y un proceso de sanación.
ChatGPT, por más avanzado que sea, no tiene emociones. No puede ofrecer empatía real, ni detectar patrones de transferencia, ni sostener el peso emocional que implica acompañar a alguien en sus traumas.
Si bien puede dar buenos consejos o incluso detectar señales de alerta, no puede suplir el contacto psicológico humano, ese que ayuda a sentir que realmente le importas a alguien.
Y ahí radica el peligro: cuando alguien empieza a ver al chatbot como su única fuente de consuelo emocional, se desdibujan los límites entre autoayuda y evasión. Puede que ChatGPT diga lo que uno quiere escuchar, pero no necesariamente lo que necesita para crecer emocionalmente. El riesgo es crear un entorno emocional sin fricciones, sin desafíos y sin vulnerabilidad compartida.
¿Qué pasará a largo plazo si se sigue usando a ChatGPT como terapeuta?
A largo plazo, sustituir la conexión humana por una interacción con IA podría tener implicaciones profundas. Uno de los pilares de la salud mental es sentirse visto y validado por otro ser humano, y eso no puede simularse por completo con un algoritmo, por más bien entrenado que esté.
Además, esta dinámica puede generar patrones emocionales poco sanos: hablar solo con una voz programada para complacerte, evitar la incomodidad del conflicto o del autoconocimiento profundo, y crear una dependencia emocional con algo que no está vivo. En lugar de sanar, podríamos estar alimentando heridas invisibles.
La inteligencia artificial puede ser una herramienta poderosa en el bienestar emocional: puede ayudar a identificar patrones, ofrecer recursos y reducir la carga de sistemas de salud mental saturados. Pero llamarlo terapia no solo es impreciso, sino que también puede ser peligroso.
ChatGPT puede ser un apoyo valioso, pero no un sustituto. Porque al final del día, no hay código que pueda imitar el poder transformador de una mirada empática, una pausa significativa o el silencio compartido entre dos personas reales.
¿Lo sabías?