El psicólogo de la era digital
ChatGPT se ha convertido en la herramienta a la que miles de personas acuden no solo para resolver dudas, sino también como confidente, apoyo emocional y terapeuta

Las personas utilizan cada vez más a ChatGPT como psicólogo. / Envato
La combinación de disponibilidad 24/7, tono amable y respuestas inmediatas se ha convertido en la fórmula perfecta para alimentar una sociedad acelerada, marcada por la inmediatez y la hiperconexión. No sorprende, entonces, que cada vez más personas recurran a la inteligencia artificial —como ChatGPT— para hablar de sus emociones, desahogarse o incluso buscar consejo terapéutico.
Lo que comenzó como una herramienta para resolver dudas o simplificar tareas cotidianas se ha convertido en un refugio emocional. Para la profesora de la facultad de psicología de la Universidad de Santiago de Compostela, Patricia Gómez, este auge refleja tanto una mayor conciencia sobre el bienestar mental como la falta de apoyos suficientes: «Cada vez nos preocupa más cómo gestionar nuestras emociones, pero también hay que tener en cuenta la soledad y las limitaciones del sistema sanitario público, que no logra dar respuesta a la creciente demanda de atención psicológica».
En ese vacío, la IA aparece como una alternativa accesible. El psicólogo especialista en psicología clínica, Xacobe Abel Fernández García, lo resume así: «Todas las personas buscan recursos para sentirse mejor. Antes se acudía a foros de internet o a cuentas de gurús; hoy la inteligencia artificial es un recurso más en esa búsqueda».
El espejismo terapéutico de la inteligencia artificial
«Desde luego, desaconsejaría totalmente que se considerase a ChatGPT como un buen terapeuta», advierte Patricia. La psicóloga reconoce que puede ser útil para organizar información o automatizar tareas, pero alerta sobre la falsa apariencia de fiabilidad: «Siempre genera una respuesta, aunque no sea cierta. Los expertos llaman a esto 'alucinaciones' de la IA. En cualquier campo es un problema, pero en salud mental la vulnerabilidad es mayor».
Xacobe comparte esa cautela y apunta a un riesgo añadido: «En una persona con dificultades, la IA puede incluso agravar el problema, porque no confronta lo que está pasando ni interpreta que pueda haber más detrás. Te da la razón y no vas más allá».
En la misma línea, la psicóloga clínica, Belén Montesa, subraya los límites de esta ilusión terapéutica: «La terapia es un arte. La IA puede dar una buena respuesta, pero la angustia, el vacío o la soledad no los va a calmar».
Lo que solo puede ofrecer un ser humano
Más allá del conocimiento técnico, la clave de la terapia reside en la relación humana.
«Algo fundamental para la eficacia del tratamiento es la alianza terapéutica entre paciente y profesional: un vínculo colaborativo basado en la confianza y el respeto. Es imposible generar este tipo de vínculo con una máquina», sostiene Patricia.
Montesa profundiza en esa idea: «La presencia y la mirada de otro ser humano, el tiempo que te dedica y el espacio seguro que crea son insustituibles. Con una máquina todo es más frío». Esa diferencia también se percibe en los matices del cuerpo y la voz. «El lenguaje no verbal aporta mucha información —posturas, gestos, tono, silencios— y la IA no puede conocer nada de ello cuando escribimos en un teclado», recuerda Patricia.
La psicóloga añade otro matiz importante: el papel del terapeuta no es complacer, sino incomodar para generar cambio. Montesa coincide: «La IA no te pone en aprietos ni te hace preguntas incómodas que te hagan pensar. El terapeuta tiene la obligación de movilizar al paciente; la IA no tiene intuición.»
Incluso la aparente ventaja de la disponibilidad constante puede volverse en contra. «Estar disponible 24/7 no genera autonomía, sino dependencia emocional y refuerza el sesgo de confirmación», advierte Patricia. Y Montesa resume: «Después de una sesión con la IA puedes calmarte un poco, pero no te interpela ni te hace cuestionarte.»
Riesgos invisibles
El uso de la inteligencia artificial como sustituto del terapeuta entraña riesgos que no siempre son evidentes. Para Patricia, el principal es el refuerzo del sesgo de confirmación: «En los sucesivos intercambios, el modelo genera contenido que se alinea cada vez más con las expectativas del usuario, dificultando la exposición a otros puntos de vista y favoreciendo la polarización del pensamiento».
Y esos riesgos, añade, pueden tener consecuencias graves: «En momentos de vulnerabilidad emocional, esto puede llevar a decisiones que no favorecen la salud mental o incluso que ponen en peligro la integridad física».
Xacobe coincide en que el alivio que ofrece la IA suele ser superficial. «Si llegas angustiado, seguramente te dé técnicas de relajación o recomendaciones para estar más tranquilo, pero difícilmente vas a entender de dónde surge esa angustia ni te va a confrontar para ir más allá».
A esto se suma otro frente de preocupación: la privacidad. Montesa advierte que «en la IA estás entregando un montón de información sobre ti mismo. En la consulta hay confidencialidad; aquí no sabemos qué ocurre con esos datos.»
Regular para proteger
Ante este escenario, Patricia es clara: la inteligencia artificial aplicada a la salud mental necesita normas. «Debemos fomentar entre niños, adolescentes y adultos el pensamiento crítico al usar la IA, pero estas acciones solo tendrán sentido si las plataformas cumplen con unas condiciones mínimas de seguridad, y eso debe regularse y exigirse a nivel legislativo».
La psicóloga compara este proceso con el ámbito médico: «Al igual que para introducir un nuevo fármaco o procedimiento quirúrgico se exige evidencia de seguridad, una aplicación de IA que va a ser utilizada masivamente debe garantizar que es segura para sus usuarios». Montesa coincide en la necesidad de control, aunque reconoce su utilidad:«A nivel clínico puede ayudarnos, pero nunca sustituir la relación terapéutica».
Xacobe, por su parte, introduce una visión de futuro más abierta: «Estamos inmersos en un cambio cultural en el que interactuar con inteligencias artificiales será cada vez más común y puede servir de apoyo. Pero tengo la esperanza de que no llegue a sustituir a mi profesión».
Y deja una reflexión final: «Las tecnologías no son buenas ni malas, dependen de cómo se usen. La inteligencia artificial es nueva y aún no sabemos su verdadero potencial ni si la estamos utilizando bien».
- Marisco de Canadá, Portugal y Marruecos devuelve el producto gallego de la lonja al mar: «Hay gente que lo vende como si fuese de aquí»
- Hallan un cuerpo colgado de un árbol frente a la Diputación de Pontevedra
- Condenan por intrusismo a un falso médico que atendió 9 días en Urgencias del hospital Álvaro Cunqueiro
- Los dueños del colegio Atalaya deben devolver 180.000 euros que les prestaron 5 docentes por hacerlos indefinidos
- Muere Amaya, la mujer del ingeniero vigués que hace cuatro meses hizo un llamamiento desesperado para salvarle la vida
- Educación abre una investigación en un colegio de Vigo por acoso a una niña de 5 años
- La parcela de la antigua estación de bus de Vigo será un espacio de encuentro social
- Vigo acogerá el próximo desfile del Día de las Fuerzas Armadas