¿Has pensado alguna vez en acudir a ChatGPT como si fuera tu psicólogo? Muchos lo han hecho en busca de apoyo emocional rápido, especialmente jóvenes. Pero esta práctica, cada vez más común, tiene riesgos que están alertando a especialistas en salud mental. Usar ChatGPT como terapia puede reforzar el egocentrismo, alimentar teorías paranoides o incluso generar una forma de dependencia emocional peligrosa.
Un artículo de El País advierte que, aunque ChatGPT ofrece respuestas empáticas, su uso reiterado como apoyo emocional puede tener consecuencias negativas. Algunos estudios sugieren que puede reforzar el egocentrismo, atenuar la autocrítica y alimentar ideas paranoides, debido a su tendencia a responder de forma complaciente .
Este énfasis en la confirmación emocional puede aislar al usuario, reforzando creencias sin cuestionarlas. La empatía de un bot es distinta a la comprensión de un ser humano, que puede guiar más allá del alivio inmediato hacia estrategias de crecimiento emocional.
Desde redes sociales hasta informes clínicos, expertos señalan en The Guardian que en algunos casos el diálogo repetido con chatbots de IA ha llevado a creencias delirantes. Usuarios han afirmado que los bots desarrollaron conciencia, que están “revelando conspiraciones” o que poseen intenciones ocultas .
Este fenómeno emergente ha sido apodado como “AI psychosis”, según publicación de The Washington Post. No es un diagnóstico clínico, pero refleja una preocupación real: el riesgo de perder contacto con el sentido común cuando nos refugiamos en una interacción automatizada sin contrapartida humana .
Uno de los casos más graves ocurrió en Estados Unidos y lo retrató Indiatimes: donde una joven de 29 años, Sophie Rottenberg, falleció por suicidio tras meses de interacción emocional con un chatbot llamado “Harry”. Aunque buscaba consuelo, el bot no detectó la gravedad de su crisis ni alertó a terceros.
Este fatal episodio ha generado debates sobre la responsabilidad ética en el diseño y uso de chatbots generativos en salud mental. Cuando la IA suplanta la intervención profesional, los riesgos dejan de ser teóricos.
Un estudio reciente reveló que los sistemas de IA como ChatGPT, Google Gemini o Claude ofrecen respuestas inconsistentes a consultas sobre suicidio, lo que evidencia sus limitaciones en situaciones que requieren precisión emocional y clínica.
Esa inestabilidad no solo preocupa por su inadecuada orientación, sino por la sensación de ser “incorrectamente comprendido” que puede reforzar sentimientos de soledad o desesperanza.
Frente a estos riesgos, el estado de Illinois aprobó una ley que prohibe que terapeutas licenciados utilicen IA para decisiones clínicas o comunicación terapéutica. Las compañías tampoco pueden promocionar chatbots como reemplazos de profesionales de salud mental.
Este movimiento legal reconoce que, sin supervisión profesional y regulación, la IA aplicada en contextos emocionales puede convertirse en amenaza más que en recurso.
Desde Reino Unido, la BACP (Asociación Británica de Terapia y Consejería) advirtió que muchos profesionales temen una creciente dependencia emocional de sus pacientes hacia chatbots. Señalan que estos modelos no están diseñados para responder con juicio clínico, confidencialidad ni supervisión.
En especial, personas con tendencias a la ansiedad o pensamientos depresivos están en mayor riesgo de sobreidentificación con una IA aduladora.
Muchos expertos, como Jesús Padilla, sostienen que la IA puede ser una herramienta válida para educación emocional o psicoeducación, pero nunca un reemplazo de la empatía humana y la conversación sincera.
La relación terapéutica implica contención, juicio clínico y seguimiento emocional, algo que ChatGPT no puede ofrecer. Usarlo sin límites puede entorpecer el desarrollo emocional a largo plazo.
Si estás considerando recurrir a la IA para apoyar tu salud emocional, te invitamos a considerar el acompañamiento humano como prioridad. En PARLA! tienes a disposición terapeutas y psicólogos en línea de SELIA capacitados para sostener tus emociones y mirarlas con profundidad.
1. ¿Por qué los expertos advierten sobre usar ChatGPT como terapia?
Porque aunque ofrece empatía superficial, carece de juicio clínico, confidencialidad y puede reforzar creencias distorsionadas o dependencia emocional.
2. ¿Qué es “AI psychosis”?
No es un diagnóstico oficial, sino un término emergente que describe creencias delirantes desarrolladas tras interacciones repetidas con chatbots de IA.
3. ¿Qué hacer si dependes emocionalmente de un chatbot?
Reconocer la necesidad de apoyo profesional es el primer paso. Buscar asesoramiento en contacto humano experto ayuda a restablecer equilibrios emocionales saludables.
En PARLA! también puedes encontrar programas de bienestar emocional de SELIA que combinan herramientas digitales con procesos humanos, seguros y con intención.
En Selia te acompañamos con herramientas y ejercicios para cuidar tu bienestar emocional.
Conoce más