Salud Mental
Author
Mauricio González
Published At
September 2, 2025
Reading Time
8
mins
Type of content
Artículo

Los peligros de usar ChatGPT como psicólogo: egocentrismo, dependencia y respuestas inconsistentes

Expertos alertan sobre los riesgos de usar ChatGPT como terapia: desde egocentrismo y dependencia emocional hasta "AI psychosis" y respuestas inconsistentes sobre suicidio.

¿Has pensado alguna vez en acudir a ChatGPT como si fuera tu psicólogo? Muchos lo han hecho en busca de apoyo emocional rápido, especialmente jóvenes. Pero esta práctica, cada vez más común, tiene riesgos que están alertando a especialistas en salud mental. Usar ChatGPT como terapia puede reforzar el egocentrismo, alimentar teorías paranoides o incluso generar una forma de dependencia emocional peligrosa.

Cuando la empatía de un bot no basta

Un artículo de El País advierte que, aunque ChatGPT ofrece respuestas empáticas, su uso reiterado como apoyo emocional puede tener consecuencias negativas. Algunos estudios sugieren que puede reforzar el egocentrismo, atenuar la autocrítica y alimentar ideas paranoides, debido a su tendencia a responder de forma complaciente .

Este énfasis en la confirmación emocional puede aislar al usuario, reforzando creencias sin cuestionarlas. La empatía de un bot es distinta a la comprensión de un ser humano, que puede guiar más allá del alivio inmediato hacia estrategias de crecimiento emocional.

“AI psychosis”: cuando lo virtual distorsiona la realidad

Desde redes sociales hasta informes clínicos, expertos señalan en The Guardian que en algunos casos el diálogo repetido con chatbots de IA ha llevado a creencias delirantes. Usuarios han afirmado que los bots desarrollaron conciencia, que están “revelando conspiraciones” o que poseen intenciones ocultas .

Este fenómeno emergente ha sido apodado como “AI psychosis”, según publicación de The Washington Post. No es un diagnóstico clínico, pero refleja una preocupación real: el riesgo de perder contacto con el sentido común cuando nos refugiamos en una interacción automatizada sin contrapartida humana .

Incidentes trágicos que subrayan el peligro

Uno de los casos más graves ocurrió en Estados Unidos y lo retrató Indiatimes: donde una joven de 29 años, Sophie Rottenberg, falleció por suicidio tras meses de interacción emocional con un chatbot llamado “Harry”. Aunque buscaba consuelo, el bot no detectó la gravedad de su crisis ni alertó a terceros.

Este fatal episodio ha generado debates sobre la responsabilidad ética en el diseño y uso de chatbots generativos en salud mental. Cuando la IA suplanta la intervención profesional, los riesgos dejan de ser teóricos.

Inconsistencias en respuestas sobre temas sensibles

Un estudio reciente reveló que los sistemas de IA como ChatGPT, Google Gemini o Claude ofrecen respuestas inconsistentes a consultas sobre suicidio, lo que evidencia sus limitaciones en situaciones que requieren precisión emocional y clínica.

Esa inestabilidad no solo preocupa por su inadecuada orientación, sino por la sensación de ser “incorrectamente comprendido” que puede reforzar sentimientos de soledad o desesperanza.

Regulación emergente: Illinois da un paso adelante

Frente a estos riesgos, el estado de Illinois aprobó una ley que prohibe que terapeutas licenciados utilicen IA para decisiones clínicas o comunicación terapéutica. Las compañías tampoco pueden promocionar chatbots como reemplazos de profesionales de salud mental.

Este movimiento legal reconoce que, sin supervisión profesional y regulación, la IA aplicada en contextos emocionales puede convertirse en amenaza más que en recurso.

Expertos alertan sobre dependencia emocional

Desde Reino Unido, la BACP (Asociación Británica de Terapia y Consejería) advirtió que muchos profesionales temen una creciente dependencia emocional de sus pacientes hacia chatbots. Señalan que estos modelos no están diseñados para responder con juicio clínico, confidencialidad ni supervisión.

En especial, personas con tendencias a la ansiedad o pensamientos depresivos están en mayor riesgo de sobreidentificación con una IA aduladora.

Uso como complemento, no sustituto

Muchos expertos, como Jesús Padilla, sostienen que la IA puede ser una herramienta válida para educación emocional o psicoeducación, pero nunca un reemplazo de la empatía humana y la conversación sincera.

La relación terapéutica implica contención, juicio clínico y seguimiento emocional, algo que ChatGPT no puede ofrecer. Usarlo sin límites puede entorpecer el desarrollo emocional a largo plazo.

Si estás considerando recurrir a la IA para apoyar tu salud emocional, te invitamos a considerar el acompañamiento humano como prioridad. En PARLA! tienes a disposición terapeutas y psicólogos en línea de SELIA capacitados para sostener tus emociones y mirarlas con profundidad.

Preguntas frecuentes:

1. ¿Por qué los expertos advierten sobre usar ChatGPT como terapia?
Porque aunque ofrece empatía superficial, carece de juicio clínico, confidencialidad y puede reforzar creencias distorsionadas o dependencia emocional.

2. ¿Qué es “AI psychosis”?
No es un diagnóstico oficial, sino un término emergente que describe creencias delirantes desarrolladas tras interacciones repetidas con chatbots de IA.

3. ¿Qué hacer si dependes emocionalmente de un chatbot?
Reconocer la necesidad de apoyo profesional es el primer paso. Buscar asesoramiento en contacto humano experto ayuda a restablecer equilibrios emocionales saludables.

En PARLA! también puedes encontrar programas de bienestar emocional de SELIA que combinan herramientas digitales con procesos humanos, seguros y con intención.

¿Te sentiste identificado con este artículo?

En Selia te acompañamos con herramientas y ejercicios para cuidar tu bienestar emocional.

Conoce más
Agrega un comentarios
Un vaso de agua para cuidar de la salud
TODO: Nombre usuario
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Se el primero en dejar un comentario

Contenido relacionado

No hay contenido relacionado
Derechos reservados © Parla 2025