“MI TERAPEUTA NO ME PREGUNTA POR LO QUE HABLO CON CHATGPT”
- Centro de Psicología Maribel Gámez

- hace 18 horas
- 4 Min. de lectura

Pues mal vais tu terapeuta y, sobre todo, tú. Estudios y encuestas recientes muestran que cada vez más adolescentes y adultos recurren a los chatbots de inteligencia artificial en busca de compañía y apoyo emocional. Por ello, los profesionales de la salud mental deberían preguntar a sus pacientes si utilizan esta tecnología y cómo lo hacen, del mismo modo que solicitan información sobre el sueño, la dieta, el ejercicio y el consumo de alcohol y otras sustancias.
Entre los estudios recientes que se preocupan por esta cuestión cabe señalar ‘Patients Use AI-Clinicians Should Ask How’ [Los pacientes usan IA: los médicos deberían preguntar cómo], de Shaddy K. Saba y William B. Weeks, publicado en abril de 2026, así como ‘Artificial intelligence, wellness apps alone cannot solve mental health crisis’ [La inteligencia artificial y las aplicaciones de bienestar por sí solas no pueden resolver la crisis de salud mental], comunicado de prensa de la American Psychological Association publicado en noviembre de 2025.

"No estamos diciendo que el uso de la IA sea bueno o malo…", dice Shaddy Saba, profesor asistente en la Escuela de Trabajo Social Silver de la Universidad de Nueva York y coautor del primero de los estudios citados, "… del mismo modo que no diríamos que el consumo de sustancias es necesariamente bueno o malo, [o] que consultar con un amigo sobre algo es bueno o malo."
Sin embargo, según afirma también, conocer el uso que una persona hace de la Inteligencia Artificial para obtener apoyo emocional y consejos podría proporcionar información valiosa sobre la vida y el estado de salud mental de esa persona al terapeuta. “Nuestro trabajo consiste en comprender por qué las personas se comportan como lo hacen; en este caso, por qué buscan ayuda en un sistema de IA”, añade Saba. “Y en averiguar qué les aporta y qué no les aporta”.

En la misma línea se encuentran las recomendaciones de la APA en el segundo informe citado. Según explica Vaile Wright, Directora Senior de Innovación en Atención Médica de la APA, preguntar qué obtiene un paciente de sus conversaciones con un chatbot de IA sienta "las bases para que el terapeuta comprenda mejor cómo intenta gestionar su bienestar emocional y su enfermedad mental."
"La gente utiliza estas herramientas con regularidad para preguntar cómo afrontar experiencias estresantes y problemas en sus relaciones personales. Y algunos están utilizando chatbots para obtener consejos sobre cómo afrontar los síntomas de la ansiedad y la depresión. En la medida en que podamos animar a nuestros pacientes a traer estas conversaciones a la sala de terapia, y cada vez con más detalle, encontraremos que existe un potencial tesoro de información", explica Saba, “ya que podría tratarse de información sobre las principales causas de estrés en la vida de una persona, o de saber si recurre a un chatbot como forma de evitar confrontaciones.”

"Digamos, por ejemplo, que tienes un paciente que está teniendo problemas de pareja", comenta Wright, de la APA. "Y en lugar de intentar tener conversaciones abiertas con su pareja sobre cómo satisfacer sus necesidades, recurre al chatbot para cubrir esas necesidades o para evitar tener esas conversaciones difíciles con su cónyuge". Obviamente, si el terapeuta conoce esta información podrá brindar un mejor apoyo al paciente, explica. Se trata de "… ayudarles a comprender cómo tener una conversación segura con su cónyuge, así como ayudarles a comprender las limitaciones de la IA como herramienta para cubrir esas carencias."
Hablar sobre el uso de la IA también brinda la oportunidad de conocer aspectos que un paciente podría no compartir voluntariamente con un terapeuta, afirma el psiquiatra Dr. Tom Insel , exdirector del Instituto Nacional de Salud Mental . "La gente suele usar los chatbots para hablar de cosas que no pueden compartir con otras personas por miedo a ser juzgados", explica.

Por ejemplo, los pensamientos suicidas pueden ser algo que un paciente se resista a compartir en toda su plenitud con su terapeuta, pero es fundamental que el terapeuta lo sepa para garantizar la seguridad del paciente.
Saba y William Weeks también sugieren preguntar a los pacientes si alguna interacción con el chatbot les resultó poco útil o problemática, y ofrecerles además compartir los riesgos de usar chatbots para obtener apoyo emocional. Por ejemplo, los riesgos para la privacidad de los datos, ya que muchas empresas de IA utilizan las conversaciones —incluso las delicadas— para seguir entrenando sus modelos.
Pero, además, según Insel también existen riesgos al tratar a un chatbot como si fuera un terapeuta. Concretamente opina que hablar con un chatbot sobre la salud mental es "lo contrario de la terapia", porque los chatbots están diseñados para afirmar y halagar, reforzando los pensamientos y sentimientos de los usuarios, mientras que "La terapia está ahí para ayudarte a cambiar y a desafiarte y para que hables de cosas que son particularmente difíciles."

La psicóloga Cami Winkelspecht tiene una consulta privada en Wilmington, Delaware, donde trabaja principalmente con niños y adolescentes. Había estado tomando en consideración la posibilidad de agregar preguntas sobre las redes sociales y el uso de la Inteligencia Artificial a su formulario de admisión a consulta y agradeció el estudio de Saba, ya que ofrecía algunos ejemplos de preguntas para incluir.
Durante el último año, Winkelspecht ha visto un número creciente de pacientes adolescentes y sus padres que le piden ayuda para usar la IA en sesiones de lluvia de ideas y para realizar otras tareas sin infringir las normas de su escuela. Por lo tanto, ha tenido que familiarizarse con la tecnología para poder ayudar a sus pacientes. En el proceso, la psicóloga se ha dado cuenta de que tanto los terapeutas como los padres deben ser más conscientes de cómo los niños y adolescentes usan sus dispositivos digitales, así en las redes sociales como en los chatbots de IA.

"No solemos pensar mucho en lo que hacen con sus teléfonos", dice Winkelspecht. "Y creo que es bastante evidente que debemos prestarle más atención y animarnos a tener una buena conversación al respecto."
Si quieres hacer un comentario, recuerda iniciar sesión o registrarte en el recuadro de la esquina superior derecha de la entrada. Nos encantará leerte.
Y si nos das un “me gusta” haciendo clic en el corazoncito, estaremos más encantados todavía.






Se me ha ocurrido comentar con un par de conocidos que están en terapia y, sin detalles, me han dado a entender que su "psicopateador", que así es como uno le llama de broma, les pregunta por pocas cosas.
Yo no se lo diría......
Jajajafa
Pues en el Centro Maribel Gámez eso no pasa. Por lo que sé es una de las clínicas psicológicas que más importancia dan a la IA, y con razón, por lo que se ve. Gracias.