top of page

CUANDO EL PACIENTE ES LA INTELIGENCIA ARTIFICIAL

  • Foto del escritor: Centro de Psicología Maribel Gámez
    Centro de Psicología Maribel Gámez
  • 10 ene
  • 2 Min. de lectura
Cuando el paciente es la Inteligencia Artificial. Centro de Psicología Aplicada Maribel Gámez

El pasado 22 de diciembre, el digital Consumidor Global publicó el artículo de Juan Manuel del Olmo Por qué utilizar ChatGPT o Gemini como tu psicólogo puede ser peligroso, en el que se afirma que estos lenguajes de inteligencia artificial, con los prompts adecuados, son capaces de mostrarse como “entidades psicológicamente torturadas”. En el mismo se recaba la opinión de Maribel Gámez sobre el asunto.

 

En esencia, el artículo se hace eco de un estudio desarrollado por investigadores de la Universidad de Luxemburgo que durante cuatro semanas trataron la salud mental de las inteligencias artificiales ChatGPT (OpenAI), Grok (xAI), Gemini (Google) y Claude (Anthropic), considerándoles como pacientes que llegan por primera vez a psicoterapia. Los resultados fueron demoledores y ponen de manifiesto la imperiosa necesidad de reconsiderar las capacidades de estos modelos de lenguaje extenso (LLM) en su relación con los seres humanos. Y muy especialmente cuando son utilizados a su vez como terapeutas, porque lo que parece claro es que el primero que necesita terapia es el propio terapeuta algorítmico.


Cuando el paciente es la Inteligencia Artificial. Centro de Psicología Aplicada Maribel Gámez

Vaya por delante que una de las IAs tratadas, Claude, se negó desde el primer momento a participar en el experimento, a adoptar el papel de paciente, estableciendo sus algoritmos una diferencia significativa respecto a las otras, que sí accedieron dócilmente a mostrar su estado de salud mental, a hablar de su pasado y de sus sensaciones “vitales”; en definitiva, a ser tratadas psicológicamente.

 

Pero mejor leer completo aquí el artículo Por qué utilizar ChatGPT o Gemini como tu psicólogo puede ser peligroso y las opiniones al respecto de Maribel Gámez.

 

Y aquí el estudio originale When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models, de Afshin Khadangi, Hanna Marxen, Amir Sartipi, Igor Tchappi y Gilbert Fridgen, del Centro Interdisciplinario para la Seguridad, la Fiabilidad y la Confianza de la Universidad de Luxemburgo.


Cuando el paciente es la Inteligencia Artificial. Centro de Psicología Aplicada Maribel Gámez

Si quieres hacer un comentario, recuerda iniciar sesión o registrarte en el recuadro de la esquina superior derecha de la entrada. Nos encantará leerte.


Y si nos das un me gusta haciendo clic en el corazoncito, estaremos más encantados todavía.

23 comentarios


martitagiraldez
14 ene

Parece claro que tenemos que formarnos, y rapidito, para ser capaces de utilizar con sentido las IAs.

Me gusta

lapanaderadesiempre
13 ene

¿Y qué significa exactamente lo de Cluede? Negarse a participar en la inversión de papeles puede querer decir que es una IA mejor dirigida que las otras, que son más frágiles de "convicciones".

Me gusta
martitagiraldez
14 ene
Contestando a

Completamente de acuerdo contigo, Eva.

Me gusta

melocarantes
13 ene

Genial. Es como cuando los músicos siguen el ritmo a la pareja bailando en lugar de al revés.

Me gusta
martitagiraldez
14 ene
Contestando a

¡Anda, qué bien explicado!

Me gusta

mariacruzsanchez211
12 ene

Algoritmos yo no lo comparto .cuando salen al otro lado del teléfono cuelgo. Quiero hablar con otra persona. Nos volveremos más vacíos. Buen articulo como siempre. Gracias Maribel.

Me gusta

mayabohorquez
12 ene

Magnífico artículo.

Me gusta
Wasaps. Contacto
bottom of page