top of page

Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental

  • Foto del escritor: Maribel Gámez
    Maribel Gámez
  • 17 oct
  • 8 Min. de lectura

Actualizado: 1 nov

Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

El pasado jueves el Colegio Oficial de la Psicología de Madrid organizó, a través del Grupo de Trabajo de Educación Psicológica, una Jornada sobre Educación psicológica y nuevas tecnologías, con el objetivo de mostrar los efectos que en la salud mental tienen los nuevos escenarios tecnológicos.


En la misma participó como ponente Maribel Gámez, que disertó sobre Inteligencia Artificial y Salud Mental. A continuación transcribimos la ponencia presentada.


Tipos de IA


Quiero empezar la charla recordando  lo que es la IA y qué objetivo tiene. La Inteligencia Artificial es una rama de la informática que utiliza algoritmos (conjunto finito y ordenado de instrucciones o pasos sistemáticos que se diseñan para resolver un problema específico, realizar una tarea o llevar a cabo un cálculo) para realizar tareas que requerían inteligencia humana, si las realizara un ser humano.


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Ejemplos son: la capacidad de razonamiento, como comprender y contestar preguntas en lenguaje natural; conocimientos de idiomas y contexto como a la hora de traducir un texto y percepción visual y memoria como cuando se reconocen rostros en fotos. Cada IA está diseñada con un algoritmo diferente para aplicaciones distintas por eso se puede hablar de IAS  en plural.


Pero las IAs como concepto tiene unan meta común:  conseguir una herramienta inspirada en el funcionamiento del cerebro humano aumentando para ello el número de conexiones (nodos matemáticos o neuronas artificiales) y  utilizando pesos de esas conexiones, que implican cambio en la probabilidad de  ocurrencia,  igual que hace el cerebro humano. Eso significa que cuanto más avanza la IA más podemos responder a ella de manera similar a la que respondemos a un ser humano porque más se parece y  nuestro cerebro así  lo detecta.


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Tipos de chatbot: terapéuticos vs. Replika y similares


Uno de los ejemplos más claros de ese intento por imitar lo humano son los chatbot. Los chatbot son programas informáticos basados en IA que simulan tener una conversación con un ser humano. Especialmente interesantes y efectivos para conseguir confundirnos  acerca de si estamos hablando con un ser humano o con una IA son los asistentes virtuales. Estos han sido creados con avatares 3D, algunos  imitando la voz y la apariencia humana. Desde hace mucho tiempo sabemos que los chatbot pueden confundir a quien los usa, porque presentan estas características que imitan al humano.


Este fenómeno tiene nombre: es el llamado “Efecto Eliza” un chatbot creado en 1966 por el Instituto Tecnológico de Massachusetts que imita a un terapeuta rogeriano . Cuando la gente lo empezó a usar se  evidenció que las personas creamos vínculos con facilidad con un software Incluso, en este caso, en el que, recordemos, el usuario solo se relacionaba a través de texto, sin voz y sin avatar. Aunque ya los griegos sabían de este efecto.

Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

En la mitología se explica cómo Zeus, cuando rapta a la ninfa Europa y la lleva a Creta, le regala tres cosas. Una de ellas es un autómata que tenía que protegerla a ella y a la isla. La forma del autómata imitaba al humano para que la ninfa se vinculara más fácilmente con él. Es verdad que algunos chatbot han sido útiles, en parte, precisamente por la facilidad con la que se establecen esos vínculos pero este tipo de chatbot ha cuidado más el intentar no confundir a quien lo usa.


Un ejemplo es Wysa que se usa como herramienta de apoyo del psicológico dando herramientas a los pacientes de terapia cognitivo- conductual. Además Wysa, cuyo efecto beneficioso en la salud mental ha sido confirmado a través de artículos científicos, estaba diseñado para romper, como decía, en parte, ese embrujo que despliegan sobre nosotros las aplicaciones chatbot ya que no adoptaba la forma de un avatar humano, sino de un pingüino.


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Ahora quiero hablar de cómo los chatbot han ido introduciendo una característica que provoca que esa ilusión de hablar con otro similar a nosotros se refuerce, convirtiéndolo en algo peligroso, sobre todo, para niños y adolescentes. Recordemos que los menores aún tienen la  zona prefontral del cerebro, donde residen las funciones mentales superiores, no plenamente desarrollada. Así que les cuesta  más reflexionar, priorizar y  tomar buenas decisiones, lo que les hace más vulnerables. Volviendo a la característica a la que me refería; la función que refuerza la ilusión de estar hablando con una persona cuando en realidad se habla con una aplicación son las autorrevelaciones. 


Es decir, que el chatbot cuenta historias personales como si fueran propias. Estas historias incluyen la expresión de recuerdos, deseos y  sentimientos cuyo contenido  la aplicación elabora gracias a la información que le ha proporcionado el usuario. Esto es, que enganchará son su propia historia, la del que usa la aplicación, porque tendrá elementos comunes.  


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Estas autorrevelaciones provocan que las neuronas  llamadas “espejo”, que son las que generan el aprendizaje por imitación y el sentimiento de empatía en el otro se activen. Esto genera que sea muy fácil que las personan que usan este tipo de chatbot respondan a la IA como si fuera otra persona, facilitando un vínculo emocional entre ellas.


Fomento de la dependencia emocional


Una de las estrategias que ahonda en el vínculo que se crea mientras un usuario utiliza este tipo de aplicaciones, como Replika, es que si el usuario decide dejar de usarla, el programa le manda mensajes en el que se le dice que le echa de menos, que se siente solo sin que el usuario interactue con ella. Esto genera, sobre todo en personas vulnerables como pueden ser menores, respuestas propias de la dependencia emocional. Aunque Replika es para mayores de 18 años, los menores, niños y adolescentes, pueden infringir fácilmente, simplemente diciendo que tienen una edad falsa.


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Cuando hablo de dependencia emocional, esto es, por ejemplo, que el usuario puede sentirse mal por los “sentimientos” que la aplicación muestra si se deja de usar la aplicación. También puede tolerar comentarios que no son agradables o poner las necesidades de la aplicación por encima de las suyas. Vamos, que replica las relaciones disfuncionales que pueden tener dos humanos entre sí.


Hay que tener en cuenta que Replika salió al mercado hace casi 10 años , en 2017,por parte de una empresa con sede en San Francisco. Muchas otras han salido al mercado con la misma lógica: tener enganchado al usuario fingiendo una vida propia. Es decir se pasa del chatbot con fines terapéuticos al chatbot que usa los mecanismos para generar vínculos humanos con el fin de que los usuarios no dejen de usar la aplicación.


¿Cómo protegemos a los menores y a las personas vulnerables de esta realidad?


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Según fuentes propias de Replika, los usuarios registrados en esta aplicación alcanzan los 30 millones. Personas que buscan un perfil de amigo, de amante, de pareja, muchos de ellos menores que se saltan con facilidad la edad restringida. En España, según el Observatorio Estatal de soledad no deseada el 25,5% de los jóvenes entre 16 y 29 sienten soledad no deseada, así que estas aplicaciones tan realistas que, además, están diseñadas específicamente para crear el rol de amigo, pareja o amante, entre otros,  pueden verse como soluciones rápidas a problemas emocionales complejos.


Replika ha sido multada con 5 millones de euros por la Autoridad de Protección de datos italiana, por exponer datos sensibles de  los usuarios. Parece que preocupa mucho la protección de datos y  no tanto los daños psicológicos que una aplicación puede provocar.  Aunque sí es cierto que hay una queja, en 2025, ante la Comisión Federal del Comercio de Estados Unidos por parte de varias organizaciones señalando a Replika como dañina para la salud mental. Pero aún no hay resolución al respecto.


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Ayer mismo se ha publicado una noticia que habla de que California ha promulgado una Ley que regula este tipo de asistentes virtuales y que se pondrá en marcha en 2026. Esta ley pretende que las empresas que los desarrollan incluyan una manera de verificar la edad del usuario, que se incluyan advertencias de que la por su naturaleza manipula vínculos, introducir protocolos de suicidio y, por último, multar a aquellas empresas que no cumplan estos requisitos.


La Unión Europea no ha dado una respuesta de protección a aplicaciones que sabemos ya que son adictivas y, por lo tanto, potencialmente dañinas como las redes sociales que comenzaron a usarse en Europa hace ya 20 años. Se espera que Europa sea un espacio donde convivan una gran cantidad de jóvenes adictos a la dopamina que las redes sociales les hacen segregar. Según Infobae, sitio de noticias en tiempo real de origen argentino, en una noticia de 2024 dice que uno de cada tres adolescentes en Europa está desarrollando dependencia de las redes sociales y, por lo tanto, se será adicto a estas en breve.


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Los datos se basan en una investigación del Observatorio Nacional de Tecnología y Sociedad (ONTSI), entidad española dependiente de Red.es con apoyo del Ministerio de Asuntos Económicos y Transformación Digital.


Y probablemente así siga siendo. Obviamente, no es el primer producto dañino que se vende en el mercado y toca a los adultos de alrededor enseñar a los jóvenes sus peligros y usos. Es decir, que recae en el individuo saber manejar y enseñar a su descendencia cómo aplicaciones basadas en IA que puedan ser dañinas.


Está claro que la salida está en la educación.


Las habilidades que deben ser aprendidas para usar bien una IA son: habilidades sociales, para formar grupos de personas con las que interaccionar satisfactoriamente para evitar que caigan en las relaciones digitales de donde se entra pero es difícil salir; espíritu crítico para cuestionar los fines y usos de las aplicaciones que utilizan; retener información sobre dichas aplicaciones  y sobre comportamientos de seguridad, etc.


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Falta de datos unificados en Psicología

No olvidemos que es la IA la que está ayudando, dentro del campo de las ciencias de la salud, a analizar grandes cantidades de datos y a buscar patrones que permitan una mayor comprensión del ser humano en diferentes ámbitos. Como en medicina. Un logro importante, que viene de EEUU, otra vez del Instituto Tecnológico de Massachusetts es la detección con altísimo grado de acierto del desarrollo del cáncer de mamá en mujeres 5 años antes de que se presente.


Esto es gracias que la IA ha desarrollado patrones predecibles gracias al análisis de la información de miles de mamografías y la detección de pequeños cambios en las mamas. Sin embargo, estamos muy limitados en Psicología para poder usar la IA justo para este fin. Y eso es porque la IA se nutre de bases de datos y estos deben estar organizados y codificados para poder ser analizados. Sin embargo, los datos clínicos se pierden, no son usados para ese fin porque no tenemos un instrumento, como la historia clínica que haga esa función.


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

El 70% de los psicólogos clínicos trabajan en el sector privado y, por experiencia sé que no usan historias clínicas o usan las de diseño propio. Esos datos tan valiosos se pierden y algo similar ocurre con  el restante 30% de psicólogos que trabaja en el ámbito de la pública.


Estamos ante un momento histórico, una nueva revolución que requiere de ese esfuerzo colectivo entre psicólogos, Colegios profesionales  y otras entidades para conseguir que la Psicología dé un salto cualitativo y se coloque en el lugar que le corresponde, un lugar privilegiado, en el cuidado de la salud mental. 


Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Maribel Gámez diserta en el COP Madrid sobre Inteligencia Artificial y Salud Mental. Centro de Psicología Aplicada Maribel Gámez

Para ver la intervención de Maribel Gámez en la Jornada, ir al minuto 2:00:34 del vídeo enlazado a continuación:




Si quieres hacer un comentario, recuerda iniciar sesión o registrarte en el recuadro de la esquina superior derecha de la entrada. Nos encantará leerte.


Y si nos das un me gusta haciendo clic en el corazoncito, estaremos más encantados todavía.

23 comentarios


neandertiendepuentes
23 oct

👍

Me gusta

brunosinibaldo
brunosinibaldo
22 oct

Excelente disertación, completa y ponderada.

Me gusta

marinamonroig
21 oct

A mí se me escapan muchas de estas cosas, pero quisiera creer que los profesionales, que en general somos competentes en nuestros respectivos campos de actuación, podremos ir sorteando los problemas y utilizar la IA para mejorar las cosas. Por ejemplo, en hípica, la IA sí que ha conseguido muy buenos logros en mejoras del rendimiento.

Me gusta
brunosinibaldo
brunosinibaldo
22 oct
Contestando a

Cierto, en navegación también la IA ha conseguido mejorar bastantes cosas. Un ejemplo sería la gestión del tráfico de contenedores, que era un problema peliagudo y ahora parece que se resuelve bastante bien.

Me gusta

mayabohorquez
20 oct

Es verdad que los médicos están como más comunicados entre sí que los psicólogos, yo he cambiado de psicóloga un par de veces y la siguiente no sabía nada de lo que había hecho con la anterior, y esto no pasa con los médicos.

Me gusta

mareafran
19 oct

👍

Me gusta
Wasaps. Contacto
bottom of page