Hoy publicamos la segunda entrega de la ponencia ‘La Inteligencia Artificial en el ámbito de la Psicología clínica: beneficios, riesgos y soluciones’, presentada por Maribel Gámez en el I Encuentro de Sociedades Profesionales de Psicología realizado el pasado día 26 en el Colegio Oficial de la Psicología de Madrid.
RIESGOS
Tras los tres ejemplos que comenté en la entrada anterior sobre los beneficios de la Inteligencia Artificial en el ámbito de la salud mental, ahora toca ver los riesgos.
Nuevas tecnologías y adicciones
Un problema que se está evidenciando es la falta de control que tenemos los humanos en el uso de las nuevas tecnologías. Por ejemplo, se pronostica un futuro muy feo para los jóvenes españoles ya que, según los resultados de una investigación realizada por el Observatorio Nacional de Tecnología y Sociedad (ONTSI) con el apoyo del Ministerio de Asuntos Económicos y Transformación Digital, dos de cada tres adolescentes se convertirán en adictos a las redes sociales [7]. Las redes sociales llevan más tiempo entre nosotros que la IA y se está evidenciando claramente los problemas que se presentan cuando hay un abuso o mal uso. Ahora estamos en el momento en el que se está generalizando el uso de la Inteligencia Artificial y, como cualquier tecnología, hay que saber usarla y también tiene sus riesgos. Es decir, la IA puede crear adicción como otras tecnologías, y ser generadora de problemas de salud mental.
Esto implica que el psicólogo clínico debe prepararse para ver cada vez más en consulta problemas de adicción sin sustancia en un contexto social no facilitador de la recuperación ya que, la adicción a las nuevas tecnologías cada vez es más tolerada y compartida por los padres y a nivel social en general.
Cada vez con más frecuencia los jóvenes están usando la inteligencia artificial para realizar trabajos académicos, que forman parte esencial de su aprendizaje y que deberían ser resueltos retando sus capacidades cognitivas, no las de la IA. El uso constante de la IA trae problemas asociados, según dice la Real Academia de Medicina de España en una nota de prensa difundida con motivo de la organización de la sesión 'Inteligencia artificial en neurología y psiquiatría’ en abril de este año, donde se dice que Si utilizamos la IA para escribir artículos científicos, e-mails o resumir textos, nuestras habilidades cognitivas corren el riesgo de verse comprometidas, ya que cuando delegamos en exceso dejamos en manos de la IA el procesamiento de la información y perdemos la oportunidad de fortalecer la memoria. Reducir el esfuerzo neurológico disminuye nuestra capacidad para pensar críticamente y resolver problemas de manera independiente. [8]
Esta disminución de las capacidades mentales superiores ya está ocurriendo y tiene mucho que ver con un mal uso de las nuevas tecnologías que comentaba antes. Existen datos que confirman la disminución de las capacidades superiores humanas, yo os voy a contar dos de ellos. El primero, los resultados que arroja el último informe PISA con datos de 2022 [9]. Un estudio que lleva a cabo la Organización para la Cooperación y el Desarrollo Económicos (OCDE) con la idea de que los países participantes pueden tener información sobre el nivel de sus alumnos e implementar políticas que mejoren el nivel educativo. En dicho informe los alumnos españoles obtienen el peor rendimiento de los jóvenes evaluados en los últimos 20 años. Hay que recordar que PISA mide competencias en el ámbito lector, matemático y científico, capacidades básicas para gozar de una buena inteligencia.
Involución de la inteligencia humana
El segundo, los datos que indican que, al parecer, por primera vez la inteligencia humana está involucionando, al menos en los países occidentales, según las mediciones recogidas para calcular el efecto Flynn que mide el incremento o decremento del cociente intelectual en la mayor parte del mundo desde 1938. [10]
Hay voces autorizadas que dicen que las personas, en su mayoría, hacemos un uso de la nuevas tecnologías, incluida la IA, abusivo y poco racional, provocando que deleguemos en ella procesos cognitivos esenciales que forman el constructo que es la inteligencia. Esta forma de relacionarnos con las nuevas tecnologías evita que se pongan en marcha nuestros propios procesos inteligentes y, como resultado, nuestras capacidades se estén viendo mermadas porque estamos dejando de entrenarlas.
¿Y esto qué significa para el psicólogo clínico? Que los jóvenes que llegan a consulta son distintos. Y lo son por el contacto constante de la tecnología y por la dificultad para gestionar su buen uso. En general, tienen serias dificultades en la conexión de ideas, en la capacidad memorística, en la expresión verbal y en otras habilidades. En mi práctica clínica percibo estas diferencias entre personas mayores y jóvenes con claridad. Así que el psicólogo debe desarrollar recursos para este tipo de perfiles nuevos, recursos que luego veremos.
El peligro del software: el modelo chino
Por último, comentar como otro riesgo de la IA que se están comercializando una serie de aplicaciones, basadas en algoritmos de IA, potencialmente generadoras de problemas mentales.
Una tiene que ver con la masiva proliferación de cámaras de vigilancia en el ámbito público. Un caso paradigmático es China, que tiene 700 millones de cámaras, una por cada dos habitantes. Por si fueran pocas, piensa instalar 400 millones de cámaras más en los próximos tres años. Gracias a esta tecnología, que incluye la capacidad de reconocer los rostros con precisión, China ha conseguido instalar un sistema de puntos que castiga al individuo por comportamientos que considera incívicos, con consecuencias que dañan los derechos humanos como el libre movimiento de personas.
Este sistema es obligatorio desde 2020, aunque está funcionando desde 2014, y depende del estado chino. El sistema de puntos comienza por la necesidad de recopilar datos de los individuos que no tienen cuenta bancaria y de otros que no pagan sus deudas, aliándose, para conseguir esta información, el estado con las grandes corporaciones en un clásico ejemplo de capitalismo monopolista de estado. No es el único sistema de puntos, también hay otro sistema similar pero de carácter privado creado a través de la alianza de la compañía de móvil Ali Play y la empresa de crédito personal Zima, al que uno se adhiere de manera voluntaria pero que cuenta con el apoyo del estado chino.
Entre los premios para los que se portan bien, por ejemplo, para los que reciclan o no tienen deudas, se encuentran facilidades para alquilar un piso, conseguir una cita médica antes que quienes actúan de forma incívica. Algunas de las restricciones violan, como decía antes, directamente algunos de los artículos de la declaración de los derechos humanos como por ejemplo el artículo 12, “Ataques a la honra” (imágenes de los que no se adhieren adecuadamente al sistema de puntos son proyectadas públicamente); o el artículo 13: “Toda persona tiene derecho a circular libremente y a salir de su país” (los castigos implican restricciones a la hora de viajar o directamente su prohibición); y el artículo 25 de la Declaración en el que se asegura la salud, el bienestar y la asistencia médica. Un premio del sistema de puntos consiste en que unos puedan conseguir una cita médica antes que otros, con las implicaciones que puede tener esto para la salud de los últimos.
Como consecuencia de su implementación, casi 9 millones de chinos no pudieron salir de su país en 2018 debido a estas limitaciones a causa de una baja puntuación en el sistema de puntos. [11] Esta forma de tratar al ciudadano no será exclusiva de China, en el futuro se querrá imitar el modelo asiático en su control ciudadano en el resto del globo.
Un ejemplo: el 5 de octubre de este año se publicó una noticia que dice que en Hong Kong se planea instalar miles de cámaras de vigilancia con herramientas de reconocimiento facial e inteligencia artificial. Se estima que van instalar 2.000 cámaras cada año. La población de Hong Kong es actualmente de 7 millones ochocientos mil habitantes y tiene instaladas 54.500 cámaras, alrededor de 7 por cada 1.000 habitantes. La tendencia de aumentar las cámaras en lugares públicos es una tendencia mundial.
En el año 2023 el tamaño del mercado mundial de la videovigilancia se valoró en 43 mil millones de dólares, pero según Report Linker se espera que para el año 2032 alcance una cifra estimada de 98,37 mil millones de dólares. Geográficamente, se prevé que Norteamérica tenga la mayor parte del mercado, seguida por Europa y Asia-Pacífico, respectivamente. Inevitablemente este tipo de sistemas aumenta la probabilidad de sufrir problemas mentales en la población, como la ansiedad y los trastornos depresivos, como consecuencia del miedo a ser castigado o a la humillación pública. Este miedo a la humillación pública es lógico si se sabe que, los que tienen una puntuación baja en el sistema de puntos pueden ser identificados y proyectada su imagen en grandes pantallas en lugares públicos.
El peligro del software: la industria del más allá
Otro riesgo producto de la IA en la salud mental en referencia al software tiene que ver con las empresas que están aprovechándose del miedo ancestral y generalizado a que las personas que queremos fallezcan, convirtiéndolo en un jugoso nicho de mercado. Me explico: compañías como Proyect December o Eternos Life son capaces de generar, a través de algoritmos de inteligencia artificial, recreaciones vívidas y precisas de personas fallecidas mediante la información que les dan a estas empresas los seres queridos, con el fin de recrear una simulación con la que se puede interactuar [12].
Existe otra modalidad en la que la persona que sabe que pronto fallecerá, por el motivo que sea, contrata los servicios de alguna de estas empresas para dar la información necesaria con el fin de conseguir una recreación realista de sí misma y ofrecerla a sus seres queridos. Se trata de recreaciones virtuales que reproducen con exactitud la imagen, la manera de expresarse e incluso la voz de la persona fallecida. La idea es que las personas vivas que contraten el servicio se vinculen con estas representaciones en tiempo presente. Esto significa que gracias a este software puede paralizarse o demorarse el proceso de duelo natural, aumentando la probabilidad de provocar un duelo patológico al evitar la aceptación de la pérdida.
Es este un trabajo contrario al que realiza el psicólogo, ya que el profesional busca que el paciente acepte la realidad de la perdida y genere nuevos vínculos, mientras que la empresa del negocio del más allá busca que los deudos permanezcan la mayor cantidad de tiempo posible pagando la cuota mensual que permite el acceso a la recreación virtual. Gracias a esta tecnología no solo se puede dificultar transitar por un duelo sano y normal, sino que pone más difícil la creación de vínculos nuevos al ser muy atractivo que, en vez de buscar esos vínculos, tarea que es difícil y no exenta de frustraciones, la persona se quede en casa pasando su tiempo con el software que genera a la representación del fallecido.
Son dos casos en que la tecnología basada en la IA genera patología, una en el ámbito privado, como en el que acabamos de ver, y otra en el ámbito público, como el caso de China, y que cambian la sociedad, la enferman, lo que implica un desafío para el psicólogo en el ámbito clínico. ¿Cómo ayudar al paciente que vive en una sociedad que normaliza e incluso fomenta la patología? ¿Le ayudamos a estar adaptado a una sociedad enferma? ¿A transformarla? La respuesta siempre está en lo que el paciente quiere.
Por último, nombrar, otra vez, el mayor riesgo para un psicólogo: que la IA nos sustituya. ¿Es eso posible? Como comentaba antes la IA nos dice que eso no va a pasar pero, a continuación, en el apartado final de mi charla centrada en las soluciones, haré una propuesta de cómo evitar que esto pueda ocurrir. Por si la IA se equivoca.
BIBLIOGRAFÍA
[7] Infobae (2024) Uno de cada tres adolescentes sufrirá adicción a las redes sociales. https://www.infobae.com/tecno/2024/05/02/uno-de-cada-tres-adolescentes-sufrira-adiccion-a-las-redes-sociales/
[8] Centro de Psicología Aplicada Maribel Gámez (2024). El uso excesivo de la IA debilita la memoria y reduce la capacidad analítica. https://www.centropsimaribelgamez.net/post/el-uso-excesivo-de-la-ia-debilita-la-memoria-y-reduce-la-capacidad-anal%C3%ADtica
[9] Ciencias de la Educación Preescolar y Especial.(S/F). Los resultados del informe PISA 2023 en España: ¿Qué podemos hacer para mejorar? https://editorialcepe.es/blog/los-resultados-del-informe-pisa-2023-en-espana-que-podemos-hacer-para-mejorar/
[10] Dworak, E. M; Revelle, W; Condon, D.M. (2023). Looking for Flynn effects in a recent online U.S. adult sample: Examining shifts within the SAPA Project https://doi.org/10.1016/j.intell.2023.101734
[11] Radio Televisión Española (RTVE). (1 de enero de 2023) Puntos por ser buen ciudadano: el crédito social. [Podcast]. https://www.rtve.es/play/audios/la-cuadratura-del-circulo/puntos-buen-ciudadano-credito-social-chino-buenos-malos-ciudadanos-premios-castigos-cuadratura-del-circulo-radio-nacional/6372832/
[12] Centro de Psicología Aplicada Maribel Gámez (22 de mayo de 2024). Ya está aquí la industria del más allá. https://www.centropsimaribelgamez.net/post/ya-est%C3%A1-aqu%C3%AD-la-industria-del-m%C3%A1s-all%C3%A1-digital-implicaciones-psicol%C3%B3gicas
Si quieres hacer un comentario, recuerda iniciar sesión o registrarte en el recuadro de la esquina superior derecha de la entrada. Nos encantará leerte. Y si nos das un me gusta haciendo clic en el corazoncito, estaremos más encantados todavía.
❤️❤️❤️
¿Y qué pasa con la gente que se siente poca cosa en comparación con la IA? Porque algún caso me he encontrado ya, pensando que no va a dar la talla.
❤️
Creo que hay que tener precauciones con la IA, pero también que hay que usarla. Hay un programa de gestión de viajes, Trip Planner AI, que no sólo te ayuda a crear tu itinerario, sino que también te reserva vuelos, hoteles y actividades. ¡Es una pasada!
Magnífico trabajo, cada capítulo supera al anterior.