Relativo a la inteligencia artificial (IA) continúan los interrogantes, planteamientos, controversias sobre su uso, aplicación, alcance en diversas disciplinas, áreas profesionales, tareas habituales que requieren la actividad humana, y en este caso el planteo se dirige hacia la incorporación, utilización de esta herramienta y tecnología en el ámbito salud mental.
Habida cuenta de ello, conversamos con la Licenciada en Psicología-MN 76890, Anabella Serventi, docente universitaria. Neuropsicoeducadora, miembro adherente de la Asociación Argentina de Salud Mental-AASM. Apasionada de la psicoeducación para aumentar la calidad de vida y bienestar individual y social.
TDP-¿Qué implica que la IA se incorporé como tecnología y herramienta en salud mental?
AS- La incorporación de la tecnología en el campo de la salud no es nueva, en el campo de la salud “física”, si vale la separación (que a mí no me vale tanto), hace rato que se incorporaron, por ejemplo, sistemas diagnósticos que al llenar un formulario de síntomas y signos arroja una aproximación diagnóstica, o sistemas que calculan esquemas farmacológicos o robots que operan como el caso de Da Vinci (lo tienen en el Hospital Italiano).
-En el campo de salud mental concurren otras distinciones a la hora de pensar este tipo de implementación. Primero me gustaría hacer una diferencia que pocos tienen en cuenta: la psicología es una ciencia y la psicoterapia es una práctica con propósito, la psicología como tal realiza investigación básica y aplicada para generar conocimiento sobre cómo funcionamos, y una gran parte de ese cuerpo de saber corresponde a temas psicobiológicos. En cambio, en psicoterapia, cada escuela tiene su propósito, su cuerpo de saber y su práctica, existen, sin embargo, una selección de ellas llamadas “Psicoterapias basadas en la evidencia” que clasifican distinto.
-Aquí hay protocolos más cerrados que son bastante extrapolables a un dispositivo tecnológico (sólo el protocolo, no necesariamente el quehacer del psicoterapeuta). Luego tenés la psiquiatría, que es una especialidad médica con lo cual los usos allí son otros y también aquello que es terapéutico y no necesariamente psicoterapéutico (musicoterapia, arteterapia, etc).
-Con todo esto quiero decir: que no se puede hablar en general de una implicancia sino que en distintos ámbitos puede servirse de la tecnología para complementar, enriquecer y optimizar, pero también puede usarse para entorpecer, caer en puntos ciegos y empobrecer las relaciones entre pacientes/consultantes y profesionales.
TDP- ¿Es posible que la IA sea utilizada para realizar evaluaciones psicológicas rápidas y precisas?
AS: Sí, es posible. Algunos tests psicométricos ya hace años que se venden con un cupo de resultados online y los profesionales cargamos los datos en la web editorial y nos arroja el análisis del instrumento de evaluación, eso con los que se llaman tests proyectivos no sé si podría funcionar de la misma manera, ya que se basan en imágenes y se explora otro contenido discursivo, pero, en términos de protocolos psicométricos la velocidad de procesamiento ayuda a optimizar evaluaciones ya que arroja los resultados en tablas y gráficos que antes realizábamos uno por uno.
-De todos modos, sería una buena práctica no perder la costumbre de realizar cálculos y asociar información de manera “humana”, ya que eso entrena el pensamiento, el pensamiento lateral y el lenguaje lo cual nos da capacidad en la búsqueda de soluciones, toma de decisiones, valoración de opciones, etc.
- Con lo cual, podemos deslumbrarnos con la novedad, pero no debemos perder de vista que toda habilidad que delegamos por completo, no la estamos entrenando…
TDP- ¿Preocupa que los jóvenes mayormente estén utilizando como psicólogo y como terapia consultando a la IA?
AS: Yo no soy una purista ni ultra conservadora de las técnicas o metodologías, creo que siempre es bueno dejar un margen para la innovación. -Hay varios puntos que me inquietan de esta costumbre, sin embargo: por ejemplo, estamos perdiendo lo que en psicología se llama “la demora de la gratificación”, esto se puede ver en una prueba muy famosa que se conoce como “la prueba del malvavisco” para quienes quieran saber más, un experimento clásico en la psicología.
-“La cultura de la inmediatez empuja un poco a esto, a poder tener todo YA y eso nuevamente hace que no entrenemos ciertas habilidades socioemocionales como la tolerancia, la paciencia, la solidaridad, la gestión emocional”.
-Cuando no entrenamos esta habilidad, al no conseguir algo apenas lo deseamos, sobreviene la frustración, y la frustración es lo que dispara la emoción del enojo, con lo cual la cultura de la inmediatez nos hace necesariamente más impulsivos e irascibles, dos cuestiones que las personas vienen a trabajar muchísimo a consulta porque deteriora relaciones significativas, desarrollos profesionales, etc.
-Entonces, si tenemos al alcance de la mano, 24/7 un conversatorio disponible, ¿cómo vamos a pensar que pueden esperar a la próxima reunión de amigos o un turno en un dispositivo de salud?
-Por otra parte, lo fundamental en el uso de la IA es el desarrollo de prompts, esto es, los “comandos” o “consignas” que uno usa para pedir determinada respuesta, de modo que uno puede sesgar el inicio de una conversación o manipular el contenido de la misma.
TDP- En base a lo expresado precedentemente, ¿hay informes sobre este tema?
AS- Respecto a este tema hay muchos informes en el sitio de la UNESCO, incluso un informe sobre sesgos de género en los asistentes virtuales titulado “Me sonrojaría si pudiera”.
-Esto no es privativo de la IA, en la consulta “humana” el paciente también puede manipular el dispositivo, nosotros trabajamos con lo que el consultante trae, lo vemos sólo 40 minutos (con suerte semanales, cada vez más quincenales o mensuales), y también trabajamos con su perspectiva y criterio de realidad, la diferencia es que podemos trabajar con la intuición moral, con el concepto de sujeto-situado, con su escala de valores y el lenguaje no verbal.
- Malos y buenos profesionales los hay en todas las áreas y todos estamos expuestos a tener un mal día en el trabajo, en ese sentido, mi enfoque particular es desarrollar mi profesión en altos estándares independientemente de si mi colega es una IA o un terapeuta humano, de la misma manera que una persona decide instalar un ChatBot terapeuta determinado y no otro, así también elige un terapeuta humano u otro.
-Es decir, la competitividad en todo caso agrega una categoría, pero la responsabilidad de ser buenos en lo que hacemos es de cada uno (incluso, un desarrollador de IA).
-Por otro lado, también tenemos que pensar en la interface de estas apps, si al usuario le llaman la atención como un videojuego es posible que se dé un uso muy activo al principio y que después decaiga, y eso no es un buen correlato de lo que un buen proceso psicoterapéutico propone.
-Entonces, el propósito del uso de estas apps no es un detalle menor: si se usan por curiosidad o realmente para trabajar aspectos de salud mental o desarrollar habilidades socioemocionales y/o conductas de salud.
TDP- Dado que la IA no tiene sentimientos ¿no sería peligroso consultar psicológicamente ante la búsqueda de respuestas e incertidumbre personal de cada persona?
AS- Dentro de los espacios terapéuticos concurren muchos factores llamados inespecíficos y, ya se sabe tras múltiples investigaciones, que el vínculo terapéutico es el factor más importante como predictor de un buen proceso/buena terapia.
-Hablar de sentimientos es algo muy amplio, dentro de la salud emocional encontramos personas con alexitimia, esto es una condición que supone una dificultad para reconocer y gestionar las emociones propias y ajenas, desregulación de las emociones por exceso o por defecto y varias presentaciones más. Así, por ejemplo, personas que tienen problemas en su gestión emocional y tienen un comportamiento más rígido, es probable que no logren un buen vínculo con un terapeuta muy expresivo emocionalmente por sentirse abrumados.
-“No hay fórmulas universales, yo “no diría que es peligroso, sí diría que es una experiencia distinta y que no podemos dejar ese detalle de lado y en todo caso hacer conscientes el porqué de la elección de un bot terapeuta o un psicoterapeuta humano”.
-Para no caer en la *distopía solamente, conviene también señalar algunas “luces” de estas tecnologías en el ámbito de la salud mental. Desde mi criterio sería genial se puedan usar para brindar educación en buenas prácticas de salud, por ejemplo, que ayuden a elegir dispositivos de acuerdo a la problemática presentada.
-De este modo estarían funcionando como asistentes y no reemplazando a un profesional.
Así, por ejemplo, una persona podría introducir sus síntomas y el dispositivo podría indicarle cuál es la especialidad médica/psicológica/psicoterapéutica ideal para el cuadro, dónde acudir a una guardia cercana, contactos de servicios a domicilio, etc.
- Además, consideremos que para personas con movilidad reducida o que habitan lugares geográficamente complejos en cuanto a la accesibilidad a servicios, no deja de ser una herramienta que puede facilitar disminuir síntomas de ansiedad y depresión causados por lo que se conoce como Soledad No Deseada (un tema interesante de tratar).
- Esto está siendo central en países como España que tiene el Observatorio Estatal de la Soledad o Japón y Reino Unido con sus Ministerios de la Soledad).
-Ahora bien, “las últimas investigaciones también advierten que estos dispositivos mitigan un malestar puntual en un breve período de tiempo pero no ayudan a elevar los niveles de bienestar psicológico en el largo plazo”.
-Si pudieran existir estas advertencias en cada inicio de app, tal vez la conciencia sobre su uso sería diferente y sería más fácil para el usuario determinar límites saludables.
TDP- Para ud y dado su trayectoria y formación profesional en el área salud mental (psicología) ¿existen límites entre humanos y máquinas?
AS- Existen fronteras, como también existen fronteras entre los diferentes ejercicios profesionales humanos, particularmente no trabajo con consultantes para los que sé que existen dispositivos más asertivos, les brindo la información y les sugiero la interconsulta o derivación, pero hablamos ya de cuestiones éticas. ¿Por qué un desarrollador de productos tecnológicos quisiera “jugar” con la salud mental de la sociedad? Esa pregunta tal vez es para alguien especializado en bioética.
-Así como nos inundan los desarrollos novedosos, también nos inundan las advertencias como las de *Geoffrey Hinton, quien decidió renunciar en 2023 al proyecto Google Brain para poder hablar libremente sobre riesgos asociados al uso de AI, así como entre humanos, uno decide a qué voces le sube el volumen y a cuáles no.
-Lo que se presenta como fundamental entonces, es seguir educando en pensamiento crítico y desarrollo del criterio y toma de decisiones. El problema no es que las máquinas sean cada vez más conscientes, sino cuidar que nosotros no lo seamos cada vez menos.
TDP- En que consiste, transmite y visibiliza su podcast Laberinto de Espejos en YouTube?
AS- Laberinto de Espejos es un proyecto muy personal, yo venía publicando micro ensayos en Instagram y Juan Ignacio, un amigo, me propuso llevarlos a formato podcast, junto con él lo desarrollamos y nació en ese formato.
-Considero que cualquier camino terapéutico es una especie de Laberinto de Espejos: Caminos que te invitan a mirarte hasta que encuentres la salida. Así, en el canal intento siempre implantar una pregunta y nunca cerrar posibilidades, siempre abordando temas de interés general para todos nuestros costados humanos, intentando iluminar áreas no tan claras y despejando puntos ciegos.
-Además, hay una serie de meditaciones guiadas fáciles de realizar. Los seres humanos somos hermosamente complejos, y siempre pensarnos y registrarnos es una invitación a crecer y a aprender. Si la información es poder, tener información sobre uno mismo es necesariamente una herramienta de empoderamiento personal.
-Laberinto, entonces, es eso: primero una invitación, y luego un intento de acompañarte a crecer y aprender.
* Instagram: @anabella.serventi
*Facebook: https://www.facebook.com/AnabellaServenti.Psicoeducando/ *YouTube: Anabella Serventi - Laberinto de Espejos
* Distopía: Representación ficticia de una sociedad futura de características negativas causantes de la alienación humana.
*Geoffrey Hinton: es un científico computacional, científico cognitivo y psicólogo cognitivo británico. Fue galardonado con el Premio Turing en 2018 junto con Yoshua Bengio y Yann LeCun por su trabajo en aprendizaje profundo.