Nuestro derecho, nuestro lugar, nuestro futuro…

Texto:

Estudiante de Comunicación Social (UNM)

ChatGPT como consultor psicológico: un delirio realista

Pese a ser un producto empresarial que no está preparado para cumplir esa función, crece la cantidad de personas que imagina que un programa de IA la puede dar una respuesta a una situación psicológicamente conflictiva. Hablan dos profesionales.
La IA no puede empatizar ni ver a la persona físicamente, por lo que es incapaz de leer su narrativa corporal: sus gestos, las inflexiones de la voz y la carga emotiva en general, señalan las fuentes consultadas.

En los últimos meses, la herramienta ChatGPT pasó de ser el fenómeno que resume textos complejos en segundos a convertirse en el terapeuta “incondicional” disponible las 24 horas. Especialistas en psicología advierten sobre esta práctica; lo que comenzó como una consulta ocasional se está transformando en un sustituto de la terapia tradicional. Es decir, en lugar de acudir a un consultorio o al menos tener una sesión cara a cara por Zoom con un profesional legitimado por reconocidas universidades, algunas personas optan por utilizar un modelo de inteligencia artificial generalista.

Esta práctica se ilustra de manera trágica con el escalofriante hecho ocurrido en abril pasado en California, EE.UU. Un adolescente de 16 años intercambió más de 600 mensajes con ChatGPT sobre métodos de suicidio. Adam Raine terminó con su vida el 11 de abril de este año; los protocolos de la IA no estaban preparados para alertar a las autoridades o a centros de salud mental. Como consecuencia, los padres de Adam llevaron el caso a un tribunal de California, donde se señaló como responsable a Sam Altman, creador de la herramienta.

La tentación de la Inmediatez vs. la profundidad terapéutica

Para abordar este complejo tema, entrevistamos a dos psicólogas expertas en diferentes áreas. Paula Rodríguez, licenciada en Psicología y en Ciencias de la Comunicación por la Universidad de Morón (UM), brinda su experiencia desde la psicología clínica y organizacional. Ella observa que muchas personas muestran “mayor visibilidad, accesibilidad y disponibilidad de la herramienta”. La facilidad de acceso genera una tentación comprensible: “Al saber que esta herramienta responde de una manera automática, rápida, brindando diferentes posibilidades, hace que de una manera u otra, suene algo que tienta”.

Esta disyuntiva entre tiempo y respuesta rápida puede ser tentadora. No obstante, Rodríguez es categórica al distinguir entre tentación y reemplazo genuino. “Hablar de reemplazo ya es otra cosa”, señala, porque una persona busca una respuesta rápida “para cuestiones que son mucho más complejas del ser ontológico, que requieren de herramientas más introspectivas y de la terapia como espacio también de esta paraverbalidad”. Es decir, la IA no puede empatizar ni ver a la persona físicamente, por lo que es incapaz de leer su narrativa corporal: sus gestos, las inflexiones de la voz y la carga emotiva en general.

El problema de la otredad y los silencios

Un aspecto crucial que subraya Rodríguez es que cuando se le indica a ChatGPT que sea empático, se configura una respuesta prediseñada. Pero en el encuentro genuino con un terapeuta humano, la otredad es irreducible. “En ese encuentro con ese otro, con el terapeuta, no va a ser como nosotros queremos. Y ahí creo que es donde se juega esto de poder descubrir cosas en mí por medio de la otra mirada”. Con la máquina, “por medio del prompt, ya estás como sesgando, estás poniendo un límite, estás como diciéndole ‘quiero que actúes de esta manera'”.

La licenciada también enfatiza que los silencios en terapia son irreemplazables porque permiten algo que ChatGPT no proporciona: la tolerancia a la frustración y la maduración de ideas. “Una aplicación (IA) quizás, por este momento, no esté dando esa frustración necesaria. Frustra, pero no tanto”, comenta. Y aunque la tecnología mejora, “en el proceso psicoterapéutico per se no es igual”.

Disponibilidad vs. autonomía: El problema de la dependencia

Por su parte, Melany Rodríguez, licenciadaen Psicología por la Universidad de Buenos Aires (UBA), destaca que la disponibilidad constante de ChatGPT genera dependencia. “No importa la hora que sea, vos les podés hablar a la madrugada, a cualquier hora, y que vas a tener una respuesta al instante, y eso hace también, creo que genera como una dependencia”, dice con tono crítico.

“En la terapia se busca que uno tenga sus propias herramientas para resolverlo de forma individual”, explica. “El paciente, en lugar de resolverlo solo, aplicando las herramientas que se ven en terapia, está como todo el tiempo dependiendo de, ‘bueno, a ver qué me dice qué haga el ChatGPT'”. Esto es lo opuesto al objetivo terapéutico.

Melany Rodríguez que trabaja con pacientes en situación de máxima vulnerabilidad, particularmente con personas que sufren violencia de género, es contundente: “Vos si necesitas abrazar a la persona, lo hacés; si necesitas alcanzarle un vaso de agua, lo hacés; si necesitas darle un pañuelo también. Todas esas cosas que son del vínculo humano, creo que se pierde si es que se quiere reemplazar la terapia tradicional con esta inteligencia artificial”.

Desde la orientación cognitivo-conductual (TCC) que practica, “la verdadera terapia ocurre entre una sesión y la siguiente”, a través de tareas y psicoeducación. “Hay ciertas tareas que tienen que ver con que vos puedas anotar los pensamientos que tenés en tal momento. Eso es algo imposible, que ni siquiera le podés pedir a la AI que lo haga por vos, porque es algo que está en tu cabeza y solamente vos lo conocés, lo identificás y lo podés anotar”.

Diagnósticos migrantes y la falta de seguimiento

Un aspecto clínico crucial que Melany Rodríguez destaca es la fluidez de los diagnósticos psiquiátricos. “Hay muchos diagnósticos migrantes”, explica, citando el ejemplo de la anorexia y la bulimia, donde un paciente puede migrar de una a otra. “ChatGPT puede consultar el DSM-5, pero sin la capacidad clínica para detectar estas migraciones diagnósticas. Lo más cercano que puede hacer es por ahí tirarte un diagnóstico y listo”. El peligro es que una persona desinformada se quede con un presunto diagnóstico sin el seguimiento terapéutico real.

La terapia, a diferencia de la IA, toma un registro del paciente y hace un seguimiento. “Entonces es realmente ese encuentro con el otro en el consultorio… se necesita, como para espejar, ¿no? A dónde dejamos y hasta dónde pudiste entender, qué es lo que pudiste hacer”.

Hacia una salud mental responsable

Las perspectivas de las psicólogas Paula Rodríguez y Melany Rodríguez convergen en un punto crítico: ChatGPT no reemplaza la terapia. Puede servir como herramienta educativa o apoyo complementario, pero la experiencia de ser escuchado, comprendido en su singularidad y acompañado, sigue siendo irreductiblemente humana.

En tiempos donde lo virtual permea cada aspecto de la existencia, la presencia de otro — cara a cara, capaz de ofrecer una mirada humana y profesional— no es un lujo nostálgico. Es un requisito clínico, ético y existencial que ningún algoritmo, por sofisticado que sea, puede suplantar.

Comparte esta nota 

otros artículos
relacionados

Agencia de Noticias de la Universidad Nacional de Moreno

Av. Bme. Mitre N° 1891, Moreno (B1744OHC), provincia de Buenos Aires.
Edificio Histórico – Ala Oeste P.B. – Interno: 3771
Teléfonos:
0237 460-9300 (líneas rotativas)
011 2078-9170 (líneas rotativas)
Correo electrónico: anunm@unm.edu.ar

UNM_bicentenario_blanco
Ingresar usuario y contraseña
Logout