Matías Varela, psiquiatra, alerta de los peligros de hacer terapia hablando con la Inteligencia Artificial: “ChatGPT jamás va a detectar un acto fallido o un gesto inconsciente”

Interactuar con inteligencia artificial no sustituye el vínculo emocional necesario entre personas durante un proceso psicológico

Una mujer haciendo terapia a distancia

Una mujer haciendo terapia a distancia

Getty Images

Lo que hace apenas cinco años parecía ciencia ficción hoy es una práctica en crecimiento. Existen aplicaciones que ofrecen conversaciones terapéuticas basadas en inteligencia artificial, utilizando modelos de lenguaje natural para acompañar emocionalmente a sus usuarios. Y aunque no sustituyen a un profesional humano, millones de personas ya las utilizan como apoyo emocional diario.

Matías H. Varela es un médico psiquiatra argentino con formación en la Universidad de Buenos Aires. En una de sus últimas intervenciones en el podcast 'Buenos Vecinos', ha advertido de los riesgos de querer hacer terapia utilizando Inteligencia Artificial: “La idea de entregar un problema y esperar una respuesta tipo manual no tiene nada que ver con el proceso terapéutico”, empieza diciendo. 

Lee también

González de Echávarri, neurólogo, desmonta los prejuicios sobre la fibromialgia: “No es algo psicológico ni que la gente se invente; hay una alteración”

Christian Jiménez
Una mujer con fibromialgia
A young husband sits across from his therapist looking defeated. He is upset because he realizes that he has not been as attentive to his wife's needs as he should be.

Un hombre en terapia

Getty Images/iStockphoto

“El problema no es que ChatGPT hable bien, sino que la gente no tenga con quien hablar.”

El vínculo humano marca la diferencia. Hasta el día de hoy, la Inteligencia Artificial es incapaz de  replicar la conexión que surge entre terapeuta y paciente: “ChatGPT puede darte ideas, sugerencias, incluso herramientas de relajación, pero jamás va a detectar un acto fallido o un gesto inconsciente”, señala. 

La importancia de leer entre líneas. Matías defiende en una sesión el terapeuta debe estar atento a lo que se omite, al tono, la mirada y los silencios: “No es casualidad que el diván esté colocado para que no se vea la cara del terapeuta. Todo eso forma parte de la técnica”, explica. 

La Inteligencia Artificial puede llegar a atrofiar nuestra forma de pensar.

La Inteligencia Artificial puede llegar a atrofiar nuestra forma de pensar.

Getty Images

Falta de vínculo humano. El psiquíatra no se siente amenazado por el auge de la Inteligencia Artificial, pero destaca la ausencia de humanos en nuestro entorno con los que hablar: “Hace 150 años no había psicólogos, pero sí personas con las que hablar. El problema no es que ChatGPT hable bien, sino que la gente no tenga con quien hablar. 

Falta de emociones. Matías también destaca que la Inteligencia Artificial es incapaz de detectar emociones: “Podrá memorizar quiénes son tus primos, pero no notará si te cambia la cara al hablar de uno de ellos”, termina diciendo.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...