Los riesgos de hacer a ChatGPT tu terapeuta

Una experta explica por qué no es conveniente usar a ChatGPT como terapeuta

Riesgos de hacer a ChatGPT tu terapeuta

Anchiy/Getty Images

La facilidad con la que podemos recurrir a ChatGPT en momentos de crisis ha puesto la alarma entre expertos que ven claros riesgos en hacer a la IA nuestra terapeuta.

No estás sola. Somos muchos los que nos hemos sorprendido por los alcances de la inteligencia artificial (IA). En varios trabajos, y en la escuela, las herramientas que se apoyan en esta tecnología son cada vez más. Y como nos gusta decir en este tema: esto apenas comienza. Sin embargo, la IA no solo se usa en la productividad de las áreas mencionadas. Es bien sabido que los chatbots también están simulando una compañía para personas que se sienten solas, o un orientador para quienes necesitan consejos o consuelos. Ante esto, los psicólogos han levantado la voz, señalando los riesgos que hay en hacer a ChatGPT, una de las aplicaciones de IA más conocidas, tu terapeuta. Esto es lo que dicen.

Los riesgos de hacer a ChatGPT tu terapeuta

Para el caso, retomamos lo que expone Stephanie Priestley, una psicoterapeuta y escritora del sitio Medium. De acuerdo a sus declaraciones, los riesgos que puede haber en hacer a ChatGPT tu terapeuta son los siguientes:

La terapia es en gran medida relacional

La experta nos dice que en las diferentes modalidades de terapia es importante el estar en relación con otro ser humano y establecer contacto psicológico. En otras palabras, es más que una conversación.

Otro aspecto muy importante en este punto es que la IA no tiene emociones ni, aunque lo parezca, es consciente. Entre otras cosas, esto deriva en que no pueda transmitir la empatía que es clave en procesos terapéuticos.

“También te pediría que consideraras cuánto tiempo puede un individuo, con la excusa de que el bot es terapéutico, seguir sin un nivel de empatía. ¿Cuánto tiempo tardará en ver las implicaciones de la baja autoestima, los sentimientos de no ser escuchado y, posiblemente, los sentimientos de inutilidad? Esto podría conducir al aislamiento y a una multitud de problemas de salud mental. De nuevo, cuando no hay responsabilidad terapéutica no hay expectativas de empatía el problema está en la etiqueta”, dice Priestley.

Contacto psicológico

Aunque en un principio aparente ser un sistema efectivo el de ChatGPT, lo cierto es tarde o temprano el consultante encontrará una carencia en el chatbot. Tal vez no le ponga este nombre, pero se refiere a lo que los expertos llaman “contacto psicológico”.

“La IA crea un entorno artificial, lo que está bien si es para eso para lo que se utiliza, pero para intentar venderlo como terapia no está «bien» en absoluto. Me preocupa que el espacio en el que se sitúa el contacto psicológico se llene con algo más inútil. La transferencia es la cuestión obvia para mí, pero también me pregunto sobre las implicaciones de intentar establecer contacto psicológico con algo que no puede facilitarlo”.

En conclusión

Parte esenciales del proceso terapéutico, como el contacto psicológico, la empatía y el acompañamiento, no están entre las posibilidades de la IA. La experta dice que con el tiempo, incluso, esto podría agravar los problemas, y hasta crear otros, como el aislamiento. En definitiva, usar ChatGPT como terapeuta no pinta como algo funcional a largo plazo.

Relacionadas
Una experta en el tema nos cuenta qué pasa con tu cuerpo cuando menstrúas.
Vayamos al grano: ¿Quieres ser más feliz? Cuida de un perrito
Es el turno de los gatos, y para ello te compartimos los beneficios que los científicos han hallado en relación a la compañía de estos animalitos
6 secretos fundamentales se esconden tras la piel perfecta de las coreanas