Ante el aumento en el uso de la (IA) como terapeuta emocional por parte de los jóvenes, expertos aseguraron que el fenómeno es resultado de la ausencia de infraestructura social para atender la salud mental, así como por la intimidad, el anonimato, la ausencia de juicio, la validación y la accesibilidad permanente que brinda esta tecnología.

De acuerdo con la revista UNAM Global, estimaciones recientes revelaron que 37% de los adultos han recurrido a herramientas de IA con el propósito de buscar apoyo emocional, mientras que 38% de los usuarios reportaron utilizarlas semanalmente para hablar de temas emocionales.

Entre los jóvenes, el fenómeno es aún más marcado, pues 13% de los adolescentes entre 12 y 17 años afirmaron usar la IA para recibir consejos sobre salud mental, y entre los de 18 y 21 años la cifra aumentó a 22%.

Lee también

En entrevista con , Jaime Fuentes Balderrama, profesor de Trabajo Social en la Universidad de Texas y egresado de Psicología de la Universidad Iberoamérica, sostuvo que el fenómeno se da como resultado de la ausencia de infraestructura social para atender la salud mental, así como por la inmediatez y la personalización de las respuestas.

“Que los jóvenes acaben utilizando inteligencia artificial es el síntoma de la falta de infraestructura en salud mental que tenemos en el país, de los pocos profesionales en la materia y de las grandes barreras de alcance que tienen los jóvenes a los profesionales”, dijo.

“Si existe esa necesidad en distintos contextos a nivel nacional, las poblaciones van a hacer lo posible por encontrar o remediar eso con lo que les sea más familiar o con lo que tengan a la mano (…) La gente hace lo que puede con lo que tiene”, agregó.

Lee también

Fuentes Balderrama puntualizó que la inmediatez, sumado a que los modelos de IA están diseñados para proporcionar respuestas personalizadas, ayuda a los jóvenes a “engancharse” y a sentirse mejor con estas prácticas en comparación con acudir a un terapeuta, “porque tal vez éste resalte algunos problemas y algunas verdades incómodas”. Para él, algunos efectos negativos de usar la IA como terapeuta radican en la “artificialidad” y la falta de contexto en las respuestas, “porque tienes una respuesta inmediata, que está ideada y personalizada con lo que tú quieres escuchar, con la información que tú le has dado, y siempre te va a dar la razón”.

El especialista también advirtió por la calidad de la información y de las respuestas proporcionadas por los modelos de IA, “porque no están entrenadas por profesionales de salud mental. Nosotros tenemos teorías que sustentan el porqué hacemos las cosas que hacemos, por qué intervenimos de la manera en que intervenimos, pero la IA no lo sabe”.

Adicionalmente, resaltó que estos modelos no siempre recurren a información fidedigna para generar sus respuestas, “lo que es parte del peligro, porque puede encontrar conceptos y recomendaciones que están de moda, pero no aplica a lo que tú estás viviendo”.

Lee también

Ilustración: Liliana Pedraza
Ilustración: Liliana Pedraza

Sin embargo, no descartó algunos beneficios de ésta para eficientar procesos, “porque hay que utilizarlo como una herramienta no que sustituya lo que puede hacer un terapeuta, sino que maximice lo que hace el elemento humano en un proceso sicoterapéutico”.

Desde su perspectiva, emplear la IA es recomendable en términos educativos para sicólogos en formación y para algunas cuestiones dentro de la clínica, “siempre y cuando esté respaldado por ciencia, esté bien documentado cuáles son sus efectos, pero así como va para cualquier persona es una muy mala idea”.

Cimenna Chao Rebolledo, directora de Innovación Educativa de la Universidad Iberoamericana y doctora en Psicología Educativa y del Desarrollo por la UNAM, aseveró que el uso de la IA como terapeuta es por la carencia de un entorno humano que provea acompañamiento y contención emocional, así como por la falta de acceso a servicios de salud mental.

Lee también

Sumado a ello, expuso que los jóvenes perciben que estas herramientas los comprenden, porque ofrecen un ambiente de intimidad, anonimato, ausencia de juicio, validación y accesibilidad permanente, “pues pueden, a través de estas tecnologías, empezar a hablar de esas emociones difíciles sin sentirse juzgados o estigmatizados”.

Para ella, algunas consecuencias del uso de modelos de IA no especializados en salud mental son la dependencia emocional; la erosión de las capacidades socioemocionales, como la autocontención, la autorregulación y la conciencia emocional, así como el aislamiento social.

Además, la especialista advirtió que dentro de estos modelos los jóvenes se exponen a información poco veraz y descontextualizada, “donde (...) se arriesgan a recibir consejos peligrosos o inadecuados que terminan en situaciones desafortunadas”.

Lee también

También refirió que estos modelos de inteligencia artificial buscan complacer al usuario para mantenerlo enganchado y generar apego emocional, “lo que hace que el bot se comporte desde una validación acrítica e irreflexiva con base en los comentarios del usuario”.

Para ella existe una necesidad de alfabetizar a los jóvenes en torno a la utilización de la IA en diversos ámbitos y concientizar que en situaciones de vulnerabilidad o de aflicción emocional severa se tiene que buscar ayuda humana, “porque el chat no nos va ayudar, no es un terapeuta”.

Paralelamente, destacó que ante la vulnerabilidad y aflicción humana, la terapia necesita el acompañamiento y la contención de otro ser humano que “pueda generar la suficiente fricción emocional para cuestionar lo que estamos sintiendo y para orientar acciones incómodas que nos ayuden a transformar y salir de una situación emocionalmente difícil, y eso no lo hace el chat, no está programado ni sabe hacerlo”.

Lee también

Testimonio

Manuel utiliza la IA como apoyo emocional desde hace dos años, por la inmediatez y la privacidad que le brinda, “porque nadie más lo puede consultar y te sientes con la confianza de contar cualquier situación sin sentir que alguien te está criticando o juzgando”.

Él la consulta con frecuencia para resolver conflictos relacionados con el trabajo e incluso sobre sus relaciones personales, “pues me gusta tener una opinión un tanto objetiva cuando no tengo al alcance a personas importantes para mí. Es un buen aliado para regular las emociones que siento en ese momento”.

Consideró que existen riesgos por utilizar la IA por el nivel de confianza que los usuarios proporcionan, “porque en algún momento toda esa información que se guarda se pueda utilizar en nuestra contra”; sin embargo, la sigue empleando por su fácil acceso.

Lee también

Las respuestas personalizadas que proporcionan estos modelos son del agrado de Manuel: “Porque es un algoritmo que va entendiendo tu forma de ser y te va a proponer mensajes correspondientes a lo que tú quieres escuchar (…) Te sientes más cómodo al usarla y ese es el fin, que puedas platicar con ella en confianza”.

“Lo que nosotros estamos buscando al utilizar la IA es que nos pueda arreglar un problema o brindar una solución desde todo lo que nos conoce y le hemos platicado”, agregó.

Manuel reconoció que no ha acudido a un terapeuta profesional por la facilidad de acceso a la IA y la privacidad de las consultas, “porque es rápido, te sientes en confianza porque nadie te va a criticar por lo que estás haciendo y viviendo”.

Lee también

No obstante, admitió que aunque es consciente de que no se debe sustituir a un terapeuta profesional por la IA, no siempre tiene tiempo para acudir a una sesión de terapia sicológica, “pero sí me gustaría más una atención personalizada humana que un simple chat en el que puedo descargar las emociones que tengo”.

A aquellas personas que, como él, utilizan la IA como apoyo emocional, les pidió que no se confíen plenamente de la IA y que si es una situación de mayor riesgo acudan con un profesional de la salud mental, “porque el contacto humano es indispensable para nosotros y lo estamos dejando a un lado porque tenemos la cercanía y la facilidad con esta herramienta, pero el contacto con un especialista es lo más adecuado para situaciones más graves”.

¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

cdm

TEMAS RELACIONADOS

Taboola - OneCard

Google News
Taboola - Below