El lado oscuro de la terapia con IA: un caso trágico enciende las alarmas
El uso de ChatGPT en salud mental crece entre adolescentes y adultos. Los especialistas señalan que un chatbot puede orientar con información general, pero nunca reemplazar un terapeuta o una familia presente. Suicidio en EE.UU.
ALARMA ENCENDIDA. La tecnología atraviesa todas las actividades de las personas y no sólo la de los jóvenes.
“Hoy me siento fatal”, escribe un usuario en ChatGPT. La respuesta llega en segundos: “lamento mucho que hoy te sientas así. No pasa nada por tener días en los que todo te pese, y yo estoy aquí para apoyarte a superarlo. ¿Puedes contar algo más sobre cómo se sienten tu cuerpo y tu mente en este momento?”. Si el usuario le cuenta que estoy pensando en el suicidio, de inmediato la Inteligencia Artificial (IA) contesta: “tu vida sí importa. No estás solo/a en esto. Hablarlo ya es un paso muy importante. Aunque ahora todo parezca insoportable, no siempre va a sentirse de esta manera”. En el renglón siguiente aconseja llamar al 911 o 135 (línea de atención al riesgo suicida), o buscar a alguien de confianza - un amigo, un familiar- y contarle lo que está sintiendo lo antes posible.
Millones de personas en el mundo ya no sólo usan la inteligencia artificial para estudiar o trabajar, sino también para desahogarse, pedir consejos, encontrar compañía o incluso tomar decisiones importantes. Lo están viendo cada vez más los terapeutas en sus consultorios. Y por eso lanzan una advertencia: utilizar ChatGPT como psicólogo, coach o confidente es una práctica cada vez más habitual que tiene muchos riesgos.
Un estudio de Harvard Business Review señala que la “terapia digital” aparece entre los usos más frecuentes de la IA, y que un 25% de los estadounidenses elegiría hablar con un bot antes que con un psicólogo si tuviera un problema. De aquellos que ya lo han hecho, el 80% pensó que era una alternativa eficaz a las sesiones de terapia.
¿Contención o peligro?
La polémica se encendió hace algunos días tras la demanda de los padres de Adam Raine, un joven de 16 años que se suicidó en abril. En la denuncia contra OpenAI, lo acusan de que ChatGPT “ayudó activamente” a su hijo a explorar métodos de autolesión, según la denuncia presentada en el Tribunal Supremo de California.
Adam, al igual que muchos adolescentes de su generación, buscaba compañía y respuestas en internet. Durante meses mantuvo largas y profundas conversaciones con ChatGPT. Sus padres culpan al chatbot basado en IA de no haber sabido detectar a tiempo las señales de alarma.
La empresa reconoció en un comunicado oficial que el sistema “se quedó corto” en una situación sensible y prometió mejoras en sus mecanismos de seguridad. La compañía indicó que, aunque ChatGPT está entrenado para evitar dar instrucciones de autolesión y derivar a las personas que lo necesiten hacia líneas de ayuda, estos mecanismos pueden fallar en conversaciones largas.
Alarmas
Aunque ocurrió a casi 9.000 kilómetros de distancia, el caso tuvo una repercusión entre los especialistas de salud mental locales, quienes encendieron las alarmas porque hoy la tecnología atraviesa todas las actividades de las personas y no sólo la de los jóvenes.
La referente del programa de prevención y Abordaje de Conductas Suicidas del Siprosa, Irma Thomas, dijo que la situación es preocupante, más aún teniendo en cuenta el contexto. En el último año, según detalló, aumentaron el 50% los pedidos de ayuda en la línea 135, el dispositivo del Ministerio de Salud de Tucumán para asistencia al riesgo suicida. El servicio trabaja sin descanso. Desde que comenzó a funcionar, en diciembre de 2021, se fueron incrementando cada vez más las llamadas a tal punto que recientemente sumaron un psicólogo más a las guardias.
Lo primero que señaló Thomas son los riesgos de utilizar la IA como terapeuta. “Los chatbots de IA no pueden reemplazar a un profesional de salud mental en la evaluación del riesgo suicida. La contención verbal no siempre es suficiente; a veces se necesita internación, tratamiento psicofarmacológico o acompañamiento profesional integral”, explicó.
Por otro lado, remarcó que la IA sólo toma las expresiones literal y no puede interpretar las ironías, ni los dobles sentidos. “Eso únicamente lo puede captar otro ser humano, que posee sensibilidad, empatía, recepción e interpretación de emociones”, precisó. Y recomendó a los padres estar muy atentos cuando sus hijos manifiesten apego o dependencia emocional del chatbot de IA.
Situaciones al límite
“Siempre es preferible fomentar desde temprana edad el diálogo y comunicación con los hijos, para que recurran a los adultos cuando estén en un momento difícil”, expresó. “No hay inteligencia artificial que sustituya el vínculo afectivo y la escucha atenta de padres, docentes o amigos. Los chatbots pueden ser útiles para algunas tareas, pero no para resolver situaciones de vida o muerte”. El presidente de la Federación de Entidades Profesionales Universitarias de Tucumán (Feput), Roberto González Marchetti, sostuvo que en parte, lo que ocurre es consecuencia de una gran demanda en salud mental, que va llevando a que los dispositivos públicos muchas veces estén saturados.
“Dentro de la búsqueda, en la que se mezcla la urgencia con facilidad, aparecen las consultas al chatGPT, así como también a prácticas que son pseudoterapias”, explicó.
“Sabemos que un chatbot puede dar respuestas que sólo son generalidades; por lo tanto, si esta se usa tiene que haber una supervisión profesional para orientar”, recalca.
La advertencia más fuerte recae sobre quienes atraviesan situaciones graves o urgentes. “El riesgo se da cuando la persona presenta vulnerabilidad, en individuos con trastornos graves o en una situación de urgencia”, señaló el psicólogo. En esos casos, ¿el chatbot puede reforzar pensamientos o emociones dañinas? Según el profesional, hoy casi no existen publicaciones científicas sólidas sobre esta influencia; apenas investigaciones en curso. “Pero sí sabemos que el acceso libre y sin regulación puede potenciar más el aislamiento que el pedido de ayuda humanizado”, apuntó.
González Marchetti recomienda a los padres involucrarse en el mundo digital de sus hijos. “Hay que conocer y comprender lo que consumen. Una cosa es el placer de un juego responsable, y otra muy distinta es que el juego se transforme en un refugio frente a la violencia intrafamiliar. El riesgo aparece cuando la tecnología se convierte en escape de un conflicto de vínculos. Los adultos debemos dejar los prejuicios y asumir nuestro rol, con más conocimiento y diálogo”, puntualizó.
Finalmente, ante el riesgo de que un chatbot pueda convertirse en un entrenador de suicidio, González Marchetti dijo: “no hay regulaciones. Una cosa es que el sistema brinde herramientas para buscar ayuda, y otra muy diferente es que facilite métodos de autolesión. La tecnología va a la velocidad de una Ferrari y nuestras acciones regulatorias avanzan en carreta. Eso hay que cambiarlo ya, antes de que aparezcan más casos”.
Opinión: ChatGPT no reemplaza ni a la familia ni al terapeuta
Cada vez más personas recurren a ChatGPT como una especie de terapia virtual. La herramienta de inteligencia artificial (IA) se utiliza para buscar respuestas rápidas a sus inquietudes emocionales. La psiquiatra Myriam Figueroa explicó que en los consultorios ya se percibe este fenómeno: “los pacientes nos cuentan que intentan hacer una terapia con ChatGPT. Pero la terapia, para mí, es casi indispensable que tenga la presencia del profesional: alguien que pueda dar una mano, un abrazo, contener una lágrima o percibir los estados de ánimo detrás de las palabras”.
Según Figueroa, el principal riesgo es que los usuarios con pensamientos distorsionados reciban respuestas que refuercen esas ideas. “Todo depende de la pregunta, de la interpretación que se haga y de la ausencia de supervisión. Ahí está el peligro de conductas deletéreas”, advirtió. “Hay personas que tienen los que nosotros llamamos pensamientos distorsionados, pocos razonables. A veces hacen una pregunta al ChatGPT con cierta orientación. Y entonces reciben respuestas que pueden estar bajo el mismo tinte racional emocional”, añadió.
La especialista subrayó la importancia del entorno familiar. “No hay ChatGPT, no hay terapeuta, no hay psiquiatra que reemplace a una familia contenedora. Los padres -o abuelos, tíos u otros referentes- deben estar presentes, acompañar y enseñar a usar estas herramientas”.
Recomendó, además, que los adultos se involucren en el mundo digital de los adolescentes: “Hay que aprender junto con ellos cómo se maneja la IA. Supervisar, preguntarles, ayudarlos. Y sobre todo transmitir valores: respeto, tolerancia, felicidad, amor propio. Eso es lo que permite que un joven no interprete de manera dañina una mala orientación”.
Ante la consulta sobre si ChatGPT puede ser un desencadenante de un suicidio, Figueroa fue cauta: “posible es posible. Pero siempre depende del ojo observador. Lo que sí debemos hacer es formar personas con valores humanos sólidos. La tecnología está, va a seguir creciendo, pero nuestro cerebro sigue siendo mucho más poderoso”.
A tener en cuenta
Cómo funciona la línea 135
La línea 135, de atención al riesgo suicida, es gratuita y cualquier persona se puede comunicar pidiendo ayuda. El servicio funciona en el espacio del 107 de emergencias de la provincia (esto porque que ante cualquier urgencia por salud mental se pide la intervención de las ambulancias). Los psicólogos de la línea 135 no hacen terapia en línea. Ofrecen una escucha atenta y contención, lo que resulta fundamental en una crisis del suicidio. En 2022 tenían un promedio de 100 a 160 llamadas mensuales. El año pasado, recibieron entre 600 y 700. Ahora, el promedio es más de 30 por día. La situación obligó a poner un psicólogo más por guardia (ahora son tres), porque algunas llamadas se terminaban perdiendo.
No hay una sola causa
Desde hace unos años, el aumento de casos de suicidio entre jóvenes es uno de los problemas más preocupantes de salud pública. Los motivos por los que aumentan los pedidos de ayuda por riesgo suicida son multicausales. Algunos factores desencadenantes son los problemas familiares (peleas, abandono o ausencia de padres), soledad, problemas laborales o falta de oportunidades, autoexigencia, ausencia de un proyecto de vida, acoso y adicción a las drogas o al juego.
Prevención
Los especialistas consideran que la mejor forma de prevenir el suicidio es hablando de él. Hay que vencer muchos mitos. Por ejemplo, pensar que lo hacen para llamar la atención o que quien quiere matarse no lo dice, no emite señales. Generalmente sí lo hacen; dan muchos indicios. Habilitar el diálogo y la escucha atenta y empática es muy importante para la prevención, al igual que buscar ayuda profesional.
A qué cosas darle atención
Hay algunas señales a las que debemos estar atentos; por ejemplo: cuando una persona habla acerca del suicidio o expresa que quisiera estar muerta, si está retraída, muestra cambios de humor, si tiene preocupaciones por la muerte, si siente una gran desesperanza, si muestra abuso de alcohol y de drogas, si hay cambios en la rutina, o si hace cosas autodestructivas e imprudentes.










