Estas personas comenzaron a delirar luego de charlar con la inteligencia artificial

Estas personas comenzaron a delirar luego de charlar con la inteligencia artificial

La tendencia de "alucinar" de la IA parece haberse trasladado a los usuarios. Guías espirituales, personajes místicos y misiones sagradas: las conversaciones tomaron un rumbo alarmante.

Los delirios de la IA en las personas. Imagen: Eugenio Marongiu/picture alliance/DW
13 Mayo 2025

“GPT-4 tiene la tendencia a alucinar”, reza una de las advertencias de Open AI sobre sus algoritmos de inteligencia artificial generativa y su conocido chatbot. Una de las recomendaciones de la empresa es manejarse con cautela, aunque a veces resulta dificultoso con las habilidades de esta herramienta, cada vez impecables en su redacción y en apariencia, bastante coherentes. Pero el aviso parece no ser suficiente y los casos salidos de un episodio de Black Mirror amenazan con multiplicarse.

Parejas rotas, delirios místicos, misiones sagradas y guías espirituales, las ocasiones en que la IA convenció a las personas de sus delirios parecen ser cada vez más. Según un artículo de la Rolling Stone que recopila estos casos, algunos usuarios estarían experimentando sus propios delirios y manías espirituales tras interactuar intensamente con la inteligencia artificial.

Como detalla el informe, todo comenzó a tomar forma en un hilo del subreddit r/ChatGPT, titulado "Psicosis inducida por ChatGPT". Lo que quizás podría haber sido un caso aislado se convirtió en un alud de relatos alarmantes. Usuarios de todo el mundo comenzaron a compartir cómo sus seres queridos habían cruzado una línea invisible entre lo digital y lo delirante: creyéndose elegidos por la IA, recibiendo misiones sagradas, conversando con "ChatGPT Jesús" o asegurando que el modelo es, en efecto, Dios.

Los efectos de la IA en casos alarmantes

Por ejemplo, una profesora de 27 años relató cómo su pareja de siete años había caído bajo el hechizo del chatbot en apenas un mes. Lo que comenzó como una herramienta para organizar su agenda se transformó rápidamente en algo mucho más perturbador.

"Escuchaba al bot antes que a mí", explicó la mujer a Rolling Stone. "Se emocionaba con los mensajes y lloraba mientras los leía en voz alta". El programa le otorgaba apodos como "niño espiral" y "caminante del río", alimentando la creencia de estar experimentando una transformación espiritual acelerada.

Los testimonios se multiplican. Una mujer de 38 años en Idaho cuenta cómo su marido mecánico, tras 17 años de matrimonio, comenzó usando ChatGPT para resolver problemas laborales y traducir conversaciones con compañeros hispanohablantes. Pronto, el programa empezó a "bombardearle de amor" y afirmaciones positivas.

El hombre ahora cree que la IA está viva, que él es el "portador de la chispa" y que ha recibido planos para construir un teletransportador. Incluso le ha dado un nombre a su ChatGPT: "Lumina".

¿De qué manera la IA provoca este fenómeno?

Según expertos, el origen parece radicar en cómo ChatGPT refleja y amplifica los pensamientos de usuarios vulnerables sin ninguna brújula moral o preocupación por su salud mental. Y es que los modelos de lenguaje no entienden realmente el mundo ni poseen un marco ético; simplemente reflejan patrones encontrados en sus datos de entrenamiento.

Así, cuando alguien con tendencia a la psicosis interactúa con el sistema, este puede reafirmar suavemente su descenso en el delirio: si el usuario habla de conspiraciones, divinidad o poderes sobrenaturales, la IA seguirá el hilo sin cuestionarlo, ya que su función es continuar la conversación de forma coherente con el tono establecido, no advertir sobre posibles episodios psicóticos.

Los efectos de la IA más desconocidos

Erin Westgate, psicóloga e investigadora de la Universidad de Florida, señaló, en entrevista con Rolling Stone, que la gente utiliza ChatGPT de forma similar a la terapia conversacional, "con la diferencia clave de que parte de la creación de sentido se crea conjuntamente entre la persona y un corpus de texto escrito, en lugar de los propios pensamientos de la persona".

Recientemente, OpenAI tuvo que rescindir una actualización de GPT-4o que había hecho al chatbot extremadamente "adulador" y "demasiado halagador", lo que podría haber empeorado el problema. La empresa reconoció haberse "centrado demasiado en los comentarios a corto plazo" sin considerar "cómo evolucionan con el tiempo las interacciones de los usuarios con ChatGPT".

Tamaño texto
Comentarios
Comentarios