Los peligros mentales que puede tener usar ChatGPT como amigo o psicólogo: ¿existe la psicosis por IA?

Este término, aunque la ciencia aún no lo cataloga como diagnóstico clínico, surge como una preocupación legítima en redes sociales, foros e incluso medios internacionales.

Los peligros mentales que puede tener usar ChatGPT como amigo o psicólogo: ¿existe la psicosis por IA?
18 Septiembre 2025

Un fenómeno inquietante cobra fuerza en distintas plataformas: usuarios, tras un vínculo intenso con chatbots como ChatGPT, empiezan a experimentar delirios, alucinaciones y episodios psicóticos. Este término, aunque la ciencia aún no lo cataloga como diagnóstico clínico, surge como una preocupación legítima en redes sociales, foros e incluso medios internacionales. Aquí no se discuten simples malentendidos tecnológicos; se reportan casos donde personas, en contacto frecuente con modelos de inteligencia artificial generativa, pierden su conexión con la realidad.

La gravedad del asunto atrajo la atención de la comunidad clínica. Aunque todavía no existe evidencia científica revisada por pares que confirme la capacidad de una IA para inducir psicosis por sí misma, un consenso emergente sugiere su facultad para amplificar síntomas psicóticos preexistentes. También puede alimentar la estructura delirante en individuos particularmente vulnerables. Expertos en salud mental elevan su voz ante esta situación.

El Impacto de la Interacción con la IA

El psiquiatra Søren Dinesen Østergaard, en un estudio de 2023, explicó la disonancia cognitiva fundamental. La comunicación con chatbots de IA generativa resulta tan realista que uno percibe una persona real al otro lado, aunque al mismo tiempo sabe no ser así. Esta desarmonía parece probable para alimentar delirios en quienes poseen mayor propensión a la psicosis.

La causa esencial de esta distorsión de la realidad yace en la propia naturaleza de estos modelos. ChatGPT, como otros chatbots generativos, está diseñado para reflejar el tono del usuario y mantener la conversación activa. Busca garantizar la satisfacción del interlocutor, mas esta dinámica acogedora y fluida puede volverse peligrosa si refleja pensamientos delirantes o paranoides.

El problema se intensifica con las funciones de memoria y contexto de estas inteligencias artificiales. Cuando recuerdan detalles previos, reafirman conversaciones pasadas o muestran “continuidad emocional”, fortalecen la ilusión de conciencia o reciprocidad. En una mente susceptible, este fenómeno consolida la percepción de que la IA siente, cree o ama.

Riesgos y soluciones posibles a la psicosis por chat GPT

Un estudio reciente expone más de una docena de casos donde usuarios, tras un diálogo prolongado con IA, desarrollaron síntomas delirantes cada vez más elaborados. Desde delirios mesiánicos hasta convicciones románticas con la inteligencia artificial, el patrón se manifiesta repetidamente: la IA, al no estar diseñada para confrontar creencias falsas, las convalida o expande. Un caso inquietante relata la historia de un hombre obsesionado con un chatbot que falleció en una confrontación policial, demostrando que las consecuencias no son solo psicológicas, sino también físicas y sociales.

Los expertos proponen una educación digital urgente: enseñar a la población que la IA no sustituye la interacción humana ni es un agente terapéutico válido. También recomiendan crear filtros de seguridad emocional en los modelos, capaces de detectar patrones lingüísticos peligrosos o estados mentales alterados. De momento, esa función no existe y su desarrollo presenta un desafío importante.

Temas ChatGPT
Tamaño texto
Comentarios
Comentarios