OpenAI habilita el monitoreo policial de tus chats con ChatGPT: ¿por qué?

Esto ocurre si la plataforma detecta amenazas a la seguridad o posibles daños, una modificación que la empresa de IA comunicó en una entrada de blog.

OpenAI habilita el monitoreo policial de tus chats con ChatGPT: ¿por qué?
09 Septiembre 2025

OpenAI, la organización detrás de ChatGPT, implementó una serie de cambios recientes en sus términos y condiciones que le permiten compartir las conversaciones de los usuarios con las autoridades. Esto ocurre si la plataforma detecta amenazas a la seguridad o posibles daños, una modificación que la empresa de IA comunicó en una entrada de blog y que desató la polémica entre individuos y especialistas en privacidad.

La organización explica que, si un usuario planea dañar a otros, las conversaciones se dirigen a flujos especializados. Allí, un equipo reducido y entrenado en las políticas de uso revisa el contenido. Estos revisores cuentan con la autorización para tomar medidas, incluyendo la prohibición de cuentas.

El proceso de revisión y derivación que usa Chat GPT

Desde OpenAI, explican que si los revisores humanos determinan una amenaza inminente de daño grave hacia terceros, la información podría derivarse a las autoridades policiales. La organización dirige las conversaciones de usuarios que planean causar daño a flujos especializados para su revisión. Un equipo reducido, entrenado en políticas de uso, está autorizado para tomar medidas como la prohibición de cuentas.

Esta práctica no resulta una sorpresa en la escena digital, pues muchas aplicaciones, incluso con cifrado de extremo a extremo, deben colaborar si reciben una orden judicial. El dato clave, en este caso, es la mención de una revisión previa por parte de los equipos de OpenAI antes de cualquier tipo de pedido oficial. La compañía precisa que puede compartir información personal con autoridades gubernamentales o terceros si lo exige la ley, o de buena fe para detectar fraude, proteger la seguridad de sus productos o prevenir actividades ilegales.

Las razones detrás de los cambios polémicos de chat GPT

Las modificaciones en los términos de uso del chatbot posiblemente responden a casos recientes donde ChatGPT fue acusado de brindar consejos perjudiciales a algunos usuarios. Una de las demandas más visibles involucró a los padres de un adolescente de 16 años, quienes acusaron a la organización de IA por la muerte de su hijo.

La presentación ante la justicia alegó que “ChatGPT ayudó activamente” al adolescente a explorar métodos de suicidio. Los demandantes señalaron que el chatbot no interrumpió ninguna de las sesiones ni inició protocolos de emergencia, a pesar de reconocer el intento de suicidio de Adam. El abogado de la familia indicó que el caso pondrá en tela de juicio hasta qué punto OpenAI y Sam Altman se apresuraron a comercializar la entonces más reciente versión de ChatGPT. Esto ocurrió a pesar de los "evidentes problemas de seguridad" que el chatbot presentaba.

Comentarios