OpenAI y GPT en el banquillo: la orden que pone límites a la apropiación y tráfico de datos

¿Qué pasa con los derechos de millones de usuarios que emplean el ChatGPT con total desconocimiento de esta resolución?

OpenAI y GPT en el banquillo: la orden que pone límites a la apropiación y tráfico de datos
17 Agosto 2025

Por Alejandro Urueña - Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.

Y María S. Taboada - Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.

El 13 de mayo de 2025, la magistrada Ona T. Wang (Tribunal del Distrito Sur de Nueva York) dictó una resolución de apenas dos páginas que alteró de raíz el ciclo de vida de los datos de ChatGPT. La orden judicial se presenta en el marco de un litigio iniciado por el The New York Times contra OpenAI. El periódico acusó a la tecnológica de entrenar sus modelos con contenidos propios, que luego utilizaba en las respuestas del ChatGPT.

La orden plantea “preservar y segregar todos los output logs que, de otro modo, serían eliminados” —incluidos aquellos cuya supresión solicite el propio usuario o impongan las leyes de privacidad—, mientras siga abierto el litigio. En otras palabras se impone la retención de todos los registros de conversaciones, aún las temporales. Cabe aclarar que hasta el presente OpenAI pone como límite para preservar conversaciones, tras lo cual procede a purgarlas.

La citada resolución obliga a preservar incluso los datos que los usuarios han borrado (o crían haberlo hecho) y afecta todas las versiones del GPT que no tengan un acuerdo de retención nula de datos. Sólo se eximen de la resolución Enterprise y Edu. La empresa asegura que solo un reducido equipo jurídico y de seguridad, sometido a auditoría, tendrá acceso a los registros retenido La Corte entiende que todos esos registros son prueba potencial de infracción de copyright y, por tanto, deben mantenerse íntegros hasta nueva orden. Esta decisión traslada a la esfera de la inteligencia artificial las reglas estadounidenses sobre preservación de evidencia (e-discovery): destruir conversaciones podría constituir destrucción de evidencia y acarrear sanciones procesales.

Si bien el tema de los derechos de autor protegidos está en el centro del conflicto, la resolución de la jueza suscita un interrogante en el marco de la complejidad y diversidad de modelos de IA: ¿a quién pertenecen los datos emergentes de las interacciones con modelos como el ChatGPT ?

El trasfondo procesal lo proporciona el fallo del juez Sidney Stein del 4 de abril de 2025, que permitió al Times continuar con los ejes centrales de su demanda por violación masiva de derechos de autor. Al consolidar las pretensiones, el Tribunal dejó claro que los historiales de ChatGPT podrían revelar reproducciones sustantivas de contenidos protegidos.

La orden, sin embargo, entra en tensión con el derecho de supresión recogido en normas como el Reglamento General de Protección de Datos europeo o la Ley de Privacidad del Consumidor californiana.

En debate

La magistrada privilegia la conservación probatoria sobre la privacidad individual, subrayando que las preocupaciones de anonimización o bloqueo se discutirán más adelante, pero que la evidencia no puede desaparecer en el ínterin. Para los profesionales del derecho ello plantea un delicado ejercicio de ponderación entre garantías procesales y autodeterminación informativa.

OpenAI reaccionó presentando un recurso de apelación el 6 de junio de 2025. En palabras de su director ejecutivo, Sam Altman, la compañía «luchará contra cualquier exigencia que comprometa la privacidad de los usuarios».

Implicaciones jurídicas y prácticas

1- Descubrimiento probatorio ampliado. La IA conversacional queda sujeta a los mismos deberes de preservación que correos o bases de datos corporativas, con el añadido de que el volumen de información es exponencial.

2.- Colisión normativa. Empresas que operen en jurisdicciones con fuerte protección de datos deberán conciliar órdenes judiciales de retención indefinida con obligaciones de borrado.

3- Costos de cumplimiento. Segregar y cifrar miles de millones de chats implica redimensionar la infraestructura, definir controles de acceso y revisar cláusulas contractuales con clientes y proveedores de servicios en la nube.

4- Precedente internacional. Tribunales de otras latitudes podrían adoptar el mismo criterio, obligando a los proveedores de IA a mantener registros exhaustivos como salvaguarda procesal.

Desde la óptica estrictamente jurídica, la resolución de la jueza Wang refuerza la máxima referida a que la tutela efectiva de derechos prevalece sobre la fugacidad de los datos. Para los operadores del derecho, el mensaje es claro: cualquier asesoramiento sobre implementación de IA deberá incorporar, de aquí en más, un plan robusto de conservación y gobernanza de la información, anticipando que el purgado unilateral ya no es una opción lícita cuando existe un potencial litigio en ciernes.

Tensiones y contradicciones

El problema aquí trasciende el litigio entre el períodico y la tecnológica porque compromete la privacidad de quienes usan los chatbots creyendo que sus conversaciones están protegidas o limitadas a la esfera de su interacción personal. Y sólo exime de la preservación a determinadas versiones, por lo que los usuarios de la versión gratuita quedan en una situación de inequidad y de desprotección respecto de la exposición de sus datos. No se trata de defender la invasión ilimitada de territorios de datos que realizan las tecnológicas. Por el contrario, es ese abuso el origen de todo el problema, del que empresas como el New York Times tienen todo el derecho a defenderse y el poder para ejercerlo. Pero, ¿qué pasa con los derechos de miles de usuarios que emplean el ChatGPT con total desconocimiento de esta resolución? En la guerra por el mercado de datos, las personas que apelan a la IA en su cotidianeidad como una herramienta de apoyo siguen siendo las verdaderas víctimas y deben conocer esta información, al menos para tener la garantía de libertad de decisión. De lo contrario su autodeterminación, su privacidad, su autoridad y los derechos humanos relativos a estas garantías quedan suspendidos. Y, lo que es peor, sin derecho a la información transparente sobre los riesgos ocultos a los que pueden estar expuestos cada vez que abren el chat.

Tamaño texto
Comentarios
Comentarios