
Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.
María S. Taboada
Lingüista y Magíster en Psicología Social. Profesora Titular de “Linguística General I” y “Política y Planificación Linguísticas” de la Fac. de Filosofía y Letras de la UNT.
Hasta el viernes pasado, quienes usan las redes -la gran mayoría de los que tienen acceso a dispositivos tecnológicos, la web e internet- confiaban en que sus mensajes estaban resguardados. La confianza está (o estaba) depositada en que las mismas aplicaciones brindaban información al respecto, que los usuarios consideraban fiable, on distintos grados de conciencia crítica.
Técnicamente, estamos hablando de un blindaje: el cifrado de extremo a extremo (E2EE, candado matemático que garantizaba que solo emisor y receptor leyeran cada mensaje). Este blindaje era “opt-in”: había que activarlo manualmente; no venía puesto por defecto, estaba escondido en un submenú, pero existía. Desde el 8 de mayo de 2026, Meta lo apagó. La anulación trae como consecuencia que los chats privados de Instagram migran a “cifrado estándar”: protección básica que la propia empresa puede abrir cuando quiere. Esto quiere decir que están protegidos en tránsito (mientras el mensaje viaja por internet), pero legibles por la plataforma (mismo régimen que Gmail o TikTok). Sin conferencia de prensa, sin aviso al usuario: solo en una edición silenciosa del Centro de Ayuda. Recurso éste que, por otra parte, es usual en todas las aplicaciones de las grandes tecnológicas: el mensaje que advierte sobre la seguridad o la fiabilidad de los datos está siempre solapado.
¿Cómo justifica la empresa esta “innovación”?: “Muy poca gente activaba el cifrado de extremo a extremo en los mensajes directos, así que estamos eliminando esta opción”. La estrategia informativa y argumentativa es clara: no se da información explícita y en primer plano sobre la función, por lo que “nadie” la usa, y se emplea el argumento de la escasa adopción como excusa para eliminarla. Falacia circular: razonamiento tramposo donde la conclusión se usa como prueba de sí misma. La confianza del usuario en la seguridad de la aplicación es engañosamente tradicionada y empleada como justificación para darla de baja.
Conviene detenerse al respecto en lo que Éric Sadin denomina el cambio de estatuto de las tecnologías digitales: “ya no están únicamente destinadas a recolectar, almacenar, indexar y manipular información (...). A partir de ahora, se les ha asignado otra misión: evaluar con experticia segmentos cada vez más extensos de lo real. Pero también recomendar -en función de la situación- actuar de una manera más que de otra” (experticia: actuar como si fuera un experto humano; segmentos de lo real: pedazos de la vida cotidiana). La tecnología ya no sólo archiva sino que pasa a ser juez. Y cuando ese mismo juez puede leer tus mensajes íntimos, tiene acceso al sumario completo antes de que vos sepas que estás siendo juzgado.
La relación causa-efecto es quirúrgica: sin cifrado de extremo a extremo → Meta accede al contenido → del contenido infiere (deducción algorítmica de datos que el usuario nunca declaró: la máquina deduce sola) → de la inferencia se construye el perfil publicitario (el retrato comercial que define qué anuncios te muestran) o se entrega prueba a la autoridad que lo solicite. La jurista española Elena Gil lo grafica: “Imagínate que el cartero, que es Meta, pudiese parar a leer todas las cartas que tú escribes. Si hablas de tus finanzas, de enfermedades, de a quién votas, de detalles que revelan tu condición sexual incluso en un país donde eso pueda estar perseguido (...) vos creías que estabas hablando en privado; en realidad estabas dictando”. El timing tampoco es casual: el 19 de mayo entra en vigor la Take It Down Act estadounidense (en nuestra lengua, “Bájalo”), que obliga a las plataformas a retirar en 48 horas cualquier imagen íntima publicada sin consentimiento, incluidos los deepfakes (imágenes falsas creadas con IA que ponen el rostro de una persona sobre un cuerpo ajeno). El problema: si el contenido está cifrado, la plataforma no puede verlo y, por lo tanto, no puede retirarlo. Para cumplir la nueva ley, Meta necesitaba poder leer. Apenas días antes, apagó el candado.
Y acá entra la Ley argentina 25.326 de Protección de Datos Personales. El art. 2 define como datos sensibles la orientación sexual, la salud, la religión y la opinión política. El art. 7 prohíbe su tratamiento salvo “consentimiento expreso, inequívoco y explícito, no tácito”. Y el art. 5 agrega que ese consentimiento debe ser “libre, expreso e informado” y constar “por escrito, o por otro medio que permita se le equipare”, figurando “en forma expresa y destacada”. Aceptar unos términos y condiciones a las 3 AM no cumple ninguno de esos requisitos. La pregunta para la AAIP (Agencia de Acceso a la Información Pública, el organismo argentino que controla el uso de datos personales) es directa: ¿puede una plataforma extranjera inferir, en territorio argentino, datos sensibles del 100% de sus usuarios sin cumplir los arts. 2, 5 y 7?
La IA no sólo te lee: interpreta y te vende.
Y ahora la pieza que cierra el rompecabezas, la que pocos están conectando. Esta semana, Anthropic anunció que su IA “sueña”: una función llamada Dreaming (“soñando”) que, en los períodos de inactividad, revisa sesiones recientes y reorganiza la memoria del modelo, supuestamente como hace el cerebro humano al dormir. La crítica fue inmediata: el antropomorfismo (atribuir características humanas -emociones, consciencia, sueño- a una máquina) es peligroso porque desplaza la pregunta política. Si la IA “sueña”, “se equivoca”, “alucina” (palabra que la industria usa cuando la IA inventa datos falsos), parece un sujeto, y a un sujeto no se lo regula: se lo comprende. Mientras debatimos si la IA tiene psicología, lo que en realidad hace es lo que describe Sadin: “nuestras capacidades más fundamentales, las de producir símbolos y, sobre todo, lenguaje (...) son las que están llamadas a ser asumidas por robots que utilizan procesos matematizados, estandarizados e industrializados” (matematizados: convertidos a números y fórmulas; estandarizados: igualados a un molde único; industrializados: producidos en serie como en una fábrica).
Ese es el plano completo: una IA que “sueña” mientras lee tus mensajes; una plataforma que apaga el cifrado justo antes de que una ley la obligue a poder ver, y un ordenamiento argentino (arts. 2, 5 y ccdtes. de la Ley 25.326) que no fue diseñado para un “confesor” que -además- interpreta lo que escucha. Llamarlo “confesor” ya es antropomorfismo: no es un confesor, es un sistema estadístico (un programa que saca conclusiones contando patrones de datos), que infiere tu vida sexual del emoji que mandaste a las 2 AM, y vende ese perfil al mejor postor. Meta no eliminó el cifrado porque “nadie lo usaba”. Lo eliminó porque leerte es más rentable que protegerte, y porque una IA que “sueña” necesita material para soñar. El confesor ya no espera tu visita el domingo: entró al living, abrió tu cuaderno, y ahora dice que sueña con vos.







