Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.
María S. Taboada
Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.
Un chef con tres estrellas Michelin no solo cocina: dirige una operación de precisión. Antes de prender el fuego, valida la procedencia de cada ingrediente, define qué entra a la cocina y qué queda afuera, estandariza recetas para que el resultado sea repetible y deja un registro de cada preparación para detectar fallas y corregirlas sin improvisaciones. En justicia, esa misma lógica podría abrir una oportunidad concreta: un agente de IA bien diseñado puede trabajar como un servicio robusto (robustez: tolerancia a fallos y control de errores) que apela a herramientas externas (tools: funciones) y a funciones externas (APIs: interfaz de programación) para leer, verificar y calcular, pero siempre bajo control institucional del Estado (gobernanza: quién habilita qué, cuándo y con qué permiso), con validaciones (controles de entrada/salida) y posibilidad de corregir errores (reintentos, checkpoints: puntos de reanudación) antes de escalar su uso.
Por eso, el punto de partida razonable no es “sentenciar”, sino automatizar pequeños actos procesales rutinarios (actos de trámite: proveídos, control de plazos, armado de cronologías, cálculos simples, chequeos de integridad), donde la ganancia es inmediata y el riesgo se acota con diseño.
El salto actual ya no es “chatbots” (texto-texto), sino agentes multimodales (multimodal: combinan texto, imagen, audio) capaces de ver (visión computacional: interpretar imágenes), oír (voz: transcribir audio) y actuar (acción: ejecutar tareas externas). Esto significa que un sistema puede leer escaneos con OCR (reconocimiento óptico de caracteres), interpretar fotos o videos (análisis visual), transcribir audios con modelos de voz a texto como Whisper (speech-to-text: voz a texto) y luego ejecutar tareas concretas con herramientas externas (tools: funciones) vía APIs (interfaz de programación) y automatizadores (orquestador de flujos), coordinado por frameworks como LangChain (conector de modelo + herramientas) y LangGraph (orquestación por grafo: flujo con nodos y transiciones).
Para un servicio de justicia, el beneficio es directo: pasar de “¿puede leer esto?” a “¿puede ver, entender y dejarlo listo para decidir?” Luego el control humano, pero con una advertencia igual de directa: cuanto más percibe y más actúa, más estrictos deben ser los permisos (autorizaciones por herramienta), las validaciones (controles de entrada/salida) y el registro auditable (logs: bitácora verificable), porque ahí vive el riesgo real de los efectos externos.
En la práctica, un agente funciona como una metodología operativa: Thought (plan: próximo paso) → Action (pedido de herramienta: llamada a una función externa) → PAUSE (alto controlado para ejecutar)→ Observation (evidencia: resultado verificable de la herramienta) y Answer (salida final redactada para el usuario).
Esta separación no es un detalle estético: es un mecanismo de control. “Action” permite salir del texto hacia el mundo real del expediente digital (PDFs, imágenes, planillas, bases de datos, links en la web) mediante herramientas externas (tools), y “Observation” obliga a que lo que entra como prueba sea un resultado trazable, no una frase inventada. Cuando se respeta esa separación, la independencia deja de ser una promesa y pasa a ser una propiedad técnica: la conclusión queda atada a observaciones registradas (audit trail: rastro de auditoría) y no a texto sin sustento.
Si hablamos solo de factores externos (sin psicología ni motivaciones personales), los dos primeros canales que inclinan decisiones son la materia prima y la recuperación. La materia prima es el corpus (corpus: conjunto de documentos) que se indexa y autoriza: qué entra, qué se actualiza, qué queda afuera y con qué integridad (hash/firma: huella que detecta alteraciones). La recuperación es RAG (Retrieval-Augmented Generation: generación asistida por búsqueda), donde un motor trae textos relevantes antes de responder; allí importan el ranking (orden de relevancia), el recall (qué tanto se recupera lo relevante) y la citación obligatoria (citar la fuente recuperada o no afirmar). La regla es simple y objetiva: lo que no se recupera no existe para el sistema, por eso un diseño serio exige trazas del retrieval (qué se trajo y por qué) y control del repositorio para que los “vacíos” no se conviertan en sesgos.
El tercer canal y el más delicado son las herramientas externas (tools) y sus permisos. Una tool puede leer un PDF, ejecutar OCR, extraer datos estructurados (parsing: convertir texto libre en campos), calcular intereses o plazos, comparar versiones y detectar inconsistencias; eso acelera la producción de evidencia operativa, pero introduce un principio de seguridad básico: lista blanca (whitelist: solo acciones permitidas), mínimo privilegio (least privilege: permisos estrictamente necesarios), sandbox de entrenamiento (entorno aislado), límites de tiempo (timeouts) y validación de parámetros (input validation). En términos de independencia tecnológica, esto es central: el agente puede “salir” al mundo real solo por puertas controladas, con registros, reduciendo la influencia de factores externos que suelen colarse cuando las acciones no están acotadas o cuando la evidencia no queda firmada y auditada.
El cuarto y quinto canal son invisibles para el usuario, pero decisivos: reglas internas y versiones. El prompt de sistema (system prompt: instrucción madre), las plantillas (templates: formatos), los guardrails (barandas de seguridad) y las políticas como código (policy-as-code: reglas versionadas) determinan qué puede afirmar, cuándo debe pedir evidencia y cómo cita. A eso se suma el motor: versión del modelo (versioning: cambios de comportamiento), parámetros como temperature (aleatoriedad/control de variación) y la reproducibilidad (mismos inputs + misma versión → mismo output). Si el sistema cambia de versión sin control, o si el prompt cambia sin auditoría, la “independencia” se vuelve inestable; por eso, en productos responsables se aplican pruebas de regresión (regression tests: detectar cambios no deseados), rollback (volver atrás) y trazabilidad completa de configuración y la posibilidad de tener un estado (Trazabilidad de tokens).
Con todo lo anterior, es importante no borrar lo que el humano aporta y que no es reemplazable por arquitectura: juicio jurídico calificado (ponderación: balancear principios y hechos), prudencia institucional (criterio: decidir con responsabilidad), comprensión contextual (contexto: entender consecuencias) y rendición de cuentas (accountability: responsabilidad atribuible).
La evolución actual de la IA aplicada no consiste en “anular al humano”, sino en darle un sistema que le ahorre fricción y defectos: que ordene el expediente, acelere la lectura, reduzca errores mecánicos y produzca borradores verificables, dejando para la decisión final aquello que exige razonamiento jurídico completo y responsabilidad humana. Además, en Europa existe un marco normativo que limita decisiones “solo automatizadas” con efectos jurídicos, como el derecho a no quedar sujeto a decisiones basadas únicamente en procesamiento automatizado que produzcan efectos legales o afecten significativamente (GDPR, Art. 22) y la explicación de la Comisión Europea sobre estas restricciones.
En ese marco, la independencia se vuelve una cuestión de ingeniería y gobernanza: diseñar servicios donde los factores externos queden identificados, limitados y auditados. La Unión Europea, mediante el AI Act (Reglamento (UE) 2024/1689), trata la IA en ámbitos sensibles con obligaciones y categorías de riesgo (incluyendo usos vinculados a justicia), y en paralelo el ecosistema europeo refuerza el criterio de que las decisiones con efectos jurídicos no deben descansar “solo” en automatización sin salvaguardas. Unesco, por su parte, fija estándares éticos globales que enfatizan derechos, transparencia, trazabilidad y supervisión humana (Recomendación sobre la Ética de la IA, 2021) y publicó guías específicas para el uso de IA en tribunales (Guidelines for the use of AI systems in courts and tribunals, 2025), orientadas a que la IA mejore procesos sin erosionar garantías.
Fuentes:
Building AI Agents with LangGraph: Creating Agentic Applications with Large Language Models and LangGraph O’Reilly Media, Inc. AI Act (EUR-Lex) https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng ; Comisión Europea (restricciones a decisiones automatizadas) https://commission.europa.eu/law/law-topic/data-protection/rules-business-and-organisations/dealing-citizens/are-there-restrictions-use-automated-decision-making_en ; GDPR Art. 22 https://gdpr-info.eu/art-22-gdpr/ ; UNESCO Recomendación 2021 (ES) https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa ; UNESCO Guidelines 2025 (EN) https://unesdoc.unesco.org/ark:/48223/pf0000396582.locale=en








