La IA mira los textos humanos desde sus propios límites

Hace 4 Hs

Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.

María S. Taboada
Lingüista y Magíster en Psicología Social.  Profesora Titular de “Linguística General I” y “Política y Planificación Linguísticas” de la Fac. de Filosofía y Letras de la UNT.

La IA frente al espejo

En la reciente publicación del Ialab (UBA- Facultad de derecho): ¿Lo escribió un humano o la IA? los autores comparten los resultados de una investigación sobre un interrogante que hoy se estima como acuciante en diferentes instituciones sociales (educación, medicina, derecho, entre otras): ¿qué participación o intervención tiene la IA en  la producción de discursos? Su objetivo no es dilematizar, estigmatizar o proscribir el uso de la IA, tal como ocurre en no pocas revistas científicas, sino discernir cuándo un texto es un producto total de IA y cuáles son sus principales distancias con un texto cuya autoría es humana. De hecho, la IA está presente hoy - diríamos, casi inevitablemente- en buena parte de las prácticas discursivas de personas de todas las edades y contribuye - si se trata de un empleo con conciencia y conciencia crítica- a potenciarlas, aportando rapidez y eficacia en el procesamiento de determinados datos que agilizan el análisis y  la producción de resultados.

Los investigadores parten de la constatación documentada de un problema: la mayoría de las herramientas automatizadas destinadas a detectar escritura generada por IA evidencian severas limitaciones. La misma IA se muestra falaz para diferenciar el procesamiento textual con IA del producido por humanos. Citan para el caso a GPTZero, You Scan, Quilbot, My Detector, entre otros. Advierten que todos derivan en una tasa muy alta de falsos positivos: evalúan textos escritos por humanos como generados exclusivamente por IA, lo cual atenta contra los derechos de autor y puede dejar afuera contribuciones relevantes en ámbitos académicos, institucionales o profesionales.

En realidad, las herramientas automatizadas de detección (machine learning u otras) tienen en sí mismas una limitación algorítmica porque operan a partir de análisis estadísticos y lingüísticos  a nivel de lo explícito y estructural y éste no es más que una de las dimensiones - la más básica- de la complejidad discursiva. La detección se centra en la previsibilidad léxica - donde también la IA suele tener errores (basta con pensar en los correctores de los celulares)- regularidad sintáctica   y patrones probabilísticos de secuenciación de lenguaje, que constituyen las bases de los LLM.   O sea, toman como referente no al lenguaje humano sino a su representación matemático-algorítmica, porque el procesamiento no deja de ser el mapeo de una función mediante esa representación. No consideran el rol constitutivo de las estrategias discursivas y estilísticas; las dimensiones semánticas y semióticas del interjuego entre lo implícito y lo explícito en el lenguaje y el discurso; la intencionalidad, las decisiones y las estrategias en función de los posibles lectores; la creatividad, dimensiones todas éstas en tensión con los modelos basados en patrones.  Y por eso es que estos “detectores” sólo pueden “ofertar” estimaciones probabilísticas con limitaciones de diagnóstico en los principios fundantes de lo que es la producción discursiva humana. En ese sentido, hablar de “evaluación” por parte de estos detectores es un sesgo.

Sí es posible que la IA pueda detectar con mayor fiabilidad textos producidos por IA porque responden a su mismo modelo. La evaluación es un reflejo de la operación de procesamiento: regularidad sintáctica, limitada variación estilística, patrones lingüísticos discursivos uniformes y homogéneos, ausencia de perspectivas múltiples del tema y de alternativas dialécticas, etc. Basta con solicitar a cualquier LLM que produzca un poema para inmediatamente advertir que carece de creatividad, de complejidad y profundidad semántica y semiótica, de lectura de lo no explícito y de perspectiva múltiple para enfocar la complejidad del tópico desarrollado. En general se trata de una estructura formalizada que para cualquier humano más simula una parodia que una creación.

Es significativa una de las conclusiones a la que arriban los autores respecto de la detectabilidad: “no es una propiedad fija del texto, sino una condición frágil que se degrada rápidamente en escenarios realistas”. En efecto, todo texto es una producción en la  que interaccionan sujetos complejos situados en circunstancias complejas y en procesos sociohistóricos, culturales, políticos igualmente complejos. Hasta el presente la IA no puede acceder a la experiencia de la realidad , por lo tanto toda esta trama queda fuera de su posibilidad de procesamiento. Está claro que no hay que confundir  o asimilar procesamiento algorítmico con “capacidades”: los sujetos y los cerebros humanos aprenden y producen a partir de experiencias situadas, de relaciones patentes e implícitas, de tramas inferenciales que les permiten desarrollar conocimientos sobre la base de datos limitados porque lo sustancial es la multidimensionalidad de relaciones que pueden visualizar y aprehender a partir de pocos datos.  El lenguaje humano es siempre resultante de una dinámica entre lo conceptual y lo contextual. La IA hasta hoy puede acceder -y limitadamente- a  una parte de la dimensión conceptual, aquella que es la menos significativa: la que se genera por estabilidad formal (iteración de patrones). Y para hacerlo, requiere alimentarse de millones de datos explícitos.

En síntesis, los detectores de IA sirven para encontrar su propio espejo: textos enteramente producidos por IA. Allí donde hay intervención humana tienden a sesgar. Se hace necesario, entonces, generar recursos y estrategias que -al decir del informe- “permitan mitigar el fraude sin sofocar el uso legítimo de la IA como herramienta de asistencia en la redacción moderna”.

Otras perspectivas

En la búsqueda de herramientas operativas, los investigadores aportan una serie de criterios que consideran deben tenerse en cuenta a la hora de detectar y evaluar  presencia humana o de IA en la producción textual. Sostienen- apoyándose en bibliografía científica- que una diferencia clave radica en el rol de la toma de decisiones en la producción humana. Las decisiones humanas -a diferencia de las “elecciones” algorítmicas-  implican flexibilidad individual, juicios relevantes al contexto, empatía así como juicios morales complejos, aspectos todos estos ausentes en las potencialidades de la IA.

Por lo tanto la detectabilidad no puede limitarse al procesamiento sintáctico estructural  sino a las capacidades y posicionamientos humanos que no  se generan   por patrones históricos iterados y objetivos predeterminados sino que se sustentan precisamente en sus contrarios: la capacidad de interrogar y reformular objetivos, reconocer tensiones y alternativas, registrar circunstancias singulares y asumir conscientemente las consecuencias de las decisiones adoptadas.

Desde esta constatación proponen una premisa que -para quienes somos lingüistas- ya es clásica pero que pareciera no haber sido tomada en cuenta por los diseñadores de los algoritmos de detección porque confunden discursividad con estructura formal lingüística (entendida desde un modelo de gramática oracional):  “entender al texto como acto decisorio y comunicacional y no como mero artefacto lingüístico”. Habría que agregar, a esta relevante decisión epistémica del Ialab, la dimensión intrínseca simbólico sociocultural de todo texto que sustenta su proceso de producción. Porque todo texto humano es producto y proceso y en el producto están las marcas y huellas del proceso de producción situado.

Partiendo de este enfoque consideran ocho dimensiones que permiten identificar lo que designan como “intervención humana sustantiva”, centrales para la atribución de autoría y responsabilidad. Así consideran si los textos formulan valoraciones, juicios o ponderaciones,  fundamentadas y contextualizadas; si identifican alternativas posibles y adoptan una decisión fundada; si se asume responsabilidad respecto del contenido y sus consecuencias; si se inscribe al texto en un contexto específico que revela comprensión situada del entorno; si se distingue entre lo descriptivo y la construcción de sentido mediante inferencias, ponderación de normas y de información, referencia al caso concreto; si  se advierten alusiones a aprendizajes y prácticas previas, saberes operativos implícitos, memorias organizacionales; si  existe ponderación respecto de valores, riesgos o impactos de manera situada y si  se proponen soluciones, enfoques o cursos de acción instrumentales, viables y adaptados al contexto y a objetivos reales.

Si bien la lectura de los criterios sugiere  un basamento en textos jurídicos y de orden argumentativo -como es lógico desde el engarce institucional del IALAB-, los criterios adoptados resultan relevantes para otros ámbitos. El papel de las decisiones humanas, la asunción de responsabilidad, la interpretación situada  adquieren en esta perspectiva un estatuto fundamental.

Todo discurso humano implica decisiones en y sobre el lenguaje, las lenguas y los discursos que vamos a producir;  discursos que son siempre para otros y que están entramados a los contextos históricos, socioculturales y situacionales específicos en los que vivimos, pensamos, hablamos y hacemos. Aun en los monólogos o en el lenguaje interior los humanos nos hablamos y nos pensamos en relación a otros en un aquí y ahora. Y esas huellas, que otorgan singularidad, son irreductibles en la discursividad humana (aun cuando el autor se esmere en querer disimularlas) e inexistentes en el discurso prototípico y paramétrico de la IA. Hay dimensiones que los desarrolladores de IA pueden intentar emular pero que aún no han logrado que la IA sea capaz de crear autónoma, consciente, reflexiva y responsablemente. Y por eso conviene seguir tomando recaudos y tener cautela ante los discursos de las empresas y los desarrolladores que hablan de las “capacidades y las decisiones” que toma la IA. El  recurso al que apelan los autores de estos discursos para magnificar la operación de procesamiento  es lo que , precisamente, una IA es incapaz de hacer por sí misma: producir metáforas.

Tal vez sea hora de que los desarrolladores e investigadores de IA conozcan los desarrollos científicos de la multidimensional área de las ciencias del lenguaje que les permitiría comprender la complejidad de esta capacidad y praxis humana, hasta ahora reducida en sus perspectivas epistémicas a la secuencialidad e iteración formal. Como así también que se entienda cuáles son las “capacidades” de aprendizaje de los algoritmos fundadas en el procesamiento estadístico. Y evitar de este modo que la IA se mire desde su propio reflejo.

Fuentes:

Sánchez Caparrós, M. y Nuccitelli, M. (2026) ¿Lo escribió un humano o la IA? UBA: IALAB.

Taboada, María (2018) Introducción a la Lingüística. Problemáticas, teorías y debates. UNT: Fac. de Filosofía y Letras.

Temas Tucumán
Tamaño texto
Comentarios
Comentarios