Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.
María S. Taboada
Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.
En un panorama global donde la verdad compite ferozmente con la desinformación, especialmente en épocas de elecciones y tras experiencias recientes que han demostrado la vulnerabilidad de nuestros sistemas democráticos ante la manipulación informativa, la inteligencia artificial emerge como un aliado indispensable. Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT y del Qatar Computing Research Institute (QCRI) han desarrollado un sistema de aprendizaje automático que promete ser un faro de fiabilidad y un pilar fundamental para proteger la integridad electoral y la salud de cualquier república.
Evaluar credibilidad
La propagación de “noticias falsas” y propaganda en redes sociales ha puesto en jaque la capacidad de los verificadores tradicionales de hechos para actuar con la rapidez necesaria. Mientras sitios como Politifact y Snopes se esfuerzan por desmentir afirmaciones individuales, la desinformación a menudo ya ha dado la vuelta al mundo. Ante esta crisis, el equipo del MIT y QCRI ha girado el foco: en lugar de perseguir cada mentira, el algoritmo evalúa la credibilidad de la fuente de noticias en sí misma.
“Si un sitio web ha publicado noticias falsas antes, hay una buena posibilidad de que lo haga de nuevo”, afirma Ramy Baly, autor principal del estudio y postdoctorado en el MIT https://news.mit.edu/2018/mit-csail-machine-learning-system-detects-fake-news-from-source-1004). La meta es una defensa proactiva: identificar los focos de desinformación desde sus inicios, antes de que sus narrativas puedan distorsionar el debate público y, crucialmente, influir en el electorado. Este sistema de vanguardia sólo requiere alrededor de 150 artículos de una fuente para detectar de manera fiable su veracidad y sesgo político. Por ejemplo, los medios de noticias falsas suelen emplear un lenguaje más hiperbólico, subjetivo y emocional. El algoritmo también toma en cuenta la página de Wikipedia de un medio y la estructura de sus URL: los complejos y con caracteres especiales se asocian a fuentes menos fiables. El sistema ha demostrado una importante precisión del 65% en la detección de la veracidad (alta, baja o media) y aproximadamente un 70% en la detección del sesgo político (izquierda, derecha o moderado) de nuevas fuentes. El equipo ha democratizado esta herramienta, creando un conjunto de datos de código abierto con más de 1.000 fuentes de noticias, anotado con puntuaciones de veracidad y sesgo, siendo la base de datos más grande de su tipo a nivel mundial https://github.com/ramybaly/News-Media-Reliability).
Potencial inmenso
Aunque los investigadores, como Preslav Nakov de QCRI, enfatizan que el sistema está en evolución y funciona mejor en conjunto con verificadores de hechos tradicionales, su potencial es inmenso https://news.mit.edu/2018/mit-csail-machine-learning-system-detects-fake-news-from-source-1004.
Capacidad de decisión
La fortaleza de cualquier sistema republicano y democrático recae directamente en una ciudadanía informada, capaz de discernir entre hechos y ficción al tomar decisiones, especialmente al ejercer el sufragio. La desinformación y la propaganda son ataques directos a este principio, pudiendo manipular la opinión pública, inclinar elecciones y agravar la polarización social, socavando la confianza en las instituciones y, en última instancia, en el proceso democrático mismo. En el contexto de las elecciones actuales y futuras, para evitar la repetición de episodios históricos recientes donde la desinformación ha sembrado el caos o la división, algoritmos como el del MIT adquieren una importancia crítica para proteger y sostener el sistema republicano de cualquier país.
Al empoderar a los ciudadanos con la capacidad de evaluar la credibilidad de las fuentes de información de manera eficiente y proactiva, esta tecnología se convierte en una defensa digital vital contra las fuerzas que buscan socavar los cimientos de la democracia:
1.Promover un voto informado: Al identificar y señalar fuentes de noticias falsas o sesgadas desde el inicio, el algoritmo ayuda a los votantes a discernir entre información fidedigna y propaganda electoral. Una ciudadanía bien informada es esencial para el debate público racional y la toma de decisiones políticas conscientes, pilares de cualquier república que celebra elecciones.
2.Mitigar la polarización electoral: La capacidad de estos sistemas para detectar sesgos políticos y, en el futuro, ayudar a los usuarios a explorar diversas perspectivas fuera de sus “burbujas políticas” (https://www.csail.mit.edu/news/detecting-fake-news-its-source), es fundamental para fomentar una comprensión más matizada de los problemas en campaña y reducir la división. Esto contribuye a un diálogo electoral más constructivo, crucial para la cohesión social y política.
3.Fortalecer la confianza pública: Al proporcionar herramientas para evaluar la fiabilidad y el sesgo de las fuentes, esta tecnología puede ayudar a restaurar la confianza del público en los medios de comunicación durante periodos electorales, alentando a los ciudadanos a buscar y valorar fuentes de información responsables.
Paso relevante
La iniciativa del MIT y QCRI es un paso relevante hacia un futuro donde la verdad tiene una mejor oportunidad de prevalecer sobre la desinformación en el espacio digital. Al equipar a los usuarios y verificadores de hechos con estas herramientas, se salvaguarda la integridad de los procesos democráticos y se fortalece el buen funcionamiento de los sistemas republicanos, garantizando que el “voto claro” sea, verdaderamente, un voto consciente y libre. https://news.mit.edu/2018/mit-csail-machine-learning-system-detects-fake-news-from-source-1004 La urgencia de herramientas como ésta se ha hecho palpable en sucesos recientes. En el contexto de las primarias de New Hampshire, la difusión de un ‘deepfake’ de Joe Biden instando a los electores a no votar, ilustró vívidamente cómo las tecnologías de manipulación avanzada pueden amenazar la integridad de los procesos electorales (https://apnews.com/article/new-hampshire-primary-biden-ai-deepfake-robocall-f3469ceb6dd613079092287994663db5). Este tipo de incidentes subraya la necesidad critica de sistemas que puedan identificar no solo el contenido falso, sino también las fuentes que lo originan o promueven, protegiendo asi la confianza publica y la solidez democrática (https://www.abc.es/cultura/eric-sadin-ia-gran-ilusion-regulacion-20240405193319-nt_amp.html),
El algoritmo es sin duda un aporte en un mundo donde las fronteras entre lo virtual y lo real se hacen cada vez más lábiles. Pero para que una falacia sea aceptada como verdad no basta con desocultarla, porque aún así puede seguir teniendo adherentes o quienes, a pesar de la evidencia, sean reacios a aceptarla. Estas son conductas que vemos propagarse. Y este es un problema psicosocial que tiene, entre otras bases, la educativa. Una sólida educación lingüística, científica y filosófica, en la que se enseñe a discernir en los discursos y las practicas sociales entre la evidencia y la opinión y en la que los alumnos puedan participar activamente, debatir e incluso disentir es otra herramienta -tan necesaria como el algoritmo- para evitar la credulidad social.
Separar la paja del trigo
Hoy más que nunca requerimos una educación basada en problemas y proyectos en la que los estudiantes aprendan a distinguir lo que el acertado dicho define como “la paja del trigo”.
El algoritmo tiene que entrar en la escuela y constituir un insumo no solo al alcance de todos sino un recurso a trabajar en pos del discernimiento crítico y autodeterminación colectiva e individual, derechos humanos básicos que diferencien horizontes de cercos a la conciencia de nosotros, los sapiens.







