Un político aparece en cámara. Su expresión es tensa, su tono desafiante. Mira fijo a quien lo graba y suelta una frase brutal: “Vamos a manipular los resultados, tenemos todo arreglado”. El video dura apenas 20 segundos. Lo suficiente para estallar en las redes sociales, abrir la polémica en los noticieros, indignar a votantes y poner a temblar a su partido. El problema es que ese video nunca ocurrió. No era su voz, aunque lo parecía. Su rostro fue generado por inteligencia artificial. La secuencia es una fabricación perfecta. Un deepfake.

La escena no es hipotética ni un capítulo de “Black Mirror”, la serie de Netflix que muestra el lado oscuro de los avances tecnológicos. Ocurrió en Eslovaquia días antes de las elecciones parlamentarias de 2023, cuando circuló un audio falso atribuido a un líder político, Michal Šimečka, que lideraba las encuestas. Fue desmentido, pero el daño ya estaba hecho: el video logró instalar una duda, generar ruido y erosionar confianzas. Šimečka fue derrotado.

En Argentina ya tuvimos una muestra inquietante del problema. Durante la veda electoral de las elecciones legislativas porteñas del pasado domingo 18 de mayo, circularon en la red social X (ex Twitter) videos falsos creados con inteligencia artificial en los que Mauricio Macri y Silvia Lospennato anunciaban, supuestamente, el retiro de su candidatura del PRO para apoyar a La Libertad Avanza (LLA). La producción era burda, pero suficiente para engañar a usuarios distraídos, ser compartida por cuentas anónimas y sembrar confusión en un momento particularmente sensible del proceso electoral. La intención no era convencer, sino desorientar.

Ante la circulación de los deepfakes con la imagen del ex mandatario, el presidente Javier Milei respondió cuestionando la gravedad del asunto: “Macri está hecho un llorón y está muy de cristal”. En declaraciones posteriores, cuando el oficialismo había dado el batacazo en las urnas, el jefe de Estado comparó estos contenidos con el uso histórico de seudónimos literarios, argumentando que “es una locura perseguir opiniones en redes”. Según registros oficiales, el Gobierno no ha presentado hasta el momento proyectos para regular este tipo de contenidos.

Adorni se despegó del video falso de Macri y habló de su renuncia y de su posible sucesor

A pesar de quienes ridiculizan a quienes caen en este tipo de fraudes digitales, lo cierto es que no se trata de un problema de ingenuidad individual, sino de una amenaza tecnológica cada vez más sofisticada. Un estudio del Instituto Tecnológico de Massachusetts (MIT) demostró que incluso cuando las personas son advertidas previamente sobre la posibilidad de manipulación, la gran mayoría no logra identificar los videos falsos. En el experimento, sólo el 20% de los participantes prevenidos detectó correctamente el deepfake, y entre los que no recibieron advertencia, la cifra cayó al 10%. Es decir, el 80% no pudo distinguir entre realidad y ficción digital, aun sabiendo que una de las piezas era falsa.

Javier Milei dijo que el video fake de Mauricio Macri está amparado por la libertad de expresión: “No hay que perseguir en redes”

Pero los políticos no son las únicas víctimas de estos engaños digitales. A principio de mes se dio a conocer que una mujer desembolsó U$S15.000 tras meses de conversaciones íntimas con quien creía era George Clooney. Recibía audios cariñosos (”Te amo... prometo pagarte todo”), videos personalizados e incluso una tarjeta física de un “club de fans VIP”. El actor nunca existió: era un deepfake creado por una red delictiva que explotó su admiración (desde que lo seguía en la serie ER) y su situación vulnerable (estaba desempleada). El caso, investigado como estafa internacional, sigue el mismo patrón que los fraudes electorales: uso de identidades verificadas en redes, emociones manipuladas (en este caso, afecto en lugar de indignación) y un guión fraudulento para anular el escepticismo. Si en política buscan sembrar caos, aquí el objetivo era más crudo: vaciar billeteras.

Desconfianza en las elecciones

En la provincia, las denuncias de irregularidades -como el acarreo de votantes, la compra de sufragios o el uso de “urnas embarazadas”- han erosionado históricamente la confianza en las elecciones. A estas prácticas se suma ahora el sistema de acoples, cuya multiplicación de listas genera confusión y facilita maniobras oscuras. Sin embargo, hay una diferencia clave: mientras el fraude “tradicional” requiere logística física y la complicidad de los “punteros”, los deepfakes operan en escala global, sin necesidad de estructuras partidarias. Un solo video falso, creado en cualquier lugar del mundo, puede contaminar el debate público en minutos. El peligro ya no son solo las urnas adulteradas, sino una narrativa electoral fabricada por IA que, combinada con estas viejas artimañas, podría distorsionar la voluntad popular sin dejar rastros físicos. Si antes las irregularidades ocurrían en los cuartos oscuros de las escuelas, hoy se incuban en servidores anónimos.

Macri apuntó a Caputo y a LLA por el video falso: "No necesitamos un grupo de loquitos"

La IA plantea un dilema fundamental para la democracia: puede ser su mayor amenaza o su mejor aliada. El pensador y comunicador Federico Lix Klett plantea un escenario distinto: un candidato a gobernador que utiliza IA no para engañar, sino para mejorar su campaña. Imaginen un “asesor digital” que analiza en tiempo real las necesidades de cada rincón tucumano y genera propuestas personalizadas. Una idea disruptiva. Este sistema permitiría un diálogo permanente con los ciudadanos, transformando las promesas de campaña en soluciones concretas basadas en datos reales.

Sin embargo, el riesgo es evidente: ¿qué garantiza que estos sistemas no serán manipulados para favorecer intereses particulares? En una provincia donde persisten viejas prácticas clientelares, la IA podría convertirse en el instrumento definitivo para perfeccionar el fraude. La paradoja es clara: la misma tecnología que podría hacer nuestras elecciones más transparentes y participativas, también podría convertirlas en el escenario más sofisticado de manipulación electoral.

El tiempo corre en contra: mientras usted lee estas líneas, algoritmos entrenados con nuestros datos personales aprenden a clonar voces, replicar gestos y explotar prejuicios. Los deepfakes podrían ser el cómplice perfecto: invisible, ubicuo y creíble. No se trata de futurismo. Es la crónica de un engaño anunciado. La pregunta no es si llegará, sino si estaremos preparados cuando lo haga. Porque en esta guerra donde la mentira se viste de píxeles, el primer candidato derrotado será la verdad.