Las “deepfakes” avanzan y es tiempo de ocuparnos - LA GACETA Tucumán

Las “deepfakes” avanzan y es tiempo de ocuparnos

03 May 2021 Por Pablo Hamada
1

Parece que una pandemia no es suficiente fenómeno para generar preocupaciones a nivel global. Mientras el virus hace estragos en algunos países y reduce su contagio en otros, una nueva alerta despertó la atención de organismos de seguridad como el FBI. Según la agencia de investigaciones estadounidense, en los próximos 12 o 18 meses aumentará la circulación de contenido digitalmente manipulado y como consecuencia podrían surgir ciberdelitos como campañas de suplantación de identidad.

En un reciente informe, dicho organismo aclaró que si bien este fenómeno ya existía con técnicas tradicionales de manipulación como la edición fotográfica digital, ahora emergen técnicas basadas en inteligencia artificial (IA) o aprendizaje automático (ML), más conocidas como “deepfakes”. Si bien detrás de dicho concepto existe toda una compleja biblioteca y un abanico de especificaciones, el diccionario de Cambridge simplifica su definición y entiende como “deepfake” a los videos o grabaciones en los que se reemplaza la cara o la voz de alguien por los de otra persona, de una manera que parece real.

Aunque FBI alertó por este fenómeno hace pocas semanas, los “deepfake” no son una novedad. En marzo de 2018, se hizo viral un supuesto video en el que el expresidente norteamericano Barack Obama definía a Donald Trump como un “completo estúpido”. El video no era más que un experimento llevado a cabo por Buzzfeed, un famoso medio de noticias virales que montó dicho mensaje con el objetivo de advertir los potenciales peligros de aplicar la inteligencia artificial para fabricar noticias falsas. Según detallaron, el video duraba solo 70 segundos, pero había necesitado más de 56 horas de producción con material de archivo del exmandatario.

Existen dos componentes que hacen que el “deepfake” despierte nuevas alertas. Uno de ellos es su alcance. Estas técnicas hoy están presentes hasta de manera lúdica en algunas redes sociales, por ejemplo, para crear videos con el rostro de famosos o caricaturas. Es decir, ya pueden funcionar en nuestro teléfono. El los últimos meses, también se manipularon imágenes satelitales de Google Maps con esta técnica y en TikTok un “impostor” del actor Tom Cruise llegó casi al millón de seguidores con solo subir videos en los que suplantaba su rostro. El segundo componente está estrechamente relacionado a los “deepfakes” y son las nuevas aplicaciones que se están haciendo a partir del reconocimiento facial. Sin ir más lejos, en nuestro país ya existen formas de validación de identidad basadas en este tipo de técnica que se utilizan para operar en cuentas bancarias, accesos a edificios, documentación oficial y hasta para reconocer a personas buscadas por la Justicia. Por lo tanto, el crecimiento de ambos aspectos podría generar en un futuro, no muy lejano, un nuevo mapa de delitos informáticos que podrían atentar sobre la identidad y la privacidad de las personas.

No todo es cuestión de piratas y criminales digitales en el mundo del “deepfake”. La inteligencia artificial aplicada a videos e imágenes también está contribuyendo a la ciencia y a la educación. De hecho, los “deepfakes” de Google Maps podrían ayudar a conocer cómo eran ciertas regiones del mundo en el pasado; se pueden colorear imágenes que originalmente eran en blanco y negro y también se puede amplificar el tamaño de videos para descubrir detalles nunca vistos por los ojos humanos. Para conocer un ejemplo concreto se puede buscar en Youtube la charla TED titulada “Videos falsos de personas verdaderas y cómo detectarlos”. La misma está a cargo de Supasorn Suwajanakorn, un doctor en informática graduado en la Universidad de Washington, quien propone aplicar la inteligencia artificial para crear modelos en 3D de grandes escritores o docentes con el fin de crear situaciones con mayor conexión y emoción con los estudiantes.

¿Cómo prepararse para un asunto que todavía parece de ciencia ficción?

En su informe, el FBI también detalló algunos consejos para detectar “deepfakes”. Algunos de ellos recomiendan prestar atención al consumo de información en la web, buscar buenas fuentes de noticias y no asumir que los videos que vemos son siempre legítimos. También sugieren adoptar una metodología de consumo basada en las siglas “SIFT”, que traducidas al español significan detenerse, investigar la fuente, encontrar cobertura confiable y rastrear el contenido original al consumir información.

Más allá de las recomendaciones técnicas -que por ahora quedarían en el plano individual-, el avance de esta tecnología demanda al menos el debate colectivo de dos aspectos clave. El primero de ellos es el jurídico, ya que esta tecnología podría crear delitos aún no contemplados como tales en la justicia local. Y el segundo es el educativo, es decir, la discusión por si debemos pensar en programas de capacitación y entrenamiento para concientizarnos sobre el impacto que podrían generar las “deepfakes”.

¿Deberíamos comenzar a instalar esta temática en las escuelas, los medios de comunicación, las áreas de gobierno y las empresas? ¿Es demasiado lejano pensar en las advertencias de una entidad como el FBI o más bien es una chance para entender un delito que aún no llegó a estas latitudes? La distancia geográfica y económica de los polos tecnológicos quizás sean una oportunidad para entender con tiempo este fenómeno. Habrá que ver entonces quiénes reaccionan más rápido, si las organizaciones a cargo de los ciudadanos o bien los nuevos pícaros enmascarados.

Esta nota fue anteriormente contenido exclusivo, sólo accesible para suscriptores.

 

Comentarios