El grito de las niñas vulneradas por la inteligencia artificial

El grito de las niñas vulneradas por la inteligencia artificial

Una pantalla negra sirve de figura retórica para titular una de las series más populares en los últimos años. Propone, a través del vacío y la oscuridad, imaginar las posibilidades no deseadas de los avances tecnológicos en la vida cotidiana, económica y cultural de nuestros tiempos. “Black Mirror” funciona como referencia inmediata de una época, sus capítulos imaginaron las consecuencias más desagradables del progreso, sin tapujos ni limitaciones.

Sin embargo, ningún guión de esta serie imaginó a un grupo de madres en un pequeño pueblo de España de 30.000 habitantes. Un grupo de almas desorientadas pero decididas a hacer mucho más en la justicia de lo que han avanzado las autoridades locales, nacionales o internacionales en materia de inteligencia artificial. Es que ellas y sus hijas han sido testigos de lo más oscuro que pueden generar algunas de las aplicaciones que saltaron al estrellato este último año. Sus hijas fueron víctimas de “deepfakes”, una manipulación digital que hasta ahora sólo apuntaban a políticos y famosos para crear imágenes o videos falsos con sus rostros. Pero ellas tienen entre 11 y 17 años y sus rostros aparecieron en fotos de desnudos generadas con inteligencia artificial.

Padres excluidos

Las imágenes manipuladas de al menos 20 niñas se han viralizado por Almendralejo (Badajoz) y más allá. Se distribuyeron por WhatsApp, Only Fans y otras aplicaciones con las que el mundo adulto se está desayunando por estos días. Sin embargo, sus hijos están habituados a estos entornos que normalmente están relacionados con los videojuegos en línea. Chats y espacios de socialización en los que los padres están casi excluidos, donde compartieron las fotos falsas de compañeras, vecinas, familiares, víctimas de algo que nunca hubiesen imaginado.

Sin embargo, era cuestión de tiempo que esta manipulación alterara la vida de personas comunes y mucho más vulnerables que los políticos. Según un estudio que realizó en 2019 una empresa de inteligencia artificial llamada Sensity AI, las mujeres son las principales víctimas de las imágenes manipuladas por esta tecnología y en la mayoría de las veces se utilizan estas alteraciones para crear contenido “porno no consentido”. Este dato ya existía tres años antes de que explotaran nuevas herramientas mucho más accesibles como Dall-E, Midjournay o Stable Diffusion, las aplicaciones estrellas de inteligencia artificial generativas de la que tanto se habló durante estos últimos meses. Algunas de ellas son gratuitas, fáciles de manejar y tienen un poder asombroso para crear lo inimaginable.

La cumbre

El poderío de las aplicaciones es grande y puede crecer aún más, señalan algunos empleados de las compañías que están liderando la nueva oleada de inteligencia artificial. Por eso, parece casi paradójico que días antes de los hechos de Almendralejo, los líderes de la tecnología estadounidense se dieran cita en el Senado para acordar cuáles deberían ser los lineamientos para regular estas herramientas. Figuras estelares como Elon Musk, Mark Zuckerberg, Sundar Pichai y Bill Gates, comparecieron juntos para tratar de consensuar con la clase política cuáles deberían ser las normas que regulen los próximos pasos de la innovación en inteligencia artificial.

Pero las madres de las niñas víctimas no pueden esperar a las decisiones de las grandes corporaciones. Ellas han visto con sus propios ojos el lado más oscuro de la generación de contenido a través de algoritmos. Sus familias han sido vulneradas desde una computadora, una aplicación y una viralización que forma parte también de un delito que tiene en la escena principalmente a menores de edad. El caso de un pequeño pueblo con 30.000 habitantes es una muestra de lo que puede ocurrir en cualquier parte del mundo. Si en Tucumán las autoridades tardaron semanas en tratar de esclarecer de dónde provenían las amenazas de bomba en establecimientos educativos, ¿qué podrían hacer si una oleada, invisible, de “deepfakes” invadiera los dispositivos de los más jóvenes?

Somos todos vulnerables y aún no sabemos cuáles son los límites a los que nos enfrentamos. La pantalla negra es una metáfora pero también es la negación: o ficcionalizamos el problema o lo apagamos, pero en ninguna de las dos posibilidades estaremos haciéndonos cargo de un futuro que ya llegó y que puede lastimar donde más nos duele.

Tamaño texto
Comentarios
Comentarios