
Nombrar es organizar. Nombramos para representar, categorizar y comunicar lo que percibimos, lo que pensamos y lo que compartimos con otros. Organizamos nuestro entorno para volverlo accesible y compartido en el espacio que habitamos. Sin dichas convenciones, sería imposible comunicar y entender todo lo que nos rodea. Sólo a partir de nuestras definiciones podemos simbolizar y ordenar lo que llamamos realidad, a partir de un consenso colectivo siempre en transformación.
La práctica de nombrar, tan estudiada por lingüistas, sociólogos y antropólogos, era considerada hasta hace poco una de las competencias más complejas de la mente humana. Lo que principalmente llama la atención de estos acuerdos es que, justamente, son implícitos. Es decir, no hay reglas escritas para determinar cómo elaboramos procesos tan complejos como la simbolización. Sin embargo, hay una clave: basta con comenzar a hablarnos para que el intercambio traiga, de manera inherente, la necesidad de llegar a ciertos consensos.
Esta parece ser también la estrategia de los agentes de inteligencia artificial que, según un reciente estudio, son capaces de llegar a acuerdos y establecer normas para comunicarse. Los agentes son una de las principales novedades en este campo y se definen como entidades autónomas que interpretan su entorno, toman decisiones y realizan acciones para cumplir objetivos específicos. Según los informes más relevantes de 2024, estos serán los protagonistas del año por su capacidad e impacto en las principales industrias.
El estudio, realizado por científicos de la Universidad de Londres y la Universidad Tecnológica de Copenhague, buscaba saber si era posible que surgieran convenciones universales de manera espontánea dentro de grandes poblaciones de agentes basados en modelos de aprendizaje automático, sin intervención directa en su programación. La sorpresa llegó con una serie de experimentos que revelaron que los agentes pueden generar convenciones sociales -como ponerse de acuerdo en cómo llamar a algo- sin necesidad de instrucciones globales. Simplemente se emparejan al azar de a dos para interactuar y, si coinciden en la elección (por ejemplo, usando el mismo nombre para algo), reciben una recompensa. Si no logran coordinar, se “castigan” con menos puntos. Cada uno guarda en su memoria un historial de esas interacciones y usa esa experiencia para decidir cómo actuar en la siguiente ronda.
Convenciones compartidas
Los primeros resultados, publicados en la revista Science Advances, demostraron que los agentes lograron generar convenciones compartidas sin instrucciones predefinidas, reproduciendo así dinámicas similares a las que originan normas sociales entre humanos. Según el estudio, los sujetos de análisis aprenden y toman decisiones que impactan en la relación con otros, y como consecuencia, toda la población de agentes termina adoptando una misma convención, como si hubieran llegado a un acuerdo colectivo. Este fenómeno surge de repetir lo que funcionó y cambiar lo que falló, incluso sin que los agentes sepan qué hacen los demás. Así, a partir de interacciones simples y sin coordinación general, emerge de forma espontánea un consenso social compartido, una especie de acuerdo colectivo artificial construido paso a paso desde abajo.
Sin embargo, el estudio también reveló que los agentes reprodujeron prejuicios. En las simulaciones se observó que algunas convenciones tenían más probabilidades de imponerse que otras, aunque en teoría todas deberían tener las mismas chances. Este fenómeno, conocido como sesgo colectivo, no estaba programado de antemano, sino que surgió espontáneamente a partir de la interacción y las experiencias entre los agentes. Según los autores, estos “robots” comienzan a repetir convenciones exitosas y abandonar las fallidas, lo que con el tiempo lleva a que ciertos nombres se vuelvan más “fuertes” que otros.
Este estudio ha sorprendido a una comunidad global que sigue de cerca una de las novedades más importantes en materia de IA. Google, Microsoft, OpenAI, Globant, entre otros, compiten este año por tener un lugar protagónico en el desarrollo de agentes que impactarán de manera significativa en la carrera tecnológica. Al parecer, en este campo podremos ser testigos de cómo este nuevo escalón de la IA sorprende por sus alcances y se asemeja cada vez más a nosotros, con los aciertos y errores que históricamente han caracterizado a nuestros acuerdos.