Riesgos imperceptibles en la inteligencia superior a la humana

Riesgos imperceptibles en la inteligencia superior a la humana

una breve historia de las redes de información desde la Edad de Piedra a la IA

24 Noviembre 2024

Yuval Noah Harari, indiscutiblemente uno de los intelectuales más influyentes de Occidente, logra con Nexus, su último libro, un valorable texto de divulgación, que no se encuentra exento de altibajos. De hecho, la lectura del volumen demanda, de entrada, un compromiso: hay que afrontar poco más de 600 páginas. La síntesis es que vale la pena acometerlas para llegar a la última parte del ensayo, que es lo realmente descollante de este trabajo.

El libro, de hecho, se estructura en dos grandes momentos. El primero parece abocado a hacerle hace honor al subtítulo: “Una breve historia de las redes de información desde la Edad de Piedra a la IA”. Eso sí: el calificativo “breve” parece ser invocado como una suerte de licencia para la amplia dispersión y la escasa profundización de tópicos.

El libro de Harari, además, abunda en menciones a sus libros anteriores, como Sapiens y Homo Deus. Pero cabe subrayar que no por un defecto de autorreferencialidad, sino porque Nexus es un desarrollo extendido de muchas ideas ya planeadas en las obras anteriores.

En el primero de estos libros, de 2011, el prolífico autor ensaya una historia de nuestra especie, que es por momentos desafiante, inquietante, erudita y reflexiva. En el segundo título, de 2016, deja el pasado para lanzarse al futuro. En todo caso, y como virtud del historiador, esta entrega es coherente con las anteriores y se desarrolla dentro del mismo marco teórico y conceptual.

Precisamente, ya en Homo Deus Harari plantea que el verdadero protagonista de la historia de la humanidad no es el ser humano, el homo sapiens, sino la información. “Los animales, los Estados y los mercados son redes de información que absorben datos del entorno que los rodea, toman decisiones y, a su vez, facilitan datos”, dice el propio ensayista.

Homo Deus reconvirtió a Harari: trascendió su estatus de académico para convertirse hace casi una década en un referente de la IA. Así que en la primera mitad de Nexus su prosa pasa a toda velocidad del mito griego de Faetón a “El aprendiz de brujo”, de Goethe. En medio aparecen textos sagrados como la Biblia o el Corán (reclasificados como “dispositivos tecnológicos”); y otros de la tradición, como el Talmud o el Ramayama. Queda claro que el conocimiento de Harari es enciclopédico y vasto, así como su prosa ágil y amena, pero el resultado no necesariamente es un texto especializado.

El pensador apela a estos ejemplos para dar cuenta de que el cerebro humano evolucionó para aprender historias con más facilidad que para aprender listas. Luego, esas narrativas colectivas -manifiesta- a menudo contienen “errores” de concepción severos. Pero, justamente, no están hechos para ser “infalibles”, sino para fundar la cooperación entre los homo sapiens. Los neandertales vivían en comunidades de medio centenar de individuos y carecían de relatos compartidos. En cambio, decenas de nucleamientos de homo sapiens, aunque también congregados en tribus de 50 individuos, tenían cosmogonías comunes. Y ello les permitió unirse para enfrentar desafíos de la naturaleza. O enfrentamientos con neandertales: 50 neanderthalensis no eran rivales para 500 sapiens. La evolución de estas dinámicas -propone Nexus- construirá Estados, instituciones y burocracias.

Control informativo

El vértigo del repaso de Harari, y su escasa profundidad consecuente, se observa también en su abordaje político sobre la información, cuando distingue entre las democracias y los totalitarismos. Repara en que “Todos los caminos conducían a Roma”, en que toda la información iba al Kremlim durante el stalinismo, y en que todos los datos iban a Berlín, durante el imperio del mal absoluto del nazismo. Es decir, las autocracias tienden al control obsesivo de la información, mientras que las democracias propenden a su transparencia. Esto, a la vez que indudable, no es para nada nuevo. La ciencia política sostiene, canónicamente, que uno de los requisitos de toda democracia liberal es la libertad de prensa: sólo cuando hay libre acceso a todas las fuentes del pensar existe real libertad de pensamiento. Lo contrario es la censura, hija dilecta de las dictaduras.

Se llega, entonces, a la segunda mitad del libro. Y ahí es cuando Nexus se redime. Su abordaje sobre la Inteligencia Artificial es notable. Deja de lado los beneficios de esa tecnología (largamente promocionados como lo indica el incremento sostenido de la cotización en la Bolsa de las empresas tecnológicas) para enfocarse en las amenazas.

Esos riesgos, por cierto, no son las distopías que nos viene proponiendo la literatura y el cine de Ciencia Ficción, con inteligencias artificiales que consideran superfluos a los seres humanos, como Ash, el androide de “Alien, el octavo pasajero”. O sacrificables, como “Hal 9000” en “2001. Una odisea espacial”. O peligrosos, como “Viki”, en “Yo, Robot”. O enemigos a eliminar, como “Skynet” en la zaga “Terminator”. O sujetos esclavizables, como la “Matrix”. En todo caso, han sido los seres humanos quienes procedieron así con otros seres humanos…

Las sirenas que enciende Harari versan sobre la cotidianidad: sobre el diario intervenir de la Inteligencia Artificial en cuestiones casi imperceptibles. Algo que Eli Parisier condensó en el título de su ensayo: El filtro burbuja: cómo la web decide lo que leemos y lo que pensamos (Taurus, 2017). A modo de economía de ejemplos, una de las advertencias centrales versa sobre los algoritmos: la manera en la que determinan qué contenidos brindarnos de acuerdo con nuestros consumos informativos en las redes sociales. O la publicidad que de pronto brota en todas las páginas web que visitamos, replicando una búsqueda que hicimos en un sitio de compras online. O la profundización de las “grietas” ideológicas de acuerdo con el perfil de nuestros “amigos” o de las personas a las que “seguimos”. En definitiva, las “microdecisiones” (cada vez menos “micro” en muchos casos) que toma una tecnología cuyo funcionamiento (¿razonamiento?) excede la comprensión del común de los mortales.

Advertencias sobre IA

Harari ensaya una admirable descripción del estado de situación actual del desarrollo de las IA y mantiene la postura que viene sosteniendo desde la pandemia respecto de los peligros que entraña esta tecnología, lo cual habla de su honestidad intelectual. A propósito de esa honestidad, no hesita en citar en repetidas oportunidades las ideas desarrolladas en el ensayo La ola que viene (Planeta, 2023), de Mustafá Suleimán, considerado uno de los “padres” de la IA, quien ha afirmado que el mundo aún no está listo para la Inteligencia Artificial y que ha advertido sobre escenarios caóticos y hasta apocalípticos de su aplicación descontrolada.

Suleyman fue cofundador de “DeepMind”, compañía que creó “AlphaGo”, una IA enfocada en el Go, un juego de estrategia de origen chino, que consiste en la ocupación de “territorios” en un tablero y es considerado más complejo que el ajedrez. Por eso -relata Harari en Nexus- se creyó que nunca vencería a un humano. Hasta que “AlphaGo” se impuso sobre uno de los grandes maestros de Go. Y terminaron de caer en cuenta que habían desarrollado una inteligencia superior a la de los humanos. La manera en que los humanos se comportaron con las “bestias de la creación”, todas de inteligencia inferior respecto del homo sapiens, hace que especialistas como Suleyman y Harari tengan fundados temores sobre el futuro.

© LA GACETA

Álvaro José Aurane

Perfil

Yuval Noah Harari (Kiryat Atta, Israel, 1976) es uno de los pensadores más influyentes de la actualidad. Profesor de la Universidad Hebrea de Jerusalén, con un doctorado en Historia de la Universidad de Oxford, es autor de Sapiens, Homo Deus y 21 lecciones para el siglo XXI, libros de los que se vendieron más de 15 millones de ejemplares.

Tamaño texto
Comentarios
Comentarios