afp
En un mundo donde la inteligencia artificial (IA) avanza a pasos agigantados, la discusión sobre su impacto trasciende la automatización y la eficiencia. Hemos comenzado a discutir en el trabajo, entre amigos, en la mesa del domingo, inquietudes tales como de qué manera esta tecnología transformará no solo nuestro trabajo, sino también la creatividad, la originalidad, la inteligencia. Una preocupación más profunda, y quizás más urgente, puede movilizarnos: ¿cómo evitamos que las máquinas nos deshumanicen?
Un concepto, todavía técnico pero quizás necesario, puede ayudarnos a no negar nuestro vínculo con los algoritmos, sino más bien a aceptar que ya estamos atravesados por un sismo de transformación pero en el que somos actores centrales. El término “human-in-the-loop” (el humano en el circuito), es una propuesta para recordarnos que la supervisión, el juicio crítico y la intervención humana no sólo son deseables, sino absolutamente indispensables en estos tiempos.
Según Xiao-Li Meng, especialista en estadística en la Universidad de Harvard, el término “human-in-the-loop” (HITL) se refiere fundamentalmente a la “necesidad intrínseca de interacción, intervención y juicio humano para controlar o modificar el resultado de un proceso”.
Meng precisa que, a pesar del auge de la IA y las conversaciones cotidianas sobre la inteligencia de las máquinas versus la humana , “los humanos siempre han estado y estarán “en el circuito” para el avance de la ciencia y la ingeniería de datos. Para él, los datos son “constructos humanos” que dependen críticamente de los avances computacionales , pero que requieren del esfuerzo humano en todas sus etapas: desde la recolección y el desarrollo de métodos, hasta la implementación de algoritmos, la interpretación y el despliegue de resultados para optimizar los beneficios percibidos.
Los procesos vinculados a datos y automatizaciones están cambiando muchos de los aspectos que conocíamos hasta ahora. No solo en nuestros consumos, sino también en instancias cruciales como la salud, la economía, la justicia, la demografía, entre otros. Y como en todos estos aspectos, resulta fundamental no deshumanizar dichos procesos.
El concepto de HITL fue abordado de manera central en el reciente México AI Forum de WAN- IFRA, un evento internacional dedicado a la industria periodística en el que se puso sobre la mesa los desafíos que plantea la IA a la labor editorial. Diferentes expositores enfatizaron la indispensabilidad del juicio y la supervisión humana en la era de transformación, expandiendo la discusión más allá de la mera intervención para abarcar la gobernanza, la ética y la asignación de responsabilidades. Francisco Ayza, director de El Economista (uno de los principales diarios mexicanos), afirmó directamente la necesidad de tener “la persona involucrada en todos los procesos” , subrayando la importancia de la ética, la trazabilidad de fuentes y prompts, y cláusulas de transparencia públicas. Enfatizó una máxima fundamental: “lo que no verificas, no lo publicas”.
Al mismo tiempo, en el foro se destacó que la IA actúa como un “asistente” para los redactores, ayudando a generar resúmenes o identificar tendencias. Ana Lagos de Wired México y David Sancha de Hiberus Media Labs lo ejemplificaron con el “prompting editorial”, donde la calidad del input humano es clave para el output de la IA, y la decisión final y verificación recaen siempre en el periodista. Leonardo Dalera de Clarín enfatizó la idea de que “más que nunca, la inteligencia humana es escenario para darle sentido a la inteligencia artificial y no al revés”, destacando el rol humano en la interpretación y el aseguramiento de la calidad frente a las “alucinaciones” de los modelos.
Comités de IA
La relevancia del factor humano también se manifestó en la insistencia del foro en la gobernanza y la responsabilidad. Gonzalo Teubal de diario El País destacó la necesidad de comités de IA y políticas de uso responsable que guíen la implementación de la tecnología con principios de privacidad, equidad y transparencia. Esta visión se refuerza con la urgencia de la verificación y autenticidad en la lucha contra la desinformación. Raquel Godos, de la agencia EFE, también resaltó proyectos dedicados a detectar contenido manipulado, como “Truemedia.org” o “Fact check markup tool” de Google, enfatizando que, aunque la IA puede generar noticias falsas, la verificación final y la autenticidad son responsabilidades indelegables del juicio humano. Asimismo, la discusión en el foro subrayó cómo la IA “sube la vara”, exigiendo una evolución constante de las habilidades humanas y la formación de equipos multidisciplinarios para una adaptación efectiva al cambio El HITL no es solo una formalidad o una declaración de buenas intenciones, sino la salvaguarda esencial contra los riesgos inherentes a una IA sin guía ni acuerdos entre quienes estamos y estaremos afectados por su impacto. Los profesionales de cualquier ámbito no solo deben operar estas herramientas, sino comprender sus limitaciones y sesgos para infundirles ética y perspectiva humana. Es un desafío exigente, seguramente, pero también una oportunidad única para elevar la calidad, la relevancia y, sobre todo, la humanidad de nuestras interacciones con la tecnología. Es el concepto clave para no dejar que las máquinas nos deshumanicen, sino para que nos ayuden a ser, paradójicamente, más humanos.








