
¿Usar Chat GPT es igual que usar una calculadora? Esta suele ser una pregunta frecuente en ámbitos educativos, donde las plataformas de inteligencia artificial generativa (IAG) han convulsionado —como era de prever— los estándares tradicionales del aprendizaje. La pregunta, aún novedosa, pretende cuestionar y encontrar respuestas en un escenario en el que la utilización de asistentes virtuales ya es una práctica habitual en la elaboración de tareas escolares, trabajos prácticos y hasta tesis de fin de carrera.
Docentes, alumnos y directivos incorporan o rechazan estas herramientas aun sin protocolos claros o al menos consensuados por su comunidad educativa, aunque ya es posible encontrar algunas guías de uso de IA por parte de las universidades. Desde Harvard a la Universidad Autónoma de Madrid, desde Cornell a la Universidad Nacional de La Plata, algunas casas de estudio optaron por abordar de manera crítica este fenómeno a través de documentos públicos en los que dejan sentadas cuáles serán las recomendaciones y advertencias en los procesos de generación de conocimiento.
Si bien las guías y protocolos pueden ayudar a dar un marco de entendimiento, al parecer la analogía de la calculadora quizás no sea la más adecuada para referirse a estas nuevas aplicaciones de la IA. Herramientas como Chat GPT o Gemini pueden ayudarnos en la automatización de tareas repetitivas, resúmenes y correcciones. Como en el caso de la calculadora, los usos están centrados en el resultado y al mismo tiempo minimizan los errores humanos. Sin duda, aceleran la productividad al estar creadas como herramientas de asistencia al humano. Sin embargo, los procesos cognitivos involucrados en la utilización de IA son más complejos y tendrían otro tipo de consecuencias en nuestra manera de pensar.
Según un reciente estudio del MIT (Massachusetts Institute of Technology), la utilización de plataformas como Chat GPT podría reducir significativamente la actividad cerebral y limitar el aprendizaje. El estudio hizo un experimento para medir el impacto cognitivo en estudiantes que redactaron ensayos bajo distintas condiciones: algunos utilizaron Chat GPT, otros un buscador tradicional y otros no usaron ninguna ayuda tecnológica. Los investigadores monitorearon la actividad neuronal mediante electroencefalogramas y evaluaron el rendimiento cognitivo y la calidad de los textos con diversas herramientas.
Conectividad cerebral
Los resultados mostraron diferencias importantes en la conectividad cerebral: quienes trabajaron sin asistencia mostraron mayor activación y robustez neuronal; los que usaron motores de búsqueda presentaron un rendimiento intermedio; y los que dependieron de Chat GPT registraron la actividad más baja. En una segunda etapa, se invirtieron las condiciones y se observó que quienes dejaron de usar IA sufrieron un descenso en funciones como la atención y la memoria, mientras que quienes empezaron a utilizarla activaron zonas cerebrales vinculadas a la creatividad. Aun así, los ensayos generados con Chat GPT fueron evaluados como repetitivos y poco originales, y los usuarios mostraron escasa retención de lo redactado.
El estudio del prestigioso instituto tecnológico determinó que, aunque la IA puede ser útil como apoyo en procesos educativos, su uso exclusivo puede perjudicar las capacidades cognitivas a largo plazo. Sin embargo, este quizás no sea el principal problema a la hora de construir conocimiento: otro estudio publicado en la revista Science en 2023 determinó riesgos de la IAG vinculados con la construcción de lo que consideramos como verdadero o falso. Las investigadoras Celeste Kidd y Abeba Birhane advierten que hemos incorporado esta tecnología de manera natural y que aún no tenemos un conocimiento claro de sus limitaciones. Lo preocupante, destacan, es que estas herramientas están diseñadas para brindar respuestas fluidas y seguras, sin manifestar incertidumbre, lo que lleva a los usuarios a confiar ciegamente en ellas, incluso cuando el contenido es erróneo o sin sentido.
Las autoras enfatizan que este tipo de distorsiones afecta de forma desproporcionada a los grupos marginados y a los más vulnerables, como los niños, quienes tienden a humanizar estas herramientas y son más influenciables. La vulnerabilidad de la cognición infantil frente a la asertividad de la IA es una preocupación creciente, ya que una vez que una información falsa se asienta, resulta muy difícil revertirla. Además, alertan sobre el ciclo de retroalimentación entre el archivo de internet y los modelos generativos, ya que tanto los humanos como las IA obtienen y reciclan información de la misma fuente, reforzando sesgos y errores en cadena.
Por eso, llaman a la colaboración urgente entre psicólogos, científicos y otros expertos para estudiar cómo estas tecnologías están moldeando nuestras creencias y prejuicios. Aunque simple y casi rudimentaria, la calculadora nos dice que 2 + 2 es 4. Ese acuerdo, al menos por ahora, todavía es universal y para comprenderlo tenemos que hacer una serie de procesos mentales que son incorporados desde temprana edad. La problemática de las IAG planteada por estos recientes estudios es mayor y, sin dudas, deja relegada la analogía planteada al inicio de este texto. Abandonarla es asumir que estamos ante la tarea urgente y desafiante de ponernos de acuerdo en cómo utilizar estos asistentes “inteligentes” no solo en la ardua labor de construir conocimiento, sino también en la simple —y quizás más crítica— tarea de discernir entre lo verdadero y lo falso.