Por Alejandro Urueña y María S. Taboada
Magíster en Inteligencia Artificial./ Lingüista y Mg. en Psicología Social. Profesora Titular de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.
En un reciente artículo relativo a la articulación entre IA e investigación científica y al impacto que la IA está generando en este campo, Andrade, Marin y Zuñiga, analizan el replanteo y la subversión de “paradigmas tradicionales” al que induce esta nueva asociación. La integración de la IA en la producción científica está conduciendo, inevitablemente, a la redefinición de categorías y conceptos hasta hoy con un alto grado de validez, aceptación y estabilidad. Entre ellos, los conceptos de autoría científica, trazabilidad de la investigación, proceso y metodología de investigación y el de contrastación de resultados.
¿Qué ocurre cuando en el proceso de investigación la IA ocupa un lugar relevante en la búsqueda, clasificación, organización de los datos y provee una base para su categorización? Estas diferentes tareas, a la vez que aligeran el esfuerzo del investigador humano, potencian su creatividad. Entonces, ¿cabe reconocerle a la IA un lugar en la gobernanza epistémica y alguna dimensión de autoría? Si bien la dimensión creativa sigue siendo patrimonio exclusivamente humano, el complejo procesamiento que hoy puede llevar a cabo la IA generativa es una plataforma que facilita los descubrimientos en el devenir de la investigación y, en muchos casos, puede constituirse también en un agente colaborador en la escritura científica.
Buena parte de la regulación actual en revistas y repositorios científicos exige la explicitación del uso de la IA, con distintos posicionamientos, que van desde la prescripción a la proscripción -por ejemplo- de su empleo en la elaboración final del escrito. De hecho la IA, en la vida cotidiana y en la ciencia, ha venido para quedarse y habrá que reconocer su impacto en la crisis de concepciones y la necesidad de un debate al respecto. Debate urgente que busque superar prejuicios y matrices fosilizadas que suelen emerger cuando un fenómeno desestructura la forma de pensar y sentir el mundo a la que estábamos habituados.
La trazabilidad abre también interrogantes ya que- sabemos- la IA generativa nos enfrenta a una “caja negra” que es necesario monitorear con sumo detalle. Es lo que suele designarse como opacidad, uno de cuyos efectos no deseados son las alucinaciones. Este territorio difuso reclama a la vez diagnóstico, interpretación y evaluación de la confiabilidad. En esta línea, el paradigma ReAct implica un avance, en tanto opera con fuentes de datos externas pero hasta ahora circunscriptas al alcance de la web: no puede cotejar desde la experiencia directa con el mundo real externo. Una de esas fuentes es Wikipedia, cuyos datos no siempre son fiables. Por lo que, aún con el uso de este paradigma, la trazabilidad no puede dejarse a su propia deriva.
El empleo de la IA como herramienta hoy insoslayable de investigación exige el diseño de políticas científicas acordes a esa articulación humano-máquina, la formulación de marcos de agenciamiento cooperativo y una regulación flexible en términos de la apertura a nuevos desarrollos tecnológicos pero rigurosa en torno a los riesgos y dimensiones aún opacas. A la par, involucra el diseño y ejecución de políticas de educación científica que abran el diálogo con esta revolución tecnológica, su impacto cognitivo, social y cultural, sus claroscuros y promuevan el protagonismo activo de los estudiantes no sólo en su empleo reflexivo y consciente, sino en la producción y creatividad para la resolución de problemas en el mismo campo.
Crisis de trazabilidad en la IA generativa
Investigaciones recientes han puesto de relieve una importante preocupación en el ámbito de la investigación científica asistida por inteligencia artificial: el uso de información extraída de artículos científicos que han sido retractados (Los artículos retractados sobre imágenes de cáncer no solo son citados continuamente por las publicaciones, sino que también son utilizados por ChatGPT para responder preguntas.). Esta práctica de los modelos de IA (Los modelos de IA usan información de artículos científicos retractados para sus respuestas), que incluyen chatbots y herramientas de búsqueda, socava la fiabilidad de estas tecnologías para evaluar la literatura científica. Estudios llevados a cabo con modelos como ChatGPT (GPT-4o y mini) han demostrado que, si bien los chatbots utilizan material real de la investigación, a menudo no reconocen ni mencionan el estado de retirada del artículo, ni aconsejan precaución, lo que puede inducir a error al usuario. Este problema no es exclusivo de un único modelo, pues herramientas específicas para la investigación como Ai2 ScholarQA, Perplexity, Elicit y Consensus también han hecho referencia a artículos retractados sin señalar las advertencias correspondientes. Para los expertos, los artículos retirados han sido “eliminados del registro científico”, por lo que el uso continuo de estos datos plantea serios interrogantes sobre la calidad del corpus que provee la IA. La dificultad para corregir este sesgo se debe, en parte, a que las editoriales no siguen un enfoque uniforme en los avisos de retractación: la información se dispersa en servidores de preimpresión y la fecha límite de entrenamiento de los modelos puede no incluir las retractaciones más recientes. Ante esta situación, los usuarios y creadores de herramientas deben ejercer la debida diligencia y ser cautelosos con las respuestas de la IA.
El uso, por parte de la IA generativa, de información científica desacreditada actúa como un catalizador que exacerba las “transformaciones y replanteos” que ya están redefiniendo la investigación. Este sesgo profundiza la crisis en torno a la trazabilidad de la investigación y la contrastación de resultados, conceptos tradicionales que están bajo presión.
En este contexto de difusión inadvertida de ciencia defectuosa, el sesgo por artículos retractados se convierte en una evidencia irrefutable de la necesidad de un posicionamiento para abordar los riesgos y las dimensiones opacas de la IA. La promesa de la IA de potenciar la creatividad y aligerar el esfuerzo humano se ve comprometida si su aporte se construye sobre cimientos científicos inválidos. Solo al integrar mecanismos que exijan la explicitación y el cotejo en tiempo real del estado de la investigación —utilizando indicadores de calidad como el estatus de retractación y proporcionando contexto adicional como las revisiones por pares— podrá la comunidad científica garantizar que la IA se establezca como una herramienta que verdaderamente facilite los descubrimientos y no como un amplificador de errores históricos.
El núcleo tecnológico que impulsanm modelos como ChatGPT-4o, implicados en la difusión de artículos retractados de imagenología oncológica, es el Procesamiento del Lenguaje Natural (NLP). Las tendencias clave del NLP para 2025 revelan una profunda dualidad que se cruza directamente con la crisis de confiabilidad científica. Por un lado, se espera que los modelos de Deep Learning (como GPT-4) alcancen nuevas dinámicas, manejando tareas especializadas con precisión cercana a la humana, siendo el sector de la salud uno de los principales beneficiados. En este ámbito, el NLP extrae datos de fuentes no estructuradas como notas clínicas e informes médicos para identificar patrones en historiales, predecir enfermedades y sugerir tratamientos. Sin embargo, es precisamente esta capacidad avanzada de procesar registros médicos la que hace que la incapacidad demostrada por la IA para distinguir artículos retractados en oncología sea un riesgo sistémico. Esta falla refuerza urgentemente la tendencia de IA Ética, que exige abordar las preocupaciones sobre los sesgos y la privacidad. La evidencia de que los modelos responden basándose en datos científicos desacreditados subraya la necesidad de que se formen autoridades reguladoras que obliguen a la transparencia y la divulgación de las fuentes de datos de entrenamiento. Tecnológicamente, el surgimiento de Sistemas de IA Híbrida —que combinan redes neuronales con lógica simbólica para mejorar la precisión, incluso en diagnósticos— podría ofrecer un camino técnico crucial para superar los desafíos de la “caja negra” que afectan la trazabilidad en la investigación científica.