Una porción significativa de la creatividad humana “corre el riesgo de ser desmantelada” frente a la proliferación de contenidos -textos, música y video- producidos de manera masiva por sistemas automáticos. La advertencia fue realizada el pasado domingo por el Papa León XIV a propósito del creciente rol que está asumiendo la Inteligencia Artificial (IA) y su impacto en la vida de las personas.
“Ya es muy difícil diferenciar el contenido generado por IA del elaborado por seres humanos, y cada vez lo será más”, advierte Ferran Lalueza, profesor de los Estudios de Ciencias de la Información y de la Comunicación de la Universitat Oberta de Catalunya (UOC). “Acabaremos asumiendo que, por defecto, todos los contenidos que consumimos pueden haber sido elaborados utilizando herramientas de IA, salvo aquellos provenientes de fuentes que hagan bandera de la autoría humana”, añade.
A pesar de la adopción masiva de estas herramientas, existe lo que los expertos denominan la brecha de confianza. Según un informe elaborado en 47 países por la Melbourne Business School en colaboración con KPMG, aunque el 66% de la población utiliza la IA habitualmente, ni siquiera la mitad (46%) confía realmente en ella. Las personas confían en la capacidad técnica de la IA para procesar datos, pero son mucho más escépticas en lo que respecta a la seguridad y al impacto social. En esta línea, un estudio del Pew Research Center indica que el 50 % de los entrevistados se muestra más preocupado que emocionado por el avance de la IA, y el 53% teme especialmente la pérdida de la capacidad de pensamiento creativo humano.
Ante este fenómeno, los buscadores y las plataformas de IA están ajustando sus algoritmos para responder a criterios como el EEAT (experiencia, conocimiento, autoridad y confianza, por sus siglas en inglés) que valora, sitúa y premia en mejores posiciones aquel contenido escrito o firmado por humanos. En un mundo impregnado por contenidos sintéticos, ¿podría convertirse la etiqueta “made by a human” en un criterio de valor positivo? La demanda social ya existe: para el 76% de los adultos es extremadamente importante o muy importante poder distinguir si un texto, imagen o vídeo ha sido creado por una IA o una persona, según Pew Research Center.
Conducta peligrosa
El economista colombiano Hermes Ruiz Rincón, estratega de Inteligencia Artificial (IA) y CEO de OleWow, llegó a la conclusión de que, en el mal uso de la tecnología, se está gestando una conducta peligrosa: la pereza cognitiva.
Según el conferencista, aferrarse demasiado al ChatGPT, puede facilitar el acceso a un trabajo que, artesanalmente, implicará demasiado tiempo. “Se siente como tener superpoderes o como si hubiéramos contratado a un asistente graduado en Harvard que no cobra horas extras. Pero nos estamos volviendo perezosos en lo cognitivo”, relata. En esa mecánica, el autor de “Omnipresente 5.0” dice a LA GACETA que “estamos tan felices de que la maquinita piense por nosotros, que se nos está olvidando cómo se siente sudar una idea”. En este aspecto, considera que el “GPS de la vida nos está dejando perdidos. Es como usar Google Maps parair a la panadería de la esquina. Si un día se te acaba la batería, ¿te acuerdas de cómo llegar? Probablemente no. Nos estamos acostumbrando tanto al “Prompt y listo”, que si nos quitan el Wi-Fi, volvemos a la Edad de Piedra emocional en cinco minutos”. Incluso el Papa Francisco nos dejó una “perlita” que todavía retumba. Él decía: “es cada vez más difícil saber si hablamos con un humano o con un robot”. El cerebro es una máquina maravillosa, pero tacaña; le encanta ahorrar energía. Si la IA le da la respuesta, el cerebro dice: “¡vámonos a descansar, que esta charla se perdió”.
Según Ruiz Rincón, la cura para la pereza cognitiva no es dejar de usar la IA, es utilizarla con Estrategia de Humanidad Amplificada. O sea, que la máquina haga la carpintería, pero que cada uno de nosotros sigamos siendo el arquitecto.
El economista brinda tres estrategias para reactivar la materia gris y no hacer pereza:
1. Practicar la “Incomodidad Intencional”. El algoritmo está diseñado para complacerte. Te va a dar la respuesta que quieres oír, la más promedio, la más “segura”. ¡Desconfía! No uses la IA para que te dé la solución final. Úsala para que desafíe tu tesis. Si la IA no te hace dudar, no la estás usando para pensar, la estás usando para dormir tranquilo. Obliga a tu cerebro a defender sus ideas. Eso es despertar.
2. El valor se mudó: de la Respuesta a la Pregunta. En un mundo donde las respuestas cuestan cero pesos y tardan un segundo, quien hace la mejor pregunta es el rey. La pereza cognitiva nos hace escribir prompts mediocres. Ahí la máquina piensa por ti. El verdadero líder estratégico diseña el contexto, define la ética y marca el propósito. Tu trabajo ya no es tener la respuesta correcta, es tener la claridad mental para saber qué debes preguntar.
3. Se el “Editor de Contexto”. La IA tiene trillones de datos, pero cero contexto de vida. No sabe cómo huele tu oficina, no conoce los miedos de tu cliente, ni entiende la “malicia indígena” necesaria para cerrar un negocio. Deja de ser un “copiador” y conviértete en un curador despiadado. Asume que la IA te entrega un borrador al 80% (muy bueno, pero sin alma). Tu trabajo es poner ese 20% restante de intuición, ética y estrategia que la máquina no puede replicar. Si lo que entregas es puro output de la máquina, eres reemplazable. Si entregas criterio, eres indispensable.