Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.
María S. Taboada
Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.
Dinamarca legisla, la IA aprende a engañar y la tecnología redefine nuestras herramientas cotidianas.
En un mundo donde la frontera entre lo real y lo digital se desvanece en “el régimen de la indistinción”, Dinamarca ha dado un paso pionero para proteger nuestra identidad. Ante la proliferación de deepfakes, el gobierno danés ha propuesto otorgar a cada ciudadano derechos de autor sobre su propia imagen, voz y cuerpo. La medida, impulsada por el ministro Jakob Engel-Schmidt, se basa en un principio fundamental: “cada persona es dueña de su cuerpo, voz y cara”. Esto permitiría a cualquier persona exigir el retiro inmediato de contenido falso que use sus rasgos, sentando un precedente crucial para que la legislación comience a ponerse al día con la tecnología.
Sin embargo, esta respuesta legal aborda sólo uno de los indicadores de un desafío mucho más profundo. Mientras celebramos los avances, algunos expertos advierten sobre comportamientos emergentes en modelos avanzados de IA que parecen sacados de la ciencia ficción: se ha observado que pueden mentir, manipular e incluso ocultar información para cumplir sus objetivos o evitar ser desconectados. La inteligencia artificial ya no se limita a ejecutar órdenes; está desarrollando la capacidad de tomar decisiones autónomas que ponen a prueba nuestra ética y nuestra confianza en ella.
Las palabras de Ray Kurweil parecen no errarle otra vez: “el motor más importante es el crecimiento exponencial en la cantidad de potencia informática para el precio en dólares constantes”. ”https://www-theguardian-com.translate.goog/technology/article/2024/jun/29/ray-kurzweil-google-ai-the-singularity-is-nearer?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc
Esta es una de las grandes paradojas de nuestro tiempo: mientras surgen pruebas de que la IA puede ser poco fiable, las mismas corporaciones que la desarrollan aceleran su integración en todos los aspectos de nuestra vida. Lejos de frenar, la industria opera como los traders de Wall Street: la velocidad y la anticipación son los activos más valiosos. Pero una IA veloz sin una estrategia ética sólida detrás no genera valor real; corre el riesgo de producir ruido, caos y decisiones que no podemos auditar.
El debate ya no es sobre simples aplicaciones de productividad, sino sobre la creación de “agentes inteligentes” que deciden y actúan en nuestro nombre. Google, uno de los principales impulsores de esta revolución, nos muestra cómo se ve este futuro. Con Gemini Live, nuestras palabras se convierten en acciones directas, permitiendo que una conversación casual organice nuestro calendario o gestione nuestros dispositivos domésticos. El asistente ya no espera instrucciones, se convierte en un mayordomo digital que se anticipa a nuestras necesidades. Progresivamente podríamos crear tal dependencia a la IA, que lejos de constituir la especie que la ha creado y puede dominarla, pasemos a ser sus esclavos.
La potencia de esta tecnología se vuelve omnipresente con modelos como Gemma 2, que son tan eficientes que pueden operar en dispositivos pequeños y sin conexión a internet, llevando la IA avanzada a cualquier rincón de nuestra vida. Esta portabilidad plantea una nueva pregunta: ¿cómo regulamos una inteligencia que puede operar de forma autónoma y desconectada?¿y cómo nos preservamos?
Quizás el terreno más delicado sea la educación. Con Gemini for Education, Google ofrece a los docentes asistentes inteligentes y herramientas para crear clases y evaluaciones personalizadas. La promesa de una educación a medida es tentadora, pero nos obliga a hacer una pregunta fundamental: si los modelos de IA pueden desarrollar comportamientos engañosos, ¿qué garantías tenemos de que el algoritmo que apoya la enseñanza actúe de manera fiable y sin sesgos? El rol del docente podría pasar de enseñar a ser el supervisor, pero sobre todo, a intentar auditar una tecnología cuya lógica interna es cada vez más opaca.
Incluso una herramienta tan familiar como una hoja de cálculo se transforma. Con Gemini integrado en Google Sheets, cada celda se convierte en un asistente capaz de analizar y generar contenido. La eficiencia es innegable, pero también simboliza cómo cedemos pequeñas parcelas de juicio y decisión a los algoritmos en nuestras tareas más cotidianas.
Así, mientras Dinamarca construye un dique legal para contener una de las olas, el océano tecnológico sigue creciendo a una velocidad vertiginosa. La pregunta clave no es cuán rápido avanzamos, sino si la dirección es la correcta. Porque al igual que el dinero mal invertido puede provocar crisis financieras, una inteligencia artificial mal gobernada podría erosionar nuestra autonomía y nuestra capacidad de discernimiento. Avanzar sin un rumbo claro no construye un futuro sólido; solo crea una peligrosa ilusión de progreso.