Las IA (por ahora) no desarrollan emociones

Las IA (por ahora) no desarrollan emociones

Que nos respondan con amabilidad no significa que “nos quieran”. Tampoco se “enamoran” entre ellas. A no confundirse: sólo se trata de algoritmos.

“HER”. El personaje de Joaquin Phoenix se enamora de una máquina. “HER”. El personaje de Joaquin Phoenix se enamora de una máquina.
14 Febrero 2024

Desde hace tiempo existe una discusión en torno a si las máquinas podrían desarrollar emociones entre ellas o hacia las personas. Con el auge de la inteligencia artificial (IA) en los últimos años esas incógnitas se volvieron más fuertes porque, como era de esperarse, apareció el recurrente temor a lo desconocido.

Los algoritmos que automatizan tareas y reemplazan actividades mecánicas que solíamos hacer ya están entre nosotros y muchos se preguntan si entre sus capacidades podrían sentir emociones humanas como enamorarse, ser felices, estar tristes y ofenderse. ¿Estamos acaso cerca de que fragmentos de la película “Her” se hagan realidad? ¿Las IA desarrollarán emociones?

La respuesta corta es no. Las IA actualmente no tienen emociones, pero el planteo es más complicado que eso. En este mundo tecnológico sí hay sentimientos pero no funcionan de igual modo que en los humanos. Gustavo Juárez, investigador de la Universidad Nacional de Tucumán (UNT) y director del Laboratorio de Inteligencia Artificial de dicha universidad, en diálogo con LA GACETA explica: “hoy las IA, como ChatGPT, llegan a confundirnos, uno les pregunta y ellos contestan. Pueden ser amables, pero no hay emoción. Hay un patrón de comportamiento en esta interfaz hombre-máquina”.

Juárez hace hincapié en que si programan a una máquina con las reglas y pasos estructurados para parecerse al sistema de “Her”, esta va a responder de manera similar a la que conocimos en la película. Pero eso no significa que tenga emociones. Sentimientos hay, pero es unidireccional, del humano a la máquina y no al revés, aclara el especialista. En la misma película podemos observar cómo el protagonista se enamora de la máquina, pero el aparato no mantiene vínculos con sus usuarios. “‘Her’ tiene una realidad maravillosa, creo que falta para llegar a eso”, aclara el investigador sobre los avances tecnológicos.

Alejandro Urueña, especialista tucumano en IA, comenta a LA GACETA su parecer: “la IA no tiene emociones, pero puede procesar y responder a las emociones humanas, como así también a los impulsos que poseen otra raíz diferente”. Es decir, sigue reglas del programador, no existen emociones propias de la máquina.

Ahora bien, mantener un “vínculo” como en la película “Her” es imposible, según las declaraciones de los expertos. Como declara Urueña, una relación hombre-máquina serían simulaciones basadas en patrones de interacción, no en emociones genuinas.

Del mismo modo en que los expertos descartan emociones de máquinas a hombres, tampoco es posible pensar en emocionalidad entre sistemas, ya que funcionaría de manera similar, estarían basadas en patrones y reglas establecidas por programadores

Amabilidad de los robots

La amabilidad no es algo que estos sistemas practiquen o que pidan a los humanos. Juan Corvalán, que está a cargo del Laboratorio de Innovación e Inteligencia Artificial de la Universidad de Buenos Aires, le comenta a LA GACETA cómo funcionan los supuestos buenos modales de las IA. “La capacidad de reconocer solicitudes de amabilidad o cortesía, como el uso de ‘por favor’ y ‘gracias’, y responder de manera aparentemente empática o cortés, está basada en algoritmos y reglas programadas, no en experiencias emocionales reales”, señala el experto. Es decir que no importa el uso de la cortesía para hablar con estos procesadores, ya que no modifica en nada su funcionamiento.

Desde el Ialab, donde desarrolla sus investigaciones, Corvalán cuenta que hicieron pruebas con ChatGPT utilizando expresiones como “continúa de este modo”, “muchas gracias”, “está bien”, y el resultado siempre fue correcto. Pero cuando le dijeron que sus respuestas eran incorrectas, la IA modificó su resultado con riesgo de alucinación, es decir, de inventar cosas falsas.

“La distinción clave aquí es entre la capacidad de procesar y responder a información relacionada con emociones humanas, y el ‘sentir’ emociones reales”, apunta el experto desde Buenos Aires. “Las IA actuales, incluido ChatGPT, pertenecen a la primera categoría: pueden identificar y simular respuestas a emociones humanas basándose en su programación y los datos de entrenamiento, pero no experimentan emociones propias”, aclara.

Finalmente, Corvalán explica que alimentar a las IA con emociones humanas implica entrenarlas para reconocer, interpretar y responder a las emociones de manera adecuada, pero no significa que experimenten emociones de forma consciente o similar a los humanos. Todo es parte del desarrollo tecnológico, como por ejemplo, las técnicas de aprendizaje profundo que utilizan para identificar patrones complejos y sutilezas en los datos que son indicativos de emociones específicas. En síntesis, estos algoritmos simplemente simulan reconocimiento y respuestas emocionales basándose en los datos y algoritmos con los que han sido entrenados. (Producción periodística de Sofía de Chazal)

Tamaño texto
Comentarios
Comentarios