¿Enfrentamos la inteligencia artificial o aprendemos a vivir con ella?

El mundo habla de las IA y algunos mensajes sobre sus alcances y sus peligros preocupan al mundo.

¿Enfrentamos la inteligencia artificial o aprendemos a vivir con ella?

Comenzó a entrar sigilosamente en nuestra vida. Estaba escondida en los códigos y de a poco empezó a facilitarnos algunas acciones cotidianas. De repente dio el salto y ahora un poquito de ella llegó de forma visible a nuestras manos. Mientras tanto, hay otro universo de su tecnología que continúa en desarrollo y que podría cambiar aún más nuestra realidad. En ese (este) contexto, la inteligencia artificial (IA) ha tomado gran relevancia y ha causado gran polémica. Sus usos -dicen algunos expertos, todavía desconocidos- podrían acabar con la humanidad. Es por eso que cerca de un millar de investigadores pidió el cese de todas los trabajos de algunas ramas “potentes” de esta tecnología, al menos por seis meses, para dar “un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”, indicaron. Ahora bien, ¿podemos frenar la IA?

Las dudas son muchas y se profundizan con el análisis de expertos en todo el globo. Lo que pasa con la IA se lo relaciona a películas de ciencia ficción como Matrix o Terminator y las suposiciones van más allá de lo que podemos imaginar. No se trata de eliminar el ahora famoso Chat GPT, sino de “pausar de inmediato el entrenamiento de los sistemas de IA más potentes que GPT-4”. Ese es el planteo que hicieron Elon Musk y otros especialistas a través de una carta abierta en el sitio del Instituto Future Of Life, una organización que trabaja para alertar sobre los riesgos extremos de las tecnologías. Pero, ¿poner en stand by la IA es la solución a todos los posibles finales que se plantean?

La inteligencia artificial, como tecnología, tiene ya implicancias en todas las ciencias y en todos los ámbitos. Y muchos de los grandes descubrimientos de los últimos años (como las vacunas contra la covid-19) son gracias a ella. Entonces, ¿hay que pararla o hay que encontrar la forma de convivir con ella de forma segura?

Riesgos e intereses

Podrían surgir aún más preguntas, pero aquí venimos a dar respuestas. En medio de toda esta polémica, LA GACETA contactó a Diego Fernández Slezak, investigador del Instituto de Ciencias de Computación (ICC) del Conicet y docente de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires (UBA). Él conoce bien de estas tecnologías, porque desde hace años se dedica a la investigación de la IA en el campo de la salud. Sobre el pedido de “parar” estas tecnologías fue categórico: “¿qué vamos a hacer en seis meses? ¿ponemos play y seguimos? En toda la historia de la humanidad, jamás nadie dejó de hacer algo en secreto por un pedido. Es hipócrita decir que no se va a seguir trabajando; hay riesgos y hay que atender a lo que propone la carta, pero no de esta manera. Habría que regular el uso; está bien que se abran estas tecnologías a todos, pero no sin una regulación estatal que mire qué potencia tienen. Y esa es una discusión más importante”, reflexionó.

El experto consideró que esto se trata de nada más que una “maniobra desesperada de aquellos que llegaron tarde a esa tecnología, que se les está yendo de las manos -indicó-; el chat GPT, que es el ejemplo más visible que tenemos, vino a sacar puestos de trabajo; es un competidor eficiente que podría disputarse, por ejemplo, con periodistas, y generar información que podría ser falsa. Y de ahí viene el miedo, porque toca intereses”.

Fredi Vivas, especialista en Big Data e IA charló con LG Play y coincidió en algunos puntos. “Lo que están planteando es suspender el desarrollo de modelos de lenguaje generativo -destacó-; el objetivo está bueno: es ‘paremos un poco la pelota, ‘pensemos cómo lo estamos haciendo’, ‘hagamos que más gente entienda esto’ y ‘veamos cómo legislarlo’. Pero no sé si esta es la mejor manera. El desarrollo no sé si es algo que se pueda parar”.

En medio del debate, también se planteó si la carta responde a una preocupación real o a intereses empresariales hay. “Musk fue de los primeros inversores del proyecto (del chat GPT) y después se fue -contó-; y eso (si hubo o no presiones) no creo que lo sepamos nunca. Estamos hablando de las grandes decisiones de negocio de Sillicon Valey, dónde hay mucho de esto. Musk siempre se ha caracterizado por mover los mercados mediante un tweet.”. Vivas consideró que ese es un debate aparte y que, en este contexto, es positivo que se sugiera que el mundo aprenda más sobre estas tecnologías. “Para mi no está mal que la gente entienda más, (que se proponga frenar) con un objetivo de educación. Cuando digo ‘gente’ me refiero a nosotros, que usamos el chat GPT para hacer cualquier cosa, pero también hablo de gobernantes, educadores, emperendedores y tecnólogos, que todos entiendan el impacto que puede tener esto en el mundo”.

Consecuencias y soluciones

Hace pocos días, el escritor Yuval Harari y los expertos en ética tecnológica Tristan Harris y Aza Raskin publicaron en el New York Times un artículo sobre los peligros de la IA, asegurando que esta tecnología podría devorar toda la cultura humana. Así como ninguna empresa farmacéutica comercializa medicamentos sin antes hacer controles de seguridad -dijeron en el artículo- “los sistemas IA que tienen una potencia como la de GPT-4 no deberían introducirse en las vidas de miles de millones de personas a mayor velocidad de la que las sociedades pueden absorber sin desestabilizarse”, escribieron.

Lo que sucede -indicaron los intelectuales- es que la IA, que ahora “domina” lenguaje, podría “hackear y manipular el sistema operativo de la civilización”. y ser capaz de abrir “desde las bóvedas de los bancos hasta los santos sepulcros”. En pocas palabras, podría “doblegar” a la humanidad.

Esa es una postura que crece cada día. Pero, por ahora -advirtió, por su parte, Fernández Slezak- no podemos imaginar cuáles serán las consecuencias de esta tecnología, porque no sabemos realmente qué se está logrando con ella, más allá de aquellas investigaciones públicas y al alcance de la sociedad. “Hablar del uso de la IA de forma tan genérica para este tipo de planteos no tiene sentido; podemos hablar de lo que conocemos, lo que es creíble... ir más allá es discutir sobre la nada -reflexionó-; lo que sí podemos discutir es sobre qué hacer con ella. Hace falta una regulación para la salida de este tipo de herramientas, en diferentes contextos, como información o salud. Hoy por hoy no hay algo que regule y eso y esa es la discusión; necesitamos discutir cómo vamos a medir cuál es su uso ético. No se trata de regular la ética de la IA, sino la ética vertical de quien la use”.

En estos últimos días, investigadores expresaron que la solución a esta problemática no es demonizar a la IA, sino que la sociedad genere herramientas y conocimientos para aprender a vivir con ella de forma ética y responsable. A esto también se refirió Vivas. “El concepto es entender la tecnología y cómo aplicala correctamente a las cuestiones en que sea correcto aplicar. Eso implica responsabilidad y ética”, dijo, para referirse específicamente a las inteligencias artificiales generativas (las que se piden suspender. “Se trata de la capacidad de las máquinas de generar contenido sintético, como audio, texto o video. Ahí es dónde aparecen los riesgos que conocemos”, expresó. Al fin y al cabo, la tecnología no es el problema, sino el uso que se le da, dijo el propio chat GPT a LA GACETA. ”La tecnología y la inteligencia artificial deben ser utilizadas para mejorar la vida humana -explicó-; y su aplicación puede ser beneficiosa en muchos aspectos de la vida humana. Sin embargo, es importante asegurarse de que la IA se utilice de manera ética y responsable, para evitar posibles riesgos y garantizar que se utilice para el bienestar humano y el desarrollo sostenible”.

El chat -que es sólo una ínfima partícula dentro del universo de la IA- aseguró que “no necesariamente deberíamos tener miedo de la IA, pero es importante reconocer que la inteligencia artificial tiene el potencial de tener impactos significativos en nuestras vidas -comentó-; y sí es cierto que existen riesgos y preocupaciones sobre su desarrollo y uso”. Algunos de ellos -detalló- tienen que ver con el desempleo, la discriminación, la privacidad, el control y la manipulación. Aún así, hasta hoy, la IA trajo más beneficios que complicaciones...

Tamaño texto
Comentarios
Comentarios