¿Quién regulará el avance de la inteligencia artificial?

¿Quién regulará el avance de la inteligencia artificial?

La inteligencia artificial no solo nos sorprende diariamente por las tareas que puede hacer por nosotros. En menos de un año aprendimos, de forma masiva, una decena de posibilidades que no estaban en nuestro radar y que de a poco estamos incorporando en las tareas cotidianas. Este alcance y sus infinitas implicaciones también motiva a que entidades tan potentes como Google y Microsoft acuerden pautas que seguramente impactarán en la regulación de esta tecnología revolucionaria.

Dichas compañías, junto con empresas que desarrollan servicios y productos específicos de inteligencia artificial como OpenAI y Anthropic, acordaron una serie de pautas para trabajar juntos con el fin de asegurar que las tecnologías de IA se desarrollen e implementen de manera responsable. Las cuatro entidades crearon una organización que se llamará “The Frontier Model Forum” y que estará encargada de velar por la regulación de los avances de esta tecnología y la seguridad de los usuarios. Según entienden sus representantes, la colaboración de los actores clave es fundamental y el énfasis en la investigación de seguridad y las mejores prácticas son pasos cruciales para reducir los riesgos potenciales y maximizar los beneficios de los modelos de IA en distintos ámbitos sociales.

Resulta curioso también que la idea de la regulación de estos nuevos avances tecnológicos provengan de los actores que hoy están desarrollando modelos de negocio. El propio director de OpenAI, Sam Altman, dijo en varias ocasiones que los gobiernos deben establecer criterios sobre los modelos de IA y que deben actuar principalmente sobre los jugadores más grandes. “Son los que realmente pueden hacer daño”, expresó el creador de ChatGPT en un reciente coloquio, aunque también advirtió que sobrerregular “no es bueno” porque podría cortar la capacidad innovación y creación de las empresas más chicas.

Los objetivos del foro creado por los protagonistas de esta nueva oleada tecnológica son cuatro, según comunicaron. El primero de ellos es avanzar en la investigación de seguridad de la IA para promover el desarrollo responsable de modelos de vanguardia, minimizar riesgos y permitir evaluaciones independientes y estandarizadas de capacidades y seguridad. También se proponen identificar las mejores prácticas para el desarrollo y despliegue responsable de modelos de vanguardia, ayudando al público a comprender la naturaleza, capacidades, limitaciones e impacto de la tecnología. Al mismo tiempo, se ponen a disposición para colaborar con formuladores de políticas, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad. Y finalmente aseguran que apoyarán los esfuerzos para desarrollar aplicaciones que ayuden a abordar los mayores desafíos de la sociedad, como la mitigación y adaptación al cambio climático, la detección y prevención temprana del cáncer, y la lucha contra amenazas cibernéticas.

Otra particularidad de este nuevo foro es que no se trata de un acuerdo cerrado, sino que invita a otras empresas e instituciones a sumarse a esta iniciativa. Compañías como IBM, Amazon, Nvidia, Oracle y Tesla son reconocidas hace varios años como pioneras en IA para sus productos o servicios, y durante los últimos meses otras entidades como Apple, Meta y Adobe han acelerado sus desarrollos en esta materia. Según comunicaron los impulsores de este acuerdo, la membresía estará abierta hacia organizaciones que implementen modelos de vanguardia, demuestren un fuerte compromiso con la seguridad y estén dispuestas a contribuir al avance de los esfuerzos de esta nueva organización.

El anuncio de estos cuatro gigantes puede ser interpretado como una sincera preocupación por el futuro tecnológico y su impacto, o bien como un posicionamiento conjunto de cara a los procesos de regulación que ya se están gestando en otras partes del mundo. La Unión Europea, de hecho, está impulsando la primera ley integral para regular la IA, con el fin de establecer controles sobre sus sistemas que puedan ser considerados de mayor riesgo para la población. Y China, por su parte, está próxima a poner en vigencia la primera ley de regulación sobre la inteligencia artificial generativa, la cual habilitará, entre sus principales disposiciones, que el gobierno de ese país revise los algoritmos para evaluar si los servicios tecnológicos pueden influir en la opinión pública o pueden “movilizar” al público. El futuro, sin dudas, se está gestando en estos acuerdos y sería conveniente que no solo las empresas, sino la sociedad civil en su conjunto comience a prestar atención a sus vaivenes.

Tamaño texto
Comentarios
Comentarios