La ventana
Luis Carlos Peris
Perdidos por la ruta de los belenes
Tecnología
TOKIO / BRUSELAS/Los países del G7 acordaron un código de conducta para las empresas e instituciones que desarrollen sistemas de inteligencia artificial (IA), dirigido a mitigar riesgos derivados de esta tecnología como la desinformación y la vulneración de la privacidad o la propiedad intelectual.
Los líderes del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido) respaldaron este lunes el conjunto de orientaciones para el sector de la inteligencia artificial bautizado como el Proceso de IA de Hiroshima, según informó la presidencia nipona de turno.
Esta hoja de ruta aspira a promover el desarrollo de sistemas de IA "seguros y fiables" a nivel internacional y a "gestionar sus riesgos", según la declaración conjunta, que también llama a todos los actores del sector de la IA a comprometerse a su cumplimiento.
El G7 destaca el "potencial innovador y transformador" de los sistemas avanzados de IA, y en particular, de modelos generativos como el bot de conversación ChatGPT, y al mismo tiempo reconoce la necesidad de "proteger a los individuos, la sociedad y los principios compartidos", además de "mantener a la humanidad en el centro".
Para ello, el Grupo de los Siete puso en marcha el pasado mayo en la cumbre de Hiroshima una iniciativa que ha derivado en la elaboración de once principios para empresas y organizaciones involucradas en el desarrollo de sistemas de IA.
Entre las medidas recomendadas figura contar con la supervisión de observadores independientes en todas las fases de desarrollo y salida al mercado de las IA, y de que sus creadores detecten posibles riesgos de uso indebido y corrijan esas vulnerabilidades.
De cara a una mayor transparencia de estos modelos, se pide a los desarrolladores informar de forma pública sobre las "capacidades y limitaciones" y los "dominios de uso apropiado e inapropiado" de sus sistemas.
También se llama a poner en marcha "mecanismos de autentificación", como la creación de marcas de agua digitales que permitan a los usuarios identificar los textos, imágenes o vídeos generados por inteligencias artificiales.
Estas orientaciones serán revisadas de forma periódica cuando sea necesario "para adaptarse a la rápida evolución de la tecnología" y en consultas con los actores implicados, según la declaración conjunta.
Además de invitar a las firmas e instituciones del sector a seguir este código de conducta, los países del G7 "acelerarán el proceso para desarrollar un marco de políticas" para promover la implementación del Proceso de Hiroshima, lo que incluirá "la cooperación basada en proyectos".
El Grupo de los Siete también fomentará el cumplimiento de esta hoja de ruta a través de la cooperación y consulta con diferentes organismos internacionales como la Alianza Global sobre Inteligencia Artificial (GPAI, de sus siglas en inglés), la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y con actores públicos y privados, así como con países que no forman parte del G7.
La presidenta de la Comisión Europea, Ursula von der Leyen, llamó a los desarrolladores de sistemas de IA a suscribir "lo antes posible" el código de conducta acordado por los países del G7.
"Me complace dar la bienvenida a los principios rectores internacionales del G7 y al código de conducta voluntario, que reflejan los valores de la UE para promover una IA fiable. Hago un llamamiento a los desarrolladores de IA para que firmen e implementen este código de conducta lo antes posible", dijo Von der Leyen en un comunicado.
"Los beneficios potenciales de la inteligencia artificial para los ciudadanos y la economía son enormes", destacó la jefa del Ejecutivo comunitario, que señaló al mismo tiempo los "nuevos desafíos" que plantea la aceleración de la capacidad de la IA. Y recordó que "la UE, que ya es pionera en materia regulatoria con la Ley de IA, también está contribuyendo a las barreras de seguridad y la gobernanza de la IA a nivel mundial".
Temas relacionados
También te puede interesar
Lo último
No hay comentarios