fbpx

Se crea la Oficina de Inteligencia Artificial de la UE

Legal - marzo 18, 2024

La Oficina supervisará la aplicación de la Ley de AI

En febrero de 2024 entró en vigor la decisión de la Comisión Europea por la que se creaba la Oficina Europea de Inteligencia Artificial dentro de la Dirección General de Redes, Contenidos y Tecnologías de la Comunicación (DG CNECT), como una especie de agencia interna dentro de la propia Comisión. No cabe duda de que representa una novedad importante y una demostración del interés de la UE por este asunto; sin embargo, sus funciones parecen haberse reducido en comparación con los deseos iniciales del Parlamento Europeo, que había previsto la creación de un organismo que pudiera centralizar la aplicación de todas las normas sobre IA.

El ACTO de Inteligencia Artificial: qué es y qué hace

La Oficina tendrá la misión de facilitar la aplicación de la Ley de Inteligencia Artificial, que representará -cuando se apruebe definitivamente- la primera normativa del mundo sobre el uso de la IA y que forma parte de la Estrategia Digital de la UE, con la que la Unión Europea quiere garantizar un desarrollo y un uso más cuidadoso y ponderado de esta nueva tecnología. El reglamento hunde sus raíces en la Estrategia Europea sobre Inteligencia Artificial, que se presentó allá por 2018, y en el Libro Blanco sobre IA, presentado en 2020, y representa la opción de la Unión Europea de intervenir en el tema primero y de forma incisiva, para influir y no estar sometida al proceso de desarrollo de la gobernanza de la tecnología.

La Inteligencia Artificial (IA) representa hoy uno de los grandes retos a los que se enfrenta la humanidad, debido a su inmenso potencial -que algunos califican incluso de revolucionario-, pero también con grandes riesgos. El uso de la IA en campos como la medicina, la educación y la ingeniería abre la posibilidad de grandes y rápidas transformaciones que pueden aportar mejoras significativas en la vida de todos nosotros. Sin embargo, es necesario no pasar por alto el peligro que puede tener para las personas y la sociedad en su conjunto el uso de esta tecnología cuando no está debidamente regulada.

El primer marco legislativo destinado a regular la inteligencia artificial y su uso fue presentado por la Comisión Europea en abril de 2021, pero no fue hasta diciembre de 2023 cuando el Parlamento Europeo y el Consejo Europeo lograron alcanzar un acuerdo provisional.

Tras una primera aprobación del texto por el Consejo de la Unión Europea, el Parlamento Europeo votó su propia propuesta, que fue adoptada por amplia mayoría, con 499 votos a favor, 28 en contra y 93 abstenciones, y que incluía la ampliación de la lista de aplicaciones de alto riesgo y prácticas prohibidas de IA. El texto fue la base de las negociaciones entre el Parlamento, la Comisión Europea y el Consejo Europeo.

El proyecto de reglamento ya contiene propuestas relativas al cálculo de las posibles sanciones que se impondrán a las empresas que contravengan las normas establecidas por Bruselas.

Evaluación de riesgos y principios para una buena ley

La Ley de Inteligencia Artificial pretende fomentar el desarrollo de la IA en los 27 Estados miembros, pero con principios y normas claras que deben seguirse, entre otras cosas para prevenir y abordar los riesgos potenciales que esta nueva tecnología plantea en términos de seguridad y derechos. Se prohibirán los sistemas de IA que se consideren peligrosos para la seguridad, la subsistencia y los derechos fundamentales de los ciudadanos europeos y de todas las personas (en una escala de 4 niveles, identificados como «riesgo mínimo», «riesgo limitado», «riesgo elevado» y «riesgo inaceptable»). Un riesgo clasificado como inaceptable y, por tanto, prohibido es, por ejemplo, la puntuación social utilizada por el gobierno de China; también se considera inaceptable el condicionamiento psicológico ejercido por determinados mensajes publicitarios. Se considera de alto riesgo, por ejemplo, la selección de personal o las operaciones realizadas mediante cirugía asistida. Se considera un riesgo bajo, por ejemplo, los chatbots. Por último, los videojuegos y los sistemas antispam se consideran de bajo riesgo.

Pero, ¿cuáles son los puntos cruciales para la promulgación de una legislación buena y definitiva? Sin duda, en su versión final, el reglamento debería abordar ante todo la cuestión de la seguridad, con el fin de establecer normas de calidad para evitar a los usuarios los daños derivados de un uso indebido o de un posible mal funcionamiento de los sistemas de IA. También es importante aclarar quién será legalmente responsable de las decisiones tomadas (y, por tanto, de los posibles errores cometidos) por la IA, de modo que se pueda garantizar a los ciudadanos en caso de daños. Otro factor clave es garantizar que las decisiones tomadas por la IA sean transparentes y comprensibles para los humanos. Por último, pero no por ello menos importante, está la cuestión de la privacidad, que parece ser cada vez más un ámbito clave que hay que proteger.

Tareas de la Oficina de AI

La Oficina tendrá, ante todo, la tarea de elaborar directrices y orientaciones que puedan facilitar el uso claro de la legislación pertinente. El Reglamento deja claro que la Oficina no sustituirá ni anulará en modo alguno las competencias específicas de los Estados miembros y las autoridades nacionales responsables, sino que debe entenderse como un órgano de apoyo y orientación.

Por ello, la Oficina trabajará a escala nacional y de la UE para facilitar la armonización y aplicación de la legislación sobre IA, supervisando los llamados sistemas de IA de propósito general (GPAI), es decir, los sistemas que utilizan IA, y desarrollando metodologías para evaluar patrones de uso (por ejemplo, el GPT-4 de OpenAI, responsable del chatbot ChatGPT).

La Oficina también tendrá que gestionar las normas que se aplicarán en virtud del nuevo Reglamento con respecto a los sistemas de inteligencia artificial que ya están sujetos a otras normativas de la UE, como la Ley de Servicios Digitales sobre medios sociales.

Breve descripción del contexto internacional

Mientras la Unión Europea trabaja en la promulgación definitiva del Reglamento sobre Inteligencia Artificial, otros organismos internacionales también centran su atención en la necesidad de controlar el desarrollo y la gobernanza de esta nueva tecnología y su aplicación.

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), organismo especializado de las Naciones Unidas cuyo objetivo es promover la paz y la seguridad en el mundo, publicó la «Recomendación sobre la Ética de la Inteligencia Artificial», adoptada por los 193 Estados miembros. La UNESCO ha querido centrarse en cuatro valores fundamentales, vinculados a diez principios generales que salvaguardan al ser humano en el uso ético de la IA.

En el ámbito de las Naciones Unidas, el Secretario General Guterres creó un comité de alto nivel sobre cooperación digital para facilitar un diálogo constructivo sobre las posibilidades que ofrece la tecnología para hacer avanzar el bienestar humano, sin olvidar, por supuesto, los riesgos y la prevención de daños. Algunas de las recomendaciones incluidas en «La era de la interdependencia digital – Informe del Grupo de Alto Nivel sobre Cooperación Digital del Secretario General de las Naciones Unidas» hacen hincapié en la necesidad de sistemas inteligentes que puedan explicar sus decisiones. Otro tema que también surgió aquí es la importancia de poder identificar claramente de quién es la responsabilidad en caso de daños.

La Vicesecretaria General de la ONU, Amina J. Mohammed, en su intervención en el acto «Avanzar en los Objetivos Mundiales con inteligencia artificial», también abordó el tema del desarrollo de la inteligencia artificial, calificándolo como uno de los avances más importantes de nuestro tiempo, por ejemplo por el uso que ya se está haciendo de ella en determinados sectores estratégicos como la automatización industrial. Sin embargo, el subsecretario también quiso destacar los riesgos asociados al uso no ético y no regulado de la IA, como el aumento de la desigualdad o el peligro de manipulación de los procesos políticos y la información.