fbpx

Europa, primer continente en regular la AI

Ciencia y Tecnología - febrero 9, 2024

El año pasado se acordó en la UE una legislación mundial sin precedentes que convierte a Europa en el primer continente que impone normas sobre el uso de la inteligencia artificial (IA). El proyecto de ley fue presentado por la Comisión en abril de 2021 y aprobado por el Parlamento Europeo dos años y medio después. El proceso de regulación se vio influido por la aparición de ChatGPT -el generador de textos desarrollado por una empresa californiana, que puso de manifiesto, más allá del potencial de la IA, los riesgos de su uso- y se vio impulsado por el auge del fenómeno deep fake, es decir, la usurpación de identidad, que se basa en la tecnología de manipulación de vídeos.

El Consejo Europeo debería aprobar el texto de la ley en abril, y los Estados miembros dispondrán de dos años para aplicarla. Queda por ver cuántos de ellos conseguirán cumplir el plazo, ya que algunos -por ejemplo Rumanía- sólo están adoptando ahora estrategias nacionales de IA. Pero un país europeo se ha adelantado a todos -incluida Bruselas- y ya ha creado una agencia para supervisar la IA. Es el caso de España, que ha empezado a tomar medidas para ponerlo en marcha mucho antes de que la legislación de la UE entrara en vigor en 2022. De este modo, AESIA – Agencia Española de Supervisión de la Inteligencia Artificial – más allá de su papel interno, podrá ayudar a los organismos de Bruselas a aplicar la legislación sobre IA de forma más rápida y eficiente.

La legislación europea define por primera vez los sistemas de alto riesgo y los somete a normas estrictas

La legislación europea en el ámbito de la IA se ha diseñado en torno a la necesidad de mantener un equilibrio entre la protección de la democracia y los derechos humanos fundamentales y el fomento de la investigación y la innovación y la inversión en este campo. Parte de clasificar los sistemas de IA en función de los riesgos e impone gradualmente normas en función de esos riesgos, hasta la prohibición total de algunos de ellos.

En otras palabras, cuanto más arriesgada es una solicitud, más estrictas son las normas. Así, los sistemas de recomendación de contenidos o los filtros de spam tendrán normas más fáciles de cumplir y se considerarán de «riesgo limitado». Básicamente, sólo tendrán que decir a los usuarios que funcionan con IA. Otros sistemas de «alto riesgo» creados por IA estarán sujetos a un control más estricto. Los productos sanitarios, por ejemplo, tendrán que proporcionar datos de mayor calidad y ofrecer información clara a los usuarios.

Determinados usos de algunos de estos «sistemas de alto riesgo», concretamente los que se basan en el reconocimiento biométrico, como las calificaciones sociales que regulan el comportamiento de las personas, el reconocimiento de emociones en la escuela o en el lugar de trabajo, e incluso algunos tipos de vigilancia policial predictiva, están totalmente prohibidos. Los sistemas de reconocimiento facial de China también entran en esta categoría, contraria a los principios de las democracias liberales. Pero incluso en una democracia son necesarias algunas excepciones para delitos graves como el secuestro o el terrorismo. En estos casos, se permitirá escanear el rostro de las personas en público mediante sistemas de identificación biométrica a distancia.

El paquete legislativo sobre IA prevé la supervisión de la aplicación de estas normas, con la creación de una oficina en la Comisión Europea. También se prevén cuantiosas multas para las empresas que incumplan la normativa, estimadas en el 7% del volumen de negocios o 35 millones de euros. Esta legislación europea es una gran victoria en la lucha contra los peligros del uso irresponsable de las tecnologías basadas en la IA y un enorme paso adelante en comparación con el planteamiento adoptado en el extranjero. En Estados Unidos, la seguridad en este campo se basa en el compromiso conjunto de las principales empresas del sector -entre ellas Google, Meta, Amazon, Microsoft y OpenIA- de aplicar medidas para marcar los contenidos generados por IA.

Rumanía se lanza a la guerra contra la deep fake con un proyecto de ley que no la prohíbe

Regular este ámbito es tanto más importante cuanto que la tecnología de manipulación de vídeo es cada vez más sofisticada y accesible al público. La falsificación profunda, utilizada originalmente para crear contenidos pornográficos no consentidos, se ha convertido en pocos años en una poderosa arma de desinformación y manipulación de la opinión pública. Existe, por tanto, un temor justificado en todo el espectro político europeo a que la tecnología basada en la inteligencia artificial pueda utilizarse en campañas de desprestigio, para influir en las campañas electorales o para imponer importantes medidas políticas. Entre las primeras personalidades que cayeron presas de estas prácticas se encuentran los expresidentes estadounidenses Barack Obama y Donald Trump, y entre las víctimas figuran la difunta reina Isabel II y el papa Francisco. Más recientemente, la falsificación profunda también ha llegado a la periferia europea, con imágenes trucadas del Presidente moldavo Maia Sandu que circulan por Internet.

En este contexto de preocupación por la lucha contra el deep-fake, ha surgido un proyecto de ley en Rumanía -país que actualmente no cuenta con una estrategia nacional de IA- que no prohíbe este tipo de imágenes, sino que sólo exige marcarlas. Según los impulsores, «el público debe estar informado sobre los contenidos falsos». Hasta ahora, el proyecto legislativo no ha sido ni aprobado ni rechazado.

El Gobierno de Bucarest aún no tiene una estrategia de IA

El Ministerio de Digitalización presentó recientemente una versión actualizada del proyecto de estrategia de IA para 2019. Para demostrar que se toma en serio su trabajo, el responsable de Digitalización también ha preparado la Decisión por la que el Gobierno adoptará la estrategia. La adopción estaba prevista inicialmente para 2020 y, desde entonces y hasta ahora, se ha creado un comité de IA para reunir «iniciativas en la materia», ha habido consultas con empresas y entidades de investigación, ha habido incluso un grupo de trabajo conjunto del ministerio con una universidad (la Universidad Técnica de Cluj, ciudad que se ha convertido en el principal polo de desarrollo de las TI en Rumanía) y, por último, el Ministerio de Investigación ha desarrollado «un marco estratégico». Tras varios cambios de titulares de cartera en los últimos gobiernos de Bucarest, el año pasado se hizo cargo del proyecto el joven ministro de Digitalización, Bogdan Ivan.

En la presentación de la estrategia a principios de año, aseguró que el documento incluía propuestas del Comité Rumano para la AI, que a su vez tuvo en cuenta los resultados de las consultas con expertos. El objetivo de la estrategia, en resumen, sería «proteger los derechos de los rumanos en el entorno en línea». Al mismo tiempo, el ministro rumano subrayó que la estrategia se inspira «en acciones concretas» propuestas a nivel de la UE, pero está «firmemente anclada en las realidades y necesidades específicas del contexto rumano».

La explicación de este anclaje en las «necesidades rumanas » es que la estrategia rumana en materia de … Fondos europeos, obtenidos para la implementación del «Marco Estratégico para la Adopción y Uso de Tecnologías Innovadoras en la Administración Pública 2021 -2027», financiado por el Programa Operativo de la UE para la Capacidad Administrativa 2014-2020.

Los « notables» resultados de Rumanía en cuanto a «logros» en el campo de la preparación para la implantación de tecnologías de IA en la Administración se señalan en el Índice Oxford Insights, en el que Rumanía ocupa el puesto 64 del mundo y el último de Europa del Este. La región está muy por detrás de Europa Occidental en este aspecto, según la clasificación elaborada por la empresa británica que asesora a gobiernos y empresas sobre las oportunidades de la IA. En el informe, que analiza 193 países, tres de los Estados miembros de la UE de Europa Occidental figuran entre los 10 primeros, encabezados por Estados Unidos: Francia (6º), Alemania (8º) y Países Bajos (10º).

La lección española sobre cómo un Estado miembro puede ayudar concretamente a aplicar la legislación comunitaria

Un país al que le va mucho mejor que a otros miembros del bloque de la UE es, como ya se ha dicho, España. Aunque en esta clasificación está 17 puestos por detrás del último de los 10 primeros, en el puesto 27, España es el primer país de la UE que ya ha creado una agencia con funciones en la elaboración de leyes sobre IA. Ya cuenta con una oficina en A Coruña, centro financiero e industrial de Galicia. También cuenta con un presupuesto inicial de 5 millones de euros y una plantilla de 23 personas, a la que está previsto añadir más este año, según el gobierno madrileño.

AESIA será el actor clave en la gestión y liderazgo del ecosistema español de IA y, hasta que entre en vigor la legislación europea, llevará a cabo una supervisión voluntaria del campo, sirviendo de enlace con el ecosistema europeo y generando entornos de prueba regulares para los sistemas de IA de alto riesgo. Así, AESIA ya ha empezado a trabajar con un sandbox dedicado a las empresas españolas. Los sandboxes son entornos de prueba que sirven para mostrar cómo puede funcionar algo -por ejemplo, una tecnología- antes de su lanzamiento. Pero también son útiles para la legislación. Y esto es exactamente lo que hará AESIA, aportar las conclusiones de ejercicios prácticos que faciliten posibles cambios en la legislación antes de su aplicación.