fbpx

Prevenir la propagación de la desinformación generada por la Inteligencia Artificial

Ciencia y Tecnología - agosto 27, 2023

Han pasado más de 60 años desde que se propuso y estudió por primera vez la noción de inteligencia artificial hasta que la humanidad ha alcanzado sus capacidades actuales. En la última década, el campo de la Inteligencia Artificial (IA) ha avanzado considerablemente, pero nunca más rápido que en los dos últimos años, cuando una serie de factores se han unido de forma casi ideal y han proporcionado a la humanidad programas espectaculares como ChatGPT.

La Comisión Europea exige a las plataformas en línea que identifiquen claramente los contenidos -imágenes (fotos y vídeos), sonidos, textos- generados por inteligencia artificial (IA). La Vicepresidenta de la Comisión Europea responsable de Valores y Transparencia, Vera Jourova, hizo este llamamiento a los signatarios del código de buenas prácticas de la UE contra la desinformación, con los que se reunió recientemente en Bruselas. Se trata de una nueva medida de la estrategia de la Comisión para prevenir la propagación de la desinformación, especialmente en línea, con el fin de garantizar la protección de los valores europeos y los sistemas democráticos.

El Ejecutivo comunitario quiere aplicar esta medida de inmediato, aunque las plataformas más grandes, con más de 45 millones de usuarios activos en la UE, no estarán sujetas a las obligaciones de la nueva Ley de Servicios Digitales (DSA) hasta el25 de agosto. La normativa exige «el uso de marcas visibles» para garantizar que «los contenidos de audio o vídeo generados o manipulados sean reconocibles».

El Código de buenas prácticas no es jurídicamente vinculante

El Código de buenas prácticas contra la desinformación, firmado en 2022, que no es jurídicamente vinculante, reúne a unas 40 organizaciones, entre ellas Facebook, Google, YouTube y TikTok. Curiosamente, Twitter abandonó recientemente el grupo.

Los firmantes que integran la inteligencia artificial generativa en sus servicios, como Bing Chat para Microsoft y Bard para Google, deben integrar las salvaguardias necesarias para que estos servicios no puedan ser utilizados por agentes malintencionados que generen desinformación», declaró Vera Jourova.

Por otra parte, los firmantes que dispongan de servicios susceptibles de difundir desinformación generada por inteligencia artificial deberán implantar una tecnología que permita reconocer este contenido e indicarlo claramente a los usuarios, añadió el funcionario de la UE.

El Reglamento sobre IA prohíbe la manipulación «deliberada

La Unión Europea está negociando actualmente una legislación específica sobre inteligencia artificial que estipularía obligaciones de transparencia para los generadores de contenidos editoriales ChatGPT. Tras meses de intensos debates, los eurodiputados alcanzaron a finales de abril un acuerdo político provisional sobre el primer reglamento mundial sobre Inteligencia Artificial. La Ley de Inteligencia Artificial (AI) es una propuesta legislativa para regular la Inteligencia Artificial en función de su potencial para causar daño e influir en las intenciones de voto de los usuarios de las redes sociales. Se espera que el texto, que probablemente sufrirá modificaciones, se someta a votación en el Parlamento Europeo. Sus principios incluyen la agencia y la supervisión humanas, la solidez técnica y la seguridad, la privacidad y la gobernanza de los datos, la transparencia, el bienestar social y medioambiental, la diversidad, la no discriminación y la equidad.

Uno de los temas de debate más controvertidos en las negociaciones se refería a los sistemas de IA que no tienen una finalidad específica. El resultado, provisional, fue imponer obligaciones más estrictas a una subcategoría de IA de propósito general, que incluye modelos como GhatGPT. También estableció que los modelos generativos de IA deben diseñarse y desarrollarse de acuerdo con la legislación y los derechos fundamentales de la UE, incluida la libertad de expresión.

Otro tema políticamente delicado fue el tipo de aplicaciones de IA que deberían prohibirse por considerarse un riesgo inaceptable. Esto llevó a una propuesta de prohibir las herramientas de IA para la supervisión general de la comunicación interpersonal, pero esta propuesta se abandonó. Por otra parte, se amplió la prohibición de los programas informáticos de identificación biométrica. En un principio, esta prohibición sólo se aplicaba en tiempo real, este programa informático de reconocimiento sólo podía utilizarse a posteriori para delitos graves y previa autorización judicial.

El Reglamento AI también prohíbe la manipulación «intencionada». La palabra «intencional» fue objeto de debate, ya que quienes se oponían a esta redacción argumentaban que la intencionalidad podía ser difícil de probar, pero finalmente se mantuvo. Al mismo tiempo, se alcanzó la fórmula en la que se prohíbe el uso de software de IA para el reconocimiento de emociones en los ámbitos policial, de gestión de fronteras, laboral y educativo.

Los eurodiputados han ampliado la prohibición de la policía predictiva de los delitos penales a los administrativos, basándose en el escándalo holandés del subsidio familiar que llevó a miles de familias a ser procesadas erróneamente por fraude debido a un algoritmo defectuoso utilizado por la Inteligencia Artificial.

Por último, los modelos de IA de alto riesgo se clasificaron en un anexo. Es decir, se considerará un modelo de alto riesgo aquel que suponga un riesgo significativo para la salud, la seguridad o los derechos fundamentales. Del mismo modo, la IA utilizada para gestionar infraestructuras críticas, como redes de energía o sistemas de gestión del agua, también se clasificará como de alto riesgo si implica un riesgo medioambiental grave.

Los eurodiputados también incluyeron medidas adicionales para el proceso mediante el cual los proveedores de modelos de IA de alto riesgo pueden procesar datos sensibles, como la orientación sexual o las creencias religiosas, para detectar predisposiciones negativas. En particular, para permitir el tratamiento de este tipo concreto de datos, los sesgos no deben ser detectables mediante el tratamiento de datos sintéticos, anonimizados, seudonimizados o encriptados. Además, la evaluación debe realizarse en un entorno controlado. Los datos sensibles no pueden transmitirse a terceros y deben suprimirse tras la evaluación del sesgo. Los proveedores también deben documentar por qué se ha llevado a cabo el tratamiento de datos. La Inteligencia Artificial (IA) se considera una «tecnología que define el futuro».

¿Qué es exactamente la IA y cómo afecta ya a nuestras vidas? Definición de inteligencia artificial

La inteligencia artificial se considera fundamental para la transformación digital de la sociedad y se ha convertido en una prioridad para la Unión Europea, como se refleja en sus documentos oficiales. Se espera que las aplicaciones futuras traigan enormes cambios a la sociedad, pero la IA ya está presente en nuestra vida cotidiana. La IA es la capacidad de una máquina para imitar funciones humanas como el razonamiento, el aprendizaje, la planificación y la creatividad. La IA permite a los sistemas técnicos percibir el entorno en el que operan, procesar esta percepción y resolver problemas, actuando para alcanzar un objetivo concreto. El ordenador recibe datos (ya preparados o recogidos a través de sus propios sensores, como una cámara), los procesa y reacciona.

Los sistemas de IA son capaces de adaptar su comportamiento hasta cierto punto, analizando los efectos de acciones anteriores y funcionando de forma autónoma. Algunas tecnologías de IA existen desde hace más de 50 años, pero el aumento de la potencia de cálculo, la disponibilidad de enormes cantidades de datos y los nuevos algoritmos han propiciado importantes avances en IA en los últimos años.

¿Cómo se utiliza la tecnología de deep fake o propaganda?

Los medios de comunicación actuales se están viendo afectados por los grandes problemas creados por la Inteligencia Artificial, que está «causando estragos en el mundo de los medios de comunicación». Un estudio de Reporteros sin Fronteras (RSF) ha analizado el estado del periodismo en 180 países, teniendo en cuenta los cambios políticos, sociales y tecnológicos.

Los resultados son preocupantes. El notable desarrollo de la inteligencia artificial está creando aún más problemas a los medios de comunicación. El informe afirma que la industria de la desinformación difunde contenidos manipuladores a gran escala, como ha demostrado una investigación del consorcio Forbidden Stories, y que la inteligencia artificial no tiene en cuenta los requisitos del periodismo de calidad.

Un programa de inteligencia artificial (la quinta versión de Midjourney) que genera imágenes de muy alta definición en respuesta a indicaciones verbales ha estado alimentando las redes sociales con «fotos» falsas cada vez más verosímiles e indetectables. Muchas de estas publicaciones se convierten en virales. El periodismo de interés público se ha enfrentado a una gran competencia por parte de las narrativas engañosas y las noticias falsas promovidas por ciertos medios de comunicación y políticos y por el software de inteligencia artificial, especialmente en el contexto de la pandemia del Covid-19 y, más recientemente, de la guerra en Ucrania. Por desgracia, hay bastantes personas que tienden a fiarse de la información falsa, que a veces converge con la propaganda rusa y alimenta la desconfianza en los medios de comunicación.