El Parlamento Europeo acaba de aprobar por amplia mayoría la ley europea sobre inteligencia artificial, conocida como la Ley de IA, una primicia mundial. La ley es el resultado de más de tres años de preocupación en Bruselas por hacer frente a los nuevos retos en este campo, que han surgido en la última década a un ritmo vertiginoso. El desarrollo sin precedentes de los sistemas de IA, que también ha traído consigo una serie de riesgos, ha dado lugar a fenómenos indeseables como las falsificaciones profundas. El texto de la ley se ha diseñado tanto para proteger los derechos fundamentales de los ciudadanos, la democracia y el Estado de Derecho, como para estimular la innovación y la investigación, con el objetivo declarado de establecer a Europa como líder en este campo. La nueva legislación introduce dos niveles de gobernanza para la supervisión de la aplicación de la ley: uno nacional y otro europeo, y tanto los Estados miembros como la UE crean nuevas autoridades para este fin. En principio, los Estados miembros tendrán dos años para aplicar sus disposiciones tras la entrada en vigor, pero algunas de las prohibiciones de la ley entrarán en vigor medio año después de su adopción.
En Rumanía, la ley contra la falsificación profunda se debate en el Parlamento
Aunque hasta ahora los Estados miembros sólo han dado tímidos pasos en este ámbito, ha habido intentos de regulación nacional en este campo, como en Rumanía, donde ha llegado al Parlamento un proyecto de ley para combatir la deep fake. Extremadamente controvertido, algunos dicen que sigue el modelo chino -porque castiga la falsedad profunda con penas de cárcel-, el proyecto de ley se ha empantanado en el debate parlamentario. Pero ahora que se ha aprobado la Ley de IA, el texto podría mejorarse o, como sostienen algunos, podría redactarse uno nuevo para cumplir los requisitos de la legislación europea.
«La UE ha cumplido su promesa. Hemos vinculado el concepto de inteligencia artificial a los valores fundamentales que sustentan nuestras sociedades. Sin embargo, queda mucho trabajo por hacer, que va más allá de la propia Ley de IA. La IA nos empujará a repensar el contrato social en el corazón de nuestras democracias, nuestros modelos educativos, nuestros mercados laborales y la forma en que hacemos la guerra. La Ley de IA es un punto de partida para un nuevo modelo de gobernanza construido en torno a la tecnología. Ahora tenemos que centrarnos en poner en práctica esta ley», ha declarado Dragoș Tudorache, coponente de la Comisión de Libertades Civiles del Parlamento Europeo.
Otro coponente, Brando Benifei, también destacó la importancia de la creación de la nueva Oficina Europea de AI, que «ayudará a las empresas a empezar a cumplir las normas antes de que entren en vigor».
El reglamento se encuentra actualmente en el denominado procedimiento de rectificación y se espera que se apruebe en los próximos meses, antes de que finalice la legislatura. Después, también necesita la aprobación formal del Consejo Europeo. Está previsto que entre en vigor 20 días después de su publicación en el Diario Oficial y será plenamente aplicable en un plazo de 24 meses a partir de esa fecha, salvo las prohibiciones de prácticas prohibidas, que ya deberán cumplirse transcurridos seis meses. Además, los códigos de buenas prácticas deberán estar listos a los 9 meses, las normas de propósito general, incluida la gobernanza, tendrán que aplicarse a los 12 meses, y las obligaciones para los regímenes de alto riesgo, a los 36 meses.
Según el comunicado de prensa oficial del Parlamento Europeo emitido tras la adopción, el reglamento impone obligaciones a la inteligencia artificial, en función de sus riesgos potenciales y su impacto previsto. En concreto, prohíbe algunas aplicaciones e impone obligaciones a otras. También impone fuertes multas por incumplimiento. La nueva normativa prohíbe determinadas aplicaciones de IA que amenazan los derechos de los ciudadanos, entre ellas los sistemas de categorización biométrica. También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en la escuela, la puntuación social, la vigilancia policial predictiva (cuando se basa únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipula el comportamiento humano o explota las vulnerabilidades de las personas.
Los sistemas de IA de propósito general (GPAI) y los modelos GPAI en los que se basan deben cumplir ciertos requisitos de transparencia, entre ellos el cumplimiento de la legislación de la UE sobre derechos de autor y la publicación de resúmenes detallados de los contenidos utilizados para la formación. Además, las imágenes, contenidos de audio o vídeo artificiales o manipulados («deep fakes») deben etiquetarse claramente como tales.
La legislación de la UE define por primera vez los sistemas de alto riesgo y los somete a normas estrictas. Empieza clasificando los sistemas de IA según su riesgo e impone gradualmente normas en función del riesgo, hasta la prohibición total de algunos de ellos. En otras palabras, cuanto más arriesgada es una solicitud, más estrictas son las normas. Así, los sistemas de recomendación de contenidos o los filtros de spam tendrán normas más fáciles de cumplir y se considerarán de «riesgo limitado». Básicamente, sólo tendrán que decir a los usuarios que funcionan con IA. Otros sistemas de «alto riesgo» creados por IA se someterán a un escrutinio más riguroso. Así, se prohíben determinados usos de algunos de estos «sistemas de alto riesgo», a saber, los basados en el reconocimiento biométrico, basados en rasgos sensibles y la recogida no selectiva de imágenes de Internet o de grabaciones de CCTV para la creación de bases de datos de reconocimiento facial. Por ejemplo, están prohibidas la evaluación social que regula el comportamiento de las personas, el reconocimiento de emociones en la escuela o en el lugar de trabajo y algunos tipos de policía predictiva. Como excepciones, se permiten para delitos graves como el secuestro o el terrorismo. En estos casos se permitirá escanear el rostro de las personas en público mediante sistemas de identificación biométrica a distancia. Para otros sistemas de IA de alto riesgo -que tienen un potencial significativo para dañar la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho- se prevén ciertas obligaciones.
Los ciudadanos tienen derecho a quejarse de los sistemas de IA
Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de aplicación de la ley, migración y gestión de fronteras, justicia y procesos democráticos (por ejemplo, influir en las elecciones). Estos sistemas deben evaluar y mitigar los riesgos, mantener registros de uso, ser transparentes y precisos y proporcionar supervisión humana. Los ciudadanos también tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos, según el comunicado de prensa oficial del Parlamento Europeo. El paquete legislativo sobre IA prevé la supervisión de la aplicación de estas normas, con la creación de una Oficina en la Comisión Europea. También se prevén multas del 7% del volumen de negocios para las empresas incumplidoras. Esta legislación europea es una gran victoria en la lucha contra los peligros del uso irresponsable de las tecnologías basadas en la IA y un enorme paso adelante en comparación con el planteamiento adoptado en el extranjero. En Estados Unidos, la seguridad en este campo se basa en el compromiso conjunto de las principales empresas del sector -entre ellas Google, Meta, Amazon, Microsoft y OpenIA- de aplicar medidas para marcar los contenidos generados por IA.
Vídeos falsos utilizados para estafas en línea
A principios de este año, el Ministro de Energía rumano, Sebastian Burduja, anunció que presentaría una denuncia penal después de que se utilizara su rostro en un vídeo falso. El gobernador del Banco Nacional de Rumanía, Mugur Isărescu, también fue víctima de esa manipulación en línea. En ambos casos, se utilizó el rostro de un funcionario para promover inversiones inexistentes. Inmediatamente después, dos eurodiputados rumanos presentaron en el Parlamento de Bucarest una iniciativa legislativa para combatir este fenómeno del deep fake, que prevé penas de cárcel para los culpables de realizar este tipo de vídeos. El proyecto de ley ha suscitado un gran debate público, con algunas ONG de derechos humanos argumentando que tal medida violaría la libertad de expresión. Otras voces apoyaron la iniciativa legislativa, pidiendo penas severas en los casos en que esos vídeos tengan un grave impacto emocional o financiero. Todo el debate -más allá de la forma bastante heirológica en que nació el proyecto legislativo- revela básicamente la necesidad de regulación -también a nivel nacional- en este ámbito. Después de que la forma adoptada por la Cámara de Diputados fuera radicalmente diferente de la del Senado – este último imponiendo únicamente sanciones económicas a los autores de falsificaciones profundas, mientras que los diputados llegaban hasta la pena de prisión -, el proyecto fue devuelto a las comisiones especializadas para su examen. Lo que, según el eurodiputado Dragoș Tudorache, sería positivo, ya que, en su opinión, la adopción de la ley puede esperar, y Rumanía debería seguir las líneas de la Ley IA a la hora de redactarla.
«Yo diría que la ley de falsificaciones profundas en el Parlamento rumano quizás podría esperar, porque de hecho, a través de la Ley de AI también estamos regulando este ámbito de responsabilidad de las falsificaciones profundas. Así que, básicamente, esperar no es una opción. La ley, tal y como vendrá del ámbito europeo, se aplicará en Rumanía o tendrá que aplicarse. Lo difícil que será, repito, depende de la capacidad que tenga el Estado rumano para atraer a las personas adecuadas para el papel que la ley reconoce a estas autoridades (…)», dijo Dragos Tudorache.
Una carta abierta de Active Watch, apoyada por otras nueve organizaciones de derechos humanos, señalaba que el texto contiene ambigüedades y términos o expresiones que muestran una comprensión superficial del fenómeno. Esta opinión también fue compartida por el Consejo Legislativo y el regulador audiovisual CAN.
«No hay excepciones para proteger formas de libertad de expresión, como el uso de contenidos falsos profundos con fines panfletarios o artísticos o en producciones comerciales (anuncios) o en la industria cinematográfica, como ya ocurre en la práctica y como prevé la próxima legislación europea», denuncia Active Watch.