La Unión Europea ha dado recientemente pasos significativos al adoptar legislación sobre inteligencia artificial, reconociéndola como uno de los retos más profundos de nuestro tiempo.
La Inteligencia Artificial tiene el potencial de revolucionar nuestro modo de vida, ofreciendo beneficios sin precedentes que pueden mejorar significativamente las actividades humanas en diversos campos, tanto en nuestra vida profesional como privada.
La automatización de tareas, el avance de la asistencia sanitaria y la optimización de las industrias son sólo algunos ejemplos de cómo la IA puede contribuir positivamente a la sociedad.
Sin embargo, los riesgos asociados a esta tecnología son igualmente inmensos, y no puede subestimarse el potencial de su uso indebido.
El poder de la IA, sobre todo su capacidad para reproducir rostros y voces con una precisión alarmante, crea un entorno en el que las líneas entre realidad e invención se difuminan peligrosamente.
La creación de vídeos deepfake y las sofisticadas campañas de desinformación pueden ser utilizadas como poderosas herramientas por quienes tienen intenciones maliciosas, provocando una confusión generalizada, desconfianza y la erosión de los valores democráticos.
No se trata sólo de un escenario hipotético; ya hemos visto casos en los que se han utilizado estas tecnologías para socavar la confianza pública en las instituciones, manipular las elecciones e incitar al malestar social.
La amenaza va más allá del daño individual, ya que estas herramientas pueden ser utilizadas por regímenes autoritarios para crear propaganda sofisticada, desestabilizando regiones enteras y desafiando los fundamentos mismos del orden democrático occidental.
En este contexto cada vez más complejo y tangible, la inteligencia artificial podría ser utilizada como arma por quienes pretenden desacreditar las políticas y los valores occidentales.
La capacidad de difundir rápidamente narrativas falsas podría exacerbar las tensiones existentes y dificultar que las sociedades distingan la verdad de la ficción.
Además, la omnipresente influencia de la IA en la vida cotidiana plantea serias preocupaciones éticas sobre la preservación de la dignidad humana y la protección de los derechos fundamentales.
A medida que los sistemas de IA se integran más en nuestro tejido social y político, existe un riesgo real de que el valor intrínseco de los seres humanos -nuestra individualidad, creatividad y capacidad de empatía- quede eclipsado por una dependencia excesiva de la tecnología.
Este exceso de confianza en la inteligencia artificial podría conducir a una profunda deshumanización de la sociedad, en la que las personas quedarían reducidas a meros puntos de datos en un sistema vasto e impersonal.
La riqueza de la experiencia humana, caracterizada por la diversidad y la identidad personal, corre el riesgo de ser sustituida por un mundo homogeneizado y robotizado en el que se sacrifique la individualidad en favor de la eficacia y el control.
Un escenario así no sólo disminuiría la naturaleza social y política de los seres humanos, sino que también podría conducir a una sociedad en la que el concepto de persona se viera fundamentalmente alterado, despojándonos de los mismos elementos que nos hacen singularmente humanos.
La legislación de la Unión Europea sobre inteligencia artificial representa, por tanto, un esfuerzo crucial para equilibrar los beneficios potenciales de esta tecnología con la necesidad de protegerse de sus numerosos peligros.
Es un reconocimiento de que, aunque la IA puede impulsar el progreso, debe regularse cuidadosamente para garantizar que sirva a la humanidad, en lugar de socavarla.
El reto ahora consiste en aplicar estas normativas de forma eficaz, creando un marco que fomente la innovación y proteja al mismo tiempo los valores fundamentales que definen nuestras sociedades. No es casualidad que muchos Jefes de Estado y de Gobierno se hayan orientado inmediatamente, no hacia un rechazo total de la inteligencia artificial, sino hacia su regulación total, que construiría en torno al desarrollo constante de la tecnología un marco, un recinto de derechos y deberes que limitaría el funcionamiento de los sistemas digitales para respetar la innegable coacción de la dignidad de la persona.
En el último G7, celebrado en el sur de Italia, en Apulia, del 13 al 15 de junio, uno de los temas más candentes de la cumbre, a instancias de la presidenta de turno, Giorgia Meloni, fue precisamente el de la inteligencia artificial.
El Papa Francisco también habló sobre el tema: era la primera vez que un pontífice se unía a las mesas de trabajo de los Siete Grandes.
«La inteligencia artificial», dijo el Santo Padre, «es una herramienta fascinante y enorme», subrayando las dos caras de la misma moneda que revela la inteligencia artificial, según cómo se utilice.
Al término de la reunión, se alcanzó un resultado histórico: el objetivo de los Siete Grandes es, en efecto, «profundizar nuestra cooperación para aprovechar los beneficios y, como se lee en el comunicado final de la cumbre, gestionar los riesgos de la inteligencia artificial».
Lanzaremos un plan de acción sobre el uso de la inteligencia artificial en el mundo laboral y desarrollaremos una etiqueta para apoyar la aplicación del Código Internacional de Conducta para las organizaciones que desarrollan sistemas avanzados de inteligencia artificial».
La legislación europea sobre inteligencia artificial sigue precisamente la dirección acordada en la cumbre del G7: aprovechar los beneficios en los ámbitos en que puede utilizarse, pero evitar los riesgos y la probable degeneración desarrollando un código de conducta que limite el impacto de la tecnología en el marco de los derechos humanos y el respeto a la dignidad de cada ciudadano.
La nueva legislación entró en vigor el 1 de agosto de 2024: técnicamente se denomina Ley Europea de Inteligencia Artificial (o Ley de IA).
La ley fue propuesta por la Comisión Europea en abril de 2021 y aprobada por el Parlamento Europeo y el Consejo Europeo en diciembre de 2023.
Proporcionará a todos los Estados miembros un plan único a seguir, basado en la diferenciación de distintos tipos de riesgo según su nivel de peligrosidad.
El riesgo más bajo es el que no conlleva ninguna obligación en virtud de la legislación: esto incluye, por ejemplo, los filtros de spam y los videojuegos, aunque en estos casos las empresas individuales pueden adoptar voluntariamente códigos de conducta adicionales.
A continuación viene el riesgo relacionado con la transparencia: en presencia de tal riesgo, los chabots tendrán que informar a los usuarios de que están interactuando con una máquina, y el contenido creado por la inteligencia artificial tendrá que contener indicaciones de que no es humano.
Los de alto riesgo, en cambio, son los programas informáticos médicos basados en inteligencia artificial, que estarán sujetos a procedimientos muy estrictos y rigurosos, incluida la información al usuario y la supervisión humana.
Los sistemas de alto riesgo incluyen tecnologías utilizadas en: infraestructuras críticas como el transporte; educación y formación, que afectan al desarrollo y la educación de las personas; trabajo, empleo y gestión de los trabajadores; servicios públicos y privados esenciales, como la obtención de créditos; seguridad de los productos; aplicación de leyes que pueden afectar a los derechos fundamentales de las personas; gestión de las políticas de seguridad e inmigración; administración de justicia y procesos democráticos. Se imponen obligaciones muy estrictas a los operadores digitales antes de que los sistemas puedan comercializarse, como sistemas de mitigación de riesgos, registro de las actividades para garantizar la trazabilidad de los resultados, documentación detallada que proporcione toda la información necesaria sobre el sistema y su finalidad, información clara y adecuada al distribuidor, y medidas de control humano adecuadas para minimizar el riesgo.
Por último, el riesgo inaceptable se refiere a los sistemas de inteligencia artificial que permiten la «puntuación social» por parte de gobiernos y empresas, lo que va en detrimento de los derechos fundamentales de las personas.
Si no se regula la primera clase de riesgos, la segunda ya es especialmente influyente en cuanto a la difusión de noticias falsas: la creación de contenidos de inteligencia artificial sin el etiquetado necesario puede crear desinformación a gran escala.
A los dos últimos niveles de riesgo, en los que los datos solicitados a los pacientes se vuelven más personales y sensibles: aquí es donde se explica el fuerte carácter vinculante del reglamento.
La UE», dice el sitio web de la Comisión Europea, «aspira a ser líder mundial en inteligencia artificial segura.
Al desarrollar un marco jurídico sólido basado en los derechos humanos y los valores fundamentales, la UE puede desarrollar un ecosistema de IA que beneficie a todos.
Esto significa una mejor asistencia sanitaria, un transporte más seguro y limpio y mejores servicios públicos para los ciudadanos.
Aportará productos y servicios innovadores, especialmente en los ámbitos de la energía, la seguridad y la atención sanitaria, así como una mayor productividad y una producción más eficiente para las empresas, mientras que los gobiernos podrán beneficiarse de servicios más baratos y sostenibles, como el transporte, la energía y la gestión de residuos».
Paralelamente, la Comisión Europea también ha iniciado la formación de un Código de Conducta para Proveedores de Inteligencia Artificial (GPAI), que impondrá obligaciones adicionales a quienes utilicen la inteligencia artificial.
El Código GPAI, que se incluirá en la legislación de la Ley Europea de IA, abordará ámbitos como la transparencia, los derechos de autor y la gestión de riesgos.
Se finalizará y entrará en vigor el año que viene.
Entra en vigor la nueva Ley de IA
¿Amiga o enemiga de la IA? - agosto 12, 2024