Anul trecut, la nivelul UE a fost adoptată o legislație globală fără precedent, Europa devenind astfel primul continent care impune norme privind utilizarea inteligenței artificiale – AI. Proiectul de lege a fost prezentat de Comisie în aprilie 2021 și adoptat de Parlamentul European doi ani și jumătate mai târziu. Procesul de reglementare a fost influențat de apariția ChatGPT – generatorul de texte dezvoltat de o companie californiană, care a evidențiat, dincolo de potențialul inteligenței artificiale, riscurile utilizării sale – și a fost impulsionat de avântul fenomenului deep fake – adică furtul de identitate, care se bazează pe tehnologia de manipulare video.
Forma textului de lege ar trebui să fie aprobată în luna aprilie de către Consiliul European, iar apoi statele membre au la dispoziție doi ani pentru a o pune în aplicare. Rămâne de văzut câte dintre acestea vor reuși să respecte termenul limită, deoarece unele dintre ele – de exemplu România – abia acum adoptă strategii naționale privind IA. Însă o țară europeană a luat-o înaintea tuturor – inclusiv a Bruxelles-ului – și a înființat deja o agenție care să supravegheze IA. Acesta este cazul Spaniei, care a început să ia măsuri pentru a o înființa cu mult înainte ca legislația UE să intre în vigoare în 2022. Astfel, AESIA – Agencia Espaniol de Supervision de la Inteligencia Artificial – dincolo de rolul său intern, va putea ajuta organismele de la Bruxelles să pună în aplicare mai rapid și mai eficient legislația privind inteligența artificială.
Legislația europeană definește pentru prima dată sistemele cu risc ridicat și le supune unor reguli stricte
Legislația europeană în domeniul inteligenței artificiale a fost concepută în funcție de necesitatea de a menține un echilibru între protejarea democrației și a drepturilor fundamentale ale omului și încurajarea cercetării, a inovării și a investițiilor în acest domeniu. Acesta pornește de la clasificarea sistemelor de inteligență artificială în funcție de riscuri și impune treptat reguli în funcție de aceste riscuri, până la interzicerea totală a unora dintre ele.
Cu alte cuvinte, cu cât este mai riscantă o aplicație, cu atât mai stricte sunt regulile. Astfel, sistemele de recomandare a conținutului sau filtrele de spam vor avea reguli mai ușor de respectat și vor fi considerate „cu risc limitat”. În esență, acestea vor trebui doar să le spună utilizatorilor că sunt alimentate de inteligența artificială. Alte sisteme create de inteligența artificială cu „risc ridicat ” vor fi supuse unui control mai strict. Dispozitivele medicale, de exemplu, vor trebui să furnizeze date de mai bună calitate și să ofere informații clare utilizatorilor.
Anumite utilizări ale unora dintre aceste „sisteme cu risc ridicat”, în special cele care se bazează pe recunoașterea biometrică, cum ar fi evaluările sociale care reglementează comportamentul oamenilor, recunoașterea emoțiilor la școală sau la locul de muncă și chiar unele tipuri de poliție predictivă, sunt interzise cu totul. Sistemele de recunoaștere facială ale Chinei se încadrează, de asemenea, în această categorie, care este în contradicție cu principiile democrațiilor liberale. Dar chiar și într-o democrație sunt necesare unele excepții pentru infracțiuni grave, cum ar fi răpirea sau terorismul. În aceste cazuri, va fi permisă scanarea fețelor oamenilor în public cu ajutorul sistemelor de identificare biometrică la distanță.
Pachetul de legi privind inteligența artificială prevede supravegherea aplicării acestor norme, un birou urmând să fie înființat în cadrul Comisiei Europene. Există, de asemenea, amenzi mari pentru companiile care nu se conformează, estimate la 7% din cifra de afaceri sau 35 de milioane de euro. Această legislație europeană reprezintă o mare victorie în lupta împotriva pericolelor legate de utilizarea iresponsabilă a tehnologiilor bazate pe inteligența artificială și un pas înainte uriaș în comparație cu abordarea de peste ocean. În SUA, siguranța în domeniu se bazează pe un angajament comun al marilor companii din domeniu – inclusiv Google, Meta, Amazon, Microsoft și OpenIA – de a implementa măsuri pentru a semnala conținutul generat de inteligența artificială.
România se aruncă în războiul contra deep fake cu un proiect de lege care nu-l interzice
Reglementarea acestui domeniu este cu atât mai importantă cu cât tehnologia de manipulare video a devenit din ce în ce mai sofisticată și mai accesibilă publicului. Falsificarea profundă, folosită inițial pentru a crea conținut pornografic fără consimțământ, a devenit în doar câțiva ani o armă puternică de dezinformare și de manipulare a opiniei publice. Există, așadar, o teamă justificată în întregul spectru politic european că tehnologia bazată pe inteligența artificială ar putea fi folosită în campanii de defăimare, pentru a influența campaniile electorale sau pentru a impune măsuri politice importante. Printre primele personalități care au căzut pradă unor astfel de practici s-au numărat foștii președinți americani Barack Obama și Donald Trump, iar printre victime s-au numărat regretata regină Elisabeta a II-a și Papa Francisc. Mai recent, falsul profund a lovit și periferia europeană, cu imagini falsificate ale președintelui moldovean Maia Sandu care au făcut înconjurul internetului.
Pe acest fundal de preocupări legate de combaterea deep-fake, în România – o țară care nu are în prezent o strategie națională de inteligență artificială – a apărut un proiect de lege care nu interzice astfel de imagini, ci doar impune semnalarea lor. Potrivit inițiatorilor, „publicul trebuie să fie informat cu privire la conținutul fals”. Până în prezent, proiectul legislativ nu a fost nici adoptat, nici respins.
Guvernul de la București nu are încă o strategie de inteligență artificială
Ministerul Digitalizării a prezentat recent o versiune actualizată a proiectului de strategie privind inteligența artificială pentru 2019. Pentru a arăta că își ia în serios activitatea, șeful de la Digitizare a pregătit și Hotărârea prin care strategia va fi adoptată de Guvern. Inițial, adoptarea a fost planificată pentru anul 2020, iar de atunci și până în prezent, a fost înființat un comitet pentru IA care să reunească „inițiativele din domeniu”, au avut loc consultări cu companii și entități de cercetare, a existat chiar și un grup de lucru comun al ministerului cu o universitate (Universitatea Tehnică din Cluj, oraș care a devenit principalul pol de dezvoltare IT din România) și, în fine, Ministerul Cercetării a elaborat „un cadru strategic”. După mai multe schimbări de titulari de portofolii în ultimele guverne de la București, proiectul a fost preluat anul trecut de tânărul ministru al digitalizării, Bogdan Ivan.
La lansarea strategiei la începutul acestui an, acesta a dat asigurări că documentul a inclus propuneri ale Comitetului Român pentru IA, care, la rândul său, a luat în considerare rezultatele consultărilor cu experții. Scopul strategiei, pe scurt, ar fi „protejarea drepturilor românilor în mediul online”. În același timp, ministrul român a subliniat că strategia este inspirată „din acțiunile concrete” propuse la nivelul UE, dar este „ferm ancorată în realitățile și nevoile specifice ale contextului românesc”.
Explicația pentru această ancorare în „nevoile române ști” este că strategia românească în IA a fost dezvoltată pe … Fonduri europene, obținute pentru implementarea „Cadrului strategic pentru adoptarea și utilizarea tehnologiilor inovatoare în administrația publică 2021 -2027”, finanțat prin Programul Operațional Capacitate Administrativă al UE 2014-2020.
Rezultatele „ remarcabile” ale României în ceea ce privește „realizările ” în domeniul pregătirii pentru implementarea tehnologiilor de inteligență artificială în administrație sunt consemnate în Oxford Insights Index, în care România se află pe locul 64 în lume și pe ultimul loc în Europa de Est. Regiunea se află cu mult în urma Europei de Vest în această privință, potrivit clasamentului întocmit de compania britanică care oferă consultanță guvernelor și companiilor cu privire la oportunitățile de inteligență artificială. În raport, care analizează 193 de țări, trei dintre statele membre ale UE din Europa de Vest se află în top 10, în frunte cu SUA – Franța (locul 6), Germania (locul 8) și Olanda (locul 10).
Lecția spaniolă privind modul în care un stat membru poate oferi un ajutor concret în punerea în aplicare a legislației la nivelul UE
O țară care se descurcă mult mai bine decât alți membri ai blocului comunitar este, așa cum am menționat mai sus, Spania. Chiar dacă în acest clasament se află la 17 poziții în urma ultimei clasate în top 10, pe locul 27, Spania este prima țară din UE care a înființat deja o agenție cu rol în legiferarea IA. Aceasta are deja un birou în A Coruna, centrul financiar și industrial al Galiciei. De asemenea, potrivit guvernului de la Madrid, are un buget inițial de 5 milioane de euro și un personal de 23 de persoane, urmând să mai adauge încă unul în acest an.
AESIA va fi actorul-cheie în gestionarea și conducerea ecosistemului spaniol de inteligență artificială și, până la intrarea în vigoare a legislației europene, va efectua o supraveghere voluntară a domeniului, menținând legătura cu ecosistemul european și generând în mod regulat medii de testare pentru sistemele de inteligență artificială cu risc ridicat. Astfel, AESIA a început deja să lucreze cu un sandbox dedicat companiilor spaniole. Sandbox-urile sunt medii de testare menite să arate cum poate funcționa ceva – de exemplu, o tehnologie – înainte de lansare. Dar ele sunt utile și pentru legislație. Și exact acest lucru va face AESIA, pentru a furniza concluziile exercițiilor practice care vor facilita eventualele modificări ale legislației înainte de punerea în aplicare.