fbpx

Noua lege privind IA intră în vigoare

AI prieten sau dușman? - august 12, 2024

Uniunea Europeană a făcut recent pași importanți prin adoptarea legislației privind inteligența artificială, recunoscând-o ca fiind una dintre cele mai profunde provocări ale timpului nostru.
Inteligența artificială are potențialul de a revoluționa modul nostru de viață, oferind beneficii fără precedent care pot îmbunătăți semnificativ activitățile umane în diverse domenii, atât în viața profesională, cât și în cea privată.
Automatizarea sarcinilor, progresul asistenței medicale și optimizarea industriilor sunt doar câteva exemple ale modului în care inteligența artificială poate avea o contribuție pozitivă la societate.
Cu toate acestea, riscurile asociate cu această tehnologie sunt la fel de imense, iar potențialul de utilizare abuzivă a acesteia nu poate fi subestimat.
Puterea AI, în special capacitatea sa de a reproduce fețe și voci cu o precizie alarmantă, creează un mediu în care granițele dintre realitate și invenție devin periculos de neclare.
Crearea de videoclipuri deepfake și campanii sofisticate de dezinformare pot fi utilizate ca instrumente puternice de către cei cu intenții răuvoitoare, ducând la confuzie generalizată, neîncredere și erodarea valorilor democratice.
Acesta nu este doar un scenariu ipotetic; am văzut deja cazuri în care astfel de tehnologii au fost utilizate pentru a submina încrederea publică în instituții, pentru a manipula alegerile și pentru a incita la tulburări sociale.
Amenințarea merge dincolo de prejudiciile individuale, deoarece aceste instrumente pot fi utilizate de regimurile autoritare pentru a crea o propagandă sofisticată, destabilizând regiuni întregi și punând la îndoială înseși fundamentele ordinii democratice occidentale.
În acest context din ce în ce mai complex și tangibil, inteligența artificială ar putea fi folosită ca armă de către cei care doresc să discrediteze politicile și valorile occidentale.
Capacitatea de a disemina rapid relatări false ar putea exacerba tensiunile existente și ar face mai dificilă distingerea adevărului de ficțiune pentru societăți.
În plus, influența omniprezentă a IA în viața de zi cu zi ridică probleme etice serioase cu privire la păstrarea demnității umane și la protecția drepturilor fundamentale.
Pe măsură ce sistemele de inteligență artificială devin din ce în ce mai integrate în țesutul nostru social și politic, există un risc real ca valoarea intrinsecă a ființelor umane – individualitatea, creativitatea și capacitatea de empatie – să fie umbrită de o încredere excesivă în tehnologie.
Această încredere excesivă în inteligența artificială ar putea duce la o dezumanizare profundă a societății, în care oamenii sunt reduși la simple puncte de date într-un sistem vast și impersonal.
Bogăția experienței umane, caracterizată prin diversitate și identitate personală, riscă să fie înlocuită de o lume omogenizată, robotizată, în care individualitatea este sacrificată în favoarea eficienței și a controlului.
Un astfel de scenariu nu numai că ar diminua natura socială și politică a ființelor umane, dar ar putea conduce, de asemenea, la o societate în care conceptul de persoană este fundamental alterat, eliminând elementele care ne fac să fim unicat umani.
Legislația Uniunii Europene privind inteligența artificială reprezintă, prin urmare, un efort crucial de a echilibra beneficiile potențiale ale acestei tehnologii cu necesitatea de a ne proteja împotriva numeroaselor sale pericole.
Este o recunoaștere a faptului că, deși inteligența artificială poate stimula progresul, aceasta trebuie reglementată cu atenție pentru a se asigura că servește umanității și nu o subminează.
Provocarea este acum de a pune în aplicare aceste reglementări în mod eficient, creând un cadru care să încurajeze inovarea, protejând în același timp valorile fundamentale care definesc societățile noastre. Nu este o coincidență faptul că mulți șefi de stat și de guvern au trecut imediat, nu la o respingere totală a inteligenței artificiale, ci la reglementarea sa totală, care ar construi în jurul dezvoltării constante a tehnologiei un cadru, o incintă de drepturi și obligații care ar limita funcționarea sistemelor digitale pentru a respecta constrângerea incontestabilă a demnității persoanei.
La ultimul G7, care a avut loc în sudul Italiei, în Puglia, între 13 și 15 iunie, unul dintre cele mai fierbinți subiecte ale summitului, la instigarea puternică a președintelui în exercițiu, Giorgia Meloni, a fost tocmai cel al inteligenței artificiale.
Papa Francisc a vorbit și el pe această temă: a fost pentru prima dată când un pontif s-a alăturat meselor de lucru ale celor Șapte Mari.
„Inteligența artificială”, a spus Sfântul Părinte, „este un instrument fascinant și enorm”, subliniind cele două fețe ale aceleiași monede pe care inteligența artificială o dezvăluie, în funcție de modul în care este utilizată.
La finalul reuniunii, s-a ajuns la un rezultat istoric: obiectivul celor Șapte Mari este, într-adevăr, „aprofundarea cooperării noastre pentru a exploata beneficiile și, așa cum am citit în comunicatul final al summitului, pentru a gestiona riscurile inteligenței artificiale”.
Vom lansa un plan de acțiune privind utilizarea inteligenței artificiale în lumea muncii și vom elabora o etichetă pentru a sprijini punerea în aplicare a Codului internațional de conduită pentru organizațiile care dezvoltă sisteme avansate de inteligență artificială”.
Legislația europeană privind inteligența artificială urmează întocmai direcția convenită la summitul G7: obținerea de beneficii în domeniile în care aceasta poate fi utilizată, dar evitarea riscurilor și a degenerării probabile prin elaborarea unui cod de conduită care să limiteze impactul tehnologiei în cadrul drepturilor omului și al respectului pentru demnitatea fiecărui cetățean.
Noua legislație a intrat în vigoare la 1 august 2024: din punct de vedere tehnic, aceasta se numește Legea europeană privind inteligența artificială (sau Legea IA).
Legea a fost propusă de Comisia Europeană în aprilie 2021 și aprobată de Parlamentul European și de Consiliul European în decembrie 2023.
Ea va oferi tuturor statelor membre un plan unic de urmat, bazat pe diferențierea diferitelor tipuri de risc în funcție de nivelul lor de pericol.
Riscul cel mai scăzut este cel care nu implică nicio obligație în temeiul legislației: acesta include, de exemplu, filtrele de spam și jocurile video, deși în aceste cazuri întreprinderile individuale pot adopta voluntar coduri de conduită suplimentare.
Urmează un risc legat de transparență: în prezența unui astfel de risc, chaboții vor trebui să informeze utilizatorii că interacționează cu o mașină, iar conținutul creat de inteligența artificială va trebui să conțină indicații că nu este uman.
Pe de altă parte, cele cu risc ridicat sunt programele medicale bazate pe inteligență artificială, care vor fi supuse unor proceduri foarte stricte și riguroase, inclusiv informarea utilizatorilor și supravegherea umană.
Sistemele cu risc ridicat includ tehnologii utilizate în: infrastructuri critice, cum ar fi transportul; educație și formare, care afectează dezvoltarea și educația persoanelor; muncă, ocuparea forței de muncă și gestionarea lucrătorilor; servicii publice și private esențiale, cum ar fi obținerea de credite; siguranța produselor; aplicarea legilor care pot afecta drepturile fundamentale ale persoanelor; gestionarea politicilor de securitate și imigrație; administrarea justiției și procesele democratice. Operatorilor digitali li se impun obligații foarte stricte înainte ca sistemele să poată fi introduse pe piață, cum ar fi sisteme de reducere a riscurilor, înregistrarea activităților pentru a asigura trasabilitatea rezultatelor, documentație detaliată care să furnizeze toate informațiile necesare despre sistem și scopul acestuia, informații clare și adecvate pentru distribuitor și măsuri adecvate de control uman pentru a minimiza riscurile.
În cele din urmă, riscul inacceptabil se referă la sistemele de inteligență artificială care permit „punctarea socială” de către guverne și companii, ceea ce este în detrimentul drepturilor fundamentale ale oamenilor.
Dacă prima clasă de riscuri nu este reglementată, a doua este deja deosebit de influentă în ceea ce privește răspândirea știrilor false: crearea de conținut de inteligență artificială fără etichetarea necesară poate crea dezinformare pe scară largă.
La ultimele două niveluri de risc, în care datele solicitate de la pacienți devin mai personale și mai sensibile: aici se explică caracterul puternic obligatoriu al regulamentului.
UE”, se arată pe site-ul Comisiei Europene, „își propune să fie un lider mondial în domeniul inteligenței artificiale sigure.
Prin dezvoltarea unui cadru juridic solid, bazat pe drepturile omului și pe valorile fundamentale, UE poate dezvolta un ecosistem al inteligenței artificiale care să aducă beneficii tuturor.
Aceasta înseamnă asistență medicală mai bună, transporturi mai sigure și mai curate și servicii publice îmbunătățite pentru cetățeni.
Acesta va aduce produse și servicii inovatoare, în special în domeniile energiei, securității și asistenței medicale, precum și o productivitate mai mare și o producție mai eficientă pentru întreprinderi, în timp ce guvernele pot beneficia de servicii mai ieftine și mai durabile, cum ar fi transportul, energia și gestionarea deșeurilor”.
În paralel, Comisia Europeană a inițiat, de asemenea, formarea unui Cod de conduită pentru furnizorii de inteligență artificială (GPAI), care va impune obligații suplimentare celor care utilizează inteligența artificială.
Codul GPAI, care va fi inclus în legislația privind Actul european privind IA, va aborda domenii precum transparența, drepturile de autor și gestionarea riscurilor.
Acesta va fi finalizat și va intra în vigoare anul viitor.