Au trecut mai mult de 60 de ani între momentul în care noțiunea de inteligență artificială a fost propusă și studiată pentru prima dată și momentul în care omenirea a ajuns la capacitățile sale actuale. În ultimul deceniu, domeniul inteligenței artificiale (AI) a avansat considerabil, dar niciodată mai rapid ca în ultimii doi ani, când o serie de factori s-au reunit într-un mod aproape ideal și au oferit omenirii programe spectaculoase precum ChatGPT.
Comisia Europeană cere platformelor online să identifice în mod clar conținutul – imagini (fotografii și videoclipuri), sunete, texte – generat de inteligența artificială (AI). Vera Jourova, vicepreședintele Comisiei Europene pentru valori și transparență, a făcut acest apel în fața semnatarilor codului de bune practici al UE împotriva dezinformării, cu care s-a întâlnit recent la Bruxelles. Este o nouă măsură în cadrul strategiei Comisiei de prevenire a răspândirii dezinformării, în special a dezinformării online, pentru a asigura protecția valorilor europene și a sistemelor democratice.
Executivul UE dorește să pună în aplicare această măsură imediat, deși cele mai mari platforme, cu peste 45 de milioane de utilizatori activi în UE, vor fi supuse obligațiilor prevăzute de noua lege privind serviciile digitale (DSA) abia din25 august. Regulamentul impune „utilizarea unui marcaj vizibil” pentru a se asigura că „conținutul audio sau video generat sau manipulat este ușor de recunoscut”.
Codul de bune practici nu este obligatoriu din punct de vedere juridic
Codul de practică împotriva dezinformării, semnat în 2022, care nu este obligatoriu din punct de vedere juridic, reunește aproximativ 40 de organizații, printre care Facebook, Google, YouTube și TikTok. Interesant este faptul că Twitter a părăsit recent grupul.
”Semnatarii care integrează inteligența artificială generativă în serviciile lor, cum ar fi Bing Chat pentru Microsoft și Bard pentru Google, ar trebui să integreze măsurile de protecție necesare pentru ca aceste servicii să nu poată fi utilizate de actori rău intenționați care generează dezinformări”, a declarat Vera Jourova.
Pe de altă parte, semnatarii care dispun de servicii susceptibile să difuzeze dezinformare generată de inteligența artificială ar trebui să pună în aplicare o tehnologie care să recunoască acest conținut și să îl indice în mod clar utilizatorilor, a adăugat oficialul UE.
Regulamentul privind IA interzice manipularea „deliberată”
Uniunea Europeană negociază în prezent o legislație specifică privind inteligența artificială care ar stipula obligații de transparență pentru generatorii de conținut editorial ChatGPT. După luni de discuții intense, la sfârșitul lunii aprilie, deputații europeni au ajuns la un acord politic provizoriu privind primul regulament din lume privind inteligența artificială. Legea privind inteligența artificială (AI) este o propunere legislativă care vizează reglementarea inteligenței artificiale pe baza potențialului său de a provoca prejudicii și de a influența intențiile de vot ale utilizatorilor de social media. Textul, care va suferi probabil modificări, este așteptat să fie supus la vot în Parlamentul European. Printre principiile sale se numără: mandatul și supravegherea umană, robustețea și securitatea tehnică, confidențialitatea și guvernanța datelor, transparența, bunăstarea socială și de mediu, diversitatea, nediscriminarea și echitatea.
Unul dintre cele mai controversate subiecte de discuție din cadrul negocierilor a fost cel al sistemelor de inteligență artificială care nu au un scop specific. Rezultatul – unul provizoriu – a fost impunerea unor obligații mai stricte pentru o subcategorie de inteligență artificială de uz general, care include modele precum GhatGPT. De asemenea, a stabilit că modelele generative de inteligență artificială ar trebui să fie concepute și dezvoltate în conformitate cu legislația UE și cu drepturile fundamentale, inclusiv cu libertatea de exprimare.
Un alt subiect sensibil din punct de vedere politic a fost tipul de aplicații de inteligență artificială care ar trebui să fie interzise, deoarece sunt considerate un risc inacceptabil. Acest lucru a dus la o propunere de interzicere a instrumentelor de inteligență artificială pentru monitorizarea generală a comunicării interpersonale, dar această propunere a fost abandonată. Pe de altă parte, a fost prelungită interdicția privind software-ul de identificare biometrică. Inițial, această interdicție se aplica doar în timp real, acest software de recunoaștere putând fi utilizat doar ex-post pentru infracțiuni grave și cu aprobare prealabilă.
Regulamentul privind IA interzice, de asemenea, manipularea „intenționată”. Cuvântul „intenționat” a făcut obiectul unei dezbateri, deoarece oponenții acestei formulări au susținut că intenționalitatea ar putea fi dificil de dovedit, dar, în cele din urmă, a fost confirmat. În același timp, s-a ajuns la formula în care este interzisă utilizarea de software de inteligență artificială pentru recunoașterea emoțiilor în domeniile aplicării legii, gestionării frontierelor, angajării și educației.
Interdicția deputaților europeni privind poliția predictivă a fost extinsă de la infracțiuni penale la infracțiuni administrative, pe baza scandalului olandez privind alocațiile pentru copii, care a dus la mii de familii urmărite în mod greșit pentru fraudă din cauza unui algoritm greșit folosit de inteligența artificială.
Nu în ultimul rând, modelele de IA cu risc ridicat au fost clasificate într-o anexă. Altfel spus, un model cu risc ridicat va fi considerat unul care prezintă un risc semnificativ pentru sănătate, siguranță sau drepturi fundamentale. De asemenea, inteligența artificială utilizată pentru a gestiona infrastructuri critice, cum ar fi rețelele energetice sau sistemele de gestionare a apei, va fi clasificată ca fiind de risc ridicat dacă implică un risc grav pentru mediu.
Deputații europeni au inclus, de asemenea, măsuri suplimentare pentru procesul prin care furnizorii de modele de inteligență artificială cu risc ridicat pot procesa date sensibile, cum ar fi orientarea sexuală sau convingerile religioase, pentru a detecta predispozițiile negative. În special, pentru a permite prelucrarea acestui tip special de date, prejudecățile nu trebuie să poată fi detectate prin prelucrarea datelor sintetice, anonime, pseudonime sau criptate. În plus, evaluarea trebuie să aibă loc într-un mediu controlat. Datele sensibile nu pot fi transmise altor părți și trebuie șterse după evaluarea prejudecăților. De asemenea, furnizorii trebuie să documenteze motivele pentru care a avut loc prelucrarea datelor. Inteligența artificială (AI) este considerată o „tehnologie care definește viitorul”.
Ce este mai exact AI și cum ne afectează deja viața? Definiția inteligenței artificiale
Inteligența artificială este considerată esențială pentru transformarea digitală a societății și a devenit o prioritate pentru Uniunea Europeană, după cum reiese din documentele sale oficiale. Se așteaptă ca aplicațiile viitoare să aducă schimbări enorme în societate, dar inteligența artificială este deja prezentă în viața noastră de zi cu zi. Inteligența artificială este capacitatea unei mașini de a imita funcțiile umane, cum ar fi raționamentul, învățarea, planificarea și creativitatea. IA permite sistemelor tehnice să perceapă mediul în care operează, să proceseze această percepție și să rezolve probleme, acționând pentru a atinge un anumit obiectiv. Calculatorul primește date (fie deja pregătite, fie colectate prin intermediul propriilor senzori, cum ar fi o cameră foto), le procesează și apoi reacționează.
Sistemele de inteligență artificială sunt capabile să își adapteze comportamentul într-o anumită măsură, analizând efectele acțiunilor anterioare și funcționând în mod autonom. Unele tehnologii de inteligență artificială există de mai bine de 50 de ani, dar creșterea puterii de calcul, disponibilitatea unor cantități uriașe de date și noi algoritmi au dus la progrese majore în domeniul inteligenței artificiale în ultimii ani.
Cum este folosită tehnologia deep fake sau de propagandă?
Presa de astăzi este lovită de marile probleme create de inteligența artificială, care „face ravagii în lumea media”. Un studiu al organizației Reporteri fără frontiere (RSF) a analizat situația jurnalismului în 180 de țări, luând în considerare schimbările politice, sociale și tehnologice.
Constatările sunt îngrijorătoare. Dezvoltarea remarcabilă a inteligenței artificiale creează și mai multe probleme pentru mass-media. În raport se spune că industria dezinformării difuzează conținuturi manipulatoare pe scară largă, așa cum a arătat o investigație a consorțiului Forbidden Stories, și că inteligența artificială nu ține cont de cerințele jurnalismului de calitate.
Un program de inteligență artificială (a cincea versiune a Midjourney) care generează imagini de foarte înaltă definiție ca răspuns la indicații verbale a alimentat rețelele de socializare cu „fotografii” false din ce în ce mai plauzibile și nedetectabile. Multe dintre aceste postări devin virale. Jurnalismul de interes public s-a confruntat cu o mare concurență din partea narațiunilor înșelătoare și a știrilor false promovate de anumite instituții media și politicieni, precum și a programelor de inteligență artificială, în special în contextul pandemiei Covid-19 și, mai recent, al războiului din Ucraina. Din păcate, există destui oameni care tind să aibă încredere în informații false, care uneori converg cu propaganda rusă și alimentează neîncrederea în mass-media.