Europska unija nedavno je poduzela značajne korake usvajanjem zakonodavstva o umjetnoj inteligenciji, prepoznajući je kao jedan od najdubljih izazova našeg vremena. Umjetna inteligencija ima potencijal revolucionirati naš način života, nudeći beneficije bez presedana koje mogu značajno poboljšati ljudske aktivnosti u raznim područjima, kako u našim profesionalnim tako iu privatnim životima. Automatizacija zadataka, unaprjeđenje zdravstvene skrbi i optimizacija industrija samo su neki od primjera kako umjetna inteligencija može dati pozitivan doprinos društvu. Međutim, rizici povezani s ovom tehnologijom jednako su golemi, a potencijal za njezinu zlouporabu ne može se podcijeniti. Snaga umjetne inteligencije, posebice njezina sposobnost repliciranja lica i glasova s alarmantnom točnošću, stvara okruženje u kojem granice između stvarnosti i izmišljotine postaju opasno zamagljene. Stvaranje lažnih videozapisa i sofisticiranih kampanja dezinformiranja mogu se koristiti kao moćni alati onih sa zlonamjernim namjerama, što dovodi do široke zbunjenosti, nepovjerenja i erozije demokratskih vrijednosti. Ovo nije samo hipotetski scenarij; već smo vidjeli primjere u kojima su se takve tehnologije koristile za potkopavanje povjerenja javnosti u institucije, manipuliranje izborima i poticanje društvenih nemira. Prijetnja nadilazi pojedinačnu štetu, budući da ove alate mogu koristiti autoritarni režimi za stvaranje sofisticirane propagande, destabilizirajući cijele regije i dovodeći u pitanje same temelje zapadnog demokratskog poretka. U ovom sve složenijem i opipljivijem kontekstu, umjetna inteligencija bi mogla postati oružjem onih koji žele diskreditirati zapadne politike i vrijednosti. Sposobnost brzog širenja lažnih priča mogla bi pogoršati postojeće napetosti i otežati društvima razlikovanje istine od fikcije. Štoviše, sveprisutni utjecaj umjetne inteligencije u svakodnevnom životu izaziva ozbiljnu etičku zabrinutost u pogledu očuvanja ljudskog dostojanstva i zaštite temeljnih prava. Kako se sustavi umjetne inteligencije sve više integriraju u naše društveno i političko tkivo, postoji stvarni rizik da bi intrinzična vrijednost ljudskih bića – naša individualnost, kreativnost i sposobnost empatije – mogla biti zasjenjena pretjeranim oslanjanjem na tehnologiju. Ovo pretjerano oslanjanje na umjetnu inteligenciju moglo bi dovesti do duboke dehumanizacije društva, gdje su ljudi svedeni na puke podatkovne točke u golemom, bezličnom sustavu. Bogatstvo ljudskog iskustva, obilježeno raznolikošću i osobnim identitetom, riskira da bude zamijenjeno homogeniziranim, robotiziranim svijetom u kojem se individualnost žrtvuje u korist učinkovitosti i kontrole. Takav scenarij ne bi samo umanjio društvenu i političku prirodu ljudskih bića, već bi također mogao dovesti do društva u kojem je koncept osobnosti iz temelja izmijenjen, uklanjajući same elemente koji nas čine jedinstvenim ljudima. Zakonodavstvo Europske unije o umjetnoj inteligenciji stoga predstavlja ključni napor da se uravnoteže potencijalne prednosti ove tehnologije s potrebom zaštite od njezinih brojnih opasnosti. To je priznanje da, iako AI može potaknuti napredak, mora biti pažljivo reguliran kako bi se osiguralo da služi, a ne potkopava, čovječanstvo. Izazov je sada učinkovito provesti te propise, stvarajući okvir koji potiče inovacije uz zaštitu temeljnih vrijednosti koje definiraju naša društva. Nije slučajno da su mnogi šefovi država i vlada odmah krenuli, ne prema potpunom odbacivanju umjetne inteligencije, već prema njezinoj potpunoj regulaciji, koja bi oko stalnog razvoja tehnologije izgradila okvir, ograđivanje prava i dužnosti koje bi ograničile rad digitalnih sustava kako bi se poštovalo neosporno ograničenje dostojanstva osobe. Na posljednjem G7, održanom u južnoj Italiji, u Pugliji, od 13. do 15. lipnja, jedna od najvrućih tema summita, na snažan poticaj predsjednice Giorgie Meloni, bila je upravo umjetna inteligencija. Papa Franjo također je govorio o ovoj temi: bilo je to prvi put da se jedan papa pridružio radnim stolovima Velike sedmorice. „Umjetna inteligencija“, rekao je Sveti Otac, „fascinantan je i golem alat“, naglašavajući dvije strane iste medalje koje umjetna inteligencija otkriva, ovisno o tome kako se koristi. Na kraju sastanka postignut je povijesni rezultat: cilj Velike sedmorke doista je “produbiti našu suradnju kako bismo iskoristili prednosti i, kako čitamo u završnom priopćenju summita, upravljali rizicima umjetna inteligencija”. Pokrenut ćemo akcijski plan o korištenju umjetne inteligencije u svijetu rada i razviti oznaku za podršku provedbi Međunarodnog kodeksa ponašanja za organizacije koje razvijaju napredne sustave umjetne inteligencije’. Europsko zakonodavstvo o umjetnoj inteligenciji točno slijedi smjer dogovoren na summitu G7: iskoristiti prednosti u područjima gdje se može koristiti, ali izbjeći rizike i vjerojatnu degeneraciju razvojem kodeksa ponašanja koji ograničava utjecaj tehnologije unutar okvira ljudskih prava i poštivanja dostojanstva svakog građanina. Novi zakon stupio je na snagu 1. kolovoza 2024.: tehnički se zove Europski zakon o umjetnoj inteligenciji (ili Zakon o umjetnoj inteligenciji). Zakon je predložila Europska komisija u travnju 2021., a odobrili su ga Europski parlament i Europsko vijeće u prosincu 2023. Njime će se svim državama članicama osigurati jedinstveni plan koji će slijediti, temeljen na diferencijaciji različitih vrsta rizika prema njihovoj stupanj opasnosti. Najmanji rizik je onaj koji ne podrazumijeva nikakvu obvezu prema zakonodavstvu: to uključuje, na primjer, filtere neželjene pošte i videoigre, iako u tim slučajevima pojedine tvrtke mogu dobrovoljno usvojiti dodatne kodekse ponašanja. Slijedi rizik vezan uz transparentnost: u prisustvu takvog rizika, chaboots će morati obavijestiti korisnike da su u interakciji sa strojem, a sadržaj koji je stvorila umjetna inteligencija morat će sadržavati naznake da nije ljudski. S druge strane, visokorizičan je medicinski softver temeljen na umjetnoj inteligenciji, koji će biti podvrgnut vrlo strogim i rigoroznim procedurama, uključujući informacije o korisnicima i ljudski nadzor. Sustavi visokog rizika uključuju tehnologije koje se koriste u: kritičnim infrastrukturama kao što je transport; obrazovanje i osposobljavanje, koji utječu na razvoj i obrazovanje pojedinca; rad, zapošljavanje i upravljanje radnicima; osnovne javne i privatne usluge, kao što je dobivanje kredita; sigurnost proizvoda; provedba zakona koji mogu utjecati na temeljna prava ljudi; upravljanje sigurnosnom i useljeničkom politikom; provođenje pravde i demokratski procesi. Digitalnim operaterima su postavljene vrlo stroge obveze prije nego se sustavi mogu staviti na tržište, kao što su sustavi za smanjenje rizika, bilježenje aktivnosti kako bi se osigurala sljedivost rezultata, detaljna dokumentacija sa svim potrebnim informacijama o sustavu i njegovoj namjeni, jasne i odgovarajuće informacije za distributera i odgovarajuće mjere ljudske kontrole za smanjenje rizika. Konačno, neprihvatljivi rizik odnosi se na sustave umjetne inteligencije koji omogućuju ‘društveno bodovanje’ od strane vlada i kompanija, što je štetno za temeljna prava ljudi. Ako prva klasa rizika nije regulirana, druga je već posebno utjecajna u smislu širenja lažnih vijesti: stvaranje sadržaja umjetne inteligencije bez potrebnog označavanja može stvoriti dezinformacije velikih razmjera. Za posljednje dvije razine rizika, gdje podaci koji se traže od pacijenata postaju osobniji i osjetljiviji: tu se objašnjava snažna obvezujuća priroda propisa. EU”, stoji na web stranici Europske komisije, “nastoji biti svjetski lider u sigurnoj umjetnoj inteligenciji. Razvijanjem snažnog pravnog okvira temeljenog na ljudskim pravima i temeljnim vrijednostima, EU može razviti ekosustav umjetne inteligencije od kojeg će svi imati koristi. To znači bolju zdravstvenu skrb, sigurniji i čišći prijevoz te poboljšane javne usluge za građane. Donijet će inovativne proizvode i usluge, posebno u područjima energije, sigurnosti i zdravstvene zaštite, kao i veću produktivnost i učinkovitiju proizvodnju za poduzeća, dok vlade mogu imati koristi od jeftinijih i održivijih usluga kao što su prijevoz, energija i upravljanje otpadom’ . Paralelno, Europska komisija pokrenula je i formiranje Kodeksa ponašanja za pružatelje usluga umjetne inteligencije (GPAI), koji će nametnuti dodatne obveze onima koji koriste umjetnu inteligenciju. Kodeks GPAI, koji će biti uključen u zakonodavstvo Europskog zakona o umjetnoj inteligenciji, bavit će se područjima kao što su transparentnost, autorska prava i upravljanje rizikom. Bit će finaliziran i stupit će na snagu sljedeće godine.