Europeiska unionen har nyligen tagit viktiga steg genom att anta lagstiftning om artificiell intelligens och erkänna att det är en av vår tids största utmaningar.
Artificiell intelligens har potential att revolutionera vårt sätt att leva och erbjuder oöverträffade fördelar som avsevärt kan förbättra mänskliga aktiviteter inom olika områden, både i yrkeslivet och privatlivet.
Automatisering av arbetsuppgifter, förbättrad sjukvård och optimering av industrier är bara några exempel på hur AI kan bidra positivt till samhället.
Riskerna med denna teknik är dock lika enorma, och potentialen för missbruk får inte underskattas.
AI:s kraft, särskilt dess förmåga att återskapa ansikten och röster med alarmerande exakthet, skapar en miljö där gränserna mellan verklighet och påhitt blir farligt suddiga.
Skapandet av deepfake-videor och sofistikerade desinformationskampanjer kan användas som kraftfulla verktyg av personer med onda avsikter, vilket leder till utbredd förvirring, misstro och urholkning av demokratiska värden.
Detta är inte bara ett hypotetiskt scenario; vi har redan sett exempel på hur sådan teknik har använts för att undergräva allmänhetens förtroende för institutioner, manipulera val och skapa social oro.
Hotet går utöver individuella skador, eftersom dessa verktyg kan användas av auktoritära regimer för att skapa sofistikerad propaganda, destabilisera hela regioner och utmana själva grundvalarna för den västerländska demokratiska ordningen.
I detta alltmer komplexa och påtagliga sammanhang kan artificiell intelligens användas som vapen av dem som försöker misskreditera västvärldens politik och värderingar.
Förmågan att snabbt sprida falska berättelser kan förvärra befintliga spänningar och göra det svårare för samhällen att skilja sanning från fiktion.
AI:s genomgripande inflytande i vardagslivet väcker dessutom allvarliga etiska frågor om bevarandet av mänsklig värdighet och skyddet av grundläggande rättigheter.
I takt med att AI-systemen blir alltmer integrerade i vår sociala och politiska struktur finns det en verklig risk för att människans inneboende värde – vår individualitet, kreativitet och förmåga till empati – kan överskuggas av en övertro på tekniken.
Denna övertro på artificiell intelligens skulle kunna leda till en djupgående avhumanisering av samhället, där människor reduceras till enbart datapunkter i ett stort, opersonligt system.
Den mänskliga erfarenhetens rikedom, som kännetecknas av mångfald och personlig identitet, riskerar att ersättas av en homogeniserad, robotiserad värld där individualiteten offras till förmån för effektivitet och kontroll.
Ett sådant scenario skulle inte bara förminska människans sociala och politiska natur, utan också leda till ett samhälle där begreppet personlighet förändras i grunden och där de element som gör oss till unika människor försvinner.
EU:s lagstiftning om artificiell intelligens utgör därför en viktig insats för att balansera de potentiella fördelarna med denna teknik med behovet av att skydda sig mot dess många faror.
Det är ett erkännande av att AI kan driva utvecklingen framåt, men att den måste regleras noggrant för att säkerställa att den tjänar mänskligheten snarare än undergräver den.
Utmaningen nu är att implementera dessa regleringar på ett effektivt sätt och skapa ett ramverk som främjar innovation samtidigt som det skyddar de kärnvärden som definierar våra samhällen. Det är ingen tillfällighet att många stats- och regeringschefer omedelbart rörde sig, inte mot ett totalt förkastande av artificiell intelligens, utan mot en total reglering av den, som skulle bygga upp ett ramverk kring den ständiga tekniska utvecklingen, ett hölje av rättigheter och skyldigheter som skulle begränsa driften av digitala system för att respektera det obestridliga kravet på människans värdighet.
Vid det senaste G7-mötet, som hölls i södra Italien, i Puglia, den 13-15 juni, var ett av de hetaste ämnena under toppmötet, på stark uppmaning av den ansvariga presidenten Giorgia Meloni, just artificiell intelligens.
Påven Franciskus talade också i ämnet: det var första gången som en påve deltog i de sju storas arbetsbord.
”Artificiell intelligens”, sade den helige fadern, ”är ett fascinerande och enormt verktyg”, och underströk de två sidor av samma mynt som artificiell intelligens visar upp, beroende på hur den används.
I slutet av mötet uppnåddes ett historiskt resultat: målet för de sju stora är verkligen ”att fördjupa vårt samarbete för att kunna utnyttja fördelarna och, som vi läser i toppmötets slutkommuniké, hantera riskerna med artificiell intelligens”.
Vi kommer att lansera en handlingsplan för användningen av artificiell intelligens i arbetslivet och utveckla en etikett för att stödja genomförandet av den internationella uppförandekoden för organisationer som utvecklar avancerade system för artificiell intelligens”.
Den europeiska lagstiftningen om artificiell intelligens följer exakt den inriktning som man enades om vid G7-toppmötet: att skörda fördelarna på områden där den kan användas, men att undvika riskerna och den sannolika degenerationen genom att utveckla en uppförandekod som begränsar teknikens inverkan inom ramen för mänskliga rättigheter och respekt för varje medborgares värdighet.
Den nya lagstiftningen trädde i kraft den 1 augusti 2024: tekniskt sett kallas den European Artificial Intelligence Act (eller AI Act).
Lagen föreslogs av EU-kommissionen i april 2021 och godkändes av Europaparlamentet och Europeiska rådet i december 2023.
Den kommer att ge alla medlemsstater en gemensam plan att följa, baserad på differentiering av olika typer av risker beroende på deras farlighetsnivå.
Den lägsta risken är den som inte medför någon skyldighet enligt lagstiftningen: detta inkluderar till exempel spamfilter och videospel, även om enskilda företag i dessa fall frivilligt kan anta ytterligare uppförandekoder.
Därefter kommer en risk som rör öppenhet: om en sådan risk föreligger måste chaboots informera användarna om att de interagerar med en maskin, och innehåll som skapats av artificiell intelligens måste innehålla indikationer på att det inte är mänskligt.
Högrisk är å andra sidan medicinsk programvara som bygger på artificiell intelligens, som kommer att omfattas av mycket strikta och rigorösa förfaranden, inklusive användarinformation och mänsklig tillsyn.
Till högriskprogrammen hör teknik som används inom följande områden: kritisk infrastruktur, t.ex. transporter; utbildning som påverkar individers utveckling och utbildning; arbete, sysselsättning och arbetsledning; viktiga offentliga och privata tjänster, t.ex. kreditgivning; produktsäkerhet; tillämpning av lagar som kan påverka människors grundläggande rättigheter; hantering av säkerhets- och invandringspolitik; rättsskipning och demokratiska processer. Mycket strikta krav ställs på digitala operatörer innan system kan släppas ut på marknaden, t.ex. riskreducerande system, loggning av aktiviteter för att säkerställa spårbarhet av resultat, detaljerad dokumentation med all nödvändig information om systemet och dess syfte, tydlig och adekvat information till distributören samt lämpliga mänskliga kontrollåtgärder för att minimera riskerna.
Slutligen avser den oacceptabla risken system med artificiell intelligens som möjliggör ”social poängsättning” av regeringar och företag, vilket är skadligt för människors grundläggande rättigheter.
Om den första riskklassen inte regleras är den andra redan särskilt inflytelserik när det gäller spridningen av falska nyheter: skapandet av innehåll med artificiell intelligens utan nödvändig märkning kan skapa desinformation i stor skala.
När det gäller de två sista risknivåerna, där de uppgifter som begärs från patienterna blir mer personliga och känsliga, är det här som förordningens starkt bindande karaktär förklaras.
EU”, står det på EU-kommissionens webbplats, ”strävar efter att bli världsledande inom säker artificiell intelligens.
Genom att utveckla en robust rättslig ram som bygger på mänskliga rättigheter och grundläggande värden kan EU utveckla ett AI-ekosystem som gynnar alla.
Detta innebär bättre hälso- och sjukvård, säkrare och renare transporter och förbättrade offentliga tjänster för medborgarna.
Det kommer att leda till innovativa produkter och tjänster, särskilt inom områdena energi, säkerhet och hälso- och sjukvård, samt högre produktivitet och effektivare produktion för företagen, medan regeringarna kan dra nytta av billigare och mer hållbara tjänster som transport, energi och avfallshantering.
Parallellt med detta har Europeiska kommissionen också inlett arbetet med att ta fram en uppförandekod för leverantörer av artificiell intelligens (GPAI), som kommer att innebära ytterligare skyldigheter för dem som använder artificiell intelligens.
GPAI-koden, som kommer att ingå i den europeiska AI Act-lagstiftningen, kommer att behandla områden som transparens, upphovsrätt och riskhantering.
Den kommer att färdigställas och träda i kraft nästa år.
Ny AI-lag träder i kraft
AI - vän eller fiende? - augusti 12, 2024