fbpx

Nowa ustawa o sztucznej inteligencji wchodzi w życie

Prawna - 12 sierpnia, 2024

Unia Europejska podjęła ostatnio znaczące kroki, przyjmując przepisy dotyczące sztucznej inteligencji, uznając ją za jedno z największych wyzwań naszych czasów.
Sztuczna inteligencja ma potencjał zrewolucjonizowania naszego stylu życia, oferując bezprecedensowe korzyści, które mogą znacznie usprawnić ludzkie działania w różnych dziedzinach, zarówno w życiu zawodowym, jak i prywatnym.
Automatyzacja zadań, rozwój opieki zdrowotnej i optymalizacja branż to tylko kilka przykładów tego, jak sztuczna inteligencja może pozytywnie wpłynąć na społeczeństwo.
Ryzyko związane z tą technologią jest jednak równie ogromne, a potencjału jej niewłaściwego wykorzystania nie można lekceważyć.
Potęga sztucznej inteligencji, w szczególności jej zdolność do replikowania twarzy i głosów z alarmującą dokładnością, tworzy środowisko, w którym granice między rzeczywistością a fabrykacją stają się niebezpiecznie zatarte.
Tworzenie fałszywych filmów i wyrafinowanych kampanii dezinformacyjnych może być wykorzystywane jako potężne narzędzie przez osoby o złych zamiarach, prowadząc do powszechnego zamieszania, nieufności i erozji wartości demokratycznych.
Nie jest to tylko hipotetyczny scenariusz; widzieliśmy już przypadki, w których takie technologie były wykorzystywane do podważania zaufania publicznego do instytucji, manipulowania wyborami i podżegania do niepokojów społecznych.
Zagrożenie wykracza poza indywidualne szkody, ponieważ narzędzia te mogą być wykorzystywane przez autorytarne reżimy do tworzenia wyrafinowanej propagandy, destabilizacji całych regionów i podważania podstaw zachodniego porządku demokratycznego.
W tym coraz bardziej złożonym i namacalnym kontekście sztuczna inteligencja może być bronią wykorzystywaną przez tych, którzy chcą zdyskredytować zachodnią politykę i wartości.
Zdolność do szybkiego rozpowszechniania fałszywych narracji może zaostrzyć istniejące napięcia i utrudnić społeczeństwom odróżnienie prawdy od fikcji.
Co więcej, wszechobecny wpływ sztucznej inteligencji w codziennym życiu budzi poważne obawy etyczne dotyczące zachowania ludzkiej godności i ochrony praw podstawowych.
W miarę jak systemy sztucznej inteligencji stają się coraz bardziej zintegrowane z naszą tkanką społeczną i polityczną, istnieje realne ryzyko, że nieodłączna wartość człowieka – nasza indywidualność, kreatywność i zdolność do empatii – może zostać przyćmiona przez nadmierne poleganie na technologii.
Nadmierne poleganie na sztucznej inteligencji może doprowadzić do głębokiej dehumanizacji społeczeństwa, w którym ludzie zostaną zredukowani do zwykłych punktów danych w rozległym, bezosobowym systemie.
Bogactwo ludzkiego doświadczenia, charakteryzujące się różnorodnością i osobistą tożsamością, może zostać zastąpione przez zhomogenizowany, zrobotyzowany świat, w którym indywidualność jest poświęcana na rzecz wydajności i kontroli.
Taki scenariusz nie tylko zmniejszyłby społeczną i polityczną naturę istot ludzkich, ale mógłby również doprowadzić do społeczeństwa, w którym koncepcja osobowości zostałaby zasadniczo zmieniona, pozbawiając nas elementów, które czynią nas wyjątkowo ludzkimi.
Prawodawstwo Unii Europejskiej dotyczące sztucznej inteligencji stanowi zatem kluczowy wysiłek na rzecz zrównoważenia potencjalnych korzyści płynących z tej technologii z potrzebą ochrony przed wieloma zagrożeniami.
Jest to dowód na to, że chociaż sztuczna inteligencja może napędzać postęp, musi być starannie regulowana, aby zapewnić, że będzie służyć ludzkości, a nie ją osłabiać.
Wyzwaniem jest teraz skuteczne wdrożenie tych przepisów, tworząc ramy, które sprzyjają innowacjom, jednocześnie chroniąc podstawowe wartości, które definiują nasze społeczeństwa. To nie przypadek, że wielu szefów państw i rządów natychmiast ruszyło nie w kierunku całkowitego odrzucenia sztucznej inteligencji, ale w kierunku jej całkowitej regulacji, która zbudowałaby wokół ciągłego rozwoju technologii ramy, obudowę praw i obowiązków, które ograniczyłyby działanie systemów cyfrowych w celu poszanowania niezaprzeczalnego ograniczenia godności osoby.
Podczas ostatniego szczytu G7, który odbył się w południowych Włoszech, w Apulii, w dniach od 13 do 15 czerwca, jednym z najgorętszych tematów szczytu, za silną namową prezydenta Giorgia Meloniego, była właśnie sztuczna inteligencja.
Papież Franciszek również zabrał głos na ten temat: po raz pierwszy papież dołączył do stołów roboczych Wielkiej Siódemki.
„Sztuczna inteligencja”, powiedział Ojciec Święty, „jest fascynującym i ogromnym narzędziem”, podkreślając dwie strony tego samego medalu, które ujawnia sztuczna inteligencja, w zależności od tego, jak jest używana.
Pod koniec spotkania osiągnięto historyczny rezultat: celem Wielkiej Siódemki jest rzeczywiście „pogłębienie naszej współpracy w celu wykorzystania korzyści i, jak czytamy w komunikacie końcowym szczytu, zarządzania ryzykiem związanym ze sztuczną inteligencją”.
Uruchomimy plan działania dotyczący wykorzystania sztucznej inteligencji w świecie pracy i opracujemy etykietę wspierającą wdrażanie międzynarodowego kodeksu postępowania dla organizacji rozwijających zaawansowane systemy sztucznej inteligencji”.
Europejskie przepisy dotyczące sztucznej inteligencji podążają dokładnie w kierunku uzgodnionym na szczycie G7: czerpać korzyści w obszarach, w których można ją wykorzystać, ale unikać zagrożeń i prawdopodobnej degeneracji poprzez opracowanie kodeksu postępowania, który ogranicza wpływ technologii w ramach praw człowieka i poszanowania godności każdego obywatela.
Nowe przepisy weszły w życie 1 sierpnia 2024 r.: technicznie nazywa się to Europejską Ustawą o Sztucznej Inteligencji (lub AI Act).
Ustawa została zaproponowana przez Komisję Europejską w kwietniu 2021 roku i zatwierdzona przez Parlament Europejski i Radę Europejską w grudniu 2023 roku.
Zapewni ona wszystkim państwom członkowskim jeden plan do naśladowania, oparty na rozróżnieniu różnych rodzajów ryzyka w zależności od ich poziomu zagrożenia.
Najniższe ryzyko to takie, które nie pociąga za sobą żadnych zobowiązań wynikających z przepisów: obejmuje to na przykład filtry antyspamowe i gry wideo, chociaż w tych przypadkach poszczególne firmy mogą dobrowolnie przyjąć dodatkowe kodeksy postępowania.
Następnie pojawia się ryzyko związane z przejrzystością: w obecności takiego ryzyka chaboots będą musiały informować użytkowników, że wchodzą w interakcję z maszyną, a treści tworzone przez sztuczną inteligencję będą musiały zawierać wskazania, że nie są ludzkie.
Z kolei oprogramowanie wysokiego ryzyka to oprogramowanie medyczne oparte na sztucznej inteligencji, które będzie podlegać bardzo surowym i rygorystycznym procedurom, w tym informowaniu użytkowników i nadzorowi człowieka.
Systemy wysokiego ryzyka obejmują technologie wykorzystywane w: infrastrukturze krytycznej, takiej jak transport; edukacji i szkoleniach, które wpływają na rozwój i edukację jednostek; pracy, zatrudnieniu i zarządzaniu pracownikami; podstawowych usługach publicznych i prywatnych, takich jak uzyskiwanie kredytów; bezpieczeństwie produktów; egzekwowaniu przepisów, które mogą wpływać na podstawowe prawa ludzi; zarządzaniu polityką bezpieczeństwa i imigracyjną; administracji wymiaru sprawiedliwości i procesach demokratycznych. Na operatorów cyfrowych nakładane są bardzo surowe obowiązki przed wprowadzeniem systemów na rynek, takie jak systemy ograniczania ryzyka, rejestrowanie działań w celu zapewnienia identyfikowalności wyników, szczegółowa dokumentacja zawierająca wszystkie niezbędne informacje o systemie i jego przeznaczeniu, jasne i odpowiednie informacje dla dystrybutora oraz odpowiednie środki kontroli człowieka w celu zminimalizowania ryzyka.
Wreszcie, niedopuszczalne ryzyko wiąże się z systemami sztucznej inteligencji, które umożliwiają „ocenę społeczną” przez rządy i firmy, co jest szkodliwe dla podstawowych praw ludzi.
Jeśli pierwsza klasa ryzyka nie zostanie uregulowana, druga jest już szczególnie wpływowa pod względem rozprzestrzeniania się fałszywych wiadomości: tworzenie treści sztucznej inteligencji bez niezbędnego oznakowania może powodować dezinformację na dużą skalę.
Ostatnie dwa poziomy ryzyka, w których dane wymagane od pacjentów stają się bardziej osobiste i wrażliwe: tutaj wyjaśnia się silnie wiążący charakter rozporządzenia.
UE – czytamy na stronie Komisji Europejskiej – dąży do tego, by być światowym liderem w dziedzinie bezpiecznej sztucznej inteligencji.
Opracowując solidne ramy prawne oparte na prawach człowieka i podstawowych wartościach, UE może stworzyć ekosystem sztucznej inteligencji, który przyniesie korzyści wszystkim.
Oznacza to lepszą opiekę zdrowotną, bezpieczniejszy i czystszy transport oraz ulepszone usługi publiczne dla obywateli.
Przyniesie to innowacyjne produkty i usługi, zwłaszcza w dziedzinie energii, bezpieczeństwa i opieki zdrowotnej, a także wyższą wydajność i bardziej efektywną produkcję dla przedsiębiorstw, podczas gdy rządy mogą skorzystać z tańszych i bardziej zrównoważonych usług, takich jak transport, energia i gospodarka odpadami”.
Równolegle Komisja Europejska zainicjowała również utworzenie Kodeksu postępowania dla dostawców sztucznej inteligencji (GPAI), który nałoży dodatkowe obowiązki na podmioty wykorzystujące sztuczną inteligencję.
Kodeks GPAI, który zostanie włączony do prawodawstwa europejskiego AI Act, będzie dotyczył takich obszarów jak przejrzystość, prawa autorskie i zarządzanie ryzykiem.
Zostanie on sfinalizowany i wejdzie w życie w przyszłym roku.