Наскоро Европейският съюз предприе важни стъпки, като прие законодателство относно изкуствения интелект, признавайки го за едно от най-сериозните предизвикателства на нашето време.
Изкуственият интелект има потенциала да революционизира начина ни на живот, предлагайки безпрецедентни ползи, които могат значително да подобрят човешките дейности в различни области, както в професионалния, така и в личния ни живот.
Автоматизирането на задачите, развитието на здравеопазването и оптимизирането на промишлеността са само няколко примера за това как изкуственият интелект може да има положителен принос за обществото.
Въпреки това рисковете, свързани с тази технология, са също толкова огромни и потенциалът за злоупотреба с нея не може да бъде подценяван.
Силата на ИИ, особено способността му да възпроизвежда лица и гласове с тревожна точност, създава среда, в която границите между реалност и измислица стават опасно размити.
Създаването на дълбоко фалшиви видеоклипове и сложни кампании за дезинформация могат да бъдат използвани като мощни инструменти от лица със злонамерени намерения, което води до широкообхватно объркване, недоверие и ерозия на демократичните ценности.
Това не е само хипотетичен сценарий; вече сме свидетели на случаи, в които подобни технологии са били използвани за подкопаване на общественото доверие в институциите, манипулиране на избори и подстрекаване на социални вълнения.
Заплахата надхвърля индивидуалните вреди, тъй като тези инструменти могат да бъдат използвани от авторитарни режими за създаване на сложна пропаганда, дестабилизираща цели региони и поставяща под въпрос самите основи на западния демократичен ред.
В този все по-сложен и осезаем контекст изкуственият интелект може да бъде използван като оръжие от онези, които се стремят да дискредитират западните политики и ценности.
Възможността за бързо разпространение на фалшиви разкази може да изостри съществуващото напрежение и да затрудни обществата в разграничаването на истината от измислицата.
Освен това повсеместното влияние на ИИ в ежедневието поражда сериозни етични опасения относно запазването на човешкото достойнство и защитата на основните права.
Тъй като системите на ИИ стават все по-интегрирани в социалната и политическата ни структура, съществува реален риск присъщата стойност на хората – нашата индивидуалност, творчество и способност за съпричастност – да бъде засенчена от прекомерното разчитане на технологиите.
Прекомерното разчитане на изкуствения интелект може да доведе до дълбока дехуманизация на обществото, в което хората се превръщат в обикновени точки за данни в огромна, безлична система.
Богатството на човешкия опит, характеризиращо се с разнообразие и лична идентичност, рискува да бъде заменено от хомогенизиран, роботизиран свят, в който индивидуалността се жертва в полза на ефективността и контрола.
Подобен сценарий не само би намалил социалната и политическата природа на човешките същества, но и би могъл да доведе до общество, в което концепцията за личността е фундаментално променена, като се отнемат самите елементи, които ни правят уникално човешки.
Ето защо законодателството на Европейския съюз в областта на изкуствения интелект представлява решаващо усилие за постигане на баланс между потенциалните ползи от тази технология и необходимостта да се предпазим от многобройните й опасности.
Това е признание, че макар изкуственият интелект да може да стимулира прогреса, той трябва да бъде внимателно регулиран, за да се гарантира, че служи на човечеството, а не го подкопава.
Предизвикателството сега е да се приложат тези разпоредби ефективно, като се създаде рамка, която да насърчава иновациите и същевременно да защитава основните ценности, които определят нашите общества. Неслучайно много държавни и правителствени ръководители веднага се насочиха не към пълно отхвърляне на изкуствения интелект, а към неговото пълно регулиране, което да изгради около постоянното развитие на технологиите рамка, рамка от права и задължения, които да ограничат функционирането на цифровите системи, за да се спазва неоспоримото ограничение на достойнството на личността.
По време на последната среща на Г-7, която се проведе в Южна Италия, в Пулия, от 13 до 15 юни, една от най-горещите теми на срещата на върха, по силната инициатива на отговорния председател Джорджия Мелони, беше именно темата за изкуствения интелект.
Папа Франциск също се изказа по темата: за първи път понтифекс се присъедини към работните маси на Голямата седморка.
„Изкуственият интелект – каза Светият отец – е очарователен и огромен инструмент“, подчертавайки двете страни на една и съща монета, които изкуственият интелект разкрива в зависимост от начина, по който се използва.
В края на срещата беше постигнат исторически резултат: целта на Голямата седморка наистина е „да задълбочим сътрудничеството си, за да използваме ползите и, както прочетохме в заключителното комюнике от срещата на върха, да управляваме рисковете от изкуствения интелект“.
Ще стартираме план за действие относно използването на изкуствения интелект в света на труда и ще разработим етикет в подкрепа на прилагането на Международния кодекс за поведение на организациите, разработващи усъвършенствани системи за изкуствен интелект“.
Европейското законодателство в областта на изкуствения интелект следва точно посоката, договорена на срещата на върха на Г-7: да се извлекат ползите в областите, в които той може да се използва, но да се избегнат рисковете и вероятната деградация чрез разработване на кодекс за поведение, който ограничава въздействието на технологията в рамките на правата на човека и зачитането на достойнството на всеки гражданин.
Новото законодателство влезе в сила на 1 август 2024 г.: технически то се нарича Европейски акт за изкуствения интелект (или Акт за ИИ).
Законът беше предложен от Европейската комисия през април 2021 г. и одобрен от Европейския парламент и Европейския съвет през декември 2023 г.
Той ще предостави на всички държави членки единен план, който да следват, въз основа на разграничаването на различните видове риск според степента на опасност.
Най-ниският риск е този, който не води до никакви задължения по силата на законодателството: това включва например филтрите за спам и видеоигрите, въпреки че в тези случаи отделните дружества могат доброволно да приемат допълнителни кодекси за поведение.
На следващо място се нарежда рискът, свързан с прозрачността: при наличието на такъв риск, чаботите ще трябва да информират потребителите, че взаимодействат с машина, а съдържанието, създадено от изкуствен интелект, ще трябва да съдържа индикации, че не е човешко.
От друга страна, високорисков е медицинският софтуер, базиран на изкуствен интелект, който ще подлежи на много строги и стриктни процедури, включващи информиране на потребителите и човешки надзор.
Високорисковите системи включват технологии, използвани в: критични инфраструктури, като например транспорта; образованието и обучението, които влияят върху развитието и образованието на хората; работата, заетостта и управлението на работниците; основни публични и частни услуги, като например получаването на кредити; безопасността на продуктите; прилагането на закони, които могат да засегнат основните права на хората; управлението на политиките за сигурност и имиграция; правораздаването и демократичните процеси. На цифровите оператори се налагат много строги задължения, преди системите да бъдат пуснати на пазара, като например системи за намаляване на риска, регистриране на дейностите, за да се осигури проследимост на резултатите, подробна документация, предоставяща цялата необходима информация за системата и нейното предназначение, ясна и адекватна информация за дистрибутора и подходящи мерки за човешки контрол, за да се сведе до минимум рискът.
И накрая, неприемливият риск е свързан със системите с изкуствен интелект, които дават възможност за „социално оценяване“ от страна на правителствата и дружествата, което е в ущърб на основните права на хората.
Ако първият клас рискове не бъде регулиран, вторият вече е особено влиятелен по отношение на разпространението на фалшиви новини: създаването на съдържание с изкуствен интелект без необходимото етикетиране може да създаде дезинформация в голям мащаб.
За последните две нива на риск, при които данните, изисквани от пациентите, стават все по-лични и чувствителни: именно тук се обяснява силно обвързващият характер на регламента.
ЕС – се казва на уебсайта на Европейската комисия – се стреми да бъде световен лидер в областта на безопасния изкуствен интелект.
Чрез разработването на стабилна правна рамка, основана на правата на човека и основните ценности, ЕС може да развие екосистема на изкуствения интелект, която да е от полза за всички.
Това означава по-добро здравеопазване, по-безопасен и по-чист транспорт и по-добри обществени услуги за гражданите.
Тя ще доведе до иновативни продукти и услуги, особено в областта на енергетиката, сигурността и здравеопазването, както и до по-висока производителност и по-ефективно производство за предприятията, а правителствата могат да се възползват от по-евтини и по-устойчиви услуги като транспорт, енергетика и управление на отпадъците“.
Успоредно с това Европейската комисия инициира и създаването на Кодекс за поведение на доставчиците на изкуствен интелект (GPAI), който ще наложи допълнителни задължения на тези, които използват изкуствен интелект.
Кодексът на GPAI, който ще бъде включен в законодателството на Европейския закон за изкуствения интелект, ще засегне области като прозрачност, авторски права и управление на риска.
Той ще бъде финализиран и ще влезе в сила през следващата година.
Влиза в сила нов закон за изкуствения интелект
ИИ приятел или враг? - август 12, 2024