Европската унија неодамна презеде значајни чекори со усвојување на законодавството за вештачка интелигенција, препознавајќи го како еден од најдлабоките предизвици на нашето време. Вештачката интелигенција има потенцијал да го револуционизира нашиот начин на живот, нудејќи невидени придобивки кои можат значително да ги подобрат човековите активности на различни полиња, како во професионалниот така и во приватниот живот. Автоматизирање на задачите, унапредување на здравствената заштита и оптимизирање на индустриите се само неколку примери за тоа како вештачката интелигенција може да даде позитивен придонес во општеството. Сепак, ризиците поврзани со оваа технологија се подеднакво огромни, а потенцијалот за нејзина злоупотреба не може да се потцени. Моќта на вештачката интелигенција, особено нејзината способност да реплицира лица и гласови со алармантна точност, создава средина каде што границите помеѓу реалноста и измислицата стануваат опасно заматени. Создавањето длабоко лажни видеа и софистицирани кампањи за дезинформација може да се користат како моќни алатки од оние со злонамерна намера, што доведува до широка конфузија, недоверба и ерозија на демократските вредности. Ова не е само хипотетичко сценарио; Веќе видовме случаи кога таквите технологии се користеа за поткопување на довербата на јавноста во институциите, манипулирање со изборите и поттикнување социјални немири. Заканата оди подалеку од индивидуалната штета, бидејќи овие алатки може да се користат од авторитарни режими за да се создаде софистицирана пропаганда, дестабилизирајќи цели региони и предизвикувајќи ги самите основи на западниот демократски поредок. Во овој сè покомплексен и опиплив контекст, вештачката интелигенција може да биде вооружена од оние кои сакаат да ги дискредитираат западните политики и вредности. Способноста за брзо ширење на лажни наративи може да ги влоши постоечките тензии и да им отежне на општествата да ја разликуваат вистината од фикцијата. Покрај тоа, сеприсутното влијание на вештачката интелигенција во секојдневниот живот покренува сериозни етички грижи за зачувување на човековото достоинство и заштита на основните права. Како што системите за вештачка интелигенција стануваат се повеќе интегрирани во нашето општествено и политичко ткиво, постои реален ризик дека внатрешната вредност на човечките суштества – нашата индивидуалност, креативност и капацитет за емпатија – може да биде засенета од прекумерното потпирање на технологијата. Ова преголемо потпирање на вештачката интелигенција може да доведе до длабока дехуманизација на општеството, каде што луѓето се сведуваат на обични точки на податоци во огромен, безличен систем. Богатството на човечкото искуство, кое се карактеризира со различност и личен идентитет, ризикува да биде заменето со хомогенизиран, роботски свет каде што индивидуалноста се жртвува во корист на ефикасноста и контролата. Таквото сценарио не само што би ја намалило социјалната и политичката природа на луѓето, туку може да доведе и до општество каде што концептот на личноста е фундаментално изменет, отстранувајќи ги самите елементи што нè прават уникатно луѓе. Затоа, законодавството на Европската унија за вештачка интелигенција претставува клучен напор за балансирање на потенцијалните придобивки од оваа технологија со потребата да се заштити од нејзините многубројни опасности. Тоа е признание дека иако вештачката интелигенција може да го поттикне напредокот, таа мора внимателно да се регулира за да се осигура дека му служи, наместо да го поткопува човештвото. Предизвикот сега е ефективно да се имплементираат овие регулативи, создавајќи рамка која поттикнува иновации додека ги штити основните вредности што ги дефинираат нашите општества. Не е случајно што многу шефови на држави и влади веднаш тргнаа, не кон целосно отфрлање на вештачката интелигенција, туку кон нејзино целосно регулирање, кое околу постојаниот развој на технологијата ќе изгради рамка, опкружување права и должности што ќе ја ограничи функционирањето на дигиталните системи со цел да се почитува непобитното ограничување на достоинството на личноста. На последниот Г7, што се одржа во јужна Италија, во Пуља, од 13 до 15 јуни, една од најжешките теми на самитот, на силна поттик на одговорната претседателка, Џорџија Мелони, беше токму онаа за вештачката интелигенција. На оваа тема зборуваше и папата Фрањо: тоа беше прв пат понтиф да се приклучи на работните маси на Големата седумка. „Вештачката интелигенција“, рече Светиот Отец, „е фасцинантна и огромна алатка“, подвлекувајќи ги двете страни на истата монета што вештачката интелигенција ги открива, во зависност од тоа како се користи. На крајот од средбата беше постигнат историски резултат: целта на големата седумка е навистина „да ја продлабочи нашата соработка со цел да ги искористиме придобивките и, како што прочитавме во последното коминике на самитот, да управуваме со ризиците од вештачка интелигенција“. Ќе започнеме акционен план за употреба на вештачка интелигенција во светот на работата и ќе развиеме ознака за поддршка на имплементацијата на Меѓународниот кодекс на однесување за организации кои развиваат напредни системи за вештачка интелигенција“. Европското законодавство за вештачка интелигенција точно ја следи насоката договорена на самитот на Г7: да се искористат придобивките во областите каде што може да се користи, но да се избегнат ризиците и веројатната дегенерација преку развивање кодекс на однесување што го ограничува влијанието на технологијата во рамката на човековите права и почитувањето на достоинството на секој граѓанин. Новото законодавство стапи на сила на 1 август 2024 година: технички се нарекува Европски закон за вештачка интелигенција (или Закон за вештачка интелигенција). Законот беше предложен од Европската комисија во април 2021 година и одобрен од Европскиот парламент и Европскиот совет во декември 2023 година. Тој ќе им обезбеди на сите земји-членки единствен план што треба да го следат, врз основа на диференцијација на различни видови ризик според нивните ниво на опасност. Најмал ризик е оној што не повлекува никаква обврска според законодавството: ова вклучува, на пример, филтри за спам и видео игри, иако во овие случаи поединечни компании можат доброволно да усвојат дополнителни кодекси на однесување. Следува ризик поврзан со транспарентноста: во присуство на таков ризик, chaboots ќе мора да ги информираат корисниците дека имаат интеракција со машина, а содржината создадена од вештачката интелигенција ќе мора да содржи индикации дека не е човек. Од друга страна, со висок ризик е медицинскиот софтвер базиран на вештачка интелигенција, кој ќе биде предмет на многу строги и ригорозни процедури, вклучувајќи информации за корисникот и човечки надзор. Системите со висок ризик вклучуваат технологии кои се користат во: критични инфраструктури како што е транспортот; образование и обука, кои влијаат на развојот и образованието на поединците; работа, вработување и управување со работници; основни јавни и приватни услуги, како што се добивање кредит; безбедност на производите; спроведување на закони кои можат да влијаат на основните права на луѓето; управување со безбедносните и имиграциските политики; спроведување на правдата и демократските процеси. Многу строги обврски се поставени на дигиталните оператори пред системите да се пласираат на пазарот, како што се системи за намалување на ризикот, евиденција на активности за да се обезбеди следливост на резултатите, детална документација што ги обезбедува сите потребни информации за системот и неговата намена, јасни и соодветни информации за дистрибутерот и соодветни мерки за човечка контрола за да се минимизира ризикот. Конечно, неприфатливиот ризик се однесува на системите за вештачка интелигенција кои овозможуваат „социјално бодување“ од владите и компаниите, што е штетно за основните права на луѓето. Ако првата класа на ризици не е регулирана, втората е веќе особено влијателна во однос на ширењето на лажни вести: создавањето содржина со вештачка интелигенција без неопходното означување може да создаде дезинформации во голем обем. До последните две нивоа на ризик, каде што податоците што се бараат од пациентите стануваат повеќе лични и чувствителни: тука се објаснува силната обврзувачка природа на регулативата. ЕУ“, се вели на веб-страницата на Европската комисија, „има за цел да биде светски лидер во безбедна вештачка интелигенција. Со развивање на цврста правна рамка заснована на човековите права и основните вредности, ЕУ може да развие екосистем за вештачка интелигенција што ќе биде од корист за сите. Ова значи подобра здравствена заштита, побезбеден и почист транспорт и подобрени јавни услуги за граѓаните. Ќе донесе иновативни производи и услуги, особено во областа на енергијата, безбедноста и здравството, како и поголема продуктивност и поефикасно производство за бизнисите, додека владите можат да имаат корист од поевтини и поодржливи услуги како што се транспортот, енергијата и управувањето со отпад. . Паралелно, Европската комисија исто така иницираше формирање на Кодекс на однесување за давателите на вештачка интелигенција (GPAI), кој ќе наметне дополнителни обврски за оние кои користат вештачка интелигенција. Кодексот GPAI, кој ќе биде вклучен во законодавството на Европскиот закон за вештачка интелигенција, ќе се однесува на области како што се транспарентност, авторски права и управување со ризик. Ќе биде финализиран и ќе стапи на сила следната година.