Direktivet om audiovisuella medietjänster ålägger leverantörer av videodelningsplattformar (VSP) vissa skyldigheter avseende innehåll.
Dessa omfattar att skydda minderåriga och allmänheten från skadligt innehåll i program, användargenererade videor och audiovisuella kommersiella meddelanden (ACC).
Dessutom måste VSP-leverantörer uppfylla skyldigheterna avseende de ACC som de kontrollerar (marknadsför, säljer eller arrangerar) och de som kontrolleras och laddas upp av andra.
De får inte använda subliminala tekniker, vara respektlösa mot mänsklig värdighet, orsaka diskriminering eller uppmuntra till beteende som skadar hälsa, säkerhet eller miljö, inklusive tobaksprodukter och elektroniska cigaretter.
ACC för alkohol får inte vara särskilt riktad till minderåriga och får inte uppmuntra till måttlös konsumtion.
ACC för receptbelagda läkemedel ska vara förbjuden.
Slutligen måste VSP-leverantörer ytterligare skydda minderåriga från ACC och minska barns exponering för ACC för mat och dryck som innehåller fett, transfettsyror, salt eller natrium och sockerarter (HFSS).
Denna övervakning på uppdrag av VSP-leverantörer är allmänt känd som ”Good Samaritan”-metoden, där utövandet av redaktionell kontroll över användargenererat innehåll inte skapar ansvar för VSP-leverantören på grund av olagligt innehåll som publiceras av användare.
För att uppfylla sådana skyldigheter att övervaka, degradera, blockera, ta bort eller utesluta innehåll kan VSP-leverantörer implementera tekniska algoritmer för onlinefiltrering eller moderering.
I september 2020 publicerade generaldirektoratet för inre politik en studie om effekterna av sådana ”uppladdningsfilter”.
Automatiserade filtreringstekniker inkluderar: metadatasökning, hashing och fingeravtryck, svartlistning, avancerade tekniker för behandling av naturligt språk, AI-baserade tekniker för att identifiera text eller bilder.
Moderering omfattar avslag kontra godkännande, redigering av innehåll, kommentarer, prioritering kontra nedprioritering och sammanställning.
Filtreringen kan vara centraliserad genom en enda enhet och/eller enhetliga policyer som tillämpas i hela VSP:n, eller decentraliserad.
Tidsmässigt kan den ske i förväg (innan innehållet finns tillgängligt på VSP:n) eller i efterhand.
Om det sker efter det att en mottagare har tagit upp ett problem med innehållet är det reaktivt, men det kan också vara proaktivt.
Filtreringssystem använder sannolikhet som metod, vilket innebär att det kan förekomma fel som innebär att olagligt innehåll släpps in eller att värdefullt innehåll degraderas.
Den grundläggande sanning som ligger till grund för algoritmen möjliggör dock mänskligt ansvar och kontroll.
För att minimera effekten av fel bör algoritmerna innehålla mekanismer för överklagande och gottgörelse (bestridbar filtrering kontra icke bestridbar).
För att dessa ska vara realistiska bör innehållsskaparna informeras om att det finns algoritmer, om hur de fungerar och, i slutändan, om att deras eget innehåll har påverkats.
Vidare bör slutanvändarna också informeras om förekomsten av tillämpad filtreringsteknik och hur den fungerar.
En bra reglering av filtrering måste också ta hänsyn till situationen för mindre aktörer som, antingen av ekonomiska och/eller tekniska skäl, inte kan ha samma tillgång till automatiserade filtreringsalgoritmer. Fyra domstolsavgöranden på europeisk nivå, varav tre från Europeiska unionens domstol och ett från Europeiska domstolen för de mänskliga rättigheterna, har bekräftat principen om den barmhärtige samariten: de tre förstnämnda är Google-Spanien-avgörandet från 2014, Ziggo-avgörandet från 2017 och, mest intressant, Glawischnig-Piesczek-avgörandet från 2019, som bekräftade att förelägganden som ålägger leverantörer att ta bort och blockera olaglig information kan godtas.
Det fjärde beslutet är Europadomstolens Delfi-beslut från 2015, där en estnisk tidskrift straffades för att inte ha tagit bort hatyttringar på nätet.
Det uppstår frågor om huruvida leverantörer av audiovisuella medietjänster bör gå längre än vad som strikt krävs enligt direktivet om audiovisuella medietjänster, t.ex. genom att nedgradera innehåll som inte är olagligt.
Detta öppnar dörren för godtyckligt godtycke.
Det behöver inte påpekas att gränsen mellan dessa skyldigheter enligt EU-lagstiftningen och yttrandefriheten är mycket tunn och grå.
Källa till bilden: Riverside
Plattformar för videodelning censurerar innehåll
Juridisk - september 4, 2024