fbpx

Platformy udostępniania wideo cenzurują treści

Prawna - 4 września, 2024

Dyrektywa o audiowizualnych usługach medialnych nakłada na dostawców platform udostępniania plików wideo (VSP) pewne obowiązki dotyczące treści.
Obejmują one ochronę małoletnich i ogółu społeczeństwa przed szkodliwymi treściami w programach, filmach generowanych przez użytkowników i handlowych przekazach audiowizualnych (ACC).
Ponadto dostawcy VSP muszą przestrzegać obowiązków dotyczących ACC, które kontrolują (wprowadzają do obrotu, sprzedają lub organizują), a także tych kontrolowanych i przesyłanych przez innych.
W szczególności, ACC muszą być łatwo rozpoznawalne jako takie, więc ukryte ACC są zabronione; nie mogą wykorzystywać technik podprogowych, nie szanować godności ludzkiej, powodować dyskryminacji lub zachęcać do zachowań szkodliwych dla zdrowia lub bezpieczeństwa lub środowiska, w tym wyrobów tytoniowych i papierosów elektronicznych.
ACC dla alkoholu nie mogą być skierowane konkretnie do nieletnich i nie mogą zachęcać do nieumiarkowanej konsumpcji.
Zakazane jest ACC dla produktów leczniczych dostępnych wyłącznie na receptę.
Dostawcy VSP muszą ponadto chronić małoletnich przed dopalaczami i ograniczać narażenie dzieci na dopalacze w odniesieniu do żywności i napojów zawierających tłuszcze, kwasy tłuszczowe trans, sól lub sód i cukry (HFSS).
To monitorowanie w imieniu dostawców VSP jest powszechnie znane jako podejście „dobrego samarytanina”, w którym sprawowanie kontroli redakcyjnej nad treściami generowanymi przez użytkowników nie powoduje odpowiedzialności dostawcy VSP z powodu niezgodnych z prawem treści publikowanych przez użytkowników.
Aby spełnić takie obowiązki w zakresie monitorowania, degradowania, blokowania, usuwania lub wykluczania treści, dostawcy VSP mogą wdrożyć algorytmy technologiczne do filtrowania lub moderowania online.
We wrześniu 2020 r. Dyrekcja Generalna ds. Polityki Wewnętrznej opublikowała badanie dotyczące wpływu takich „filtrów przesyłania”.
Zautomatyzowane technologie filtrowania obejmują: wyszukiwanie metadanych, haszowanie i pobieranie odcisków palców; umieszczanie na czarnej liście; zaawansowane techniki przetwarzania języka naturalnego; techniki oparte na sztucznej inteligencji do identyfikacji tekstu lub obrazów.
Moderacja obejmuje odrzucanie i dopuszczanie, edycję treści, komentowanie, nadawanie priorytetów i degradowanie oraz syntezę.
Filtrowanie może być scentralizowane przez pojedynczą jednostkę i/lub jednolite zasady realizowane w całym VSP lub zdecentralizowane.
Jeśli chodzi o czas, może to być ex ante (zanim treść będzie dostępna w VSP) lub ex post.
Jeśli ma miejsce po zgłoszeniu problemu z treścią przez odbiorcę, jest reaktywny; ale może być również proaktywny.
Systemy filtrowania wykorzystują prawdopodobieństwo jako swoją metodologię; dlatego możliwe są błędy dopuszczające nielegalne treści lub obniżające wartość treści.
Jednak prawda leżąca u podstaw algorytmu pozwala na ludzką odpowiedzialność i kontrolę.
Aby zminimalizować skutki błędów, algorytmy powinny obejmować mechanizmy odwoławcze i naprawcze (filtrowanie zaskarżalne vs. niezaskarżalne).
Aby były one realistyczne, twórcy treści powinni być informowani o istnieniu algorytmów, sposobie ich działania, a ostatecznie o wpływie na ich własne treści.
Co więcej, użytkownicy końcowi powinni być również informowani o istnieniu i sposobie działania stosowanych technologii filtrowania.
Dobre regulacje dotyczące filtrowania muszą również uwzględniać sytuację mniejszych graczy, którzy ze względów ekonomicznych i/lub technologicznych nie mogą mieć takiego samego dostępu do zautomatyzowanych algorytmów filtrujących. Cztery orzeczenia sądowe na szczeblu europejskim, z których trzy zostały wydane przez Trybunał Sprawiedliwości Unii Europejskiej, a jedno przez Europejski Trybunał Praw Człowieka, potwierdziły podejście „dobrego Samarytanina”: trzy pierwsze to decyzja Google-Hiszpania z 2014 r., decyzja Ziggo z 2017 r. i, co najciekawsze, decyzja Glawischnig-Piesczek z 2019 r., która potwierdziła dopuszczalność nakazów nakazujących dostawcom usunięcie i zablokowanie bezprawnych informacji.
Czwartą decyzją jest decyzja Delfi z 2015 r. wydana przez Europejski Trybunał Praw Człowieka, w której estoński dziennik został ukarany za nieusunięcie internetowych wyrazów nienawiści.
Pojawiają się pytania, czy dostawcy usług VSP powinni wykraczać poza to, co jest ściśle wymagane przez dyrektywę o audiowizualnych usługach medialnych, na przykład obniżając poziom treści, które nie są niezgodne z prawem.
Otwiera to furtkę do kapryśnej arbitralności.
Nie trzeba dodawać, że granica między obowiązkami nałożonymi przez prawo UE a wolnością słowa jest bardzo cienka i szara.
Źródło zdjęcia: Riverside