fbpx

Platformele de partajare video cenzurează conținutul

Legal - septembrie 4, 2024

Directiva privind serviciile mass-media audiovizuale impune furnizorilor de platforme de partajare video (PPSV) anumite obligații privind conținutul.
Printre acestea se numără protejarea minorilor și a publicului larg împotriva conținutului dăunător din programe, videoclipuri generate de utilizatori și comunicări comerciale audiovizuale (CCA).
În plus, furnizorii de SPV trebuie să respecte obligațiile privind ACC pe care le controlează (comercializează, vând sau aranjează) și cele controlate și încărcate de alții.
În special, ACC trebuie să fie ușor de recunoscut ca atare, astfel încât sunt interzise ACC clandestine; acestea nu trebuie să utilizeze tehnici subliminale, să nu aducă atingere demnității umane, să nu provoace discriminare sau să nu încurajeze comportamente dăunătoare sănătății, siguranței sau mediului, inclusiv produsele din tutun și țigările electronice.
ACC pentru alcool nu vizează în mod special minorii și nu încurajează consumul exagerat.
ACC pentru medicamentele eliberate numai pe bază de rețetă sunt interzise.
În sfârșit, furnizorii VSP trebuie să protejeze în continuare minorii de ACC și să reducă expunerea copiilor la ACC pentru alimente și băuturi care conțin grăsimi, acizi grași trans, sare sau sodiu și zaharuri (HFSS).
Această monitorizare în numele furnizorilor de PSV este cunoscută sub denumirea de abordarea „bunului samaritean”, în care exercitarea controlului editorial asupra conținutului generat de utilizatori nu creează răspundere pentru furnizorul de PSV din cauza conținutului ilegal postat de utilizatori.
Pentru a se conforma acestor obligații de monitorizare, retrogradare, blocare, eliminare sau excludere a conținutului, furnizorii de PSV pot implementa algoritmi tehnologici pentru filtrarea sau moderarea online.
În septembrie 2020, Direcția Generală Politici Interne a publicat un studiu privind impactul acestor „filtre de încărcare”.
Tehnologiile automatizate de filtrare includ: căutarea metadatelor, hashing-ul și amprentarea; lista neagră; tehnici avansate de procesare a limbajului natural; tehnici bazate pe inteligența artificială pentru identificarea textului sau a imaginilor.
Moderarea include respingerea vs. admiterea, editarea conținutului, comentarea, prioritizarea vs. retrogradarea și sintetizarea.
Filtrarea poate fi centralizată printr-o singură unitate și/sau prin politici uniforme executate în cadrul unui SPV, sau descentralizată.
Din punct de vedere temporal, filtrarea poate fi ex-ante (înainte ca conținutul să fie disponibil pe PSV) sau ex-post.
Dacă are loc după ce o problemă legată de conținut a fost ridicată de un destinatar, este reactivă; dar poate fi și proactivă.
Sistemele de filtrare utilizează probabilitatea ca metodologie; prin urmare, sunt posibile erori de admitere a conținutului ilegal sau de retrogradare a conținutului valoros.
Cu toate acestea, adevărul de bază care stă la baza algoritmului permite responsabilitatea și controlul uman.
Pentru a minimiza efectul erorilor, algoritmii ar trebui să includă mecanisme de apel și recurs (filtrare contestabilă vs. necontestabilă).
Pentru ca aceste mecanisme să fie realiste, creatorii de conținut ar trebui să fie informați cu privire la existența algoritmilor, la modul în care aceștia funcționează și, în cele din urmă, la faptul că propriul conținut a fost afectat.
În plus, utilizatorii finali ar trebui, de asemenea, să fie informați cu privire la existența și modul de funcționare al tehnologiilor de filtrare aplicate.
O bună reglementare a filtrării trebuie să ia în considerare și situația actorilor mai mici care, fie din motive economice și/sau tehnologice, nu pot avea același acces la algoritmii de filtrare automată. Patru hotărâri judecătorești la nivel european, dintre care trei ale Curții de Justiție a Uniunii Europene și una a Curții Europene a Drepturilor Omului, au confirmat abordarea bunului samaritean: primele trei sunt hotărârea Google-Spania din 2014, hotărârea Ziggo din 2017 și, cel mai interesant, hotărârea Glawischnig-Piesczek din 2019, care a confirmat admisibilitatea somațiilor prin care se ordonă furnizorilor să elimine și să blocheze informațiile ilegale.
A patra decizie este decizia Delfi din 2015 a Curții Europene a Drepturilor Omului, în care un jurnal estonian a fost pedepsit pentru că nu a eliminat expresiile de ură online.
Se pune întrebarea dacă furnizorii de PSV ar trebui să meargă mai departe decât ceea ce prevede strict Directiva privind serviciile mass-media audiovizuale, de exemplu, retrogradând conținutul care nu este ilegal.
Acest lucru deschide poarta arbitrariului capricios.
Inutil de observat că linia dintre aceste obligații impuse de legislația UE și libertatea de exprimare este foarte subțire și gri.
Sursa imaginii: Riverside