fbpx

Le piattaforme di condivisione video censurano i contenuti

Legale - Settembre 4, 2024

La direttiva sui servizi di media audiovisivi impone ai fornitori di piattaforme di condivisione video (VSP) alcuni obblighi relativi ai contenuti.
Tra questi, la protezione dei minori e del pubblico in generale dai contenuti dannosi presenti nei programmi, nei video generati dagli utenti e nelle comunicazioni commerciali audiovisive (ACC).
Inoltre, i fornitori di VSP devono rispettare gli obblighi relativi agli ACC che controllano (commercializzano, vendono o organizzano) e a quelli controllati e caricati da altri.
In particolare, gli ACC devono essere facilmente riconoscibili come tali, per cui sono vietati gli ACC occulti; non devono utilizzare tecniche subliminali, mancare di rispetto alla dignità umana, causare discriminazioni o incoraggiare comportamenti pregiudizievoli per la salute o la sicurezza o l’ambiente, compresi i prodotti del tabacco e le sigarette elettroniche.
L’ACC per gli alcolici non deve essere rivolto specificamente ai minori e non deve incoraggiare il consumo smodato.
L’ACC per i medicinali disponibili solo su prescrizione medica è vietato.
Infine, i fornitori di VSP devono proteggere ulteriormente i minori dall’ACC e ridurre l’esposizione dei bambini all’ACC per alimenti e bevande contenenti grassi, acidi grassi trans, sale o sodio e zuccheri (HFSS).
Questo monitoraggio per conto dei fornitori di VSP è ampiamente conosciuto come approccio del “buon samaritano”, in cui l’esercizio del controllo editoriale sui contenuti generati dagli utenti non crea responsabilità per il fornitore di VSP a causa dei contenuti illeciti pubblicati dagli utenti.
Per adempiere a tali obblighi di monitoraggio, retrocessione, blocco, rimozione o esclusione dei contenuti, i provider VSP possono implementare algoritmi tecnologici di filtraggio o moderazione online.
Nel settembre 2020, la Direzione Generale per le Politiche Interne ha pubblicato uno studio sull’impatto di tali “filtri di caricamento”.
Le tecnologie di filtraggio automatizzato includono: ricerca di metadati, hashing e fingerprinting; blacklist; tecniche avanzate di elaborazione del linguaggio naturale; tecniche basate sull’intelligenza artificiale per identificare testi o immagini.
La moderazione comprende il rifiuto o l’ammissione, la modifica dei contenuti, i commenti, la definizione delle priorità o il declassamento e la sintesi.
Il filtraggio può essere centralizzato attraverso una singola unità e/o politiche uniformi eseguite in tutta la VSP, oppure decentralizzato.
In termini di tempo, può essere ex-ante (prima che il contenuto sia disponibile sulla VSP) o ex-post.
Se avviene dopo che un destinatario ha sollevato un problema con il contenuto, è reattivo; ma può anche essere proattivo.
I sistemi di filtraggio utilizzano la probabilità come metodologia; pertanto, è possibile che si verifichino errori nell’ammissione di contenuti illegali o nel declassamento di contenuti di valore.
Tuttavia, la verità di base che sta alla base dell’algoritmo consente la responsabilità e il controllo umano.
Per ridurre al minimo l’effetto degli errori, gli algoritmi dovrebbero prevedere meccanismi di ricorso e di riparazione (filtraggio contestabile o non contestabile).
Affinché questi meccanismi siano realistici, i creatori di contenuti dovrebbero essere informati dell’esistenza degli algoritmi, del loro funzionamento e, eventualmente, dell’impatto sui loro contenuti.
Inoltre, anche gli utenti finali dovrebbero essere informati dell’esistenza e del modus operandi delle tecnologie di filtraggio applicate.
Una buona regolamentazione del filtraggio deve tenere conto anche della situazione degli operatori più piccoli che, per motivi economici e/o tecnologici, non possono avere lo stesso accesso agli algoritmi di filtraggio automatizzati. Quattro sentenze a livello europeo, di cui tre della Corte di Giustizia dell’Unione Europea e una della Corte Europea dei Diritti dell’Uomo, hanno confermato l’approccio del Buon Samaritano: le prime tre sono la decisione Google-Spagna del 2014, la decisione Ziggo del 2017 e, cosa più interessante, la decisione Glawischnig-Piesczek del 2019, che ha confermato l’ammissibilità di ingiunzioni che ordinano ai provider di rimuovere e bloccare informazioni illegali.
La quarta decisione è la decisione Delfi del 2015 della Corte europea dei diritti dell’uomo, in cui un giornale estone è stato punito per non aver rimosso le espressioni di odio online.
Ci si chiede se i fornitori di VSP debbano andare oltre a quanto richiesto dalla direttiva sui servizi di media audiovisivi, ad esempio degradando i contenuti che non sono illegali.
In questo modo si apre la porta a un’arbitrarietà capricciosa.
Inutile dire che la linea di demarcazione tra questi obblighi imposti dalla legge europea e la libertà di espressione è molto sottile e grigia.
Fonte dell’immagine: Riverside