“Nel corso degli ultimi anni l’Autorità ha registrato un crescente e preoccupante acuirsi, nelle trasmissioni televisive di approfondimento informativo e di infotainment delle principali emittenti nazionali, del ricorso ad espressioni di discriminazione nei confronti di categorie o gruppi di persone (target) in ragione del loro particolare status economico-sociale, della loro appartenenza etnica, del loro orientamento sessuale o del loro credo religioso”. L’autorità per le garanzie nelle telecomunicazioni, l’AGCom, fa un passo importante: registra la diffusione del discorso d’odio sui media e nelle piattaforme online e avvia un iter per varare un regolamento per il rispetto della dignità umana, del principio di non discriminazione e di contrasto all’hate speech. Non sarà facile: l’autorità ragiona su regole che valgano per i media tradizionali così come per i social e immagina una serie di pratiche per limitarne il rilancio e contrastarne la diffusione. L’Autorità raccoglie così un’indicazione dell’Ufficio per le Istituzioni Democratiche e i Diritti Umani (ODIHR) dell’Osce che invita gli Stati membri “a indagare il potenziale legame tra un uso sempre crescente di internet e la diffusione di opinioni che possano costituire un incitamento, motivato da pregiudizio, alla violenza ovvero a crimini generati dall’odio, meglio noti come hate crimes”.
L’obiettivo è quello di contrastare l’istigazione all’odio che ha come movente l’etnia, il sesso, la religione o la nazionalità nei servizi media audiovisivi. L’idea è quella di un iter che porti al varo di regole atte “a prevenire e combattere fenomeni di discriminazione, spesso alimentati da strategie di disinformazione, in contrasto con i principi fondamentali di tutela della persona e del rispetto della dignità umana, in particolare allorquando alimentato da notizie inesatte, tendenziose o non veritiere”. Il regolamento è una risposta ai tempi. Durante la campagna elettorale del 2018, infatti, l’Autorità ha rilevato come il tema dell’immigrazione sia stato il macro tema più trattato. Parallelamente, l’Autorità registra come la figura del migrante sia uno dei principali bersagli dei diffusori di fake news e di “strategie di disinformazione”. Analoga segnalazione aveva fatto anche Carta di Roma nel suo rapporto 2018, che AgCom richiama nella sua delibera.
Gli ambiti di potenziale intervento sono molti e riguardano anche l’uso che i media tradizionali fanno dei social media. Esempio: come riprendo l’eventuale tweet carico d’odio di una figura pubblica e lo rilancio senza rilanciare il messaggio? Alcune delle ipotesi prese in considerazione sono: la distinzione del caso specifico dalla generalizzazione, il controllo del linguaggio e dei contenuti degli sms, post, tweet rilanciati nel rullo sottopancia in diretta, la verifica delle notizie o immagini che possano alimentare pregiudizi, generalizzazioni, stereotipi o convinzioni basate su discriminazioni. Attenzione, si tratta di cose che i media dovrebbero già fare. Con un problema: la distinzione tra programmi e media di informazione e di intrattenimento è divenuta molto labile e dare forme e seguito a queste ipotesi di regole non sarà semplice.
Il panorama cambia in fretta, le istituzioni di controllo spesso arrivano con ritardo, registrano l’importanza di un fenomeno con dei tempi che non sono quelli del Web. Eppure il fatto che le autorità di diversi Paesi, così come quelle europee, stiano sforzandosi di lavorare per individuare degli strumenti di contenimento della diffusione dell’hate speech è una cosa importante. Senza regole e sanzioni, quei veicoli che si vogliono neutri come i media (e tanto più i social media) e che neutri non sono, difficilmente si doteranno di codici di condotta efficaci.