di Paola Andrisani
Le elezioni europee di domenica prossima, si svolgeranno dopo una campagna elettorale che, nella gran parte dei paesi europei, ha avuto tra i temi più ricorrenti le migrazioni e la gestione delle politiche migratorie. Nel nostro paese era già avvenuto nel 2014, ma i toni di oggi sono molto più aggressivi di cinque anni fa e sembrano, purtroppo, aver acquisito in molti Paesi membri, un consenso crescente nell’opinione pubblica.
La più grave crisi umanitaria dalla Seconda guerra mondiale ad oggi, che nei soli 2015 e 2016 ha visto più di due milioni e mezzo di persone fare domanda di asilo in Europa, ha diviso profondamente l’Unione Europea, incapace di trovare un accordo su un sistema comune di asilo e di evitare che più di 15mila migranti perdessero la vita nel Mediterraneo solo tra il 2014 e il 2018 (stime Unhcr) [1].
Negli ultimi due anni gli arrivi sono tornati ai livelli del 2013, ma la retorica politica xenofoba anziché spengersi, ha continuato a propagarsi sempre più violenta. Il Parlamento e l’Unione hanno cercato di rispondere a questo problema modificando le regole sull’asilo in Europa, tentando di creare un sistema per la distribuzione dei richiedenti asilo fra i paesi UE, ma anche rafforzando i controlli alle frontiere via terra e via mare. Passaggio simbolico è stato, a fine 2014, l’avvio dell’operazione Triton, condotta da Frontex, l’Agenzia europea per la gestione delle frontiere esterne, in sostituzione di Mare Nostrum.
E mentre si esternalizzavano le frontiere, cercando di proteggere i confini, paradossalmente, al tempo stesso, l’Europa ha dovuto far fronte ad un attacco dall’interno, costituito da una lunga serie di attentati terroristici, dagli attacchi di Tolosa del 2012 a quello al mercatino di Natale a Berlino nel 2016, passando per il Bataclan a Parigi nel novembre 2015, Bruxelles, Nizza, Rouen, tutti gli attacchi dell’estate del 2016 in Germania, fino ad arrivare agli attentati di Westminster nel marzo 2017, San Pietroburgo, Stoccolma, Manchester, Londra, Barcellona e infine a Strasburgo nel 2018. L’immediata conseguenza è stata, anche in questo caso, l’acutizzarsi dei discorsi d’odio, tanto in politica quanto nella vita comune.
A questo clima molto teso e complesso si è aggiunta l’escalation molto preoccupante della destra radicale in tutta Europa. Sempre più spesso i partiti della destra radicale sono riusciti ad arrivare al governo, in genere grazie ad alleanze con i partiti conservatori che hanno talmente indurito le loro posizioni, al punto da mescolarsi all’estrema destra vera e propria. Coalizioni di questo tipo sono al governo in Ungheria, Polonia, Austria e Belgio, mentre è preoccupante l’aumento di consensi anche in paesi come la stessa Francia o la Germania. Anche in Italia, oltre al successo della Lega, c’è stata una netta avanzata anche dei partiti apertamente neofascisti.
Le istituzioni europee hanno cercato di arginare e combattere su più fronti la proliferazione dell’hate speech [2]. E lo hanno fatto cercando, da un lato, di dare una “definizione” condivisa del fenomeno e, dall’altro, di dotarsi di “strumenti” di contrasto per combatterlo, sperimentando e procedendo per tentativi, cercando di organizzare una risposta che, tuttavia, malgrado gli sforzi, risulta ancora da perfezionare e rafforzare.
Il problema concreto che si pone è che se già in partenza, non si riesce a dare una definizione precisa e condivisa di hate speech, risulterà sempre difficile e complicato trovare un mezzo efficace che lo sconfigga.
Nel tempo, sono stati molteplici, sebbene non sempre coincidenti [3], i tentativi di dare al fenomeno almeno una definizione esaustiva. Ma resta ancora aperta la sfida di trovare un se pur flebile equilibrio tra una efficace regolamentazione normativa del fenomeno e la fondamentale garanzia della libertà d’espressione.
Definire e contrastare
Di fatto, cosi come non esiste una definizione precisa, non esiste neanche una legislazione che con efficacia colpisca l’hate speech in tutte le sue sfaccettature. Nel contesto europeo, l’hate speech può essere ricondotto a una di quelle forme di discriminazione vietate dall’art. 14 della Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali (Cedu) [4], mentre più di recente possiamo accostarlo alla definizione contenuta nella raccomandazione del Comitato dei Ministri del Consiglio d’Europa del 30 ottobre 1997 [5] o più in generale, sempre nell’ambito del Consiglio d’Europa, a quella del Protocollo addizionale alla Convenzione di Budapest sulla criminalità informatica firmato a Strasburgo il 28 gennaio 2003 [6], relativo all’incriminazione di atti di natura razzista e xenofobica commessi a mezzo di sistemi informatici.
Tuttavia per arrivare ad una definizione più completa di hate speech (nemmeno questa esaustiva) dobbiamo attendere la Decisione quadro 2008/913/GAI del Consiglio, del 28 novembre 2008, sulla lotta contro talune forme ed espressioni di razzismo e xenofobia mediante il diritto penale. La decisione quadro è importante perché qualifica come reato “l’istigazione pubblica alla violenza o all’odio nei confronti di un gruppo di persone, o di un suo membro, definito in riferimento alla razza, al colore, alla religione, all’ascendenza o all’origine nazionale o etnica”. Quell’istigazione all’odio costituisce reato anche quando avviene online.
Successivamente, il Parlamento europeo, con una risoluzione approvata il 14 marzo 2013 sul rafforzamento della lotta contro il razzismo, la xenofobia e i reati generati dall’odio (2013/2543(RSP), ha evidenziato l’esigenza di una revisione della decisione-quadro 2008/913/Gai, in modo da includervi anche le manifestazioni di antisemitismo, intolleranza religiosa, antiziganismo, omofobia e transfobia.
Tuttavia, l’Europa ha cercato anche una possibile alternativa (o integrazione) agli strumenti normativi di tipo più repressivo, puntando anche a sostenere l’implementazione dei cosiddetti “sistemi di autoregolamentazione”.
Autoregolamentare
Ed è così che si giunge al 31 maggio 2016, quando la Commissione europea insieme ai quattro colossi dell’informatica (Facebook, Microsoft, Twitter e YouTube) ha presentato l’innovativo “Codice di condotta per contrastare l’illecito incitamento all’odio online” (CoCEN) [7]. La frequenza degli attacchi terroristici e la contestuale crescita di posizioni estremiste, razziste e xenofobe, hanno sollecitato l’attenzione tanto delle istituzioni europee quanto quella degli enti gestori di piattaforme e social network, e più in generale delle aziende IT, che si sono, quindi, impegnate ad aumentare i loro sforzi per combattere i discorsi di odio online, rivedendo le loro politiche di funzionamento per rimuovere [8] o disabilitare l’accesso a tali contenuti in meno di 24 ore, pur preservando la libertà di espressione come valore “europeo”. Il tutto in un evidente processo di “responsabilizzazione” (o forse anche di “delega” a) delle aziende private chiamate in prima persona a prendere l’iniziativa in materia di discorsi di odio online, fungendo al tempo stesso da legislatori, giudici ed esecutori. Il Codice di condotta, inoltre, ha obbligato le aziende di tecnologia a identificare e promuovere “contro-narrazioni indipendenti”.
La Commissione europea, a distanza di alcuni mesi, ha poi effettuato un primo monitoraggio per verificare l’effettiva applicazione del Codice, affidando il compito a 12 organizzazioni in 9 paesi europei (inclusa l’Italia), e il 7 dicembre 2016 ne ha presentato i risultati. Le seicento segnalazioni monitorate per la prima volta dagli enti e le associazioni coinvolte riguardano contenuti pubblicati prevalentemente su Facebook (45% dei casi, ossia 270 segnalazioni), seguiti da quelli su Twitter (27%, che equivale a 163), YouTube (21%, 123 contenuti) e altre piattaforme (7%). Principale bersaglio delle parole d’odio oggetto del monitoraggio è stata nel 23.7% delle segnalazioni la comunità ebraica, seguita dai discorsi d’odio sulla base della nazionalità (21%) e quelli contro i musulmani (20.2%). Per quel che riguarda il numero di contenuti segnalati e rimossi, in prima posizione YouTube, con il 48.5%; viene poi Facebook (la rimozione ha interessato il 28.3% dei casi) e infine Twitter (con il 19.1%). Tuttavia, soltanto 169 contenuti segnalati sono stati rimossi (pari al 28.2%), con una percentuale di rimozioni variabile da paese a paese. L’Italia ha registrato il minor numero di contenuti rimossi: solo il 3.6% (su 110 segnalazioni). Solo nel 40% dei casi, i contenuti segnalati sono stati analizzati e rimossi entro 24 ore. Successivamente, i risultati del secondo e terzo monitoraggio, a scadenza semestrale, pubblicati rispettivamente il 1º giugno 2017 [9] e il 19 gennaio 2018, hanno evidenziato progressi non enormi, ma costanti.
Dopo il secondo monitoraggio, sono stati eliminati il doppio dei casi di incitamento all’odio rispetto al primo (in media un 59% a fronte del 28%). Anche la percentuale di notifiche riesaminate entro 24 ore è passata dal 40% al 51%. Facebook, tuttavia, è la sola società che ha raggiunto pienamente l’obiettivo di riesaminare la maggior parte delle notifiche entro il giorno stesso. Infine, il monitoraggio ha evidenziato che mentre Facebook invia agli utenti un feedback sistematico sul modo in cui le loro notifiche sono state valutate, tra le società informatiche le pratiche differiscono notevolmente.
Nel terzo monitoraggio, sono 2982 le segnalazioni in totale ricevute dalle IT companies aderenti al Codice, prevalentemente da Facebook, seguito da Twitter e YouTube. La percentuale di rimozione è salita al 70%, pur persistendo un 30% di segnalazioni che non ricevono alcun feedback. Le rimozioni sono avvenute nell’81% dei casi entro ventiquattro ore dalla segnalazione. I contenuti d’odio hanno riguardato prevalentemente l’origine “etnica” (17,1% dei casi), l’islamofobia (16,4%), la xenofobia (16%), l’orientamento sessuale (14%). Il 2018 [10], in ogni caso, è stato un anno positivo anche per l’adesione al Codice di altre quattro società: Google+, Instagram, Snapchat e Dailymotion (prima società IT con sede in Europa a partecipare a questo lavoro, ndr).
Infine, l’ultimo monitoraggio, presentato il 4 febbraio 2019 [11] (giorno in cui anche la società francese jeuxvideo.com/Webedia ha annunciato l’adesione), che include anche Instagram e Google+, mostra che circa l’89% delle notifiche viene valutato entro 24 ore. Facebook ha persino raggiunto il 92,6% delle notifiche valutate entro 24 ore. In media, le aziende IT hanno rimosso quasi il 72% degli episodi di incitamento all’odio notificati loro dalle ONG e dagli enti pubblici che partecipano alla valutazione. Persistono ancora alcune lacune nelle informazioni fornite agli utenti sul risultato delle loro notifiche: di fatto, Facebook resta l’unica piattaforma che fornisce un feedback sistematico a tutti gli utenti, mentre le altre piattaforme non raggiungono ancora questi livelli.
Quali risultati? Quali prospettive?
In linea generale, l’Europa ha fatto notevoli passi avanti in materia, tanto nella definizione ed inquadramento del fenomeno, quanto nella sua “regolamentazione” normativa. Tuttavia, va fatto rilevare che, innanzitutto, potrebbe risultare discutibile affidare soltanto ad alcune grandi aziende private (che rappresentano comunque solo una piccola parte di chi opera nel web) il delicato compito di vagliare la fondatezza e l’attendibilità delle segnalazioni dei loro utenti circa i discorsi d’odio, e soprattutto, di decidere quali contenuti sia opportuno rimuovere, senza che la decisione sia assistita da garanzie giurisdizionali.
Anche la tempestiva rimozione dei contenuti di odio dalle piattaforme online entro le 24 ore, esaltata come un’ottima prestazione, nei fatti costituisce una forma “repressiva” che non previene né ostacola la formazione nell’opinione pubblica di idee basate sull’odio e sulla discriminazione, ma semplicemente ne impedisce (o tenta di impedirne) la diffusione attraverso la rete, spostandone altrove la loro diffusione (forse anche nella vita reale?).
Il contrasto all’hate speech, per essere efficace, dovrebbe invece puntare sulla promozione di politiche volte alla riduzione del disagio sociale diffuso, nonché all’educazione e responsabilizzazione di tutti i cittadini, rafforzando in parallelo tanto le contro-narrazioni, quanto gli strumenti di diritto e insieme l’utilizzo consapevole delle nuove tecnologie. Questo per non affidare né al singolo né ad un mero algoritmo la capacità di giudicare cosa sia discriminatorio ed offensivo oppure no.
Per approfondire:
Citizen Journalists on Tour (2017), COUNTERING HATE SPEECH, Manual, Kreisau-Initiative
SELMA (2019), Hacking Online Hate: Building an Evidence Base for Educators.
Article 19, Responding to ‘hate speech’: Comparative overview of six EU countries, 2018
Note:
[1] I dati sono disponibili qui: https://app.powerbi.com/view?r=eyJrIjoiZGJmNDAyZmMtOTNhNy00ZDAxLWEwOTMtNTI4NmM0ODdiYmU5IiwidCI6ImU1YzM3OTgxLTY2NjQtNDEzNC04YTBjLTY1NDNkMmFmODBiZSIsImMiOjh9
[2] Secondo la definizione della IATE (Inter-Active Terminology for Europe) è una «qualsiasi forma di espressione che diffonda, inciti, promuova o giustifichi l’odio razziale, la xenofobia, l’antisemitismo ovvero altre forme di odio basate sull’intolleranza, tra cui quella forma di intolleranza che si esprime sotto forma di nazionalismo aggressivo e di etnocentrismo, di discriminazione e di ostilità nei confronti delle minoranze, degli immigrati e delle persone provenienti da un contesto migratori».
[3] Fra le tante: art. 7 della Dichiarazione universale dei diritti umani del 1948; artt. 19 e 20 della Convenzione internazionale sui diritti civili e politici (ICCPR); la Convenzione per la prevenzione e punizione del crimine di genocidio (1951); la Convenzione internazionale sull’eliminazione di ogni forma di discriminazione razziale (ICERD, 1969); la Convenzione per l’eliminazione di discriminazione contro le donne (CEDAW, 1981); l’art. 11 della Carta dei diritti fondamentali dell’Unione europea.
[4] L’art. 14 della Cedu vieta infatti le discriminazioni «fondate sul sesso, la razza, il colore, la lingua, la religione, le opinioni politiche o quelle di altro genere, l’origine nazionale o sociale, l’appartenenza a una minoranza nazionale, la ricchezza, la nascita od ogni altra condizione».
[5] «The term “hate speech” shall be understood as covering all forms of expression which spread, incite, promote or justify racial hatred, xenophobia, antisemitism or other forms of hatred based on intolerance, including: intolerance expressed by aggressive nationalism and ethnocentrism, discrimination and hostility against minorities, migrants and people of immigrant origin».
[6] «Any written material, any image or any other representation of ideas or theories, which advocates, promotes or incites hatred, discrimination or violence, against any individual or group of individuals, based on race, colour, descent or national or ethnic origin, as well as religion if used as a pretext for any of these factors».
[7] Il 5 ottobre 2016, per garantire un’efficace misurazione dei progressi compiuti in merito agli impegni del Codice di condotta, il sottogruppo della Commissione sulla lotta contro l’incitamento all’odio online ha concordato una metodologia comune per valutare le reazioni delle imprese IT alla notifica di discorsi di incitamento all’odio illegali.
[8] La cosiddetta procedura di “Notice and Take Down”, letteralmente traducibile in “Notifica e rimozione”. E’ la procedura di notifica ad un soggetto, fornitore di un servizio di comunicazione, che un determinato contenuto viola i diritti di un altro soggetto, o che un contenuto è illecito. Alla ricezione della notifica il soggetto fornitore di un servizio di comunicazione sarà tenuto a rimuovere quel contenuto.
[9] Il 28 settembre 2017 la Commissione ha adottato una comunicazione (Communication on Tackling Illegal Content Online – Towards an enhanced responsibility of online platforms) contenente una serie di linee guida, destinate alle piattaforme, sulle procedure di segnalazione e azione per contrastare i contenuti illegali online. Si tratta di un documento di orientamento che, in particolare, sottolinea l’importanza di contrastare l’illecito incitamento all’odio online e la necessità di continuare a favorire l’attuazione del Codice di condotta.
[10] Il 1º marzo 2018 è stata pubblicata una raccomandazione (n. 1177) della Commissione Europea sulle misure per contrastare efficacemente i contenuti illegali online (Commission Recommendation on measures to effectively tackle illegal content online) comprendente due parti distinte: una generale, sulle misure applicabili a tutti i tipi di contenuti illegali, e una specifica, sulle azioni speciali che le piattaforme dovrebbero intraprendere per contrastare la presenza di contenuti terroristici.
[11] Il 31 gennaio 2019, prima della pubblicazione degli ultimi risultati, si è tenuta una tavola rotonda ad alto livello su “Hate Speech and Artificial Intelligence Tools”, organizzata dal Centro di regolamentazione in Europa (CERRE).