Nella giornata di ieri, 27 marzo, Facebook (e di conseguenza anche Instagram) ha annunciato, con un post online, che vieterà, a partire già dalla prossima settimana, tutte le forme di lode o sostegno al “nazionalismo bianco” e al “separatismo bianco” sulle piattaforme di sua proprietà. Questo atto mette fine al gioco di ambiguità linguistiche sul noto social network, riconoscendo una più stretta ed esplicita correlazione tra il “nazionalismo bianco” e il “razzismo”.
La decisione, rimbalzata su tutti i media americani ed internazionali, è stata presa dopo l’attentato del 15 marzo a Christchurh, in Nuova Zelanda, dove Brenton Tarrant, che si era definito un “suprematista bianco”, aveva ucciso 50 persone che si trovavano in due moschee della città, trasmettendo in diretta su Facebook la strage. Subito dopo la strage, Facebook ha riferito di aver rimosso globalmente 1,5 milioni di copie del filmato nelle prime 24 ore, mentre altri 1,2 milioni sono stati bloccati in upload. Per rimuovere completamente le riprese diffuse in diretta da Tarrant, Facebook ha dovuto impiegare un’intera ora, durante la quale il video è stato visto da 250 mila persone ed è stato copiato su Facebook e su YouTube, spesso con piccole modifiche per superare i filtri di censura. Altrettanti video sono stati oscurati da YouTube e altre piattaforme.
A pochi giorni dalla sparatoria, molti utenti del web si chiedono ancora come mai le intelligenze artificiali (i cosiddetti “algoritmi”) che moderano i contenuti sui social network non abbiano potuto rilevare automaticamente il video dell’attentato. Facebook ha dovuto ammettere che il funzionamento della sua intelligenza artificiale contiene alcuni limiti (e di qui la decisione).
L’algoritmo usato per rilevare i contenuti da rimuovere dal social network necessita, infatti, di “dati di addestramento” per apprendere a riconoscere i contenuti da bloccare. Questo significa che sono necessari migliaia di “esempi” prima di poter “addestrare” il sistema a rilevare determinati tipi di testo, immagini o video. Per quanto riguarda il video dell’attentato di Christchurch, quindi, l’intelligenza artificiale facebookiana non è riuscita a riconoscerlo automaticamente come una “minaccia”, e sono stati, invece, gli operatori “umani” che, dopo le segnalazioni, lo hanno bloccato. Questo evidenzia, di conseguenza, un fatto molto semplice: per monitorare e moderare bene i contenuti sui social occorre impiegare le persone, come del resto era stato già richiesto ai rappresentanti del network anche nel nostro paese nel corso delle audizioni svolte presso la Commissione Cox sull’odio online.
Il sito di tecnologia The Verge, di recente, ha pubblicato un lungo articolo in cui ha raccontato la dura vita quotidiana dei moderatori “umani” dei contenuti di Facebook (più precisamente di quelli che lavorano per Cognizant, una società a cui Facebook appalta una parte dell’enorme lavoro richiesto dalla revisione giornaliera dei contenuti segnalati o che potenzialmente violano le linee guida del social network). L’articolo di The Verge, d’altro canto, non è il primo a parlare delle difficili condizioni di lavoro degli operatori che lavorano in questi centri: ne erano usciti altri su Wired, sul Guardian e su Motherboard.
Ma torniamo alla nota diffusa da Facebook. «Le nostre politiche hanno per molto tempo proibito forme di odio basate su caratteristiche come la razza, l’etnia o la religione, incluso il suprematismo bianco», dice la nota, «Non abbiamo però applicato la stessa logica alle espressioni di nazionalismo bianco e separatismo bianco, perché pensavamo ai concetti più ampi di nazionalismo e separatismo, come l’orgoglio americano o il separatismo basco, che sono una parte importante dell’identità delle persone. Ma negli ultimi tre mesi, il confronto con membri della società civile e accademici in tutto il mondo, hanno confermato che il nazionalismo e il separatismo bianco non possono essere considerati fenomeni a parte rispetto alla supremazia bianca e ai gruppi fomentatori di odio».
Il colosso di Zuckerberg si è posto, dunque, come obiettivo urgente quello di ridurre drasticamente le azioni informatiche dei fomentatori di odio online, includendo anche altre forme ed espressioni. Una svolta quasi inevitabile per il social network, dopo mesi di discussioni e revisione delle sue politiche di moderazione dei contenuti (noi ne avevamo parlato qui a febbraio). Facebook ha tenuto a precisare anche che indirizzerà le persone che cercano di pubblicare contenuti associati al nazionalismo o al separatismo bianco verso l’organizzazione no profit Life After Hate, che aiuta le persone ad abbandonare i gruppi d’odio.
Una presa di posizione importante, che tuttavia ha le sue radici nel 2017, quando a Charlottesville, in Virginia, i “suprematisti” avevano marciato al grido di “white lives matter”. Facebook aveva iniziato all’epoca un percorso di revisione delle proprie regole, volto proprio a meglio identificare le manifestazioni d’odio ed i gruppi maggiormente attivi. Ma il problema di fondo resta quello di tentare di dare una definizione uniforme e condivisa dei reati d’odio, soprattutto in rete, per poter costruire delle politiche di contrasto efficaci, e farle poi diventare “istruzioni” da impartire a chi tenta, suo malgrado, di eseguire la moderazione “umana” di questo tipo di contenuti.
In barba all’algoritmo.