In rete: ecco dove l’odio sta di casa

Alla fine del 2015 Facebook contava 1,59 miliardi di utenti attivi al mese, i quali, tutti insieme, pubblicano più di due miliardi e mezzo di messaggi al giorno. Gli utenti attivi su Twitter invece sono circa 320 milioni e la media quotidiana di tweet è di 500 milioni. Su YouTube vengono caricati filmati con una media di 48 ore di nuovi contenuti ogni minuto. Sulla base di queste cifre esorbitanti, è evidente che per i grandi social network è del tutto impossibile valutare ogni singolo contenuto caricato da ogni singolo utente. Non solo: è altresì tecnicamente difficile creare sistemi automatici di blocco preventivo dei contenuti offensivi o di tutte quelle espressioni che rientrano nella discussa categoria degli «hate speech».

La categoria hate speech – espressione traducibile in italiano con la formula «incitamento all’odio» – è stata elaborata nel corso del Novecento dalla giurisprudenza americana per indicare un genere di parole o di discorsi che non hanno altra funzione se non quella di esprimere odio o intolleranza verso una persona o un gruppo. Nel linguaggio ordinario attuale, hate speech indica più ampiamente un genere di offese fondate su un qualsiasi tipo di discriminazione (sia essa razziale, etnica, religiosa o di orientamento sessuale).

Tema scottante del dibattito odierno, la condanna degli hate speech si regge su un equilibrio altamente problematico con la libertà di parola, principio fondante di ogni democrazia. La questione è controversa soprattutto nel caso della libertà di espressione sui social, dove non esistono normative internazionali condivise. Le difficoltà tecniche legate alla valutazione di contenuti offensivi hanno spinto aziende come Facebook o YouTube ad affidare una parte del lavoro alla comunità di utenti attraverso il sistema delle segnalazioni. Questo meccanismo – sfruttato purtroppo soltanto da una minoranza degli iscritti – serve ad elaborare un algoritmo sviluppato in parte mediante l’apprendimento meccanico di dati e in parte mediante il lavoro umano di supervisione dei cosiddetti «Deciders». I Deciders – «quelli che decidono» – sono coloro che ogni giorno si trovano di fronte a domande piuttosto complesse dal punto di vista teorico, del tipo: «Questo post è espressione di razzismo o commento politico?»; oppure: «Questo discorso è omofobo o è una semplice opinione?». Dov’è il confine tra il diritto alla libertà di pensiero e quello alla non discriminazione?

Considerando questa commistione di difficoltà tecniche e teoriche, i sistemi di censura di cui si servono oggi i social non possono che essere pieni di falle. E si vede. Manifestazioni di xenofobia, omofobia, razzismo o islamofobia sono sempre più diffuse. Nel 2014, l’Unar – Ufficio Nazionale Antidiscriminazioni Razziali – aveva già riscontrato in Italia 347 casi di espressioni discriminanti, di cui 185 su Facebook e il restante su Twitter e Youtube. A questi si devono sommare 326 segnalazioni nei link che le rilanciano, per un totale di 700 episodi denunciati di intolleranza. Nel 2015, con la grande crisi umanitaria che coinvolge i rifugiati e con le stragi terroristiche, i numeri sono cresciuti in modo preoccupante. A farla breve, in rete, l’odio pare essere di casa.

In rete, perché non sono solo i social a doversi allarmare: nei commenti a margine di moltissimi articoli di testate giornalistiche si rilevano sempre più spesso inaccettabili casi di intolleranza. Fino a venti anni fa, il compito di chi si occupava di informazione poteva dirsi concluso con il punto in calce all’ultima frase del pezzo. Ai lettori non era concesso esprimere dissenso (se non con la rubrica delle lettere). Oggi tutto è cambiato. Oggi l’articolo va ben oltre il punto. Viene commentato sul sito e condiviso sui social in una lunga conversazione in cui il popolo digitale, continuamente chiamato a dire la sua su qualsivoglia argomento, spesso dà il peggio di sé senza che nessuno ponga dei limiti.

Nel Belpaese, la prima ricerca italiana sugli hate speech dal titolo significativo L’odio non è un’opinione. Hate speech, giornalismo e migrazioni ha cercato di fare il punto della situazione. Il lavoro, realizzato dal Cospe nell’ambito del progetto europeo contro il razzismo e la discriminazione sul web (BRICkS: Building Respect on the Internet by Combating hate Speech), è stato presentato il 17 marzo presso la Federazione Nazionale della Stampa a Roma in vista della Giornata mondiale contro il razzismo (21 marzo). Il progetto rappresenta un indubbio passo avanti e sta raccogliendo i suoi frutti ben più in là delle Alpi. Il noto giornale britannico The Guardian, ad esempio, ha deciso di limitare la possibilità di commentare articoli sul tema dell’immigrazione o articoli che hanno per protagonisti determinati gruppi razziali, poiché questi attraggono sempre un alto numero di commenti che tendono alla discriminazione. Non è il solo: Reuters, CNN e il Chicago Sun-Times hanno già da tempo deciso di limitarli severamente, così come il New York Times che controlla ogni post prima della pubblicazione. Un percorso che, di pari passo con la crescita dei commenti, è iniziato nel 2012 e del quale Wired ha ripercorso le tappe fondamentali. Sempre il New York Times, assieme al Washington Post, ha avviato un progetto di collaborazione con Mozilla chiamato Coral Project. L’obiettivo è quello di creare un software per gli editori in grado di ottimizzare le interazioni tra le redazioni e il proprio pubblico e quindi di classificare i commenti in base alla qualità del loro contenuto.

E in Italia? In Italia sono poche le testate giornalistiche che hanno imitato i colleghi d’oltreoceano. Il Fatto Quotidiano ha optato per la moderazione passando al vaglio tutti i commenti prima della pubblicazione. La Stampa ha invece deciso di togliere la possibilità di commentare sul sito, così da poter concentrare gli sforzi di moderazione sui vari social. Qui rimaniamo ancora molto indietro: mentre il governo tedesco è riuscito ad esigere capillari controlli sull’hate speech su Facebook, non risulta che in Italia sia stata avanzata una richiesta analoga. Nella nostra rete, l’odio si trova ancora a suo agio. Infatti, scorrendo le pagine delle più diffuse community, ci si accorge facilmente che filtri automatici e Deciders non sono abbastanza. Anzi.
In attesa che qualcuno dei nostri ministri si prenda a cuore la campagna #NoHateSpeech, la cosa migliore che ognuno di noi può fare è offrire la propria collaborazione, cosicché tutti insieme – giornalisti, lettori e iscritti ai social – potremo costruire una cultura digitale sana in cui non vi sia posto per l’odio.

Immagine di copertina da www.bricksproject.eu.

Già laureata in Lettere, sto ora per concludere il corso di laurea magistrale in Filologia Moderna. Quando non sto studiando, leggo viaggio o combino pasticci. Amo i film strappalacrime, le foto in bianco e nero, la musica malinconica e i romanzi intimisti. E se state pensando che io sia melodrammatica, non vi sbagliate. Lo sono, ma non ditemelo: mi imbarazzo facilmente.

One thought on “In rete: ecco dove l’odio sta di casa

  1. E’ giustissimo educare la gente a non offendere il prossimo, meno giusto è non poter esprimere opinioni che contrastano con le “mode culturali” del momento. Si rischierebbe un razzismo al contrario, una pericolosa censura del pensiero. Sono per l’espressione libera del dissenso, purché non si trascenda nella volgarità o nelle offese gratuite: quelle dovrebbero essere già bandite dalla buona educazione, senza scomodare le leggi. Il rispetto degli altri andrebbe impartito nelle famiglie, rimodulando civilmente il confronto anche tra opinioni diverse o non condivise.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *