Il 9 settembre scorso gli account ufficiali di Forza Nuova e Casapound, le due più grandi organizzazioni di estrema destra italiane, sono stati oscurati da Facebook e Instagram. Stessa sorte è toccata ai profili di diversi esponenti nazionali e locali, compresi quelli di Roberto Fiore e Gianluca Iannone. Il 22 settembre è stata la volta della pagina Facebook “Vox Italiae” creata dal filosofo sovranista Diego Fusaro, mentre su Instagram è stato bloccato un hashtag utilizzato nel lancio social del movimento. In entrambi i casi in esame l’oscuramento si configura come atto di “deplatforming”: con questa espressione si indicano, nel caso vengano utilizzate da social media e compagnie tecnologiche, una serie di restrizioni messe in atto nei confronti di utenti che hanno violato i termini di servizio della piattaforma, fino alla sospensione o cancellazione permanente dei loro profili e/o pagine.

Quanto accaduto non dovrebbe sorprendere: da anni esiste infatti un vivace dibattito sulle responsabilità che i social media hanno avuto e continuano ad avere nel diffondere ideologie e discorsi d’odio e della conseguente necessità di moderare contenuti potenzialmente dannosi per l’incolumità di una parte dell’utenza. Per quanto riguarda Facebook, in particolare, notevole peso hanno avuto gli attentati di Christchurch nel determinare una presa di posizione più decisa del social network nei confronti della rimozione dei contenuti d’odio: il 15 marzo 2019 il ventottenne neozelandese Brenton Tarrant riuscì ad uccidere cinquanta persone musulmane riunite in preghiera in una moschea e in un centro islamico e ne ferì altrettante. Entrambi gli attacchi vennero trasmessi in diretta Facebook e non furono immediatamente rimossi dalla piattaforma. A causa della vicinanza del terrorista agli ambienti neofascisti e della facilità con cui le immagini della strage erano circolate Facebook decise, su pressione di giuristi ed esperti dei diritti civili, di cancellare dal proprio regolamento la precedente e controversa distinzione tra “nazionalismo e separatismo bianco” e “suprematismo bianco”; questa ambiguità aveva permesso di veicolare espressioni di supporto al nazionalismo e al separatismo bianco ritenute non “esplicitamente razziste” e diffuso pertanto idee in linea con le azioni violente commesse da Tarrant. In seguito a questo giro di vite nelle settimane successive furono rimosse pagine di alcune organizzazioni e persone di estrema destra del Regno Unito, tra cui Britain First e British National Party (BNP). Anche i profili di alcuni dirigenti e militanti del partito neofascista Casapound erano stati disattivati.

Viste le premesse, ovvero la volontà di fermare la diffusione di discorsi d’odio, diversi esperti si sono interessati al tema, tentando di stabilire l’efficacia del deplatforming nel limitare i contenuti potenzialmente dannosi. Una delle prime ricerche effettuata in tal senso risale al 2017: studiosi del Georgia Institute of Technology, della Emory University e della University of Michigan riuscirono a dimostrare che la decisione di Reddit di cancellare alcuni subreddits che violavano il regolamento antidiscriminazione aveva determinato una diminuzione generale dei contenuti d’odio nella piattaforma pari all’80% nei successivi due anni. Questo era dovuto da una parte all’abbandono del social news di una parte degli utenti, dall’altra alla ricalibrazione del linguaggio utilizzato dagli altri, nel timore di ulteriori provvedimenti. Essendo la ricerca focalizzata su Reddit gli studiosi non erano stati in grado di determinare se e dove si fossero spostati i discorsi d’odio non tollerati. La struttura tipica di Reddit aveva inoltre avuto un peso non indifferente nella relativa facilità di rimuovere i contenuti controversi. Nello stesso anno l’istituto di ricerca Data and Society diretto da Joan Donovan ha indagato gli effetti del deplatforming su Facebook, Twitter e YouTube notando un pattern ricorrente: se nell’immediato periodo successivo alla rimozione dei profili o delle pagine incriminate si registrava un picco di popolarità e interesse nei confronti delle personalità o organizzazioni colpite, dall’altra, sul lungo periodo il deplatforming si mostrava efficace nel limitare e depotenziare la diffusione di contenuti d’odio con ripercussioni anche economiche per chi era stato bandito. In tal senso il caso del giornalista Milo Yiannopoulos appare emblematico: dopo essere stato bandito da Twitter nel 2016 per aver incitato una campagna d’odio verso l’attrice Leslie Jones, è stato oscurato permanentemente anche da Facebook e Instagram, caso atipico. Questo ha comportato la necessità di utilizzare in modo più sistematico altre piattaforme minori tra cui Telegram; stando alle stesse dichiarazioni di Yiannopoulos il ridimensionamento subito dalla sua audience potenziale è stato determinante nel compromettere la sua emergente carriera e rendergli difficile sostenersi economicamente attraverso la promozione dei suoi libri o conferenze. Il danno economico derivato dal deplatforming può dunque essere un deterrente piuttosto efficace.

Un altro case study eccellente può essere quello di Alex Jones e del suo sito di notizie Info Wars. Jones è un conduttore radiofonico di estrema destra, noto per sostenere numerose teorie complottistiche, da quelle che negano l’allunaggio fino a quelle legate all’attentato dell’11 settembre. I suoi account e le pagine relative al suo sito sono stati eliminati da Facebook, YouTube e Spotify nell’agosto 2018 per istigazione all’odio e per lo stesso motivo cinque dei suoi podcast sono stati eliminati da iTunes. Il New York Times ha monitorato il traffico verso il sito Infowars notando che esso è precipitato notevolmente sulla scia del suo esilio da Facebook e YouTube. Secondo l’analisi del Times, la portata del sito di Jones è passata da 1,4 milioni di visitatori ogni giorno a soli 715.000, e un picco temporaneo nel traffico verso Infowars non ha sostituito le circa 900.000 visualizzazioni video di cui Facebook e YouTube erano responsabili ogni giorno per le tre settimane precedenti al deplatforming.

I motivi di tale fenomeno risiedono nel fatto che i social media hanno tutto l’interesse a proporsi come strumenti dai tratti abitudinari e in grado di rendere facilmente fruibili le informazioni ai propri utenti; questo ha portato allo sviluppo di espedienti che rendono estremamente immediato l’accesso ai contenuti preferiti dall’utente: la campanella di YouTube o le notifiche di Facebook ne sono esempi. La comodità provoca un’affezione maggiore da parte degli utenti al contenitore rispetto al creatore di contenuto. Pertanto, una buona parte del pubblico, invece di continuare a seguire chi viene bandito da un social su altre piattaforme, preferisce dirigere il proprio interesse su creatori di contenuti analoghi nel medesimo social. Diminuendo l’esposizione mediatica della personalità controversa diminuisce poi ulteriormente la possibilità di trovare nuovo pubblico, in un circolo vizioso al ribasso in termini di diffusione delle informazioni. Contemporaneamente si verifica un’autolimitazione degli utenti dei discorsi d’odio per evitare di incorrere a propria volta nel deplatforming e i cui effetti si apprezzano anche a distanza di anni.

Solo una parte dell’utenza, di solito quella già formata nelle idee d’odio, può decidere di seguire chi viene bandito su altri social, come Gab.ai, un social network che si sta affermando proprio in virtù della supposta libertà totale di espressione garantita agli utenti. In tali spazi può tuttavia generarsi un processo di radicalizzazione tale da generare in alcuni il dilemma su cosa possa essere preferibile tra una piattaforma social facilmente raggiungibile, composita e variegata in termini di ideologie e contenuti, dove tuttavia una parte dell’utenza può essere esposta a contenuti d’odio e potenzialmente lesivi per la propria serenità, e una piattaforma a cui si accede soltanto volontariamente e in cui l’omogeneità di messaggi e idee può portare a una radicalizzazione di un esiguo gruppo di persone. Non conosciamo ancora completamente gli effetti a lungo termine di questo andamento e se la lenta crescita di questi spazi privi di regolamentazione possa essere ulteriormente arrestata dal loro stesso essere isole che gli utenti devono volontariamente raggiungere perché già interessati a fruire di contenuti discriminatori verso minoranze.

La perplessità principale, dunque, che le società tecnologiche dovranno affrontare nel prossimo futuro non verterà tanto sull’efficacia del deplatforming nel contrastare la diffusione di odio all’interno del proprio spazio quanto sui possibili effetti collaterali derivanti nel creare nicchie virtuali esterne, prive di alcun controllo. Il forum 8chan, dove ben tre terroristi legati al suprematismo bianco (ivi compreso Terrant) hanno trovato possibilità di diffondere le loro idee e i loro atti, può essere visto come prototipo di ciò che in futuro le società tecnologiche dovranno imparare a gestire, nell’interesse della sicurezza di tutti i loro utenti.

Crediti: Twin Design / Shutterstock.com

Argomenti

#piattaforma#social media#odio#Facebook