14 ottobre 2019

Censura e altri danni collaterali: la sfida della regolazione dei social network

di Matteo Nebbiai

● Scenari internazionali

 

Facebook has just stated that they are setting up a system to “purge” themselves of Fake News. Does that mean CNN will finally be put out of business? -Donald Trump

 

Per ogni problema complesso, c’è sempre una soluzione semplice. Che è sbagliata. -George Bernard Shaw

 

Negli ultimi dieci anni, l’opinione sul rapporto tra politica e tecnologie digitali ha subito un’inversione di rotta: dall’ammirazione per l’uso di Twitter nelle primavere arabe e per la pubblicità targettizzata sfruttata da Barack Obama nella sua campagna elettorale, si è passati allo scandalo di Cambridge Analytica e a misure emergenziali per difendere le elezioni francesi dalla propaganda sui social network. Dall’ottimismo della piattaforma Rousseau alla paura dei BOT russi. L’aumento delle preoccupazioni è avvenuto a tutti i livelli: oggi l’opinione pubblica è molto più sensibile ai pericoli della rivoluzione digitale. In questo momento nessuno, dai legislatori, alle aziende, ai cittadini, sembra soddisfatto del modo in cui è gestito il dibattito pubblico su internet. Molti politici sentono l’urgenza di stabilire nuove regole, ma trovare le risposte giuste è tutt’altro che semplice. Vale la pena di ricordare la prima legge della tecnologia di Malvin Kranzberg: “La tecnologia non è né buona né cattiva; non è neanche neutrale”. In altre parole, le sfide che abbiamo di fronte sono piene di sfumature politiche.

 

Pericoli reali, pericoli percepiti

 

Una delle questioni centrali nel rapporto tra democrazia e digitale è il sistema di moderazione dei contenuti sulle piattaforme di discussione online: notizie false, propaganda terroristica, contenuti discriminatori e discorsi che incitano all’odio sono le principali preoccupazioni dei legislatori. Emmanuel Macron, poco dopo le elezioni presidenziali del 2017, affermava che “se vogliamo proteggere le democrazie liberali, dobbiamo essere forti e avere regole chiare”. La possibilità di manipolare l’elettorato attraverso notizie tendenziose che vengono diffuse in modo personalizzato è da molti visto come il maggior pericolo per la democrazia, oltre che un fattore decisivo della vittoria di leader populisti negli Stati Uniti, in Brasile, etc. I social network sono anche accusati di avere un’influenza “polarizzante” sullo scambio e sulla formazione di idee politiche. L’interferenza russa nelle elezioni presidenziali americane ha contribuito a diffondere queste sensazioni, ma dal punto di vista empirico sappiamo davvero poco del reale effetto dei social network sulle opinioni e sul voto dei cittadini. Uno studio in collaborazione tra l’Istituto di tecnologia e società di Rio de Janeiro e l’Oxford Internet Institute rileva l’impossibilità, al momento, di stabilire una relazione causale. Altri studi vanno in controtendenza con la tesi della polarizzazione, affermando che l’effetto delle “camere di eco” è inconsistente e che i social media espongono gli utenti a opinioni diverse più frequentemente rispetto ai media tradizionali. Vi sono inoltre differenze nel pubblico e nelle tecniche usate per la propaganda tra diverse piattaforme: è semplicistico parlare di “social media” come di una massa omogenea di mezzi di comunicazione.

 

Nonostante l’allarmismo sia, per adesso, privo di fondamenti scientifici, molti governi sono già passati all’azione. Le iniziative sono per ora frammentarie e disomogenee, anche se l’approccio ha spesso toni risolutori. David Kaye, che è Special Rapporteur dell’ONU per la protezione dei diritti di libertà di opinione ed espressione, nota che molti politici sembrano cercare una soluzione definitiva per “eradicare” i contenuti di terrorismo e di odio, “come se ci fosse una qualche arma laser capace di farlo”. La ricerca di una soluzione di questo tipo, oltre a essere vana, può costituire un rischio per la libertà di espressione.

 

Armi laser

 

Limitandoci ai paesi europei, i più importanti provvedimenti presi contro la disinformazione sul web provengono dalla Francia e dalla Germania. La norma "NetzDG" varata dal governo Merkel impone a qualunque piattaforma online con più di due milioni di utenti registrati in Germania di rimuovere contenuti “manifestamente illeciti” entro 24 ore, pena una multa fino a 50 milioni di euro per contenuto non rimosso. La legge francese “anti-fake news” permette di rimuovere “informazioni false” e bloccare i siti che le ospitano, con sanzioni sia civili che penali, nei tre mesi che precedono un’elezione. Chi decide cosa è vero e cosa e falso? Un giudice, che è costretto a esprimersi su un contenuto segnalato entro 48 ore. Le critiche sulla facoltà di un organo statale di decidere cosa sia vero e cosa no, peraltro in così poco tempo, non sono mancate. Oltre alla dubbia compatibilità con il diritto alla libertà di espressione, queste leggi spingono le aziende ad adottare criteri di moderazione sempre più rigidi e metodi sempre più invasivi pur di non venire multate per contenuti illegali. Ad esempio, viene aumentato il ricorso ai filtri basati sull’intelligenza artificiale, che sono gli strumenti di moderazione che fanno più errori, oltre a essere i più opachi. La recente Direttiva dell’Unione Europea sul diritto d’autore e la proposta contro i contenuti terroristici del Parlamento europeo  dimostrano un certo desiderio di vedere l’intelligenza artificiale al servizio della legislazione europea. Aumentare il filtraggio preventivo, tuttavia, rischia di sistematizzare il pericolo di censurare per errore le opinioni degli utenti. Negli ultimi tempi Instagram, Facebook e Amazon stanno adottando misure per limitare la visibilità di contenuti a tema anti-vaccinista. Siamo sicuri che spingere piattaforme private a escludere settori di opinione pubblica dal dibattito democratico sia il miglior modo per “salvare la democrazia liberale”?

 

Per adesso, nelle democrazie occidentali la censura rimane un “danno collaterale”, ma altrove è uno strumento quotidiano di esercizio del potere. A fianco di paesi occidentali che hanno dichiarato guerra contro le false notizie, i governi autoritari trovano ancora più facile giustificare l’imposizione di una certa “verità” attraverso il monitoraggio dei mezzi di comunicazione. Ciò è avvenuto, ad esempio, in Russia, dove una legge contro le false notizie prevede delle multe per chi è “irrispettoso” nei confronti dello Stato, e a Singapore, dove è il governo stesso a decidere quali notizie sono considerabili false. Francia e Germania, a guardar bene, non si trovano su posizioni troppo dissimili. Si dirà: non è solo la legge che conta, ma l’insieme di istituzioni e contrappesi democratici. Esistono almeno due obiezioni: non è irresponsabile che, in un’epoca di cicli elettorali imprevedibili, si creino strumenti legali che lasciano ampi margini di abuso a governanti potenzialmente malintenzionati? In secondo luogo, le leggi incentivano la severità e l’opacità della moderazione operata da piattaforme private: la facoltà di censurare è, quindi, fuori dal diretto controllo delle istituzioni democraticamente elette. Usare il proprio potere politico per incrementare il potere di censura di un altro attore non sembra un approccio molto responsabile.

 

Moderare la moderazione

 

L’uso che Donald Trump fa del tema delle fake news è molto interessante. Uno dei successi indiretti del suo mandato potrebbe essere la capacità di far maturare, nei leader europei, la consapevolezza di quanto labile sia la linea tracciata tra ciò che si definisce vero e ciò che si definisce falso. Quando attacca i media, Donald Trump dimostra che imporre un quadro concettuale di “verità” è un atto eminentemente politico, quindi arbitrario. Ovviamente ci sono fonti più raccomandabili di altre, ma l’orientamento e la manipolazione dell’opinione pubblica non sono né una pratica recente né un’esclusiva di Breitbart. Più che dalle false notizie, oggi la democrazia sembra minacciata da una frettolosa regolazione dei social network. Non è l’ingordigia dei monopolisti, ma l’imprudenza dei legislatori che spinge verso tecniche di controllo sempre più fallibili. Pretendere un diverso tipo di moderazione è doveroso; creare strumenti legislativi che limitano diritti fondamentali per rimediare a danni ipotetici è un errore. Urge applicare ai social network il principio di precauzione: i filtri algoritmici potrebbero avere costi ben più alti degli attraenti benefici, quindi è meglio un eccesso di falsi negativi che un eccesso di falsi positivi.

 

Come assicurare che la moderazione online non indebolisca le democrazie europee? Ecco alcune proposte. Da una parte, le aziende dovrebbero: rendere pubblici i criteri usati per moderare i contenuti, senza aspettare i leak di qualche giornale; mantenere attivi dei moderatori umani, gli unici a poter sopperire agli errori dell’intelligenza artificiale; stabilire procedure standard che permettano di “fare ricorso” contro una decisione ritenuta scorretta (Facebook sembra essere a buon punto, anche se qualcuno solleva già delle criticità). Si dovrebbero introdurre opzioni che permettano agli utenti di filtrare autonomamente il flusso di contenuti: la soglia di sopportazione e la partigianeria delle notizie dovrebbero essere scelte gestite dai singoli individui, non da governi o aziende. Il regolatore, dall’altro lato, ha il compito di tracciare una linea netta su cosa è legale e cosa no, limitando criteri che creano zone grigie, come quelli della “verità” di una notizia. Il ricorso alla censura, sia da parte della legge che dei moderatori, dovrebbe essere raro, giustificato da evidenze solide, fondato su fonti chiare e coerente con le scelte prese in precedenza. È infine necessario investire risorse sull’educazione a una buona dieta informativa, che spinga a interpellare diverse fonti e a giudicarle criticamente.

 

I governi non possono prevenire l’esistenza delle notizie false, dei discorsi di odio, della radicalizzazione online: i leader che cercano la “soluzione finale” finiranno per limitare gli utenti “ordinari” senza scalfire i problemi. I governi possono, invece, adottare una serie di piccole misure che, sinergicamente, limitino i problemi evidenziati. In una democrazia liberale, le degenerazioni del discorso pubblico non sono un problema tecnico che si può risolvere come si cancella una riga di codice, nel mondo reale come in quello virtuale. Inasprire l’approccio censorio può, al contrario, ampliare i problemi. Francis Bacon, nella turbolenta epoca delle guerre di religione, scriveva: “Dal fatto che la circolazione delle voci possa essere un’avvisaglia di eventuali sommosse, non ne consegue che una repressione eccessivamente severa sia il miglior rimedio. Al contrario lo sdegno basta per neutralizzarle; e il cercare di fermarle non fa altro che prolungare il loro effetto”.[1]

 

[1] Francis Bacon, ‘XV - Of Seditions and Troubles’, in Saggi, 1625

 

 Image: A man with "fake news" rushing to the printing press, from a March 6th 1894 illustration by Frederick Burr Opper, public domain

 


© Istituto della Enciclopedia Italiana - Riproduzione riservata

0