A un anno dalle elezioni presidenziali, negli Stati Uniti è scoppiato lo scontro su Facebook. Alle testa ci sono tre donne Democratiche contro Trump e contro il co-fondatore e Ceo di Facebook Mark Zuckerberg. Al centro ci sono, da una parte la richiesta di controllo delle fake news, e dall’altra la difesa della libertà di espressione e del Primo Emendamento della Costituzione americana sulla libertà di parola.

La prima a lanciare la sfida a Trump all’inizio di ottobre è stata la senatrice Kamala Harris, che per le primarie dei Democratici appoggia Bernie Sanders e che ha chiesto a Twitter di sospendere l’account del Presidente, perché incita all’odio e alla violenza, minacciando chi lo accusa, mettendo le persone e la democrazia a rischio.

La richiesta di Kamala Harris è stata respinta, perché secondo i responsabili del social i tweet di Trump non violano le regole di Twitter sui comportamenti abusivi, le molestie private e la violenza.

Come spiega la CNN, all’inizio di quest’anno Twitter ha adottato una politica che consente ai leader mondiali di infrangere le proprie regole senza essere penalizzati o sospesi fintanto che la società ritiene che i tweet siano di “interesse pubblico”. Tuttavia, la società ha affermato che avrebbe preso provvedimenti sui tweet dei leader mondiali che promuovono il terrorismo o includono minacce dirette di violenza nei confronti di un individuo. Twitter ha dichiarato a giugno che inserirà etichette sui tweet dei leader mondiali che infrangono le sue regole, spiegando perché il tweet non è stato rimosso completamente dalla piattaforma. Fino ad ottobre, tuttavia, la società non aveva etichettato alcun tweet, anche se sono passati mesi da quando ha annunciato la nuova politica.

È stata poi la volta della deputata Elisabeth Warren, una delle favorite per le primarie dei Democratici, che ha accusato Marck Zuckergerg di mirare al profitto a scapito della verità, per la decisione di Facebook di non sottoporre a controllo i post a pagamento dei politici, anche se contengono affermazioni false. Come prova Warren ha pubblicato un proprio post a pagamento, regolarmente autorizzato da Facebook, in cui ha pubblicato la foto di un recente incontro di Trump e Zuckerberg alla Casa Bianca, scrivendo che Zuckerberg aveva fatto un endorsement per la rielezione di Trump, aggiungendo che quel che stava scrivendo era falso.

Poi è stata la volta di della deputata Alexandria Ocasio-Cortez, stella nascente della sinistra dei Democratici, che durante un’audizione della Commissione per i Servizi Finanziari della Camera dei Rappresentanti ha messo sotto torchio Zuckerberg sempre sulla diffusione a pagamento di contenuti falsi o fuorvianti dei politici su Facebook. Il video dell’audizione è diventato virale, con Ocasio-Cortez nettamente vincitrice sul piano della dialettica ma con Zuckergerg che alla fine è riuscito a spiegare la sua posizione: “Nella maggior parte dei casi, credo che in una democrazia le persone dovrebbero essere in grado di valutare da sole ciò che dicono i politici, che poi possono votare o no”.

In realtà, i protagonisti in campo hanno tutti i modi per contrastare le affermazioni degli avversari. Basta vedere i dati forniti dal New York Times su quanto hanno investito su Facebook il Presidente Trump e i maggiori esponenti Democratici in campo – Elisabeth Warren, Bernie Sanders e Joe Biden –  da maggio 2018 a ottobre 2019 e nella settimana tra il 13 e il 19 ottobre 2019.

Fonte: New York Times

Ma andando al nocciolo della questione, il problema è sempre lo stesso, negli Usa come nella Ue e in Italia. Sul tappeto ci sono due visioni contrapposte: da una parte chi ritiene che i social network, a partire da Facebook, debbano essere sottoposti a un regime particolare di controllo dei loro contenuti, vista la velocità e l’ampiezza di diffusione che li caratterizza; dall’altra chi sostiene che questa sarebbe una forma di censura esercitata da privati per conto dei governi, senza alcuna base legale e senza alcuna garanzia per i cittadini-utenti dei social.

La questione va ben oltre il controllo o meno dei post a pagamento dei politici, dato che in questo caso si può facilmente argomentare che le competizioni elettorali sono da sempre caratterizzate da partiti e candidati che si rinfacciano l’un l’altro di mentire agli elettori, facendo promesse al cui confronto quelle dei marinai sono esempi di affidabilità. Lo scontro politico è sulle idee ma anche sullo smascheramento delle bugie dell’avversario e della sua inaffidabilità. Alla fine giudica l’elettore.

Un plastico esempio è stato fornito qualche giorno fa dal nostro presidente del Consiglio, che intervenendo a una manifestazione ha detto: “Secondo la propaganda che circola, la nostra sarebbe una manovra che introduce nuove tasse. Nuove tasse, ci viene detto, per le merendine: falso. Che introduce nuove tasse per il gasolio: falso. Che introduce nuove tasse per la benzina: falso. Che mette una tassazione sul contante: falso. Se si parla con i cittadini, in questo momento questa è la narrazione che prevale. Siamo in un contesto in cui, se uno è spudorato a raccontare le bugie, non interessa a nessuno. Più si insiste, più si incalza e più questa narrazione prevale”.

Ebbene, è pensabile che quando si esce da giornali e tv, dove ogni libera opinione ha diritto alla libera circolazione, e si entra su Facebook o Twitter, debbano essere dei controllori privati a decidere cosa è vero e cosa è falso, e di conseguenza cosa può essere pubblicato e cosa deve essere censurato? Se un politico di opposizione dice che c’è la tassa sulle merendine e il presidente del Consiglio dice che è falso, si crea un giurì facebookiano e twitteriano che decida qual è la verità, o si lascia che le versioni contrapposte circolino entrambe, lasciando al cittadino decidere chi ha ragione e chi ha torto, e comunque a chi credere?  La questione è delicata e non nasce con la rivoluzione di internet e dei social. L’aveva già posta George Orwell in 1984, immaginando un Ministero della Verità.

Lo scontro sull’eventuale controllo preventivo di Facebook sulle inserzioni a pagamento dei politici è solo la punta dell’iceberg del problema vero, e cioè il controllo sui normali post degli altri milioni di utenti di Facebook e degli altri social. È qui che si scontrano due posizioni di fondo: da una parte chi dice che anche sulle piattaforme social devono valere le regole e le garanzie dello Stato di diritto, dall’altra chi sostiene che questo non è possibile e quindi è giusto che lo Stato deleghi il compito di evitare e punire eventuali reati ai gestori dei social, anche se si tratta di una giustizia privata, senza garanzie.

L’ex ministro della Giustizia Andrea Orlando (foto dalla sua pagina facebook)

È quanto ha sostenuto l’allora ministro della Giustizia, Andrea Orlando, che il 14 dicembre 2017 ha firmato un decreto con cui ha istituito la “Consulta permanente per il contrasto ai crimini d’odio ed ai discorsi d’odio”, composta da funzionari del ministero e da “rappresentanti delle Associazioni, Agenzie, Comunità, Fondazioni e Unioni religiose, rappresentative dei diversi ambiti di contrasto alle condotte d’odio”. La necessità di questa Consulta era stata spiegata dal ministro della Giustizia con la “necessità di responsabilizzare le piattaforme internet per costruire all’interno della Rete stessa gli anticorpi per arginare il fenomeno, per fare un fronte unico contro gli odiatori, ma anche sanzionare all’interno del luogo in cui si svolgono i reati”.

E qui sta il punto. Nello stato di diritto, la persona accusata di un reato ha diritto ad un regolare processo, a tre gradi di giudizio, ed è innocente sino alla sentenza definitiva. Per i social network, invece, si sta instaurando un regime speciale, con il governo che delega ai privati, supportati da altri privati, il compito di sanzionare reati di cui nessuno ha accertato la sussistenza.

E questo perché, come spiegato dallo stesso ministro Orlando in un’intervista al Corriere della Sera del 15 agosto 2017, “non sempre la risposta penale è l’unica praticabile e si finirebbe per sovraccaricare le procure in maniera insostenibile. Anche se occorre che gli strumenti della repressione penale si adattino al cambiamento tecnologico della comunicazione”. L’allora ministro, la cui politica in materia non è stata cambiata dal suo successore, aggiungeva: “Penso che per combattere gli hater ci siano strumenti più incisivi dell’azione penale ordinaria. Sanzioni all’interno dello stesso luogo dove si svolgono i reati: la Rete. Rimuovere un post o sospendere un profilo è una punizione a cui l’odiatore è decisamente sensibile”.

Il ministro spiegava che “i paesi dell’Unione europea hanno fatto una convenzione con i principali provider affinché si responsabilizzino in questo senso. L’accordo è che rimuovano su segnalazione i post o rimuovano i profili sgraditi, sempre su segnalazione anche di soggetti estranei all’ingiuria”.

Vera Jourova, commissaria europea alla Giustizia, 2019 (Alexandros Michailidis/Shutterstock)

E infatti è stata l’Unione europea a fare da apripista verso questa privatizzazione della giustizia per eventuali reati di istigazione all’odio e alla violenza commessi online, varando nel maggio 2016 un Codice di condotta e una serie di linee guida, destinate alle piattaforme, sulle procedure di segnalazione e azione per contrastare i contenuti illegali online. Inizialmente hanno aderito al Codice Facebook, Microsoft, Twitter e YouTube e successivamente altre piattaforme.

Il Codice stabilisce che le piattaforme digitali “esaminano in meno di 24 ore la maggior parte delle segnalazioni valide miranti alla rimozione di forme illegali di incitamento all’odio e, se necessario, rimuovono tali contenuti o ne disabilitano l’accesso”.

Il Codice prevede anche che le piattaforme digitali facciano accordi di partenariato con organizzazioni della società civile. Infatti, il Codice prevede che “le aziende informatiche incoraggiano la trasmissione degli avvisi e la segnalazione dei contenuti che promuovono l’istigazione alla violenza e ai comportamenti improntati all’odio avvalendosi di esperti, in particolare attraverso partenariati con le organizzazioni della società civile, fornendo chiare informazioni sulle regole e sugli orientamenti da esse predisposti per la comunità degli utenti e sulle regole in materia di procedure di comunicazione e di segnalazione. Le aziende informatiche si adoperano per rafforzare i partenariati con le organizzazioni della società civile ampliando la portata geografica di tali partenariati e, se del caso, offrono sostegno e formazione ai partner delle organizzazioni della società civile per consentire loro di svolgere il ruolo di “relatore di fiducia” o equivalente, tenendo in debita considerazione l’esigenza di preservarne l’indipendenza e la credibilità”.

Dal maggio 2016 al febbraio di quest’anno la Commissione europea ha fatto quattro valutazioni sull’applicazione del Codice di condotta. Dopo le prime si era dichiarata molto insoddisfatta e aveva minacciato di intervenire con una regolamentazione con sanzioni. Dopo la quarta rilevazione, invece, ha espresso soddisfazione per i progressi effettuati, perché gli ultimi dati indicano che “le società informatiche valutano entro 24 ore l’89 % dei contenuti segnalati e rimuovono da Internet il 72 % dei contenuti ritenuti illeciti incitamento all’odio, contro il 40 % e il 28 %, rispettivamente, nel 2016, anno in cui il Codice è stato varato”.

Le valutazioni della Commissione europea sull’applicazione del Codice di condotta sono fatte prendendo in considerazione un periodo di sei settimane e le segnalazioni provenienti sia da utenti generici che da segnalatori qualificati. Nel caso dell’ultima rilevazione si tratta di 39 organizzazioni di 26 paesi Ue, che hanno inviato 1.644 segnalazioni attraverso canali specifici a loro riservati. Di queste 1.644 segnalazioni, solo 503 sono state inviate anche alla polizia, all’autorità giudiziaria o ad altre autorità nazionali. Per l’Italia hanno collaborato l’Ufficio Nazionale Antidiscriminazioni Razziali (UNAR) e il Centro Studi Regis.

Il fatto che meno di un terzo delle segnalazioni alle piattaforme digitali siano state segnalate anche alle autorità nazionali fa riflettere. Se sono incitazioni all’odio e alla violenza, perché le organizzazioni che collaborano con le piattaforme digitali non fanno anche una normale denuncia alle autorità, limitandosi nei due terzi dei casi a chiederne solo la rimozione dai social? Se neppure chi segnala questi contenuti e ne chiede la rimozione dai social ritiene che ci si trovi di fronti a possibili reati degni di essere denunciati, non ci si trova forse di fronte ad una limitazione della libertà di espressione?

La questione si è posta con evidenza qualche settimana fa, quando Facebook ha chiuso le pagine di Forza Nuova e di Casapound, oltre che di molti suoi esponenti. Se su quelle pagine sono stati commessi reati, vanno perseguiti dalla magistratura. Altrimenti, queste due organizzazioni, che non sono state dichiarate illegali, hanno diritto di esprimere le proprie opinioni, per quanto siano disturbanti per molti.

C’è chi obietta che le piattaforme dei social sono gestite da società private che non sono tenute a garantire la libertà di espressione ma che possono applicare le regole che ritengono più opportune. Obiezione teoricamente vera, se i gestori dei social si muovessero autonomamente e non in attuazione di indirizzi politici dei governi, di cui si fanno braccio esecutivo.

La maggior velocità e quantità di post rimossi da Facebook negli ultimi tempi, se da una parte ha suscitato il compiacimento della Commissione europea e l’ha fatta retrocedere da intenti punitivi nei confronti della piattaforma di Zuckerberg, per i normali utenti del social ha significato vedersi rimossi post ed essere sospesi fino a un mese, senza riuscire a capire il perché. Ad intervenire in modo automatico dopo una segnalazione, che rimane anonima per il destinatario della sanzione, è un software che giudica una parola o un’immagine senza essere in grado di valutarle nel loro contesto. La motivazione è sempre quella di aver violato le regole della comunità di Facebook, in particolare quelle sull’incitamento all’odio e alla violenza. Se fossero letti da un essere umano, molti di quei post risulterebbero inoffensivi, ma se è un algoritmo a intervenire, tutto è possibile. E così l’utente di Facebook si vede limitato nella sua libertà di espressione, mentre Zuckerberg e i suoi uomini possono vantare di fronte alla Commissione europea la loro grande efficienza di controllo, testimoniata dalla gran quantità di post rimossi.

Alla fine, la questione è se la libertà di parola e di espressione garantita dal Primo Emendamento della Costituzione degli Stati Uniti – “Il Congresso non promulgherà leggi per il riconoscimento ufficiale di una religione, o che ne proibiscano la libera professione; o che limitino la libertà di parola, o di stampa” –  sia applicabile anche nell’era della comunicazione digitale. Lo stesso per quanto riguarda la Costituzione italiana, che all’articolo 21 afferma che “Tutti hanno diritto di manifestare liberamente il proprio pensiero con la parola, lo scritto e ogni altro mezzo di diffusione. La stampa non può essere soggetta ad autorizzazioni o censure”.

Diverso è il caso dell’Ue, perché la Carta dei diritti fondamentali dell’Unione europea prevede che la libertà di espressione possa essere sottoposta a limitazioni. Infatti, l’articolo 11 sulla libertà di espressione e d’informazione recita: “Ogni individuo ha diritto alla libertà di espressione. Tale diritto include la libertà di opinione e la libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera.
La libertà dei media e il loro pluralismo sono rispettati”.

Tuttavia, l’articolo 52 sulla portata dei diritti garantiti afferma: “Eventuali limitazioni all’esercizio dei diritti e delle libertà riconosciuti dalla presente Carta devono essere previste dalla legge e rispettare il contenuto essenziale di detti diritti e libertà. Nel rispetto del principio di proporzionalità, possono essere apportate limitazioni solo laddove siano necessarie e rispondano effettivamente a finalità di interesse generale riconosciute dall’Unione o all’esigenza di proteggere i diritti e le libertà altrui”.

Per chi vuole contrastare le fake news e tutto ciò che può rientrare nella categoria di “incitamento all’odio” sui social, ora c’è il Modello Singapore, dove all’inizio di ottobre è entrata in vigore una legge approvata lo scorso maggio, l’Online Falsehoods and Manipulation Act, che permette al governo di bloccare la condivisione sui social network di determinati contenuti oppure di ordinarne la rimozione. I responsabili potranno essere multati fino 660.00 euro o condannati fino a dieci anni di carcere.

A finire sotto la scure della nuova legge saranno le persone e le entità che minacciano online la fiducia nella performance pubblica del governo, chi mette a rischio le relazioni amichevoli di Singapore con altri paesi, chi scuote la tranquillità pubblica. Come ha spiegato il settimanale Sette del Corriere della Sera, caso per caso i ministri pubblicheranno quella che è la verità ufficiale e poi i tribunali giudicheranno se chi ha diffuso le fake news ha agito con intenti maligni.

Nella città-stato asiatica, l’orwelliano Ministero della Verità online da ottobre è diventato realtà.

Beniamino Bonardi

 

 

 

 

 

Beniamino Bonardi

Il direttore responsabile de L'Incontro

Discussione

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *