Anche i negazionisti dell’Olocausto e i teorici delle cospirazioni di estrema destra hanno una voce su Facebook (FB). In un’intervista di mercoledì scorso, Mark Zuckerberg spiega che FB non li bloccherà perché se FB “dovesse chiudere tutti gli account di chi dice cose non corrette, farebbe fatica a offrire alle persone una voce per trasmettere ciò cui tengono”… “Tutti dicono in continuazione delle cose sbagliate”.
Per la cronaca, Zuckerberg, che è ebreo, ha poi precisato in una nota: “Personalmente trovo profondamente offensiva la negazione dell’Olocausto e non difendo le persone che la sostengono”.
Per FB, impedire la diffusione virale di informazione falsa e disinformazione capziosa mirante a manipolare l’opinione pubblica, le elezionia, ecc., è tuut’altra cosa. Dall’ufficio stampa di FB, è di ieri la notizia della chiusura di 32 pagine e 17 account che “violavano il divieto [previsto dal codice di FB] di coordinare comportamenti fasulli”. I guerrieri di Aztlan, Innalzamento nero , Resistenti: ecco i nomi di alcune di quelle pagine che fanno paura, oltre che per i contenuti deliranti, per il numero dei post pubblicati, 9500, e degli “amici” che li seguivano, ben 290.000.
Le internet companies sociali concordano dunque con le tanti voci che dal 2016 le sollecitano a filtrare meglio i contenuti che incitano all’odio o alla violenza e gli account fasulli di hacker o di troll nazionali o esteri.
Anche Twitter ha problemi di violazione del suo codice etico, laddove esso proibisce comportamenti che “intimidiscano o usino la paura per mettere a tacere gli altri”. Senza andare più lontano , molti – tanti – sostengono che lo stiano facendo i tweet del presidente Trump.
Non solo a partire da questi casi estremi, negli Usa è in corso un intenso dibattito su che cosa siano le piattaforme di social media: sono aziende editoriali cui spetta la responsabilità del contenuto o solo tecnologie-veicolo su cui ciascun utente legge, posta o diffonde sotto la propria responsabilità?
Il dibattito si presenta difficile o quasi impossibile se si considerano i molteplici elementi e facciate che coinvolge. La manipolazione politica e dell’opinione pubblica appare il problema più complesso. In tutto il mondo incombono importanti elezioni – oltre alle midterm a novembre negli Stati Uniti, si vota in Brasile, in Svezia e in vari paesi africani, e chissà, forse ancora una volta per o contro la Brexit, ora che è accertato che nel 2016 si sono registrati degli abusi.
Dal Washington Post, Margaret Sullivan sostiene che Facebook debba “accettare la realtà: è una società editoriale e non solo una piattaforma neutrale”. Quindi dovrebbe assumere “tanti redattori – sì, redattori! – che decidano con intelligenza l’informazione pericolosa e inaccettabile da rimuovere“. Non è realistico che FB, che ha 2 miliardi di utenti, verifichi tutte “le informazioni non corrette“, le risponde Jameel Jaffer della Columbia University, aggiungendo che sono tuttavia gli algoritmi di FB a decidere la categorizzazione e la priorità dei contenuti, quindi a fare “valutazioni da curatore”.
Dal Guardian, Matthew d’Ancona segnala quella che potrebbe essere una terza via: non classificare i giganti dei social media come “editori” o come “piattaforme” bens’, come dice anche un Comitato dei Commons, “senza mettere a rischio la libertà di espressione” trovare una terza categoria che “permetta di innalzare radicalmente la loro responsabilità rispetto ai contenuti che ospitano”.
All’opposto, altri temono che aumentando di molto la responsabilità dalle reti sociali, esse finiscano per scegliere la strada più sicura riducendo sempre di più lo spazio di libertà che sono diventate. Dovrebbero proprio essere i Zuckerberg, i Dorsey e i loro consigli d’amministrazione a decidere chi parla e chi tace sui temi importanti e delicati delle nostre società, quali il rispetto delle donne e delle minoranze, la religione, l’immigrazione, il godimento o l’abuso delle libertà civili?
Soprattutto nei paesi dove la democrazia è scarsa o nulla, e dove i social media sono l’unico mezzo di espressione libero, l’idea che debbano essere i governi e le autorità a filtrare i contenuti, come si chiede in Europa, fa venire a molti la pelle d’oca.
Il piccolo Nicaragua è un buon esempio: non c’è stampa libera o tv pluralistica da quando anni fa è svanita del tutto la speranza che la rivoluzione sandinista del 1979 favorisse il popolo e non solo gli interessi dei suoi leader, tra cui l’attuale presidente Daniel Ortega. Da aprile la repressione del governo ha ucciso più di 250 persone, quasi tutti giovani. I social media sono l’unico mezzo per comunicare non controllato dal governo, anche se il pure regime li utilizza per i propri messaggi.
Curiosamente, era stato proprio il governo a promuovere l’accesso dei giovani alle reti sociali con wifi nelle piazze per distrarli dalla politica. Ora persino la Chiesa utilizza Twitter, come il “vescovo che ha tenuto testa a Ortega°, Silvio Baez. Di fronte al vuoto dell’informazione, “le reti sociali hanno mostrato tutta la loro forza” e “sono diventate i canali ufficiali dei cittadini”, spiegano il professore Alfonso Malespín e l’esperto di tecnologia Carlos Paladino intervistato da José Melgar.
A chi spetta in questo caso decidere quale contenuto filtrare? Spetta al governo, che apertamente usa le reti per manipolare l’informazione? Spetta a FB, Twitter, Glympse o Prey (app che rintracciano il cellulare se rubato o trasmettono la posizione se la persona dovesse essere ferita o arrestata)? È corretto che siano aziende con sede negli Usa, anzi, nella valle più ricca del mondo , a decidere chi nel povero Nicaragua debba avere una maggiore presenza in rete?
Il mondo è variegato, differente, e, ciò nonostante, usa le stesse tecnologie di comunicazione. Come si trova un equilibrio? Gli esperti di sistemi complessi ricorderebbero come le organizzazioni complesse tendano ad auto organizzarsi, ma vista l’alta posta in gioco, forse bisognerebbe dare loro una mano. Sul come, le opinioni sono benvenute.