[:it]Da sempre la Silicon Valley è stata caratterizzata dalla difesa, sempre e comunque, della libertà di parola. A parte le eccezioni per frodi, pornografia o minacce specifiche, la visione prevalente tra molte piattaforme tecnologiche è stata quella di consentire praticamente a chiunque di pubblicare praticamente qualsiasi cosa. Queste sensibilità sono persino sancite dalla legge americana, che offre alle aziende un’ampia immunità dai procedimenti giudiziari per ciò che i loro utenti pubblicano.
Ma ora, per una buona ragione, l’ethos della Silicon Valley sulla liberta’ di parola sembra mutare.
Negli ultimi due anni, pressati dai legislatori e dai media per i danni causati dalla disinformazione, dalla propaganda e dalle molestie sponsorizzate dallo stato, le piattaforme tecnologiche hanno iniziato a riformare radicalmente il loro atteggiamento su ciò che le persone possono dire online e su come possono dirlo.
La scorsa settimana, Facebook ha annunciato un nuovo piano per rimuovere la disinformazione. E WhatsApp, la filiale di messaggistica di facebook, ha detto che limiterebbe la diffusione dei messaggi sul servizio come un modo per rallentare le voci virali, alcune delle quali hanno portato a violenze di massa in luoghi come l’India.
Le nuove politiche fanno parte di un cambiamento più ampio. I servizi online – non solo Facebook ma anche Google, Twitter, Reddit e anche quelli lontani da notizie e politica, come Spotify – stanno ripensando la loro relazione con il mondo offline. Si stanno ponendo una domanda fondamentale: dove inizia e finisce la nostra responsabilità?
Questo è un affare enorme, ed è tempo che le società tecnologiche adottino una posizione più ferma contro menzogne e molestie. Eppure, mentre lottano con la questione della responsabilità e dove tracciare la linea su certi tipi di contenuti, dovremmo tutti essere pronti per un radicale e forse pericoloso cambiamento.
Ecco perché: un approccio prevalentemente hands-off è stato fondamentale per la crescita delle piattaforme tecnologiche, consentendo loro di raggiungere una scala globale senza incidere sui costi sociali della loro crescita. Ma dato che ora sono così influenti – solo Facebook ha più di due miliardi di utenti – e così profondamente radicati nella nostra vita, un approccio più pratico al controllo dei contenuti si diffonderà in tutto il mondo, alterando la politica, il business dei media e molto altro.
Potrebbe anche avere l’effetto opposto rispetto a quello che vogliono molti critici: una migliore gestione dei propri contenuti potrebbe effettivamente aumentare il potere che le piattaforme tecnologiche hanno sulle nostre vite.
È fantastico che i giganti della tecnologia siano finalmente consapevoli dei loro effetti reali. Ma c’è molto spazio per errori nel modo in cui si avvicinano alla revisione dei contenuti.
Sono destinati a sbagliare molto – o stanno controllando troppo o troppo poco – e potrebbero non essere in grado di spiegare in modo soddisfacente perché hanno preso certe decisioni, destando sospetti su tutti i fronti.
Ma non sono solo le politiche di Facebook che sono difficili da comprendere. Le regole di Twitter suscitano le stesse problematiche.
Dopo aver parlato con queste aziende e altre persone, ho capito perché i loro sforzi per risolvere i loro problemi sono difficili da affrontare.
Le piattaforme tecnologiche dicono che non vogliono essere avventate – sono tutte in cerca di input da molte parti interessate su come sviluppare le politiche dei contenuti. Inoltre sono ancora estremamente preoccupati per la libertà di espressione e tendono a dare alla gente la libertà di pubblicare ciò che vorrebbero.
Invece di vietare il parlato, spesso cercano di mitigarne gli effetti negativi raggiungendo approcci tecnici, come il contenimento della diffusione di certi messaggi alterando gli algoritmi di raccomandazione o imponendo limiti alla loro diffusione virale.
Ci sono politiche sfumate per una ragione “, ha detto Monika Bickert, responsabile della politica di Facebook.
“Alcune di queste cose sono molto complicate e quando elaboriamo queste politiche, non è un gruppo di persone sedute a Menlo Park, in California, a dire dove pensiamo che la linea di confine dovrebbe essere tracciata”.
Bickert ha detto di avere organizzato incontri regolari con una serie di esperti per capire come Facebook dovrebbe tracciare le linee su una serie di specifici tipi di discorso. In generale, l’azienda rimuove i contenuti che sono illegali, pericolosi, fraudolenti o altrimenti spam. Ma per le aree grige, come la disinformazione, si richiede un approccio diverso.
“Riduciamo la distribuzione di informazioni che sono imprecise e informiamo le persone con più contesto e prospettiva”, ha affermato Tessa Lyons, un product manager che guida gli sforzi di Facebook per frenare la disinformazione nel News Feed.
Per fare questo, Facebook ha collaborato con decine di organizzazioni di fact-checking in tutto il mondo. Limita la diffusione di notizie che sono state ritenute false mostrando quei post più bassi nei feed delle notizie degli utenti, e visualizza anche articoli più veritieri in alternativa a quelli che non sono precisi.
Andrew McLaughlin, ex capo della politica di Google che ora gestisce un incubatore che mira a costruire la tecnologia per i movimenti politici progressisti, si è detto impressionato dagli sforzi di Facebook.
“Penso di essere rappresentante di una certa folla di persone che una volta hanno avuto un forte senso di orgoglio per la robustezza del nostro impegno per la libertà di parola sulle piattaforme Internet”, ha affermato. “Ma le mie opinioni si sono certamente spostate nel calderone delle esperienze – e ora sono contento che le piattaforme come Facebook stiano davvero concentrando risorse ed energie sulla propaganda malevola e manipolativa.” (Ha precedentemente lavorato come consulente di Facebook, ma al momento non sta lavorando per la compagnia .)
Ma io sono meno ottimista, perché ci sono ancora molte cose che non sappiamo di queste politiche e dei loro effetti.
Una domanda ricorrente è la neutralità politica. Facebook è stato preso di mira dai conservatori che sostengono – senza molte prove, a parte il fatto che la Silicon Valley è un enclave liberale – che i suoi sforzi per un “monitored speech” potrebbero essere di parte. In risposta, Facebook ha invitato Jon Kyl, un ex senatore repubblicano, a controllare l’azienda per pregiudizi contro i conservatori.
Facebook è una società a scopo di lucro che, per ragioni sia normative che di brand reputation, vuole apparire politicamente imparziale.
Ma se il social network viene utilizzato come veicolo di fake news o per la propagazione di false teorie complottiste per diffondere forme di populismo tutt’altro che democratiche, possiamo contare sullo stesso social network per difenderci dai “mostri” che ha creato?
Gli stessi sospetti si applicano ad altre piattaforme: anche se il Presidente Trump viola in modo discutibile le politiche sui contenuti di Twitter, gli è stato permesso di rimanere in piedi. Immaginate lo scandalo se fosse bloccato.
Ma se le politiche scritte di Facebook sono chiare, il modo in cui le applica è meno chiaro.
Poco si sa, ad esempio, dell’esercito di lavoratori a contratto che la società assume per rivedere i contenuti che sono stati contrassegnati – in altre parole, le persone che prendono effettivamente le decisioni.
(Facebook dice che sono ampiamente addestrati e le loro azioni controllate). E poiché gran parte di Facebook è personalizzata e molte delle sue regole sono applicate con piccole modifiche nell’algoritmo di classificazione, l’effetto complessivo delle sue politiche sui contenuti potrebbe essere molto difficile da verificare per gli estranei .
Questo problema affligge anche altre piattaforme. Twitter, ad esempio, ha un filtro dei contenuti che regola quali tweet sono visualizzati in parti del tuo feed e risultati di ricerca. Ma le priorità del filtro sono necessariamente segrete, perché se Twitter ti dice quali segnali cerca nei tweet in classifica, la gente semplicemente potrebbe violare le regole per avere maggiore visibilita’.
“Le persone cercano di giocare su tutti i sistemi esistenti”, ha detto David Gasca, un product manager di Twitter.
Nessuno di questi problemi è impossibile da risolvere. Le società tecnologiche stanno spendendo enormi somme per migliorare se stesse e nel tempo potrebbero trovare nuove idee innovative per il monitored speech. Ad esempio, la recente decisione di Facebook di rilasciare i propri dati a un gruppo di ricercatori accademici può permetterci di determinare un giorno, empiricamente, quali sono gli effetti che le sue politiche sui contenuti stanno avendo sul mondo.
Tuttavia, alla fine siamo di fronte ad paradosso.
Il fatto che i social network (facebook in primis) stiano collaborando con soggeti indipendenti ed esperti per creare nuove politiche in materia di controllo della distribuzione di fake news o di forme di distorsione della verita’, non fa altro che dare ulteriore potere a questi social network.
Molte persone sono preoccupate che Mark Zuckerberg sia già troppo potente.
Il problema è che non abbiamo ancora visto nulla.[:]