Scroll Top

La privacy, la vendita di gadget nazisti ad una utenza “qualificata”, l’intelligenza artificiale e il ruolo di Propublica.com

[:it]Propublica.com è una newsroom che si dichiara indipendente e senza scopo di lucro, avente lo scopo principale di denunciare, attraverso forme di giornalismo investigativo decisamente aggressivo, fatti che possono comportare forme di abuso di potere e violazione di diritti.

Propublica ha un team di 50 reporters e editori e copre una vasta area di tematiche, dalla politica alla tecnologia, alle tematiche relative alla privacy.

Ed oggi si parla di privacy e del rispetto dei diritti umani al tempo di Facebook.

Cosa è successo?

Facebook, secondo un articolo di Propublica del 14 settembre 2016, a cura di Julia AngwinMadeleine Varner and Ariana Tobin, al fine di consentire ai suoi utenti di promuovere la vendita di determinati articoli, avrebbe individuato (il condizionale è d’obbligo) dei potenziali soggetti, circa 2.300 persone, che hanno espresso il loro interesse verso tematiche d’odio nei confronti della comunità ebraica.

Propublica ha quindi voluto verificare se effettivamente tale classificazione fosse esistente nella piattaforma social e, dopo avere fatto richiesta di promuovere tre annunci in tali categorie (per il costo di 30$), ha ottenuto (sempre apparentemente da quanto riferisce Propublica) l’approvazione di Facebook in 15 minuti dalla richiesta di promozione.

Il test è visibile nell’immagine che segue e così come meglio descritto da Propublica nel suo sito.

A seguito dell’immediata segnalazione di Propublica, Facebook sarebbe prontamente intervenuta precisando che l’individuazione dei gruppi in questione era frutto di un algoritmo che si è basato su una serie di parole chiave connesse alla comunità ebraica e che tale criterio sarebbe stato subito rimosso con impegno del provider a monitorare con maggiore attenzione, e con la presenza dell’intervento umano, la creazione delle classi di riferimento dove poter promuovere determinati prodotti.

Propublica, tra l’altro, segnala il fatto che, essendo il gruppo target di soli 2.300 individui (tale da non giustificare la creazione di una categoria apposita), l’algoritmo di Facebook proponeva l’estensione del target a gruppi più ampi, correlando in particolare la più ampia categoria relativa a “Second amendment“, probabilmente (ci dice Propublica) collegando il fatto che il secondo emendamento della costituzione autorizzi ciascun cittadino americano a possedere armi (diritto reso sostanzialmente inviolabile da una sentenza del 2008 della Corte Suprema statunitense).

Ora: al di la della fondatezza dell’articolo pubblicato da Propublica, il tema da affrontare è rilevante.

Come è possibile affidare ad un algoritmo la creazione di categorie tra persone e quali limiti e criteri vengono adottati dai colossi del web per cercare di monitorare e, se del caso, bloccare queste situazioni?

A ciò andrebbe aggiunto il fatto che la creazione di categorie (o di gruppi di interesse) non si basa solo sui dati personali degli utenti presenti su Facebook o su altre piattaforme on line, e non solo sulle ricerche fatte da ciascuno di noi tramite motori di ricerca (ovviamente Google), ma – sempre a detta di Propublica in un suo altro articolo del Dicembre 2016 a cura di Julia AngwinSurya Mattu and Terry Parris Jr – da una serie di dati raccolti “off-line” per il tramite di non meglio precisati “Data Broker”.

Facebook, in risposta ai quesiti di Propublica ha precisato che l’utilizzo dei dati personali da parte del provider può essere sempre interrotto tramite una semplice richiesta (e meno male direi).

Secondo Jeffrey Chester del Center for Digital Democracy, “Facebook starebbe costruendo dozzine di differenti società di gestione dei dati personali che, attraverso una serie di informazioni disaggregate, consente l’individuazione di uno specifico individuo”.

Siamo ben oltre il dato personale (come molti esperti già sanno). Siamo di fronte la catalogazione di intere abitudini comportamentali che nulla hanno a che vedere con il dato personale puro (il mio nome, il mio cognome, la mia residenza, la mia email, il mio stato di salute, ecc), ma con la personalità, il comportamento, le tendenze anche in prospettiva futura, tali da consentire al provider di sapere in anticipo quelle che potrebbero essere le scelte di un individuo in futuro e, volendo, di direzionarle.

Il rischio, dal punto di vista sociale è immenso. non solo in termini di controllo e manipolazione delle nostre vite ma anche in termini politici. Ad esempio: una delle accuse rivolte ai fantomatici (non sapremo mai se sono veri) hacker russi, è collegata alla promozione di una serie di annunci di articoli di giornale che accusavano la Clinton di avere gestito privatamente informazioni confidenziali di pertinenza del Governo americano. Promozioni destinate ad un pubblico targettizzato attraverso i citati algoritmi e identificato come “indeciso” su chi votare come nuovo Presidente degli Stati Uniti.

Dire che la democrazia è in pericolo per colpa di un algoritmo potrebbe essere eccessivo oggi ma non un domani dove sistemi di intelligenza artificiale decideranno in maniera automatizzata se e come rispondere alle critiche di Newsroom come Propublica sulla base di codici etici programmati.

In questo senso è fondamentale quanto già denunciato con la ricerca di Stuart Russel e a altri illuminati (tra cui Stephen Hawking ed Elon Musk) con la quale si evidenzia la necessità di definire quanto prima codici etici e di condotta che l’Intelligenza Artificiale dovrebbe essere tenuta a rispettare.

Leggi generali e astratte a cui robot e IA dovrebbero essere vincolate come nella premonizione di Asimov.

 

 

 [:]