Se il microtargeting della pubblicità politica su Facebook e Google favorisce la filter bubble informativa. Che cosa abbiamo imparato dal Russiagate e che cosa (forse) si può fare.

Il fenomeno della filter bubble in Rete è conosciuto e discusso da tempo. Meno chiaro era, fino a ieri, il ruolo che l’online advertising può svolgere nell’amplificazione di tale fenomeno. In particolare le funzionalità di microtargeting, offerte da Facebook Ads, sono oggetto di attenzione solo da un paio d’ anni. Ed è soprattutto in seguito alle polemiche seguite alle ultime elezioni presidenziali negli USA che se ne parla.

Com’è noto la piattaforma pubblicitaria di Facebook permette di selezionare pubblici estremamente ristretti. Nel 2016 ProPublica dimostrò la possibilità, per l’inserzionista, di targetizzare l’audience del proprio annuncio in base all’appartenenza a uno specifico gruppo etnico e addirittura di ritagliare categorie di utenti molto connotati, come «odiatori degli ebrei» («jew haters»).

Una simile possibilità può essere sfruttata per indirizzare messaggi polarizzanti, divisivi o addirittura incitanti all’odio. I quali rischiano di risultare molto efficaci in quanto agiscono su un substrato ideologico e psicologico predisposto, tendendo a rinforzare gli orientamenti dei destinatari, i loro bias o pregiudizi. Allo stesso modo con la piattaforma di Facebook Ads si possono veicolare informazioni scorrette, parziali o false. E risultati analoghi si ottengono applicando tecniche di microtargeting all’e-mail marketing.

Micromarketing e microtargeting

Intendiamoci: quella del microtargeting non è una pratica in sé scorretta. Né va considerata come una novità assoluta. In fondo, si potrebbe dire, è solo l’evoluzione di tecniche di marketing applicate da tempo. La segmentazione della clientela e l’identificazione di gruppi sempre più piccoli e omogenei, cui rivolgere proposte diversificate, fa parte di una logica ben nota. L’obiettivo è sempre lo stesso: accrescere i livelli di risposta alle azioni sulle classiche leve di marketing.

In realtà le cose sono cambiate negli ultimi anni, con l’esplosione del fenomeno dei big data. Per analizzare e segmentare il target, valorizzando le enormi quantità di dati raccolte dai social network e dai dispositivi di self measuring a bordo dei nostri smartphone, esistono tecnologie sempre più potenti. È una gara, peraltro, nella quale tende a vincere non chi possiede gli strumenti migliori, ma chi controlla la quantità di dati maggiore.

Il caso di Cambridge Analytica

Oggi di microtargeting si discute soprattutto nell’ambito della pubblicità politica, in modo particolare negli Stati Uniti. In occasione delle elezioni presidenziali del 2016, per esempio, si è fatto largo uso di tecniche di microtargeting. Molto chiacchierato è il ruolo di Cambridge Analytica nella campagna elettorale di Donald Trump. La società britannica, con sede a Londra, lavora profilando un’enorme mole di dati di carattere demografico, psicometrico e comportamentale per segmentare gli elettori. Trump ha versato a Cambridge Analytica milioni di dollari per i suoi servizi.

Da notare inoltre che Stephen K. Bannon – capo stratega di Trump fino all’agosto scorso ed ex capo di Breitbart News, sito della destra alternativa americana molto attivo nella diffusione di informazioni generate in Russia – faceva parte del consiglio di amministrazione della società. Questa circostanza può indurre a sospettare che l’attività di Cambridge Analytica sia stata un tassello di un’operazione più complessiva di information warfare, orchestrata dalla Russa per interferire nelle elezioni americane. Di questo disegno ci parla, per esempio, Joshua Stowell in un articolo del 23 febbraio 2018 su Global Security Review.

Cambridge Analytica combina la logica dei big data con uno specifico modello psicometrico, denominato OCEAN. Questo ha lo scopo di definire cluster di individui in base a cinque tratti della personalità: openness (apertura nei confronti di nuove esperienze), conscientiousness (tendenza al perfezionismo), extroversion (disponibilità ai rapporti sociali), agreeableness (atteggiamento collaborativo) e neuroticism (tendenza a innervosirsi e ad assumere posizioni conflittuali).

Per tutto il 2017 l’entourage di Trump ha cercato di minimizzare il ruolo di Cambridge Analytica nella campagna elettorale del presidente, specie dopo le imbarazzanti indiscrezioni raccolte da Daily Best su possibili contatti fra le società e il fondatore di Wikileaks Julan Assange. Tuttavia il Guardian, in un articolo del 26 ottobre 2017, ha ricordato le parole pronunciate da Molly Schweickert, responsabile del settore digitale di Cambridge Analytica, in occasione di una conferenza tenutasi in Germania nel maggio del 2017. In quella circostanza Schweickert rivendicò il peso dei modelli della sua società non solo sulle scelte quotidiane della campagna elettorale, ma anche sugli spostamenti di Trump attraverso gli Stati Uniti. Il keynote di Schweickert fu registrato ed è ora disponibile su YouTube:

Preoccupazioni eccessive?

D’altra parte c’è chi ritiene che non sia il caso di sovrastimare la minaccia del microtargeting politico online. Anche se esposto a messaggi manipolatori, il pubblico non è mai totalmente immerso in una bolla digitale. Le fonti che possono influenzarlo sono molteplici e diversificate, comprese quelle più “tradizionali” come la televisione. E questo resta vero anche negli Stati Uniti. In fondo a questo post riportiamo un po’ di bibliografia per chi abbia voglia di approfondire il tema.

In generale sarebbe opportuno rifuggire da ogni forma di determinismo tecnologico. Anziché additare la tecnologia in sé come causa di un fenomeno sociale, bisognerebbe ricercare le responsabilità di chi decide di usare la tecnologia in un certo modo piuttosto che in un altro. Inoltre si potrebbe pensare che, se le architetture e gli algoritmi delle piattaforme online hanno accentuato certi fenomeni – come il populismo e le falsificazioni disintermediate delle verità – è altresì vero che tale problema appare tanto più grave laddove il divario digitale è più profondo. Quindi la risposta non può essere una riduzione delle tecnologie, ma un’educazione al loro uso consapevole.

Omofilia, filter bubble e echo chamber

Il collante delle reti sociali online è la fiducia. Senza di essa non si sviluppano scambi comunicativi. Tali scambi, però, tendono a rafforzare l’omofilia («il simile ama il simile»). Di conseguenza è più probabile trovare un accordo con coloro che ci somigliano socialmente, ossia gli individui le cui proposte non provocano in noi particolare dissonanza cognitiva. È di tali individui che tendiamo a fidarci. E ciò alimenta un circuito virtuoso, ma in parte anche asfittico.

Il salto di qualità, per così dire, si determina nel momento in cui alla dinamica sociale delle reti si sostituisce quella degli algoritmi. O, almeno, questa è l’ipotesi di alcuni autorevoli studiosi del fenomeno. Secondo costoro, infatti, sono proprio gli algoritmi a creare ecosistemi informativi chiusi, nei quali è relativamente improbabile imbattersi in contenuti sgraditi. Inoltre gli algoritmi polarizzano le posizioni, perché pubblici con orientamenti diversi hanno rare occasioni di confronto. E comunque, quando tali occasioni si manifestano, la comunicazione assume i connotati dello scontro.

Il fenomeno è noto da tempo con il termine di echo chamber («camera dell’eco»). L’espressione designa gli spazi comunicativi chiusi, in cui i messaggi rimbalzano senza possibilità di uscire e vengono ripetuti continuamente. Il concetto di echo chamber sembra in qualche modo connesso a quello di filter bubble, oggi più di moda.

Com’è noto, la paternità del termine filter bubble è di Eli Pariser, che lo usò la prima volta nel 2011 in un saggio divenuto un classico: The Filter Bubble: What the Internet Is Hiding from You. L’idea è che i meccanismi di personalizzazione delle informazioni, sviluppati prima da Google e poi da Facebook con l’intento di migliorare l’esperienza dell’utente, producano un effetto indesiderato: riducono la probabilità di essere esposti a punti di vista conflittuali con le nostre aspettative e quindi ci isolano all’interno di bolle informative.

La reale portata della bolla

Come dicevamo, senza voler sottostimare il fenomeno, si tratta comunque di ricondurlo alle sue reali proporzioni e rifuggire da letture semplicistiche. Un’indagine del 2016 del Pew Research Center, per esempio, sembra dimostrare che nell’esperienza online l’effetto filter bubble è molto meno evidente di quanto si potrebbe supporre. Gli utenti, anzi, dichiarano di incontrare spesso informazioni che non condividono e che considerano offensive. Altre ricerche portano a concludere che le camere dell’eco sono all’opera anche nei media tradizionali, come e più che nei social network.

Ciò non di meno è importante continuare a studiare il fenomeno, anche perché la situazione è in continuo movimento. Il peso dei social network nella dieta mediatica è cresciuto in tutto il mondo. E nel frattempo gli algoritmi che governano la visibilità dei contenuti nelle principali piattaforme continuano a cambiare. A cominciare da quello di Facebook.

EdgeRank di News Feed alla prova

Nel social network più popolare del mondo ogni conversazione tende a rinchiudersi in una bolla. Ciò è il prodotto della logica che governa EdgeRank, l’algoritmo in base al quale nel News Feed della nostra pagina di Facebook vediamo ciò che vediamo. EdgeRank filtra, seleziona, sceglie: in pratica mostra all’utente solo i contenuti che hanno più probabilità di interessargli.

Il metodo è quello dell’apprendimento automatico, o machine learning. Vuol dire che quanti più contenuti sono pubblicati su Facebook, tanto più l’algoritmo bravo diventa a capire quali di questi contenuti interessano ciascun utente. L’algoritmo impara dall’esperienza, insomma. Nel filmato che segue Karrie Karahalios, ricercatore degli Adobe Creative Labs e dell’University of Illinois, illustra in che modo gli algoritmi operano nei feed dei social network:

Ancora più interessante la lezione del maggio 2017 di Uzma Hussain Barlaskar, product manager di Facebook, intitolata Impact of Machine Learning on your News Feed.

Ma attenzione: quanti più contenuti circolano, tanto minori sono le probabilità di incontrarne di difformi rispetto alle nostre aspettative. O meglio: rispetto alle aspettative presunte dall’algoritmo di News Feed. Siamo dunque di fronte a una sorta di paradosso. La quantità di opzioni in teoria disponibili – i contenuti pubblicati ogni giorno da centinaia di milioni di utenti – e la quantità di opzioni a cui News Feed ci dà effettivamente accesso – i contenuti in concreto visualizzati nella nostra pagina – tendono a porsi come grandezze inversamente proporzionali.

Le importanti modifiche nella logica di News Feed, introdotte all’inizio del 2018 e illustrate dallo stesso Mark Zuckerberg, sembrano accentuare la tendenza dell’algoritmo a rinchiuderci dentro una bolla in cui l’incontro con l’inatteso è un evento raro. Facebook intende proporci contenuti «garantiti», quelli che provengono da una cerchia ristretta di amici e familiari. Una brutta notizia per editori e brand, ha commentato il New York Times. Del resto, che questa fosse la tendenza era già chiaro dal giugno del 2016. Era tutto stato annunciato in un post di Adam Mosseri, altro product manager di Facebook, nel blog ufficiale del social network.

La motivazione ufficiale è innocente. Nelle intenzioni dichiarate da Facebook, si tratta di ridurre la visibilità dei cosiddetti «contenuti passivi», ovvero notizie e altro materiale di carattere editoriale, a favore di tutto ciò che stimola l’interazione fra gli utenti. E questo risultato si ottiene promuovendo gli scambi fra utenti che si conoscono già o comunque l’esposizione a contenuti che hanno già ottenuto reazioni, commenti e condivisioni.

Il ruolo di Facebook Ads

Ma torniamo al ruolo specifico di Facebook Ads, la piattaforma di adversising del gigante di Menlo Park. C’è chi ha fatto un uso assai spregiudicato delle tecniche di microtargeting offerte da Facebook Adv. Come abbiamo detto a mostrarsi particolarmente abili nel microtargeting sono stati proprio i russi, nel probabile tentativo di condizionare la campagna elettorale USA. Con tutto lo strascico di polemiche che ne è seguito.

Il bubbone è esploso il 6 settembre scorso. Alex Stamos, Chief Security Officer di Facebook, è stato costretto a riconoscere l’utilizzo inappropriato di diversi account pubblicitari da parte di agenzie di informazione russe. Nel post An Update On Information Operations On Facebook, pubblicato nella Newsroom di Facebook, Stamos ha dovuto chiarire diversi punti.

Innanzi tutto è vero che 470 account rivelatisi falsi («inauthentic») hanno pubblicato – da giugno 2015 a maggio 2017 – circa 3.000 annunci pubblicitari, per un investimento complessivo di 100 mila dollari, contenenti messaggi divisivi, ovvero capaci di radicalizzare le distanze ideologiche fra gli utenti (immigrazione, possesso di armi, comunità lesbo-gay ecc.)

Tali annunci sono stati pianificati utilizzando la tecnica del microtargeting, ovvero selezionando accuratamente l’audience su base geografica, e complessivamente sarebbero stati visualizzati da una decina di milioni di utenti.

Il fatto più inquietante è che gli account erano riconducibili a utenze connesse fra loro. Non è possibile dimostrare che tali utenze siano legate al Cremlino, ma secondo indiscrezioni raccolte da New York Times e Washington Post la regia di questa operazione di microtargeting politico sarebbe riconducibile alla Internet Research Agency, basata a San Pietroburgo. Già nel 2015 il New York Times aveva dedicato una documentata inchiesta alla Internet Research Agency. Più recentemente anche l’Economist si è occupato dell fabbrica di troll russa (Inside the Internet Research Agency’s lie machine).

Nello stesso periodo nel territorio russo sono state acquistate circa 2.200 inserzioni con contenuto politico, per un valore complessivo di 50 mila dollari. Tali inserzioni hanno applicato metodi di pubblicazione non conformi alle regole di Facebook. Inoltre i contenuti delle inserzioni sono stati amplificati con il metodo del troll, per condizionare l’EdgeRank di Facebook.

470 pagine sospette

Ovviamente il problema non sono solo gli account di Facebook Ads. Anche il traffico organico ha fatto la sua parte. Un documento pubblicato dall’analista Jonathan Albright pone in evidenza il ruolo esercitato, nella diffusione di contenuti di matrice russa e di origine sospetta, dai semplici aggiornamenti di stato e dalle relative interazioni (like, commenti, condivisioni). Un ruolo probabilmente molto più significativo di quello giocato dalle inserzioni.

In particolare Albright ha messo sotto osservazione 470 pagine di Facebook russe e ha analizzato i 500 post più recenti per ciascuna di esse. I post delle sei pagine più attive, fra le 470 analizzate, sono stati visualizzati 340 milioni di volte e generato 19,1 milioni di interazioni.

<a href=’#’><img alt=’ ‘ src=’https://public.tableau.com/static/images/FB/FB4/TotalReachbyPage/1_rss.png’ style=’border: none’ /></a>

Le sei pagine, che erano controllate dalla già citata Internet Research Agency, sono state sospese da Facebook:

  • Blacktivists
  • United Muslims of America
  • Being Patriotic
  • Heart of Texas
  • Secured Borders
  • LGBT United

L’analisi dei contenuti e del tono di voce dei post rileva alcuni fatti importanti. In primo luogo la maggior parte dei post non tocca temi in diretta relazione con le elezioni presidenziali dell’8 novembre 2016. Inoltre ciascuna pagina indirizza uno specifico pubblico (attivisti neri, musulmani, gay, patrioti ed ex veterani, ecc.) con contenuti che hanno il probabile scopo di conquistarne la fiducia (alcuni esempi di microtargeting: «There is a war going against black kids.», pubblicato da Blacktivist; «Share if you believe Muslims have nothing to do with 9/11. Let’s see how many people know the truth!», pubblicato da United Muslims of America; «At least 50,000 homeless veterans are starving dying in the streets, but liberals want to invite 620,000 refugees and settle them among us. We have to take care of our own citizens, and it must be the primary goal for our politicians!», pubblicato da Being Patriotic).

I casi di Google e Twitter

Il 9 ottobre 2017 anche Google ha ammesso che inserzioni sospette, per un valore di circa 100mila dollari, sono state acquistate da account russi sul motore di ricerca, YouTube e altri siti affiliati al network DoubleClick. È stata poi la volta di Twitter, che ha bloccato nei mesi scorsi 201 account associati alla Internet Research Agency e collegati alle 470 pagine di Facebook analizzate da Albright. Inoltre tre account di Twitter associati a Russia Today risultano avere pubblicato annunci per 274.100 dollari.

 

Per approfondire:

Luca De Biase, La disinformazione online e quello che possiamo fare. Quattrociocchi, Pariser, Menczer, Fournier, Quelch, Rietveld, 22 agosto 2016 (https://goo.gl/KSGffy).

Seth Flaxman, Sharad Goel, Justin M. Rao, Filter Bubbles, Echo Chambers, and Online News Consumption, “Public Opinion Quarterly”, 80, S1 (1 gennaio 2016), 298–320 (https://doi.org/10.1093/poq/nfw006).

Sean Illing, Cambridge Analytica, the shady data firm that might be a key Trump-Russia link, explained, “Vox”, 18 dicembre 2017 (https://goo.gl/wUnh9A)

Tien T. Nguyen, Pik-Mai Hui, F. Maxwell Harper, Loren Terveen, Joseph A. Konstan, Exploring the Filter Bubble: The Effect of Using Recommender Systems on Content Diversity, Atti della 23a Conferenza sul World Wide Web (Seul, 7-11 aprile 2014), ACM, New York, 677-686.

Eli Parisier, The Bubble Filter: What the Internet is Hiding from You, Viking, London – New York, 2011.

Eli Parisier, The Troubling Future of Internet Search, “The Futurist”, 45, 5 (sett-ott. 2011), 6-8.

Diana Sanzano, Antonella Napoli, Mario Tirino, Molto rumore per nulla: post-verità, fake news e determinismo tenologico, “Sociologia. Rivista Quadrimetrale di Scienze Storiche e Sociali”, 11, 1, 2017

Frederik J. Zuiderveen Borgesius, Judith Möller, Sanne Kruikemeier, Ronan Ó Fathaigh, Kristina Irion, Tom Dobber, Balazs Bodo, Claes de Vreese, Online Political Microtargeting: Promises and Threats for Democracy, Utrecht Law Review, 14, 1, 2018 (http://doi.org/10.18352/ulr.420).