Robot, dark advertising, generazione di immagini e sintesi vocale: gli algoritmi al servizio della disinformazione. Così si creano e diffondono le fake news automatizzate.
Arrivano le fake news automatizzate. A dire il vero le bufale – o ‘fake news’, come vengono chiamate oggi – non sono certamente invenzione recente. Tuttavia, la rilevanza di queste assume un’altra dimensione nel momento in cui i mass-media giocano un ruolo attivo nella loro diffusione.
Una storia di bufale
Nella storia delle bufale diventate “virali” grazie ai mass-media ci sono stati casi particolarmente clamorosi. Questi casi prefigurarono una delle preoccupazioni maggiori sui mass-media, ovvero l’abilità di modificare l’opinione pubblica grazie all’enorme capillarità e diffusione.
La “Grande Burla della Luna”
Conosciuta come “The Great Moon Hoax”, viene considerata una delle burle più clamorose di tutti i tempi perpetrate tramite mass media.
Il 21 agosto del 1835, sulla seconda pagina del New York Sun, fa la sua apparizione un piccolo trafiletto, apparentemente ripreso dal supplemento del Edinburgh Courant. Il testo annuncia mirabolanti scoperte astronomiche che sarebbero (secondo il Sun) state compiute dal già illustre Sir John Herschel tramite tecniche innovative.
Nonostante i sospetti del “New York Herald”, la bufala fu smascherata ufficialmente solo nel 1840. Se i media di allora erano abbastanza divisi sulla questione, la copertura che ne diedero contribuì all’entusiasmo e all’eccitazione generale che queste “scoperte” crearono.
La Grande Burla della Luna fu la prima sensazionale dimostrazione del potere dei mass-media, nato con l’introduzione delle macchine da stampa a vapore. Prima del 1830 una burla del genere non sarebbe stata nemmeno concepibile. Possiamo dire che tutta la questione prefigurò una delle preoccupazioni maggiori riguardo i mass-media, ovvero l’abilità di condizionare l’atteggiamento dell’opinione pubblica.
La guerra dei mondi
Un secolo dopo la burla di Locke a mezzo stampa, non è più solo la stampa a coprire il territorio. Grazie alla radio i mass-media raggiungono tutte o quasi le abitazioni della popolazione americana.
È il 30 ottobre 1938, quando la consueta programmazione radiofonica della CBS viene interrotta da un «reporter di Intercontinental Radio News», il quale annuncia che gli astronomi avevano appena rilevato un’enorme fiamma blu eruttare dalla superficie di Marte. È l’inizio di un’altra burla colossale, ispirata da La Guerra dei Mondi, romanzo scritto da H. G. Wells nel 1898. Tutto l’apparato fu ideato e diretto da Orson Welles, e la leggenda vuole che mezza popolazione americana fosse gettata nel caos più totale.
In questo caso le “fake news” furono addirittura due: il racconto “in diretta” dell’invasione aliena[1], e il mito, ancora oggi solido, della diffusione del panico su scala nazionale, con milioni di americani terrorizzati.
Ancora una volta i mass-media giocarono un ruolo cruciale: la stampa, che si affrettò a divulgare la notizia del panico dovuto alla burla, ma questa volta coadiuvata da un medium ancora più potente e pervasivo: la radio.
L’affare Sokal
Il mondo delle burle non ha risparmiato nemmeno le pubblicazioni accademiche.
Nel 1994 Alan Sokal invia a Social Text[2] un articolo intitolato Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity. La rivista (che al tempo non praticava peer review) pubblicò l’articolo nella primavera del 1996.
La particolarità dell’articolo era che era composto interamente di frasi senza significato. Gli unici criteri erano che le parole suonassero bene assieme, e che il contenuto fosse allineato con l’ideologia della rivista.
Lo scopo che Sokal dichiarò successivamente su Lingua Franca, era quello di dimostrare il declino degli standard di rigore intellettuale delle riviste umanistiche dell’epoca[3] .
Internet e le casse di risonanza
Oggi con Internet il concetto di fake news assume una connotazione e una proporzione di tutt’altro rilievo. Mentre Internet di per sé non raggiunge più persone di quante ne raggiungesse la radio, ha invece abbassato radicalmente la soglia di ingresso per la pubblicazione. Nell’era pre-Internet infatti i mass media, pur con la loro capillarità, erano accessibili dalle masse quasi esclusivamente in modo passivo: quelli che avevano accesso a radio e stampa per trasmettere contenuti erano decisamente pochi. Oggi chiunque può pubblicare le proprie idee, ma soprattutto chiunque può fare da cassa di risonanza. E la velocità con cui una notizia o una bufala si diffondono è diventata esponenziale.
Ricordiamo alcuni episodi recenti: il caso della mandragora negli spinaci Bonduelle (falso!), la notizia della morte di Vitalik Buterin, fondatore di Ethereum (falsa!), l’attacco agli elettori di Trump da parte del CEO di PepsiCo (falso!), la presenza del virus dell’HIV nella bevanda della stessa Pepsi (falsa!), l’idea che il movimento americano Antifa stesse organizzando un colpo di stato per impadronirsi delle istituzioni Usa (anch’essa falsa!).
Gli algoritmi di Facebook e Google personalizzano i contenuti che ci presentano, privilegiando quelli che “ci piacciono”. Mentre lo scopo finale di questo filtraggio è quello di presentare promozioni quanto più su misura possibile, l’effetto collaterale è ridurre sempre di più le possibilità di incontrare contenuti in contrasto con i nostri punti di vista. È il fenomeno della cosiddetta ‘filter bubble‘ (espressione coniata da Eli Pariser), cioè la bolla di informazioni all’interno della quale l’utente di Internet rischia di essere rinchiuso, in una sorta di isolamento intellettuale.
Un paradosso: più dati, meno pluralismo
Nel caso di Facebook il fenomeno è assai evidente. La filter bubble, all’interno della quale è rinchiusa ogni conversazione su Facebook, è frutto di una logica integrata in Newsfeed: «mostra all’utente solo i contenuti che hanno più probabilità di interessargli». Il paradosso è dunque che l’algoritmo diventa tanto più bravo a capire quali contenuti interessano ciascun utente, quanti più contenuti circolano su Facebook. E dunque: quanti più contenuti circolano su Facebook, tanto minori sono le probabilità di incontrare contenuti difformi alle nostre (presunte) aspettative.
Il fenomeno si manifesta anche su Google Search, Instagram e – in misura minore, ma crescente – su Twitter.
David Rhode, direttore del “New Yorker” conclude sconsolatamente:
“Forse le persone sono sopraffatte, perché c’è più informazione disponibile che in qualsiasi altro periodo storico, ma si tende a reperire le notizie laddove si rinforzano i nostri pensieri. Incredibilmente, la tecnologia ha prodotto come risultato il fatto di essere esposti a meno opinioni di prima, ed è qualcosa che non credevo possibile.» (intervista rilasciata a Gea Scancarello, “Solo i reporter ci salveranno dalle fake news“. Pagina99, 27 ottobre 2017).
Le notizie sensazionalizzate piacciono, attirano clic, chi legge sempre più spesso non ha nemmeno interesse a sapere se quello che ha davanti è vero o inventato, e questo traffico genera proventi per chi le scrive, incoraggiando ancora di più la produzione di fake news.
Il ruolo della pubblicità nelle fake news
Come se non bastasse, il fenomeno della filter bubble è amplificato dai meccanismi di microtargeting della pubblicità online. Sfruttando tali meccanismi è possibile far pervenire ogni volta al target più adatto messaggi confermanti, con più probabilità di provocare una reazione (like, condivisione, commento favorevole). Questa pratica va sotto il nome di dark advertising.
Nelle recenti tornate elettorali – presidenziali USA, referendum sulla brexit, presidenziali francesi, politiche nazionali tedesche – tali meccanismi sono stati ampiamente sfruttati. Il Russiagate dimostra che la pubblicità politica online rischia di diventare uno strumento di pressione e ingerenza delle potenze straniere negli affari interni di uno stato, una nuova forma di guerra fredda cibernetica. Parafrasando il noto adagio di von Clausewitz, potremmo dire che Facebook è la prosecuzione della politica con altri mezzi.
Intelligenza artificiale, big data e fake news automatizzate
Fin qui le fake news citate erano per lo più dovute a errori, a burle o al limite avevano lo scopo di denuncia. Di altro respiro è l’impatto generato dalle campagne di disinformazione, laddove per disinformazione si intende la diffusione di notizie false e/o tendenziose con preciso intento di generare confusione e procurare danno.
La diffusione
«Quando What Happened, l’ultimo libro di Hillary Clinton debuttò su Amazon, la risposta fu incredibile… così incredibile che Amazon non ci credette e delle 1600 review apparse ne cancellò 900 per essere dei sospetti falsi, scritti da persone che dicevano di adorare o odiare il libro, ma non l’avevano né acquistato, né (evidentemente viste le tempistiche) nemmeno letto.» (Could AI Be the Future of Fake News and Product Reviews? (“Scientific American”).
È fatto noto che nel mondo dei media la diffusione di notizie di qualsiasi genere non segue un percorso lineare, ma piuttosto a “hub”. In altre parole ci sono alcuni utenti particolarmente “influenti” e seguiti, spesso anche con centinaia di migliaia di follower, i cui post hanno una probabilità esponenzialmente più alta di diffondersi.
Sono queste casse di risonanza a essere diventate target dei cosiddetti social bot, che Chengcheng Shao della Indiana University ha trovato essere la maggior parte degli account che diffondono fake news.
La diffusione delle fake news sta rapidamente diventando un business su grande scala, non più legato solamente allo studente di turno, che diffonde bufale chiuso nel suo garage, per qualche centinaio di dollari al giorno.
Oramai il gioco si sta spostando sulla vera e propria disinformazione, per arrivare a influenzare elezioni governative, o addirittura l’andamento del mercato finanziario. L’automazione è diventata un requisito, anzi possiamo dire che è verosimile che presto la sola falsificazione di notizie basate su testo non sarà più sufficiente: la tecnologia è quasi pronta per falsificare storie creando anche immagini, video e audio completamente dal nulla.
Arte o contraffazione? La sintesi di immagini
L’accessibilità di oggi ai big data ha reso possibile uno sviluppo degli algoritmi di intelligenza artificiale senza precedenti. Senza quasi accorgercene siamo passati dagli algoritmi di analisi a quelli di generazione.
La sintesi automatica delle immagini aveva già iniziato a guadagnare trazione con software come Pix2Pix, in grado di creare immagini fotorealistiche a partire da disegni tramite Reti Neurali Antagoniste (sarà materia di approfondimento in un altro articolo). Oggi emergono nuove tecnologie con risultati sempre più sorprendenti praticamente ogni giorno: StackGAN per esempio implementa due stadi di reti antagoniste, uno che produce un primo livello di immagini a bassa risoluzione, e un secondo stadio che sulla base di questo produce un’immagine più rifinita ad alta risoluzione, praticamente fotorealistica.

Arte o contraffazione? La sintesi di video
Non basta, La sintesi delle immagini si sta ora spostando verso la sua più naturale evoluzione: quella dei video.
Lo scorso agosto, la musicista Françoise Hardy, in tutta la bellezza dei suoi 20 anni appariva in un video di Youtube (sotto). La cantante rispondeva alle incalzanti domande di Chuck Todd (fuori campo) sul perché Trump avesse mandato il suo segretario di stampa Sean Spicer a mentire pubblicamente, parlando di “alternative facts”.
Cosa c’è di Strano? Beh, innanzitutto Françoise Hardy ha ora 73 anni (quando ne aveva 20 Todd non era ancora nato, e Trump ovviamente non era presidente), e la voce che si sente per chi non l’avesse già riconosciuta è quella di Kellyanne Conway. Ma la cosa sorprendente è che non si tratta semplicemente della voce di Kellyanne Conway messa su un video della Hardy, ma di un video interamente generato. Si tratta infatti di un lavoro di Mario Klingemann, che tramite (ancora una volta) reti neurali antagoniste è stato in grado, usando vecchi videoclip della cantante come training, di “ricreare” automaticamente il volto della Hardy, con il labiale sincronizzato alla voce di Kelyanne Conway!
C’è anche DeepStereo, che a partire da diverse immagini di luoghi riesce a “predire” e ricostruire le scene come fossero riprese da punti di vista differenti.
Arte o contraffazione? La sintesi vocale
La sintesi vocale è un campo già ampiamente diffuso, ma la tecnologia usata a livello commerciale (come Siri) è ancora costituita da frammenti vocali registrati, poi concatenati assieme. Essendo inerentemente limitata al set di frasi registrate, suona “vera” solo in determinate circostanze, e non è quindi ancora adatta a una “contraffazione” realistica.
Ma il “deep audio”, ovvero l’audio interamente generato tramite reti neurali, è un’altra storia. Si tratta di fare imparare alla rete le caratteristiche delle voci con cui viene alimentata nel training, e di ottenere ricostruzioni fedeli in qualsiasi contesto.
Si tratta di lavorare direttamente su file audio grezzi, cosa che di solito viene evitata perché richiede dei campionamenti molto pesanti, anche 16k al secondo, con strutture importanti che emergono a varie scale temporali (vedi sotto).
La tecnologia c’è: per ora non è ancora disponibile su scala commerciale, ma c’è.
Per esempio Google ha sviluppato Wavenet, una rete neurale convoluta che in fase di training viene alimentata con voci umane in forma d’onda grezza (wave). Wavenet determina il valore di campionamento in ogni singolo step basandosi sulla distribuzione probabilistica della rete.

Al termine la rete è in grado di riprodurre persino suoni di “riempimento” come respiri, balbuzie etc (ascolta sotto un esempio).
I risultati, comparati alle altre tecnologie già impiegate da Google sono decisamente superiori, e nel caso del Mandarino sono anche abbastanza vicino alla performance umana.
Qui sotto un confronto tra campioni audio delle tecnologie di generazione di voce utilizzate da Google:
Tecnologia Parametrica
Tecnologia Concatenativa
Wavenet
Considerando anche i progressi nei campi di generazione immagini e video, non è difficile pensare a un futuro prossimo in cui sarà possibile non solo “creare” fotografie e video di scene mai esistite, ma anche di mettere in bocca alle persone frasi completamente “create” dal nulla. Il mondo delle fake news e della disinformazione sta per entrare in una nuova radiosa era dove l’unico limite è l’immaginazione, e la differenza tra “fake” e realtà sarà sempre più sfumata.
Note
[1]: Per uscirne venne riportato che le osservazioni erano terminate a causa di un incendio che avrebbe ridotto il magico telescopio e l’intero laboratorio (!) in cenere.
[2]: Social Text, rivista di studi culturali postmoderni.
[3]: Successivamente, gli editori della rivista, pur rimpiangendo l’aver pubblicato il pezzo, pubblicarono un editoriale dove refutavano le conclusioni di Sokal sulla presunta mancanza di rigore del giornale, sostenendo di essersi accorti della “bizzarria” del pezzo, ma di averlo ritenuto un tentativo onesto di avventurarsi nel campo della filosofia del postmodernismo da parte di un professore di fisica.
LINKS
Bufale
The Great Moon Hoax – History.com
Editorial response to Sokal hoax by editors of Social Text (pdf)
A Physicist Experiments With Cultural Studies – Lingua Franca
How three MIT students fooled the world of scientific journals
Rooter: A Methodology for the Typical Unification of Access Points and Redundancy
SCIpher – A Scholarly Message Encoder
Fact checking e fake detection
FactCheck.org – A Project of The Annenberg Public Policy Center
Could AI fight fake news? Yes—with the help of humans. – IBM iX
Fake News
Could AI Be the Future of Fake News and Product Reviews?
Fake news ‘as a service’ booming among cybercrooks • The Register
BBC – Future – Lies, propaganda and fake news: A challenge for our age
How Data And Information Literacy Could End Fake News
Are Facebook and Twitter encouraging fake news? | Daily Mail Online
Does Even Mark Zuckerberg Know What Facebook Is?
How Fake News Goes Viral—Here’s the Math
First Evidence That Social Bots Play a Major Role in Spreading Fake News – MIT Technology Review
Advertisers Try to Avoid the Web’s Dark Side, From Fake News to Extremist Videos – WSJ
Inside the Macedonian fake-news complex
Fake news: you ain’t seen nothing yet – Creation stories
WaveNet: A Generative Model for Raw Audio