I dati di aNobii analizzati con l’approccio big data ci dicono molto su chi legge e sul suo comportamento. Elisa Maestroni intervista Chiara Faggiolani (seconda parte).

Con un focus su aNobii prosegue la pubblicazione dell’estratto della tesi di laurea magistrale Editoria liquida. Autori, lettori e libri alla prova del digitale, recentemente discussa all’Università di Pavia da Elisa Maestroni.

C’è anche aNobii nella ricerca di Leggere in rete, gruppo di lavoro coordinato da Chiara Faggiolani e ideato da Maurizio Vivarelli di cui abbiamo parlato nella prima parte di questo estratto. Quello relativo alla piattaforma di social reading di Mondadori è un caso di studio di grande interesse.

aNobii si è dimostrato un luogo ideale per lo svolgimento della ricerca in questione. Basta ricordare che è il social reading più diffuso nel nostro Paese. La comunità di lettori italiana è la più vasta fra quelle di aNobii e supera i 300.000 utenti (secondo i dati della ricerca Le reti della lettura, risalenti al 2016, erano 353.663). Anche il numero di libri e recensioni presenti è altissimo (8.020.066 libri, di cui 1.203.007 italiani che generano 2.552.955 recensioni, delle quali 1.740.394 in italiano), rappresentando così un ecosistema di dati utili a svolgere il lavoro di approfondimento.

La missione dello studio è «tentare di individuare, attraverso l’analisi della rete sociale di aNobii, nuove e rilevanti considerazioni sul mondo della lettura, al fine di fornire informazioni anche strategiche e arricchire il set di indicatori che attualmente descrivono il mondo dell’editoria dei libri e della lettura in generale» (Chiara Faggiolani e Lorenzo Verna, La lettura sul lettino: primi tentativi di data analysis, in Le reti della lettura. Tracce, modelli, pratiche del social reading, a cura di Chiara Faggiolani e Maurizio Vivarelli, Milano, Editrice Bibliografica, 2016, pag. 235).

Social reading, due approcci di analisi

Interessante è la fisionomia degli utenti del social reading che è emersa dalla ricerca. Le donne sono presenti in numero maggiore rispetto agli uomini, e la fascia di età più sostanziosa è quella dei 25-34 anni. Sono utenti che vivono prevalentemente in grandi città italiane come Roma, Milano, Torino.

Attraverso l’analisi delle connessioni tra gli utenti, lo scambio di informazioni, i commenti, ma anche semplicemente tramite l’osservazione dei like, non si è solo scoperto il numero di utenti che leggono un determinato titolo, ma anche il profilo di quei lettori, le loro riflessioni, le comunità sociali di cui fanno parte.

Nel capitolo di Faggiolani e Verna vengono presentati due approcci di analisi di questa mole di dati. Il primo approccio riguarda l’utilizzo di strumenti derivati dalla network science, e viene sintetizzato dai due autori, per essere il più comprensibile possibile, in quattro fasi:

Fase 1: la rete plain che si auto-genera

Fase 2: la selezione del punto di vista e l’accesso ai dati

Fase 3: l’analisi dei dati

Fase 4: l’interpretazione e la conoscenza azionabile

Per ciò che riguarda la prima fase, bisogna innanzitutto sottolineare che quando si parla di rete plain, si intende una rete in cui non è presente una gerarchia di relazioni. Per questo viene definita appunto come «piatta».

Una rete è formata da vari nodi, che rappresentano attori diversi, in questo caso libri, autori, utenti che commentano ecc., mentre le relazioni tra questi nodi sono azioni che questi attori esplicano tra loro e sono generate dalle scelte e dalle attività degli utenti del social reading.

Una volta costruita questa rete, essa viene alimentata attraverso le informazioni e i metadati di ogni singolo commento inserito, così si auto-alimenta: «tutti i frammenti definiti dai dati e metadati che corrispondono a ciascun commento formano una rete molto estesa che al crescere del numero degli oggetti che la alimentano andrà ad assumere una propria struttura i cui nodi avranno ruoli e dinamiche proprie» (Faggiolani e Verna, 241).

La seconda fase prevede la generazione di reti specifiche a partire da quella plain auto-generata: le reti specifiche hanno nodi scelti dal ricercatore secondo il tema di analisi che decide di approfondire. Le relazioni di queste nuove reti specifiche vengono sempre calcolate basandosi sul comportamento dei nodi nella rete originaria. Queste ci permettono di conoscere al meglio rapporti nascosti che non sono visibili osservando il dato nella prima rappresentazione. Si possono quindi generare reti di libri o di lettori, per studiare in modo più approfondito fenomeni specifici che rimangono nascosti all’osservazione originaria.

La terza fase è quella di analisi dei dati, che avviene attraverso strumenti provenienti dal mondo della network analysis. Attraverso l’applicazione di misure come la densità e la centralità, ad esempio, si possono rintracciare i nodi fortemente connessi tra loro e individuare per ogni nodo l’importanza che esso assume all’interno della rete.

Faggiolani e Verna segnalano l’importanza di una misura come quella che la betweenness centrality può avere nell’interpretazione delle dinamiche della rete, poiché essa: «assegna a ciascun nodo un punteggio sulla base della sua capacità di connettere comunità diverse. Spesso si indica questa proprietà come la misura della capacità di un nodo di fungere da “ponte” tra diverse porzioni della rete» (ibidem, 247). Ad esempio, in una rete di lettori, essi saranno rappresentati dai nodi e gli archi rappresenteranno invece le correlazioni tra i vari utenti per libri simili, apprezzamenti ecc.

La quarta fase è relativa all’interpretazione dei risultati, nello sforzo di comprendere correlazioni atipiche o nuove. Per questo è fondamentale conoscere il settore editoriale e sapersi muovere in questo campo, per interpretare al meglio i dati.

Questo approccio permette di fare emergere informazioni e questioni da approfondire, perché la conoscenza basata sullo studio e l’analisi di reti viene definita come «una conoscenza “azionabile” e non solo “interpretabile” da un analista», intendendo come «”azionabile” una conoscenza in grado di generare azioni automatiche gestite da sistemi software, quali per esempio: per un lettore consigliare un libro, un autore o un amico; per un editore indirizzare i contenuti verso il target più opportuno ecc.» (ibidem, 249).

Il secondo approccio metodologico presentato da Faggiolani e Verna si basa invece sull’interrogazione dei dati, in cui le domande di ricerca emergono osservando le azioni o meglio il “comportamento” dei dati stessi all’interno della rete.

Se nel primo approccio si punta a lasciar parlare i dati, nel secondo i dati vengono interrogati al fine di acquisire conoscenze mirate. Nel testo, per capire meglio, viene presentato l’esempio dello studio relativo ai cambiamenti che hanno investito il comportamento dei lettori nel nuovo ambiente digitale. Interrogare i dati richiede un processo non semplice ma che permette di avere risultati di certo interessanti.

Nel caso appena citato viene selezionato un insieme di recensioni in italiano in cui compaiono termini come e-book, libro digitale e simili. Dati questi requisiti, sono stati selezionati 1435 testi che vengono interrogati attraverso un’analisi automatica del testo (AAT), poiché ciò che i ricercatori vogliono è svolgere un’analisi di quello che è l’asse portante di un testo, studiandone la distribuzione delle parole e come si associano tra loro all’interno di un testo.

I quattro cluster di aNobii

Si riscontra così la presenza di quattro grandi classi lessicali in cui sono presenti espressioni tipiche dei vari testi.

Il primo cluster è quello che più affronta il tema del digitale. Si possono individuare interessanti tematiche attorno a questo argomento:

1- la questione economica, per la presenza nei commenti di termini come acquisto, free, gratuito ecc.;

2- la questione del supporto materiale della lettura, per la presenza di termini come Kindle, Amazon, carta, reader;

3- la questione della promozione, relativa alla possibilità di scaricare gratuitamente ebook, o parole riguardanti le piattaforme da cui acquistare ecc;

4 -la scarsa cura nell’impaginazione e nell’editing, spesso relativi a commenti critici su refusi e cattiva impaginazione;

5- la questione della user experience; molti utenti commentano o descrivono il loro approccio con il testo digitale, criticandolo oppure apprezzandone alcuni aspetti.

Questo esempio permette di mostrare le molteplici possibilità di ricerca offerte dall’analisi e dallo studio di big data. Questi infatti possono essere interrogati in modo ricco, permettendo di estrarre conoscenze nuove rispetto agli oggetti di studio presi in considerazione.

Per ciò che riguarda la metodologia da applicare a questi studi bisogna certamente sottolineare i vantaggi che questo nuovo metodo apporta «ma anche i limiti di un approccio che apre inedite possibilità di estrazione/produzione di conoscenza ma che al tempo stesso richiede accortezza in tanti passaggi obbligati nel processo di ricerca empirica: si pensi al campionamento, al tema della generalizzazione dei risultati ottenibili e all’interpretazione» (ibidem, 257).

Ciò che questa ricerca ha messo inoltre in evidenza è l’importanza di effettuare questa analisi di dati attraverso la collaborazione di studiosi e ricercatori provenienti da ambiti diversi, sia da quello informatico che da quello umanistico, sottolineando il ruolo dell’interdisciplinarietà come portatore di ulteriori potenzialità alla ricerca.

Come affermava Marc Bloch, già negli anni ’40: «Per grande che sia la varietà di conoscenze dei ricercatori meglio preparati, essi troveranno sempre, e di solito assai presto i loro limiti. Non c’è allora altro rimedio fuorché quello di sostituire alla molteplicità delle competenze in uno stesso uomo, un’alleanza delle tecniche praticate da studiosi diversi […] Questo metodo presuppone il consenso al lavoro per squadre» (March Bloch, Apologia della Storia o Mestiere dello storico, Torino, Einaudi, 1972).

Solo in questo modo, grazie ad apporti scientifici così diversi, si potranno indagare anche ambiti nuovi e inesplorati e inaugurare linee di ricerca non ancora approfonditamente praticate.

Alcune domande a Chiara Faggiolani

Chiara Faggiolani è una delle due figure che hanno promosso l’istituzione della ricerca Leggere in rete, insieme a Maurizio Vivarelli, e che più di tutti ha sostenuto l’importanza di integrare la ricerca con i contributi di diversi studiosi tra cui Gino Roncaglia, Edoardo Brugnatelli, Nicola Cavalli. Convinta che solo attraverso uno studio interdisciplinare e di gruppo, il suo lavoro avrebbe portato a risultati ancora più concreti e interessanti. A Faggiolani abbiamo rivolto alcune domande su questo nuovo approccio metodologico per lo studio dei big data, per comprendere in che modo possano essere utili nel mondo dell’editoria e della lettura.

Partirei da una veloce presentazione del progetto Leggere in rete di cui lei è una delle ideatrici. Di che cosa si tratta?

È un progetto che nasce nel 2015, in collaborazione tra l’Università di Roma-Sapienza, Dipartimento di Scienze Documentarie Linguistico-Filologiche e Geografiche e il Dipartimento di Studi Storici dell’Università di Torino.

Io e Maurizio Vivarelli abbiamo avvertito nello stesso momento lo stesso tipo di ‘urgenza’. Il progetto ha previsto la collaborazione di diverse professionalità e competenze legate per così dire alla filiera del libro ma non solo: competenze informatiche, editoriali, biblioteconomiche. Ciascuno ha portato un punto di vista fondamentale.

Nella prima fase del progetto abbiamo lavorato attivamente sulla piattaforma Aureoo analizzandola, cercando di intravedere appunto quali sono i suoi pregi e i suoi difetti, aiutando gli ideatori della piattaforma anche nella progettazione dell’interfaccia. Sempre nella prima fase abbiamo fatto un’analisi di alcune delle principali piattaforme di social reading e contestualmente, soprattutto io, insieme a Lorenzo Verna e Maurizio Vivarelli, abbiamo iniziato a pensare alla possibilità di osservare anche l’altro lato della medaglia: non solo cos’è il social reading e come il social reading modifica i comportamenti di lettura ma anche il fatto che queste piattaforme di social reading, come loro effetto collaterale, raccolgono dati. Dati che possono essere proficuamente analizzati e quindi diventare fonte di conoscenza.

Uno dei punti fondamentali di questo progetto è di essersi sviluppato come un lavoro di squadra, una squadra interdisciplinare: giusto?

Sì, esatto. Dall’inizio abbiamo avuto molto chiara l’idea che un progetto di questo genere non potesse essere condotto secondo un unico punto di vista, ma che fossero necessari più punti di vista, più sensibilità e competenze. Io avevo già manifestato e maturato questa consapevolezza nel progetto che ha preceduto questo: Perce.Read (NdR: PERCE.READ. La percezione della lettura in Italia al tempo del social reading. A partire da una analisi di opinion mining della campagna #ioleggoperché), all’interno del con il mio gruppo di ricerca abbiamo fatto una analisi di opinion mining della campagna di promozione della lettura #ioleggoperché; quindi già lì io avevo lavorato con uno statistico, uno psicologo, uno specialista di social media.

Lo stesso tipo di esperienza interdisciplinare l’abbiamo replicata nel progetto Leggere in Rete. Ovviamente fondamentale è stato l’incontro con Edoardo Brugnatelli, che abbiamo contattato, perché, dopo l’esperienza relativa al progetto precedente in cui avevo lavorato con big data estratti da piattaforme di social network generaliste, avevo idea che fosse più utile fare un confronto con dati estratti da piattaforme di social reading, ossia piattaforme sempre di social network, non generaliste ma verticali, per esempio aNobii, dedicata alla lettura (o un esempio di tutt’altro genere: Tripadvisor dedicato al mondo della ristorazione e al mondo alberghiero). È in questo spazio che noi andiamo a rintracciare conversazioni dedicate al tema dei libri.

Questa è un po’ la genesi del progetto. 

Perché lei come studiosa, che viene da un mondo legato al libro e ad un settore per così dire più tradizionale, ha maturato questo interesse crescente verso il mondo dei big data?

 Questo deriva in parte anche dal fatto che ho una formazione interdisciplinare. Mi sono laureata in Scienze della comunicazione, poi ho conseguito un dottorato in Scienze del libro e del documento, e quindi ho deciso di ampliare la mia formazione con un master in Data Science. Parto dalla convinzione che oggi la complessità dei problemi che siamo chiamati a risolvere, sia nella vita pratica/quotidiana sia come studiosi, non possa essere più affrontata da soli, quindi io tendenzialmente sono molto favorevole al lavoro di gruppo: credo che dovrebbe esserci uno scambio maggiore e continuo tra studiosi di discipline diverse.

Perché avete scelto un social reading come aNobii per la vostra ricerca?

La scelta di aNobii nasce da due circostanze. La prima maturata in modo molto razionale, ragionando sul fatto che aNobii è la piattaforma social reading che raccoglie la più grande comunità di lettori italiani e noi volevamo confrontarci con questo tipo di realtà, visto che il nostro era uno studio dedicato ai comportamenti di lettura del nostro Paese. La seconda è stata una circostanza fortunata, cioè il fatto di aver intercettato nel nostro percorso di ricerca una persona come Edoardo Brugnatelli, molto sensibile a questi temi, che si occupa e conosce bene aNobii, per via del suo ruolo. aNobii non è mai stata usata per produrre informazioni e conoscenze da utilizzare a scopo decisionale, però Edoardo Brugnatelli è interessato a capire questo tipo di meccanismo e quindi abbiamo iniziato questo percorso insieme, con l’idea di sviluppare una ricerca pura.

Big data con cautela

Leggendo i suoi interventi, a proposito delle ricerche che state effettuando, emerge quanto sia importante il ruolo dei big data, quanto essi siano ricchi e sfaccettati, soprattutto se rapportati ad analisi di tipo classico come quelle svolte da tempo dall’Istat, o dal CEPELL. Quanto può essere utile effettuare ricerche su questo tipo di dati oggi?

 È una tipologia di dati nuova, nella misura in cui l’interesse in questa direzione è cresciuto in modo esponenziale negli ultimi anni. Di fatto è un dato che ha caratteristiche particolari. Si pensi al paradigma delle sette V, volume, varietà, velocità, veridicità ecc. L’elemento nuovo è che abbiamo per la prima volta la possibilità di accostarci a comportamenti non conoscibili in altro modo. Questo però non vuol dire che i big data possano essere sostituiti alle fonti più tradizionali, anche perché in tutte le fasi della ricerca, dalla raccolta dei dati al campionamento, sono necessarie molte accortezze ed una seria riflessione metodologica.

Vi è molto interesse oggi attorno ai big data ed è legittimo, perché si tratta di una grandissima opportunità per la ricerca e in tutte le discipline. Dall’altra parte c’è grande cautela, per l’aspetto etico. Ma anche di questo appena illustrato: per esempio lei sa che i sostenitori di questo approccio tendenzialmente dicono che il campionamento statistico non è più necessario perché con i big data la quantità di dati è talmente imponente che possiamo dire che N=tutti e quindi non abbiamo più bisogno di campionare?

Personalmente sono convinta del contrario. Se lei prende le analisi ad esempio fatte su aNobii, vedrà che se non si pone prima la domanda: “da chi è frequentato aNobii?”, e quindi dal 13% di lettori forti che sono poi più o meno il 5% della popolazione in Italia, ecco che quei dati non sono generalizzabili, ma sono solo estendibili ad una piccola nicchia. Quindi è molto importante avere una conoscenza di base delle fonti da cui i dati vengono estratti. La stessa cosa vale per i social network generalisti. Le persone che utilizzano Twitter, hanno un profilo socio-demografico molto diverso da quelle che utilizzano Facebook.

Quindi se noi andiamo a lavorare su dati estratti da una fonte o dall’altra cambia molto la possibilità di generalizzare.

Bisogna tentare di non decontestualizzare questa tipologia di dati, ma di portarsi dietro il dato e il contesto in cui viene generato e, ancora più importante, fare una sorta di triangolazione: unire le analisi che possono derivare da questi dati con fonti della statistica ufficiale per esempio. A mio avviso le fonti che utilizziamo tradizionalmente non possono essere abbandonate per gli studi sulla lettura. Anche perché sono fonti autorevoli che consentono una conoscenza storica: la prima indagine ISTAT sulla lettura è del 1965. Certo, è vero che non possiamo entrare dentro i significati che vengono attribuiti alla lettura dalla persona, perché i questionari Istat non lo prevedono, ed è per questo che è importante l’integrazione.

I big data hanno modificato il modo di fare ricerca e di fare analisi?

Sì. Lo modificano molto. Lo stesso modello di ricerca cambia completamente quando si lavora con questa tipologia di dato. Non si parte più dal disegno di ricerca ma si parte quasi dall’analisi. Qui l’idea non è partire con una ipotesi o con una domanda di ricerca ma lasciar parlare i dati, vedere dove l’analisi dei dati porta e poi osservare gli aspetti rilevanti. L’aspetto dei big data ricordiamo che è molto fluido, tanto che per esempio quando mi capita di parlarne agli studenti non mi sento di offrire loro una definizione precisa e cristallizzata.

Se dovessi sintetizzare la mia visione direi che è fondamentale studiarli e capirli, gestirli, poterli dominare, nell’ottica dell’integrazione con le metodologie della ricerca sociale, quantitativa e qualitativa. Non sono ancora convinta che questo tipo di approccio possa sostituire i precedenti e comunque penso sia necessaria molta consapevolezza sulle criticità dal punto di vista metodologico.

I risultati ottenuti dalla vostra ricerca, derivanti dall’analisi dei dati di aNobii, come possono esse utilizzati e da chi?

Per quanto riguarda l’impatto e la ricaduta di queste ricerche, di certo possono essere utilizzati dal marketing editoriale, da non intendersi questo però come la possibilità, come dire, di creare il best seller dell’anno a tavolino. Non si tratta di questo, naturalmente, ma della possibilità di mettere in contatto il giusto libro con il suo lettore. Quindi, sul fronte della filiera editoriale, direi che questa è una delle ricadute possibili: comincia ad esserci anche un certo tipo di interesse da parte degli editori, molto recente in Italia.

L’altro fronte invece molto interessante, secondo me, è quello della promozione della lettura, e quindi per esempio il tema potrebbe interessare anche le biblioteche, per avvicinarsi e approcciare nel modo migliore l’utente, per promuovere iniziative rivolte al pubblico, per fidelizzare i lettori.

Anche i cataloghi (gli OPAC) per esempio, potrebbero essere utilizzati in modo tale da rintracciare, da tenere traccia dei comportamenti di ricerca degli utenti, e quindi poter offrire un servizio in qualche modo più performante.

Rispetto al marketing editoriale, parlavamo del possibile utilizzo dei big data: per definire a priori i gusti degli utenti e scegliere così che cosa pubblicare, quindi a scopo di lucro e di successo sul mercato?

No, non è da escludere in linea teorica. Certo i big data, come ho detto, permettono di capire una serie di cose, però da qui a parlare di profilazione dell’utente io ci andrei cauta. Io credo che lavorare su una grandissima quantità di dati sia un’opportunità per tutti, per capire meglio le cose. Questo è il punto centrale. Purtroppo oggi – e questa è la verità – non sappiamo più che significato ha la lettura per le persone. Perché gli strumenti digitali hanno modificato completamente la percezione di questa attività.

È cambiata, ad esempio, la concezione del tempo che possiamo dedicare alla lettura. Se io adesso le chiedessi cosa è per lei il tempo libero o quanto tempo libero lei ha a disposizione, scommetto che avrebbe difficoltà a darmi una risposta certa. Lo studio dei comportamenti di lettura non può prescindere da tutto questo.

Verso la sentiment analysis del lettore

 La gestione di dati emozionali o sentimentali come avviene? Sono dati appunto molto soggettivi e molto variabili. Dico bene?

 Diciamo che il meccanismo di lavoro sui big data è garantito dalla quantità. Un’analisi di big data è un’analisi che deve essere statisticamente robusta perché abbiamo tantissimi dati su cui lavorare. Quindi sì, certo, il dato emozionale è un dato soggettivo, però appunto noi lavoriamo su una quantità di dati imponente, quindi diventa tutto relativo in questo senso.

Vi sono altri esempi di ricerche o di start up che si sono dedicate a studi di questo genere?

 Sì. Ad esempio in Spagna molto interessante è il progetto Tekstum. Si tratta di una start up – con la quale abbiamo collaborato nell’ambito di Leggere in rete – che nasce a Barcellona qualche anno fa ideata da Marc Santandreu e Marc Martinez. Sono due laureati in economia, quindi che hanno conoscenza del settore editoriale, ma soprattutto hanno un certo intuito nell’ambito del management. Sanno benissimo che il tema big data è un tema nascente, molto caldo e danno vita a questa start up che ha come core business quello di sviluppare un algoritmo per la sentiment analysis del settore editoriale.

Questo progetto è stato fonte di ispirazione per la vostra ricerca?

 Non direi fonte di ispirazione. Sono due progetti nati parallelamente. Quando ho scoperto Tekstum , lavoravo già da tempo su questi temi. Più che fonte di ispirazione, è stata una conferma: che quella che stiamo entrambi affrontando è una strada sicuramente interessante.

Secondo lei questi studi potrebbero essere l’avvio di una catena di altri studi simili? A livello anche aziendale, per i singoli enti, come le biblioteche.

Certo, assolutamente! Io credo che in futuro necessariamente ci si dovrebbe preoccupare sempre più di questi aspetti.

Tornando alla questione dello studio di big data per la generazione di algoritmi (come fa Amazon), lei ritiene sia una strada utile da percorrere?

 Mi sorprende sempre osservare il sospetto che aleggia attorno all’espressione “marketing editoriale”. Rispetto a questo tema bisogna ricordare l’importanza della ricerca applicata, ovvero una ricerca che deve produrre conoscenze ma anche indicazioni operative per il miglioramento e il cambiamento. Poi è evidente che queste ricerche possano essere utilizzate anche in ambito aziendale.

Però io non mi lascerei sconvolgere da questo. Anzi, a me personalmente piacerebbe moltissimo avere uno scambio e un dialogo continuo con il mondo dell’impresa e capire per così dire di cosa c’è bisogno in termini di “conoscenza”.

Dal mio punto di vista di ricercatrice, sarebbe molto utile sapere che tipo di ricaduta questi studi possono avere per loro.

Ciò che spaventa, forse, è l’eventualità del passaggio da una editoria di cultura ad una di marketing.

Non la vedrei così. Siamo in un momento in cui abbiamo ancora una montagna di lavoro da fare su questi temi e su questi strumenti. Una montagna di ricerche in cui bisogna per così dire “mettere le mani in pasta”, e questo è un altro aspetto fondamentale, oltre all’interdisciplinarietà. Il secondo aspetto che ha caratterizzato la nostra ricerca è sintetizzabile appunto con l’espressione “mettere le mani in pasta”, perché le ricerche bisogna farle, solo facendole si possono comprendere i limiti, le criticità, i problemi. È un lavoro complesso.

Dal mio punto di vista il tema fondamentale è che in Italia legge il 40% delle persone (dati Istat 2016) ovvero: pochi leggono e quei pochi che leggono poco.

Scusi il gioco di parole, la domanda è come possibile ampliare questa base di lettori? Lo studio e la ricerca anche attraverso i big data possono darci qualche indicazione in più per farlo? Per me l’obiettivo è questo: capire il significato che oggi le persone attribuiscono alla lettura.

Davanti ai risultati della ricerca di aNobii, che cosa l’ha colpita maggiormente?

 Iniziamo col dire che noi abbiamo messo solo un piede in aNobii. Nel senso che la grande novità, quando si lavora con questa tipologia di dati, è che sono talmente tanti che bisogna scegliere da quale punto iniziare e focalizzarsi su questo. Non è un corpus di dati piccolo, osservabile nella sua interezza. Siamo di fronte ad una certa vastità e quindi dobbiamo decidere come iniziare. Noi, come è ben presentato all’interno del volume Le reti della lettura, abbiamo fatto un esercizio interessante: io e Edoardo Brugnatelli abbiamo svolto un’analisi quantitativa e qualitativa di Gomorra e questa ha dato sicuramente dei risultati interessanti. Poi io e Lorenzo Verna abbiamo approcciato l’analisi dei dati di Anobii con due punti di vista metodologici diversi. Volevamo mettere a confronto un approccio basato sulle metriche della network science e un approccio basato sulle metriche più classiche dell’analisi automatica dei testi.

Abbiamo, per esempio, osservato come le persone parlano di digitale online, abbiamo osservato nuove modalità di segmentazione del pubblico e dei libri. C’è ancora una montagna di lavoro da fare, non posso risponderle dicendo “attraverso l’analisi di aNobii abbiamo scoperto questo…”, non sarei onesta e credibile, c’è ancora molto da fare e non mi sento ora di fare delle generalizzazioni.

Le posso dire però che ci sono aspetti interessanti che non si riscontrano in altre fonti: per esempio, mi sono divertita a fare un’analisi delle specificità del linguaggio degli uomini e delle donne, come uomini e donne parlano dei libri che leggono: ci sono delle differenze molto interessanti.

Questo dimostra, ancora una volta, quanto sfaccettata può essere l’analisi di big data; è corretto?

 Certo. Possiamo sottoporre i dati di aNobii a milioni di domande: le ho fatto il caso della differenza del linguaggio usato da uomini e donne, ma anche per esempio domande legate all’età o alla tipologia di libro. Sono tante le ricerche e gli studi che su questi dati si possono fare. Ciò che nel nostro libro abbiamo esposto è uno degli esiti dei nostri studi ma è da considerarsi tuttora una ricerca in corso, in divenire.

La caratteristica antropologica della comunità di aNobii è che è una comunità che ha la sua forza nell’interazione e nell’indipendenza di ogni singolo utente. Se viene meno questo viene meno aNobii. E questo rispecchia un fatto essenziale che riguarda la lettura, cioè noi i libri li vogliamo leggere ma li vogliamo anche commentare e ci piacerebbe anche che gli altri leggessero gli stessi libri che abbiamo letto noi: c’è una grande socialità di fondo. Il lettore forte, la persona che sta dentro aNobii vuole rimanere indipendente per questo non mi porrei ad esempio il problema di una possibile invasione di Mondadori nella piattaforma, secondo me non esiste questo rischio, almeno in questo momento.

Per finire, le chiederei qualche informazione su Aureoo, la piattaforma a cui inizialmente vi siete approcciati nella fase preliminare della vostra ricerca. Di che cosa si tratta?

Abbiamo lavorato qui molto nella fase di analisi della piattaforma; avevamo fatto poi un’estrazione di dati per l’analisi, però erano troppo pochi per essere sottoposti ad un trattamento di questo tipo e quindi abbiamo dovuto abbandonare questa strada.

È comunque una piattaforma interessante che io sto utilizzando, per esempio, all’interno del mio corso di Metodologie di analisi e gestione dei servizi culturali all’Università di Roma Sapienza, perché si presta molto bene a questo tipo di produzione di intelligenza collettiva, che poi è un po’ l’effetto di tutte le piattaforme di social reading.

Aureoo permette di creare delle bibliografie partecipate in progress. Io, ad esempio, per il mio corso ho indicato i libri di testo fondamentali, e man mano che il corso procede aggiungo stimoli e sollecitazioni crossmediali e i miei studenti fanno lo stesso. La piattaforma per come è concepita concretizza molto bene l’idea “nessuno sa tutto e ognuno sa qualcosa” (Pierre Levy): la nostra rete (mappa) di 5 libri segnalati all’inizio dopo due settimane di lezione era già arrivata ad una trentina di nodi.

Molto interessante: la possibilità di esplicitare il perché si aggiungono i riferimenti. Il risultato finale è una bibliografia crossmediale ma anche una mappa concettuale che tiene traccia della sua evoluzione, della sua storia… che parla di se stessa.

(seconda parte di tre; leggi la prima parte e la terza parte)