Intelligenza come apprendimento, apprendimento come cambiamento

da | Mar 1, 2021

La misura dell’intelligenza umana è data dalla capacità di cambiare quando è necessario. In questo, quant’è diversa l’intelligenza artificiale? Continuano i seminari di Iusintech.

Ancora un entusiasmante incontro organizzato da Iusintech per capire come si comportano gli algoritmi alla base dell’intelligenza artificiale. Ma anche per parlare di anonimato, protezione dei dati personali e politiche europee in materia di società digitale. Questi solo alcuni dei numerosi temi emersi durante il secondo appuntamento del ciclo di seminari Le 4 abilità delle macchine intelligenti. ‘Macchine che imparano’ è il titolo della seconda puntata della serie, svoltasi il 26 febbraio. Del primo incontro (‘Macchine che eseguono’, 19 febbraio) ci parla Paolo Costa qui.

Il 5 marzo seguirà il terzo appuntamento con le ‘Macchine che creano’. Per arrivare poi alla conclusione del ciclo con il quarto e ultimo incontro del 18 marzo, dedicato alle ‘Macchine che collaborano’.

Il dato come motore, vero nutrimento degli algoritmi di intelligenza artificiale

Il motore dell’economia digitale è rappresentato dalle informazioni e dai dati.

«Il dato è diventato centrale nel sistema di business del momento». Ha ricordato Raffaella Aghemo, co-founder di Iusintech. «In passato l’impresa godeva del capitale umano, costituito dai dipendenti e collaboratori, e del patrimonio intangibile rappresentato dai diritti e beni di proprietà intellettuale, quindi brevetti, software e marchi».

Oggi il quadro appare decisamente più complesso. Al centro del valore ci sono i dati, o meglio i big data. Essi si affiancano agli intangible asset tradizionali, rappresentati dal capitale organizzativo, relazionale e sociale dell’impresa. A questo capitale, come sappiamo, è legata la vera cultura aziendale. La quale, al di là delle competenze dei singoli collaboratori, ha a che fare anche con i flussi di produzione e i meccanismi organizzativi. I big data e la profilazione si aggiungono a tutto questo,  e costituiscono la dimensione fondante di un nuovo ecosistema aziendale e di business.

Il valore dei dati

Come l’impresa può trasformare le informazioni di cui dispone e valorizzarle in un contesto produttivo sempre più digitalizzato?

Per Maria Roberta Perugini, a sua volta co-founder di Iusintech, le proiezioni di crescita in Europa parlano chiaro. Per il 2025 si prevede un incremento dei volumi dei dati trattati del 530% rispetto al 2018. In parallelo si stima una crescita del valore di mercato dei dati, che passa dai 301 miliardi di euro del 2018 a 829 miliardi di euro tra quattro anni. Il tutto accompagnato da una previsione occupazionale nel settore sempre maggiore e importanti effetti nel PIL dei singoli stati membri dell’Unione Europea. 

Fin dal 2014 l’Unione Europea ha progettato una strategia per la creazione e l’espansione del Mercato unico digitale che consentisse al cittadino e alle imprese l’accesso ai beni e servizi in tutta Europa, con lo sviluppo di reti digitali e servizi innovativi. Una strategia tesa a massimizzare il potenziale dell’economia digitale, all’epoca nascente.

«Gli strumenti per riuscire in questo intento sono identificati nell’ottica prioritaria di rafforzare la fiducia dei cittadini nei servizi digitali e nella loro sicurezza» ha precisato Perugini. Lo sviluppo è incentivato dalla fiducia, e la fiducia è alimentata dall’esistenza di un sistema di regole che la società civile conosce e accetta.

La digitalizzazione nell’era Covid-19

Da allora sono cambiate molte cose sia in termini di aggiornamento e formazione nel settore giuridico, sia nello sviluppo di infrastrutture. Esistono chiaramente ancora differenze importanti tra gli Stati membri. Nell’economia digitale, l’Europa è ancora in ritardo rispetto agli Stati Uniti e alla Cina. «Le dimensioni globali stimate nel 2019 sono state tra il 4,5% e il 15,5% del PIL mondiale. Il range è così ampio a causa dei criteri utilizzati per calcolare le dimensioni. In ogni caso la tendenza alla crescita è chiara» ha sottolineato ancora Perugini.

I processi di digitalizzazione globali sono stati accelerati dalla pandemia da Covid-19. La Banca Centrale Europea, nel suo report pubblicato ad agosto del 2020 in riferimento alla Digital Economy nell’area euro (ECB Economic Bulletin, Issue 8/2020), ha evidenziato che dall’inizio della pandemia imprese e consumatori, sono diventati più dipendenti dalle tecnologie digitali. Si prospetta una tendenza alla maggiore adozione delle tecnologie digitali. Tale tendenza porterà a un’accelerazione del cambiamento strutturale nei confronti della digitalizzazione. «Digitalizzazione già in atto, ma chiaramente resa più veloce dalla pandemia» precisa Perugini. Non mancheranno, quindi, sfide e opportunità per i singoli stati membri dell’Unione Europea e per l’UE nel suo complesso.

Il lavoro da remoto da qualsiasi luogo

Il distanziamento sociale, che ha spostato le nostre attività professionali e le nostre relazioni personali e lavorative da un ambiente fisico tradizionale a uno digitale, ha rimesso in discussione le premesse dell’operatività aziendale e della nostra vita in relazione con gli altri. Pensiamo alla radicale modifica degli ambienti di lavoro: oggi lavoriamo nelle nostre case o ci alterniamo nelle nostre sedi in ufficio. Siamo in grado di prevedere che cosa succederà a lungo termine? 

Nel prossimo futuro questi uffici, per ora temporanei, potranno diventare un qualsiasi luogo. Si arriverà a offrire a ciascuno di noi un elevato comfort, grazie agli strumenti tecnologici e alla capacità organizzativa che avremo maturato in ripresa. 

Come lavoratori stiamo imparando a migliore velocemente le nostre competenze per raggiungere l’autonomia nell’uso della tecnologia, ottimizzando il lavoro in funzione dell’ambiente in cui si opera e di quello in cui si vive: il confine tra la vita personale e quella lavorativa è infatti sempre meno evidente. L’impresa procede verso nuovi modelli organizzativi improntati alla flessibilità e alla sostenibilità

In questo senso, la strategia europea del Mercato unico digitale avviata nel 2014 opera rafforzando l’idea di creazione di un’Europa leader mondiale in una società basata sui dati. Dati che possono essere utilizzati a vantaggio delle imprese e dei consumatori, della ricerca e della PA, preservando il bene primario dei diritti individuali e fondamentali.

Su questa linea si prosegue con il Data Governance Act e il Digital Services e il Digital Markets Act rafforzando l’infrastruttura tecnologica con il completamento del 5G, la creazione del cloud europeo e l’interoperabilità dei sistemi digitali. Si tratta di strumenti che hanno una natura diversa ma che sono tutti finalizzati a regolare lo sviluppo economico sostenibile, equo, competitivo e rispettoso dei diritti individuali. 

Intelligenza e sapere, come valorizzare l’informazione

In questo contesto il sapere, il cosiddetto capitale intellettuale, è diventato la materia prima più preziosa di un’organizzazione. Un capitale umano, organizzativo e relazionale, costituito da conoscenze, dati, informazioni, la cui aggregazione, analisi e interpretazione, permettono alle aziende di perseguire i propri obiettivi e di produrre costruendo la propria differenziazione sul mercato.

Il patrimonio informativo aziendale è composto sia dai dati espliciti quali informazioni strutturate, (che possono essere database, procedure, policy, progetti, contratti ecc.), facilmente individuabili in un supporto fisico e no, sia da quelli impliciti. Questi ultimi non sono strutturati, a volte non sono formalizzati e molto spesso non sono neppure visibili alle organizzazioni. Tra questi ci sono le competenze e le conoscenze di un lavoratore, l’esperienza specifica che ha acquisito nel tempo. Il rischio di queste informazioni implicite risiede nell’impossibilità dell’organizzazione di custodirle nel proprio patrimonio informativo perché personali e non condivise.

Tra i due estremi ci sono tutte le informazioni che per essere fruibili devono essere decodificate e misurate. Come un algoritmo di intelligenza artificiale o il codice di un software per cui è complessa la conduzione in fase di analisi. Quando si parla di Artificial Intelligence e Machine Learning è bene precisare «che non c’è nulla di misterioso», tutti noi ne siamo circondati dal mattino alla sera. A ricordarlo è Carlo Vercellis, ordinario in Machine Learning al Politecnico di Milano, founder e CEO di Aiblooms (spin-off del Politecnico).

Nell’economia digitale la nuova frontiera è la digital intelligence

«Ora più che mai l’informazione è funzionale al governo delle performance di modernizzazione. Come utilizzare questi dati ed estrarne e sviluppare tutto il valore potenziale? Avere la disponibilità di informazioni ma non saperle riconoscere oppure non saperle mettere in relazione, le rende sterili». Ha sottolineato Perugini. Le organizzazioni devono progettare e realizzare un processo di digital intelligence che si compone di consapevolezza, controllo, protezione delle informazioni che hanno a disposizione.

Se questo processo è ben condotto, i risultati possono essere molteplici: nuovi processi produttivi per l’azienda, nuovi prodotti e servizi offerti al mercato, nuove modalità di offerta, nuovi modi di individuare e interloquire con i clienti. Si crea così vantaggio per l’azienda con proiezioni sull’ambiente esterno (dipendenti, clienti, fornitori, concorrenti) e su quello globale (nuovi impatti sul mercato, sull’ambiente, sulla società) anche in termini di sostenibilità dell’economia.

Il processo di valorizzazione dell’informazione come componente del patrimonio aziendale parte dalla consapevolezza di quali sono le informazioni a disposizione, quali di esse sono utili e dunque bisogna valorizzare e proteggere, e conseguentemente, su quali investire.

La gestione del rischio

Occorre sapere, inoltre, dove sono le informazioni da valorizzare, in quali asset sono formalizzate e prevedere modalità diverse di esplicitazione (interna ed esterna). Secondo Perugini è fondamentale acquisire una consapevolezza dettagliata e specifica del proprio patrimonio aziendale, perché in questo modo è possibile gestirlo in maniera corretta in un’ottica di pieno sviluppo di tutto il potenziale.

Alla base di questa valorizzazione ci sarà una valutazione dei rischi per capire quali informazioni proteggere e quali no. Per gestire il rischio residuo con misure di natura legale, organizzativa, tecnica, fisica e logica in base al piano di gestione e controllo attuato. Se l’organizzazione vuole trasformare l’insieme di informazioni e dati a sua disposizione in vera conoscenza al proprio servizio, deve raggiungere il controllo del patrimonio informativo nella sua interezza.

In merito alla gestione del rischio sono intervenuti anche Giancarlo Baglioni, COO e CIO di AON Italia e Jérôme Martinez di Smart Global Governance. «Quanti dati si possono trasformare in euro, in valore per l’azienda?» ha domandato Baglioni. «Il rischio è di fare un accumulo, che costa in termini di gestione e protezione, per poi non dare seguito alla raccolta in termini di valorizzazione. In sintesi, i dati di gestione del rischio non vengono letti o utilizzati dalle aziende». Martinez ha presentato invece l’esperienza diretta di Smart Global Governance, parlando dei controlli sulla privacy dei dati utilizzati e i rischi della gestione dei flussi di impresa.

Il dato

Per proteggere questo patrimonio informativo, l’azienda deve assumere un’ottica di tutela dell’informazione di tipo trasversale e integrata, ribadisce Perugini, «capace di individuare e sfruttare le sinergie offerte dall’interazione all’interno dell’organizzazione stessa di strumenti di protezione già adottati per la tutela di singole categorie di informazioni, ma che possono efficacemente essere estese ad altre categorie di informazioni che sono comunque nei medesimi processi aziendali». È in questo contesto che si parla della regolamentazione sulla protezione dei dati personali. Infatti, il dato personale è presente in qualsiasi processo aziendale e la sua protezione è obbligatoria per tutti. Tutti devono adeguarsi alla normativa, in tutti i settori di mercato. 

Con il principio dell’accountability integrato con quelli di privacy by design e by default, il GDPR obbliga ciascuno a sviluppare un modello individuale di governance dei dati personali costruita su misura, dinamica perché destinata all’implementazione continua nel tempo e basata sulla protezione del rischio di violazione dei dati personali e sulla capacità di dimostrare sempre che il trattamento avviene in maniera conforme alle norme. E dunque, azioni obbligatorie in ottica di protezione dei dati personali e dei diritti di terzi diventano strumentali anche alla difesa e alla valorizzazione di informazioni aziendali di altro genere, strategiche sotto il profilo commerciale, industriale, tecnologico. La stessa cosa vale per tutte quelle informazioni che sono anche diverse dai dati personali: si pensi alle informazioni sui clienti o sui fornitori, a quelle relative a piani aziendali, alle strategie di mercato e ai piani di analisi.

Tutte queste informazioni sono ugualmente coinvolte nei processi aziendali. Con minimi adattamenti possono essere controllate, gestite, protette e valorizzate dallo stesso percorso di governance.

Intelligenza e dati: sensibili, personali, non personali, anonimi

E a proposito di dati sensibili come non chiamare in causa – locuzione verbale che considerati i soggetti coinvolti durante il convegno fa un po’ sorridere, ma calza a pennello – Fernanda Faini, Research Fellow e membro Centro Detect dell’Università di Pisa e docente in ‘ICT & Law’ presso l’Università Cattolica del Sacro Cuore.

Quando parliamo di dati personali il framework giuridico di riferimento è il Regolamento Generale sulla Protezione dei Dati Personali, meglio noto con l’acronimo inglese GDPR già menzionato. A livello europeo ci sono due regolamenti che riguardano anche i dati non personali. Nell’insieme dei dati ci sono infatti anche quelli con fonti molto diverse (quindi sia personali, sia non personali). In questo senso trovano applicazione sia il Regolamento Europeo sulla protezione dei dati personali sia il Regolamento che riguarda la libera circolazione dei dati non personali nell’Unione Europea, soprattutto se si tratta di dati anonimi.

I dati e il GDPR

Come dialogano i regolamenti?

Qui viene il bello. La Commissione Europea dice che se i dati non sono distinguibili è bene che se anche una sola, piccola, parte di essi è composta da dati personali, abbiamo un’applicazione piena del Regolamento Europeo (GDPR, per intenderci). «Fare i conti con il Regolamento non è facile perché tutto il paradigma su cui si basa è quello del controllo, dell’autodeterminazione informativa e della libertà, possibile attraverso il controllo della circolazione dei dati» ha osservato Faini.

Uno dei principi cardine del GDPR è la limitazione della finalità: secondo il Regolamento i dati devono essere raccolti per finalità determinate, esplicite e legittime. Se successivamente gli stessi vengono trattati in modo incompatibile con le suddette finalità – perché non sempre si è consapevoli delle finalità perseguibili con il valore dei dati raccolti e che vengono forniti all’intelligenza artificiale – quel dato non andrebbe utilizzato. Infatti, «a volte i dati riescono a rispondere a domande che non sapevamo nemmeno di dover porre» ha fatto notare ancora Faini. È spesso difficile, quindi, una ricostruzione preventiva della finalità e, di conseguenza, utilizzare solo il dato pertinente alla stessa.

La quantità di dati a disposizione permette un’elaborazione che può essere anche migliorata: il dato non deve essere eliminato nel momento in cui viene messo a disposizione delle macchine. Al contrario, deve essere presente in una quantità che permetta alla macchina stessa di imparare il più possibile. In questo senso, possiamo avere un problema sull’esattezza e la correttezza dei dati laddove non ci siano dati di qualità o non siano correttamente annotati nel momento in cui sono forniti alla macchina.

Consenso sì, consenso no

Anche sui pilastri della normativa, Informazione e Consenso, nelle soluzioni legate all’intelligenza artificiale è difficile che si riesca a informare in modo completo per avere un consenso libero, soprattutto quando non sappiamo se ci sia, e quale sia, la logica che l’algoritmo segue per arrivare a una determinata decisione (si vedano a questo proposito le cosiddette black box).

Faini a questo punto ha posto una nuova serie di interrogativi sul consenso: se il consenso che viene espresso, soprattutto laddove le decisioni dell’AI siano nelle mani di soggetti che sono in una posizione di potere non equilibrata rispetto al singolo, siamo certi che sia veramente libero? Oppure è condizionato dal fatto che in termini di relazioni sociali e di opportunità, vivere e sfruttare le piattaforme è – sotto questo profilo – inevitabile?

La libertà a cui si fa riferimento nel Regolamento Europeo, per cui va riconosciuta solo se la scelta che si può operare è libera autenticamente e se il rifiuto dal consenso non comporta pregiudizio, è sempre la situazione in cui ci troviamo nella realtà digitale o spesso la realtà ha la meglio?

Il dato personale e il dato anonimo

Nel corso del seminario di Iusintech sono emersi ulteriori quesiti a proposito delle problematiche che insistono sulla dicotomia tra le differenze dei regolamenti che poggiano sul dato personale e il dato anonimo.

Ci si è interrogati per tutto l’incontro sull’esistenza reale o fittizia dei dati totalmente anonimi. Perché se sono anonimi, possono non esserlo per sempre. Come ha precisato Faini, infatti, insieme ad altri dati è possibile rendere identificabile il soggetto attraverso le inferenze. Lo stesso dato personale è sufficiente come definizione in un contesto in cui magari un processo automatizzato porterà a prendere decisioni su un gruppo di riferimento in cui non è stato prestato il consenso a fornire i dati, avendo però quelli di altri che invece avevano fornito i propri facendo ricadere la decisione che verrà presa su tutto il gruppo o su una comunità di cui un soggetto fa parte. Quindi sul soggetto stesso? È sufficiente in questo caso la definizione di dato personale?

GDPR e profilazione

All’interno della Normativa, l’individuo è chiamato a una serie di condotte difensive. L’Art.22 del GDPR sul Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione (Regolamento UE 2016/679, art. 22) esordisce in un diritto a non essere sottoposti a decisioni basate su processi automatizzati, compresa la profilazione. Tale esordio però è poi seguito da un secondo debole paragrafo che permette che ciò possa avvenire anche in caso di consenso esplicito. Il diritto di ottenere l’intervento umano, il diritto di esprimere la propria opinione e di contestare la decisione. «È contestabile una decisione che non si riesce a comprendere?» ci domanda retoricamente Faini. Non c’è una motivazione basata su un nesso causale a cui tradizionalmente il diritto è abituato. 

A proposito di GDPR, nel nostro blog puoi trovare una serie di contenuti relativi al Regolamento Europeo. Dalla privacy di Google Ads, al cambiamento in termini di materia di protezione dei dati personali (e questo calza a pennello con l’argomento che stiamo affrontando ora). Com’era la situazione al 30 maggio 2018, cinque giorni dopo l’entrata in vigore il General Data Protection Regulation? Ne parlavamo in un altro post. Ulteriori contenuti relativi a techlash e datagate all’indomani dello scandalo di Cambridge Analytica e Facebook, qui e qui.

Intelligenza artificiale ed etica

Gli atti nazionali e internazionali, stanno cercando di rispondere a innumerevoli quesiti su queste tematiche affinché ci siano intelligenze artificiali conformi il più possibile alla protezione dei dati personali. 

La prima prospettiva è sicuramente di natura etica: cercare di sviluppare un’intelligenza artificiale che sia affidabile e antropocentrica (orientata all’uomo). Che ci permetta di sapere quando stiamo dialogando con una macchina e quando no, e di poterci tutelare dal punto di vista giuridico. 

Occorre un approccio preventivo, sistematico, tecnologico e proattivo ai temi trattati.

«Possiamo provare a utilizzare la tecnologia a fini giuridici (come antidoto anche a sé stessa) con un’incorporazione di principi di diritto all’interno della tecnica, sviluppando quegli elementi di privacy by design e by default del Regolamento Europeo e cercando di accentuare l’accountability di chi tratta i nostri dati; facendo conseguire responsabilità e sanzioni» ha sottolineato Faini.

Intelligenza e diritto alla comprensione

La seconda prospettiva su cui ci si sta concentrando è il diritto alla comprensione. Dare seguito alla possibilità che il singolo sappia qual è la logica utilizzata dagli algoritmi, che importanza e conseguenze abbia sul soggetto.

Si parla di comprensibilità e contestabilità, non sempre facili da individuare. Vedasi il caso in cui un giudice debba sindacare come un algoritmo sia arrivato a una determinata decisione.

«A questo proposito, come non parlare delle sentenze sul caso Buona Scuola in cui gli algoritmi sono stati utilizzati nell’attività vincolata alla PA portando a risultati discutibili», ha raccontato Faini in conclusione. La difficoltà infatti risiedeva proprio nella comprensione della motivazione per cui l’algoritmo fosse giunto a determinate deduzioni. 

Un’ultima domanda la poniamo noi. Saranno le macchine a imparare dall’intelligenza umana o l’uomo a evolvere rapidamente nell’ottica di apprendere il funzionamento e il comportamento delle macchine stesse?

Paolo Costa
Paolo Costa
Socio fondatore e Direttore Marketing di Spindox. Insegno Comunicazione Digitale e Multimediale all’Università di Pavia. Da 15 anni mi occupo di cultura digitale e tecnologia. Ho fondato l’associazione culturale Twitteratura, che promuove l’uso di Twitter come strumento di lettura attraverso la riscrittura.

Potrebbe piacerti anche