Che rapporto c’è fra le reti neurali di Google, la mania collettiva del selfie e la diagnosi oncologica? Nel machine learning avere più dati è quasi sempre più importante che avere algoritmi migliori. Ecco perché Big G è così felice di offrire spazio illimitato per le nostre foto. Ed ecco come un computer può identificare un tumore meglio di un essere umano.

Le reti neurali artificiali (ANN) sono la nuova frontiera dell’intelligenza artificiale. Eppure il concetto non è nuovo. L’idea di un modello matematico di apprendimento che si ispiri alle reti neurali, ossia ai circuiti di neuroni degli organismi biologici, circola da almeno mezzo secolo. E in tutti questi anni tale idea è stata spesso contestata, a favore di altri approcci. Essa è tornata di attualità di recente, con il boom del movimento dei big data.

Talvolta si fa confusione fra concetti che dovrebbero rimanere distinti. In particolare si usano in modo equivalente le espressioni ‘machine learning’ e ‘deep learning’. In realtà quando parliamo di machine learning ci riferiamo, in modo abbastanza generale, alla pratica di utilizzare algoritmi per analizzare i dati, imparare da essi e quindi formulare determinazioni o previsioni. Il deep learning identifica un sottoinsieme di tecnologie e modelli di machine learning, che fanno appunto riferimento alle reti neurali. In sintesi si tratta di sistemi composti da tanti ‘neuroni’ interconnessi, i quali ricevono in ingresso degli stimoli e li elaborano. Ogni neurone assegna un peso all’input ricevuto, stimandone il valore o la probabilità di verità/falsità. Il risultato finale è quindi determinato dal totale di tali ponderazioni. A differenza di un cervello biologico, nel quale qualsiasi neurone può connettersi a qualsiasi altro neurone entro una certa distanza fisica, le reti neurali artificiali hanno livelli discreti, connessioni e direzioni di propagazione dei dati.

Reti neurali e ricerca biomedica

Il deep learning è oggi utilizzato per cercare di risolvere molti problemi nell’ambito dei big data, come la visione artificiale, il riconoscimento vocale e l’elaborazione del linguaggio naturale. Uno dei campi di impiego più interessanti è senz’altro quello della ricerca biomedica e in particolare della diagnostica.

A febbraio 2017 un gruppo di scienziati dell’Università di Stanford pubblicava su “Nature” un articolo di grande interesse: Dermatologist-level classification of skin cancer with deep neural networks. Il cancro alla pelle è uno dei tumori maligni più comuni. Viene diagnosticato visivamente, all’inizio attraverso un semplice screening clinico e, successivamente, qualora sia necessario, via analisi dermoscopica, biopsia ed esame istopatologico. Questi ultimi metodi sono senz’altro più invasivi e fastidiosi per il paziente, ma, vista la posta in gioco, non sarebbe prudente fare affidamento unicamente sull’occhio più o meno esperto di un dermatologo.

Tuttavia, se l’occhio ispettore fosse quello di un robot, di una fotocamera  – di una macchina insomma? Beh, nel caso di una diagnosi errata, dovreste escogitare un modo efficace e poco frustrante per prendervela con un’intelligenza artificiale, un’entità che, per sua natura, o meglio, per limiti d’artificio di terzi, cioè di chi l’ha concepita, non spicca certo per qualità empatico-emozionali e relazionali  – sarebbe stato interessante, e di sicuro anche divertente, parlarne con Mark Kurtis, ospite di giugno a Meet The Media Guru. Secondo Mark «only humans can do mean empathy (and love)».

Ad ogni modo, per quanto in apparenza provocatoria e faceta, la domanda («se l’occhio ispettore fosse quello di una macchina?») merita e contempla una risposta seria. Essa è infatti all’origine della tesi argomentata e contortamente articolata sulle onerose pagine di “Nature” dall’equipe scientifica di Stanford  firmataria del paper. Andre Esteva, Brett Kuprel, Roberto A. Novoa, Justin Ko, Susan M. Swetter, Helen M. Blau e Sebastian Thrun dei dipartimenti di Ingegneria elettronica, Dermatologia, Patologia, Microbiologia e immunologia e Computer science dell’Università californiana sono giunti alla conclusione che una rete neurale convoluzionale profonda (CNN), se adeguatamente istruita, è in grado di uguagliare le prestazioni di dermatologi professionisti nell’ambito del riconoscimento e della classificazione di immagini relative a determinate lesioni cutanee (carcinomi cheratinocitici vs cheratosi seborreica e melanomi vs nei benigni).

Non tutte le reti neurali sono CNN

Una rete neurale convoluzionale è un tipo di rete neurale artificiale. A livello architetturale e funzionale, rimanda, approssimativamente, all’organizzazione della corteccia visiva animale.

Convolutional Neural Net. output. input.

 

Le reti neurali convoluzionali si sono dimostrate particolarmente valide in compiti di riconoscimento di volti, oggetti, segnali del traffico. Al momento costituiscono uno degli strumenti più vantaggiosi  per dotare le intelligenze di robot e auto a guida autonoma di un sistema visivo artificiale. Come tutte le reti neurali, hanno la prerogativa di affinarsi e migliorare in termini di affidabilità, precisione e accuratezza attraverso iter di training in cui vengono sottoposte a una considerevole mole di test. Si va quindi per tentativi. Più una rete è “istruita” o testata, più sarà affidabile. Il detto “sbagliando si impara” allora  è tanto vero per un uomo quanto, o forse ancor più, per una macchina. Non è un caso se, al netto dei progressi e dell’innovazione nelle scienze computazionali, gli algoritmi di deep learning più efficaci e meglio preformanti sono quelli che hanno la possibilità di attingere a larghi, enormi dataset.

Il motivo del successo dell’esperimento dell’equipe californiana sta proprio in questo. Rispetto ai precedenti tentativi di classificazione automatica di lesioni cutanee attraverso l’utilizzo di immagini, infatti, il gruppo di studiosi di Stanford ha potuto disporre di un dataset per “istruire” il proprio modello neurale di ben 1,41 milioni di immagini (fasi di training e di pre-training). Un approccio “data-driven”, come viene definito, che ha così permesso di risolvere il problema legato alla classificazione a partire da immagini fotografiche, queste ultime soggette ad un numero più alto di variabili (zoom, angolo di inquadratura, luminosità, ecc.) e quindi molto più disomogenee nella loro non uniformità rispetto alle immagini “altamente standardizzate” di carattere dermoscopico o istologico. Una volta istruita, la rete era in grado di lavorare indifferentemente sia su immagini dermoscopiche sia su immagini fotografiche. Anche in questo caso, è stato utilizzato un dataset molto ricco, di ben due ordini di grandezza superiore ai dataset precedentemente e comunemente impiegati . Nella fattispecie, 129.450 immagini cliniche, di cui 3.374 immagini dermoscopiche  contro le ordinarie «less than a thousand».

Prima timida riflessione: l’importanza, o il ruolo cruciale, delle grandi masse di dati (big data) – la frase in testa di pagina adesso è molto più chiara.

Seconda timida riflessione: serve a dare un senso al titolo di quest’articolo. Prende spunto da una considerazione che viene fatta nelle conclusioni del paper dai ricercatori di Stanford e che rievoca un dato riportato nell’abstract. In riferimento a un report Ericcson (giugno 2016), viene comunicato il seguente dato: entro il 2021 saranno stati sottoscritti un totale di più di sei miliardi di contratti di telefonia mobile. È poco più che una previsione ma significa molto. Significa presupporre, con una certa ragionevolezza, un gran numero di dispositivi telefonici mobili, la maggior parte dei quali, se non smartphone, comunque dotati, sempre con una certa ragionevolezza, di fotocamera.

È un terreno fertile, una grande potenzialità in cui implementare il modello computazionale sviluppato dall’equipe di Stanford. La ricerca è ancora a uno stato embrionale: va perfezionata, portata avanti e valutata in un contesto clinico reale, concreto. Ma lasciando correre un poco la fantasia – niente galoppate nelle praterie dell’immaginazione, tuttavia; un leggero trotto è più che sufficiente – non è poi così utopico considerare uno scenario in cui, con un semplice “selfie”, sarà possibile «tenere traccia proattivamente delle lesioni cutanee» e rilevare eventuali degenerazioni. I limiti della pratica dell’assistenza primaria allora sembrano sfumare e dilatarsi verso nuovi orizzonti.

Le tecnologie e i paradigmi a supporto che possono rendere questo modello un modello  facilmente scalabile già esistono e sono, ormai, ben corroborati: big data, cloud, intelligenza artificiale, tecnologie mobile e di connessione. Teniamo in conto poi che il deep learning è agnostico rispetto ai tipi di dati utilizzati (immagini in questo caso). Il modello computazionale di cui abbiamo parlato può quindi essere tranquillamente esteso anche ad altri ambiti di specialità oltre alla dermatologia: oftalmologia, otorinolaringoiatria, radiologia. Serve, ovviamente, una buona disponibilità di dati. Lo smartphone “assistente sanitario” del futuro non è e non sarà infatti un problema di algoritmi.