Enrico Prati, ricercatore del CNR, fa il punto sul computer quantistico, intelligenza artificiale e neuroscienze. «Il cervello umano ha ancora molto da insegnarci, ma Penrose e Hameroff sbagliano».

Prima di parlare di computer quantistico e ricerca quantistica, innanzitutto qualche riga biografica su Enrico Prati, ricercatore del CNR presso il Dipartimento di Fisica del Politecnico di Milano.

Enrico Prati (1974) cresce tra la tumultuosa Pisa dei centri di calcolo, dei primi personal computer e di Internet degli anni 80 e  Los Angeles, imparando a programmare in Basic gli Olivetti e i Commodore.

Negli anni del Liceo Scientifico a Parma si appassiona alla filosofia e al rapporto tra mente e macchina. Nel ’98 si laurea in Fisica Teorica presso l’Università degli Studi di Pisa. Nel 2002, in collaborazione con l’Istituto di Fisica Atomica e Molecolare del CNR consegue il Dottorato di Ricerca in Fisica Teorica. Dal 2003 si trasferisce presso l’INFM ad Agrate  Brianza dove inizia a occuparsi dell’emergente campo dell’informazione quantistica nei semiconduttori, e dove nel 2009 diventa Ricercatore  dell’Istituto per la Microelettronica e i Microsistemi del CNR. Dal  2013 è in forze presso l’Istituto di Fotonica e Nanotecnologie del CNR a Milano dove si occupa di informazione quantistica e sviluppa, in collaborazione con il Laboratorio I3N del Politecnico di Milano, microcircuiti stocastici di neuroni artificiali per l’elaborazione neurale di informazione. Dal 2010 è Visiting Researcher e dal 2014 è Visiting Scholar della Waseda University di Tokyo.

Nel 2014 è Keynote Speaker a IEDM a San Francisco, la principale conferenza di microelettronica al mondo e nel 2017 relatore a ICRC Rebooting Computing a Washington. Nel 2016 è TEDx speaker a Roma (vedi sotto) e nel 2017 ha pubblicato da Egea il libro Mente artificiale.

Enrico, cosa pensi del futuro del computer quantistico? Si riuscirà ad andare oltre i problemi di ottimizzazione e avere dei “veri” computer quantistici general purpose?

È solo una questione di tempo. Siamo abituati a invenzioni che si susseguono a un ritmo serrato e tendiamo a immaginare che se qualcosa può essere realizzato, non passerà più di un anno per qualsiasi nuova invenzione. Forse invece per il computer quantistico general purpose dovremo aspettarne 2 oppure 20 oppure 200, ma sono certo che arriveranno.

A che punto è la ricerca quantistica in Italia?

La storia di Steve Jobs e della nascita dei personal computer ci porta a immaginare un avvio romantico dei computer quantistici, nello scantinato di qualche laboratorio, e forse all’inizio per i primi gruppi che lavoravano al computer quantistico i è stato un po’ così. La situazione però, a distanza di 20 anni di ricerca quantistica sperimentale, ha messo a nudo l’estrema complessità ingegneristica di questa sfida.

Il computer quantistico richiede cinque diversi livelli di sviluppo, che vanno dalla creazione di hardware per i bit quantistici (i qubit) fisici, al controllo dei qubit virtuali basati su quelli fisici, i meccanismi di correzione quantistica degli errori, il livello di presentazione dei qubit logici basati su quelli virtuali e infine un livello applicativo per programmare gli algoritmi.

Tutto questo è richiesto per ciascuna delle tecnologie in competizione tra loro che sono state proposte finora, basate su atomi, fotoni, circuiti superconduttori e così via. Ogni comunità sta cercando di indirizzare i propri dispositivi sotto tutti questi aspetti, con alterne fortune e con difficoltà o semplificazioni che variano moltissimo tra l’uno e l’altro.

Questo fa capire come oggi solo grandi gruppi privati possano ambire alla realizzazione di un computer quantistico in cui ogni strato è ingegnerizzato: stiamo parlando di Google, Microsoft o IBM. In Italia ci sono gruppi nelle università e nel CNR che lavorano ad alcuni aspetti di alcune di queste tecnologie. Ci sono anche molti italiani all’estero che vi lavorano, forse più che in Italia, diversi dei quali a Delft in Olanda dove questi grandi gruppi privati appena citati hanno fatto investimenti da centinaia di milioni di Euro.

L’Olanda ha investito nella ricerca quantistica 130 milioni di euro, mentre in Italia finora il MIUR ha investito 300mila euro, cioè circa il due per mille, che il CNR ha incrementato con risorse proprie di 1.5 milioni di Euro. L’iniziativa europea Flagship per le Tecnologie Quantistiche a cui anche l’Italia contribuirà con i suoi finanziamenti, già a partire dall’attuale programma quadro Horizon 2020, potrà finanziare alcune delle ricerche che si svolgeranno in Italia nei prossimi dieci  anni.

Si deve osservare che la quota di finanziamento in tutta l’Unione Europea per il pilastro Quantum Computing ammonterà a meno di 200 milioni di Euro, cioè confrontabile con il programma del solo Regno Unito, della sola Olanda o del solo fondatore di Blackberry in Canada.

Nell’ipotesi molto ottimista che l’Italia sia capace di riprendersi sul proprio suolo un 20% di quel finanziamento per la ricerca quantistica, parliamo comunque di appena 4 milioni di euro all’anno, cifra che corrisponde alla dotazione di un progetto di un singolo ricercatore in questo ambito in UK. Le varie realtà italiane che hanno sviluppato nel corso del tempo aspetti dei computer quantistici lo hanno fatto in genere su finanziamenti europei o tramite bandi più generici di alcune fondazioni o amministrazioni.

Di cosa vi state occupando al CNR in questo ambito?

Stiamo cercando di valorizzare le collaborazioni internazionali studiando la fisica dei dispositivi quantistici che possono fungere da hardware per i qubit, in particolare io collaboro molto strettamente con il Giappone e in particolare con la Waseda University di Tokyo, inoltre stiamo sviluppando dell’elettronica criogenica per controllare i qubit a temperature vicine allo zero assoluto con gruppi sia a Delft in Olanda che in Australia, con Andrea Morello.

Inoltre ci siamo occupati dell’impacchettamento dell’informazione quantistica nei dispositivi di silicio, per capirne i limiti.

Ricerca quantistica - processori
Wafer di silicio di of futuri processori quantici – fonte: Righetti Computing

I risultati sono incoraggianti: se i dispositivi sono abbastanza piccoli (sotto i 14 nm) allora sono anche sufficientemente veloci per poter recuperare in tempo reale l’informazione dei qubit che si deteriorano e sostenere la computazione con i sistemi noti di correzione quantistica degli errori.

Questo lo abbiamo pubblicato sulla nuova rivista del gruppo Nature Quantum Information nell’estate del 2017.

Mi parlavi di computer quantistici associati a neuroni artificiali: cos’è un neurone artificiale e come si relazione coi computer quantistici?

I computer quantistici possono essere programmati in modo tale che le connessioni interne risultino analoghe a quelle delle reti neurali, che sono una versione astratta e molto semplificata di sistemi di neuroni biologici.

Queste ultime sono in grado di risolvere problemi di ottimizzazione, come ad esempio trovare il percorso più veloce, minimizzare un consumo o un costo, e così via, il che si applica anche a riconoscere immagini e il parlato. Le reti neurali però si basano su neuroni astratti: quello che conta è come i nodi che rappresentano i neuroni, presso cui si calcolano delle funzioni matematiche, sono collegati tra loro.

Invece i neuroni artificiali servono per imitare le proprietà di risposta elettrica dei neuroni veri, e anche qui IBM ha già una propria versione e un proprio standard: si tratta del chip TrueNorth e del linguaggio Corelet. Tuttavia questa logica non si applica ai computer quantistici per il momento; i neuroni artificiali valgono 0 oppure 1 quando emettono un impulso, mentre i qubit sono sempre sia 0 che 1, per tutto il tempo tranne che quando sono misurati.

Architettura di True North di IBM

L’analogia quindi riguarda semmai la struttura della loro rete, non il comportamento dei singoli nodi.

Il lavoro di Andrea Morello sui CQ basati su silicio potrebbe essere una risposta?

Io penso che sul lungo periodo i qubit nel silicio emergeranno, ma bisogna fare una ulteriore distinzione tra due possibili qubit nel silicio. Mi sembrano più semplici quelli in cui si confinano elettroni grazie alle ridotte dimensioni del dispositivo che non grazie alla presenza di singoli atomi immersi nel silicio come ha fatto Morello e come io stesso ho studiato in questi anni.

Tutti stiamo portando avanti in parallelo più strade del punto di vista dello sviluppo tecnologico e della caratterizzazione sperimentale. I dispositivi con gli atomi immersi richiederanno tempi di sviluppo più lunghi a mio avviso, per quello che riguarda il passaggio da un qubit a molti qubit. Attualmente questa tecnica sta risultando estremamente complessa.

Invece se si tratta di usare la tecnologia di fabbricazione dei canali dei transistor che esiste già a 10 nm, come quella di Samsung o Intel, il passo verso la scalabilità potrebbe non essere così lungo. Al momento però il sistema vincente è quello di D-Wave e ora di Google: i superconduttori.

Tornando ai neuroni, in neuroscienze ci sono alcune teorie, tra cui abbastanza famosa (e controversa) quella di Penrose e Hameroff che individuano in eventuali processi quantistici nei microtubuli i responsabili dei processi di coscienza. Ci possono essere correlazioni tra questo genere di ricerche e le vostre?

Partiamo dalla conclusione: la teoria di Penrose e di Hameroff è sbagliata.

Modello Orch OR di Penrose e HameroffIl motivo per cui vi è ancora chi ne parla è che è molto raro trovare scienziati che si siano interessati a tutti gli ambiti coinvolti dalla loro ricerca, perché serve conoscenza approfondita della fisica sperimentale dei dispositivi quantistici, essere esperti di neurobiologia e allo stesso tempo essere interessati ad applicare questa combinazione di competenze al problema della mente.

Per questo motivo il numero di esperti in grado di contraddire la teoria è molto limitato. Nel mio libro Mente Artificiale, dopo aver parlato dei computer quantistici spiego dettagliatamente perché la teoria è sbagliata.

In sintesi, essi fanno riferimento a un lavoro sperimentale di Anirban Bandyopadhyay in Giappone ma hanno confuso il tempo di vita di determinati stati nei microtubuli del cervello che egli misura con il tempo in cui tali stati restano coerenti dal punto di vista quantistico.

Qualsiasi studente di fisica dello stato solido ha chiara la differenza tra queste due quantità, ma forse non la è per un matematico e per un medico anestesista quali Penrose e Hameroff rispettivamente sono.

Gli stati quantistici di cui parlano vivono troppo poco per dare seguito agli effetti di cui parlano. Questo non significa che dobbiamo precluderci la possibilità di scoprire effetti quantistici nel cervello, ma se dovessero mai essere scoperti, sicuramente non sono quelli chiamati in causa da Penrose e Hameroff.

Non sono sicuro che ci sia una relazione tra i computer quantistici e i sistemi biologici di neuroni. È un campo ancora troppo acerbo, ma sicuramente abbiamo molto da imparare da come il cervello sfrutta il rumore elettrico per migliorare le sue prestazioni, invece di disturbarle come avverrebbe nei nostri circuiti elettronici.

LINKS

Silicon quantum processor with robust long-distance qubit couplings

THE QUANTUM COMPUTER FACTORY THAT’S TAKING ON GOOGLE AND IBM

IBM cracks open a new era of computing with brain-like chip: 4096 cores, 1 million neurons, 5.4 billion transistors

Researchers Invent New Architecture for Quantum Computing