La lettera aperta sui limiti dell’intelligenza artificiale, firmata da Stephen Hawking, Elon Musk e compagni. Servono regole per un mondo in cui le soglie di responsabilità si fanno sfumate.
L’AI, una minaccia o un’opportunità? Il 28 luglio scorso, alla 24ª conferenza internazionale congiunta per l’intelligenza artificiale (IJCAI), è stata presentata una lettera aperta che ha fatto rapidamente il giro del mondo, animato dibattiti e alimentato dubbi, anche grazie ad alcune presenze illustri tra i firmatari (Stephen Hawking, Elon Musk, …).
Il succo della lettera è un monito all’uso di armi guidate da intelligenza artificiale (AI, artificial intelligence). Vi si esprime il timore che lo sviluppo di queste armi porterebbe a una inedita corsa agli armamenti, e che il rimpiazzo di soldati con queste abbasserebbe notevolmente la soglia di ingresso agli attori in questo scenario, creando un effetto domino.
Esiste veramente un rischio del genere, considerando che le ricerche sull’intelligenza artificiale vanno avanti da quasi 50 anni, o sono solo annunci mirati a creare facili impatti emotivi, grazie anche alla diffusione di film di fantascienza distopici negli ultimi 20 anni?
Il primo punto da notare è che quando parliamo di AI non parliamo semplicemente di un nuovo strumento, o di “semplice” evoluzione tecnologica: parliamo di una svolta epocale. Ci stiamo spostando da un presente in cui gli strumenti, per quanto sofisticati, richiedono quantomeno l’intervento decisionale dell’uomo a qualche livello, a un futuro in cui potremmo avere sistemi totalmente autonomi.
Ma avere sistemi autonomi, dotati di intelligenza artificiale sofisticata significa potenzialmente bypassare il controllo umano. Entriamo in un mondo dove le soglie di “responsabilità” diventano sfumate.
Ma che cos’è questa AI?
Per cominciare possiamo prendere a prestito definizioni da alcune fonti.
Nel Dizionario di Medicina Treccani la relativa voce, curata da Roberto Serra, recita: “L’intelligenza artificiale consiste in un insieme eterogeneo di tecniche e metodi volti a costruire sistemi artificiali dotati di capacità cognitive, che siano quindi capaci di riconoscere, classificare, ragionare, diagnosticare e anche agire, o che siano dotati almeno di alcune di queste proprietà.”
Su Wikipedia leggiamo invece: “L’intelligenza artificiale (o IA, dalle iniziali delle due parole, in italiano) è l’abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana.”
Nel saggio Computing Machinery and Intelligence Alan Turing già nel 1950 propose un test per indirizzare un nuovo tipo di problema: “le macchine possono pensare?”. In sintesi l’idea che proponeva era che se una macchina riuscisse a esibire un comportamento che ai nostri occhi è indistinguibile da quello di un umano, allora per quanto ci riguarda possiamo dire che la macchina in questione è in grado di “pensare”.
Questo approccio “black-box” implica che il processo sottostante una decisione o un comportamento sia in fin dei conti irrilevante. È “il risultato” – o l’apparenza di esso – che conta (una discussione interessante sul lavoro di Turing è reperibile su The Alan Turing Internet Scrapbook).
Si tratta di un approccio corretto? In realtà, per quanto possa suonare strano a primo acchito, va tenuto presente che l’interazione umana è pressoché interamente basata su valutazioni di apparenza (di fatto è tutto quello che possiamo vedere), filtrate da pregiudizi e aspettative degli interlocutori. Prova ne è il fatto che non sono mancati casi di software assolutamente non intelligente che è stato in grado di passare il test semplicemente riformulando la domanda del giudice, magari in termini più o meno aggressivi, e casi di attori umani che non lo hanno passato (scambiati per macchine).
Questo ci rimanda alla questione di cosa sia in effetti l’intelligenza e come (se) sia possibile misurarla. La domanda rimane: le preoccupazioni della open letter sono giustificate? Dobbiamo preoccuparci? Perché gli scenari preconizzati nella lettera si realizzino occorrono sviluppi e tecnologia in due ambiti. Da un lato c’è il contributo dell’AI in termini di supporto: parliamo di robots o droni, in grado di essere impiegati con precisione e relativa economicità in ambito militare. Dall’altro si tratta di ipotizzare un’intelligenza Artificiale in grado di controllarli e prendere decisioni in autonomia.
Robotica
È una notizia di dominio pubblico che il ministero della difesa americano abbia fondato M3, un programma per la creazione di sistemi in grado di portare a un nuovo livello la mobilità e capacità manipolativa di robot. Dato il finanziatore, è abbastanza facile immaginare che le finalità ultime siano essenzialmente militari. Per capire lo stato di avanzamento all’interno di questo programma basta dare un’occhiata al sito di Boston Dynamics, recentemente acquisita da Google, e vedere robot autonomi in grado di correre oltre 30 miglia orarie o rimanere in equilibrio anche in seguito a forti spinte, anche su ghiaccio.
Il video qui sotto, per esempio, si riferisce a Cheetah, definito da Boston Dynamics il robot più veloce del mondo.Cheetah è in grado di saltare con notevole agilità anche gli ostacoli. E l’effetto è davvero impressionante:
Il secondo video che proponiamo si riferisce invece a Big Dog, un robot capace di muoversi su qualsiasi terreno:
Abbiamo visto come la ricerca militare stia evolvendo molto rapidamente nella produzione di robot e androidi in grado di muoversi in relativa autonomia (nel senso di adattamento alle caratteristiche ambientali); questa ricerca è finanziata dal DARPA, e quindi non è irragionevole pensare che l’obiettivo sia di trovarli impiegati in operazioni sul campo in un futuro abbastanza prossimo.
I robot di questo genere richiedono investimenti di centinaia di milioni e non sono ovviamente alla portata di tutti, per quanto il loro impiego anche da parte di forze regolari sollevi di per sé problematiche ancora da affrontare. Tuttavia il timore – espresso nella lettera aperta – che armi intelligenti diventino alla portata di chiunque potrebbe trovare supporto nell’enorme diffusione che stanno avendo i droni commerciali.
Droni: armi letali?
I droni telecomandati, anche via smartphone, non sono più una curiosità: aziende come Parrot e Dji hanno oramai invaso il mercato con i loro quadrirotori, oramai alla portata praticamente di chiunque. Questi droni hanno oramai raggiunto elevati livelli di stabilizzazione (anche per video 4k di livello professionale), sono sofisticati abbastanza da poter volare in formazione coordinata, sono praticamente impossibili da rilevare e… sono programmabili. Non ci vuole un’immaginazione fuori dal comune per pensare di sostituire le videocamere con armi da fuoco, e in effetti girano già video di droni equipaggiati con armi per antisommossa, o addirittura in grado di abbattere bersagli con notevole precisione.
Il potenziale supporto ad armi autonome non riguarda il futuro ma è qualcosa di già reale. Tuttavia per ora questi sono strumenti che richiedono comunque decisioni umane, vuoi per il controllo remoto, vuoi per l’eventuale programmazione. Quindi torniamo alla domanda iniziale: quali sono gli scenari attuali riguardo l’intelligenza artificiale?
L’AI, lungi dall’essere una tecnologia futuribile, è oramai parte delle nostre vite, praticamente ovunque: riconoscimento vocale negli smartphone, riconoscimento dei visi da cam e da fotografie (usati anche da Facebook per incrociare dati per le pubblicità mirate), diagnosi mediche, videogiochi, …
La lettera sottoscritta da Hawking e Musk ha ovviamente sollevato polemiche e discussioni, dalla negazione che esista alcuna “corsa” per questo genere di armamenti, alle accuse più generiche di instillare panico non necessario. L’argomento è così sentito che MIRI (Machine Intelligence Research Institute) si occupa di ricerca matematica di base per assicurarsi che sistemi “smarter than humans” abbiano impatto positivo, ed Elon Musk arriva a donare 10 milioni di dollari per “mantenere l’intelligenza artificiale benefica”.
Non è solo questione di velocità
Il fatto è che il dominio in cui la superiorità dei calcolatori risulta evidente si è ampliato. Non è solo questione di brutale velocità di calcolo. Già oggi esistono sistemi con performance migliori di quelle umane in una varietà di compiti come gli scacchi, Jeopardy!, data mining, dimostrazione dei teoremi. Ci sono già applicazioni di AI che si cimentano con la produzione autonoma di musica, narrativa (Associated Press già pubblica migliaia di articoli come questo, generati in maniera totalmente automatica con Wordmish di Automated Insight), ed è dominio pubblico che sia Facebook sia Google abbiano sviluppato reti neurali in grado di generare automaticamente immagini artistiche, e sistemi come AARON è addirittura in grado di dipingere.
Su altri versanti, già negli anni ’70 José Delgado tramite biochips era in grado di controllare a distanza il comportamento di animali (famoso il suo esperimento nella corrida di Cordova), e il laboratorio di Nicolelis è arrivato a implementare la prima interfaccia “brain-machine”, tramite cui una scimmia era grado di controllare un robot con la forza del pensiero. Non solo: ci si è spinti a realizzare la prima interfaccia “brain-to-brain”, tramite cui due ratti riuscivano a condividere esperienze sensomotorie di una certa complessità.
È dello scorso anno l’acquisizione di Deep Mind da parte di Google, e molti iniziano a domandarsi cosa sta realmente costruendo Google, considerando anche la recente acquisizione di Boston Dynamics, e software in grado di prendere decisioni tattiche in ambito militare sono già una realtà da diverso tempo.
Addio alle armi?
La lettera aperta sollevava due questioni di fondo. La prima riguarda il fatto che le armi non dovrebbero essere dotate di AI perché questo porterebbe in breve tempo alla disponibilità di armi intelligenti a basso costo, e da qui a una rapida escalation globale con rischi addirittura di estinzione umana. In secondo luogo le armi non dovrebbero essere dotate di AI perché la decisione di uccidere dovrebbe sempre in ultima istanza essere umana.
Riguardo il primo punto, è chiaro che la tecnologia di base è già qui. E se mentre la cibernetica, pur facendo passi da gigante nella produzione di automi in grado di muoversi con precisione sbalorditiva, è ancora troppo costosa per poter avere la diffusione di massa temuta, almeno se si parla di applicazioni che vadano oltre quella del giocattolo che saluta, i droni sono a un livello di maturità molto avanzato, sono molto economici e già praticamente pronti per essere utilizzati come supporto di armi autonome di precisione.
Sebbene già ora ci siano automi e anche missili in grado di prendere decisioni su ostacoli da evitare e percorsi da prendere, non abbiamo ancora armi autonome, o almeno non se ne ha notizia. Ma le reti neurali sono già ora sufficientemente sofisticate da riconoscere obiettivi e anche persone con una notevole precisione, sono in grado di imparare velocemente e come abbiamo visto sono anche in grado di “creare”.
Probabilmente le prime installazioni di automi autonomi sono in realtà questione di pochi anni al massimo, e non è improbabile che l’elettronica in grado di ospitare questo genere di AI diventi così piccola ed economica da poter essere installata senza problemi anche in droni commerciali nel giro di poco tempo.
Per il secondo punto invece la questione rischia di farsi molto più spinosa. Da un lato immaginare di avere automi in grado di prendere decisioni di questo tipo in autonomia spaventa non poco, senza contare l’estrema complessità di considerazioni legali che ne emergerebbero (ad oggi non esiste alcun tipo di legislazione che copra queste casistiche), dall’altro c’è chi obietta che le decisioni umane in questo campo sono state spesso tutt’altro che precise o “etiche”.