Il Future of Life Institute torna a riunirsi per parlare di etica dell’intelligenza artificiale. E mette a punto una serie di principi.

Si torna a parlare di etica dell’AI. Ottenere dalla intelligenza artificiale tutti i benefici possibili per gli individui e la società, evitando gli enormi rischi connessi al suo sviluppo: è l’intento che anima decine di studiosi e operatori del mondo del business, i quali si riconoscono nei principi del Future of Life Institute.  Molti di essi sono tra i firmatari della lettera aperta che, nel 2015, animò il dibattito su intelligenza artificiale e dintorni. Le lettera fu promossa da personaggi illustri come Stephen Hawking e Elon Musk.

All’inizio di gennaio questa comunità si è riunita a Asilomar (California) per la conferenza Beneficial AI 2017. Hanno partecipato fra gli altri Erik Brynjolfsson e Andrew McAfee (MIT), Viktoriya Krakovna, Shane Legg e Demis Hassabis (DeepMind), Eric Schmidt e Ray Kurzweil (Google), Elon Musk (Tesla, SpaceX), Reid Hoffman (LinkedIn), Yann LeCun (Facebook/NYU), Francesca Rossi (IBM/Università di Padova) e Dario Amodei (OpenAI). Molti dei loro interventi si possono scaricare dal sito dell’Istituto, qui. Sono stati tre giorni di intenso dibattito, al termine dei quali è stata redatta una carta dei principi. Il documento è ora disponibile online (Asilomar AI Principles) e può essere sottoscritto da chiunque ne approvi spirito e contenuto.

Che cosa dice, in sostanza, la carta dei principi di Asilomar? Il documento è diviso in tre parti: 1) questioni legate alla ricerca, 2) etica e valori, 3) questioni di lungo termine. Di particolare interesse l’assunto di partenza: «l’obiettivo della ricerca nel campo dell’AI dovrebbe essere creare un’intelligenza benefica, non un’intelligenza priva di controllo». Si può discutere sul senso da dare all’espressione intelligenza priva di controllo (undirected). Da un certo punto di vista la logica del machine learning è quella di un’entità artificiale capace di modificare il proprio comportamento sulla base dei dati di contesto. Ebbene, in che misura un software che modifica il proprio comportamento può essere considerato “sotto controllo”? La domanda è legittima. E, non a caso, la carta insiste sulle regole di sicurezza cui deve sottostare un sistema caratterizzato da meccanismi di automiglioramento ricorsivo («recursive self-improvement»).

Etica, politica e cultura

Non meno rilevanti, all’interno della carta dei principi, i riferimenti al ruolo della politica e alla cultura della ricerca. L’idea di fondo è che lo spirito di cooperazione, fiducia e trasparenza fra tutti gli attori coinvolti debba prevalere. Sappiamo invece che la logica della conoscenza proprietaria è spesso vincente, con buona pace di tutti gli slogan sull’open innovation.

Dal punto di vista dei principi la carta pone l’accento su aspetti come la trasparenza, la libertà e la tutela della privacy, la possibilità di esercitare sempre un controllo sui comportanti del software, la logica della “non-subversion”, ossia il divieto per la macchina di sovvertire i processi civili da cui dipende il buon funzionamento della società. A questi si aggiunge un riferimento diretto al rischio che l’AI sia utilizzata nell’ambito della corsa agli armamenti; eventualità che gli autori della carta intendono in tutti i modi scongiurare. Più in generale il documento ribadisce un principio di fondo: l’intelligenza artificiale dovrà essere sviluppata al servizio di una visione etica della società e a beneficio dell’umanità intera, anziché di una singola organizzazione.

Le enunciazioni sono dunque importanti. Come sempre, in questi casi si tratta di capire che possibilità abbiano di tradursi in policy e comportamenti concreti. Per il momento un sano scetticismo è d’obbligo. Di sicuro le sfide filosofiche e morali che ci attendono sono enormi. Siamo solo all’inizio di una riflessione che ci vedrà impegnati ancora per molto tempo.