AI generativa: quali sono i rischi?

da | Mar 31, 2023

AI generativa: Elon Musk e migliaia fra accademici e CEO di aziende hanno firmato una lettera in cui chiedono uno stop allo sviluppo. I rischi sarebbero troppo grandi e la stessa esistenza dell’uomo sarebbe a rischio. Ma, al di là di catastrofismo e tecnottimismo, quali sono i rischi reali dell’AI generativa?

L’AI generativa si sta conquistando, passo dopo passo, il suo posto al sole. ChatGPT, Copilot, Google Workspace, Midjourney… In pochissimo tempo, la diffusione di AI generative è aumentata in modo esponenziale: ChatGPT sembrava un giocattolo per nerd fino a un anno fa, qualcosa che sarebbe stato utilizzabile fra 10 anni.

E invece eccoci qui: l’AI generativa è la più grande rivoluzione tecnologica dai tempi della diffusione di internet. Questo nel momento in cui Bitcoin crolla nel suo valore e il metaverso fatica ancora a esprimere il suo potenziale.

Elon Musk ha sempre investito (anche se non sempre in modo convinto) nell’AI. Per questo, fa rumore la lettera aperta che Musk e altri 1377, fra personalità dell’hi-tech e accademici, hanno firmato il 29 marzo:

“I sistemi di AI con un’intelligenza competitiva rispetto a quella umana possono rappresentare un rischio profondo per società e umanità, come mostrato da una ricerca e ribadito dai principali laboratori di AI. […] Chiediamo a tutti i laboratori di AI di fermarsi immediatamente per almeno 6 mesi nell’addestramento di sistemi di AI più potenti di ChatGPT4”.

La AI è a un bivio? E quali sono i rischi che corre l’umanità e la società?

Deep-Francesco: la nuova frontiera delle fake news?

Tutti abbiamo visto le foto di Papa Francesco vestito come un trapper. O di Macron in mezzo alle proteste per le pensioni. O ancora di Trump in carcere. Tutte generate col re degli editor di immagini nel mondo dell’AI generativa: Midjourney. Questo è un problema e mette a rischio l’intero sistema informativo mondiale.

Mancano statistiche a livello mondiale, ma l’80% degli americani ogni anno entra in contatto con fake news. Solo il 65% di questi hanno fiducia nei media tradizionali. Una statistica che sembra ottima, ma in realtà questo vuol dire che più di un terzo degli americani non ha fiducia in televisioni, giornali etc…

Media tradizionali che negli ultimi anni non hanno sempre fornito prove edificanti. Ma almeno hanno una responsabilità legale in caso d’imprecisioni. Per ora, chi genera finte immagini avvisa i suoi interlocutori, ma cosa succederà più avanti?

Ma, soprattutto con i nuovi sviluppi a livello di video creati con l’AI generativa o con sintetizzatori vocali, come farà la stampa e il pubblico a riconoscere il vero dal falso? Questo soprattutto per campagne di disinformazione orchestrate da Stati-canaglia, speculatori, gruppi d’interesse… Se la massima di San Tommaso, riassumibile in «Vedere per credere» non vale più, di chi ci possiamo fidare?

Su questo, vale la pena citare di nuovo la lettera di Musk e co:

“Chiediamoci: dovremmo lasciare che le macchine inondino i nostri canali d’informazione con propaganda e falsità?”

AI-Terminator

Sam Altman, CEO e co-Founder di OpenAI

In realtà, Musk non è il primo a lanciare l’allarme su scenari apocalittici legati all’AI. Come in ogni film di fantascienza che si rispetti, a preoccuparsi sono gli scienziati che hanno creato il loro sistema.

Sam Altman, Classe 1985, è il CEO di OpenAI, l’azienda che ha creato ChatGPT. Organizzazione nella quale, fin dall’inizio, hanno investito pesantemente Elon Musk, Microsoft e Amazon.

In un post sul sito di OpenAI, parla di benefici (ma soprattutto rischi) connessi allo sviluppo dell’AGI, sigla che sta per Artificial General Intelligence, ovvero l’abilità di un sistema computerizzato di capire e apprendere ogni tipo di ragionamento umano o animale (perché sì, alcuni profetizzano anche per il futuro dei traduttori uomo-animale AI-based).

Comunque, tornando a noi, Altman apre la lettera in questa maniera:

“La nostra missione è assicurare che l’AGI -sistema di AI generalmente più intelligente degli umani- sia un beneficio per tutta l’umanità. Se verrà creata, ci potrà aiutare a elevare l’uomo […] e a fare nuove scoperte scientifiche che ci permettano di trascendere i limiti umani”.

Nei primi paragrafi sembrerebbe tutto un sogno. Ma presto iniziano a delinearsi scenari piuttosto tetri, anche questi da film di fantascienza:

“L’AGI potrebbe portarci a rischi seri di abusi, incidenti drastici e distruzione della società […]”.

Segue una sorta di presentazione del lavoro che attende le aziende che vogliono sviluppare l’AGI e la società più in generale.

“In generale, pensiamo che un maggior uso dell’AI nel mondo porterà il bene, e vogliamo promuoverlo. […] Ma mentre il nostro sistema si avvicina all’AGI, stiamo diventando sempre più cauti con la creazione e sviluppo dei nostri modelli, che richiedono più attenzione rispetto a quella che la società di solito applica con le nuove tecnologie. Alcune persone nel campo dell’AI pensano che il rischio dell’AGI non sia reale; speriamo abbiano ragione, ma noi ci muoviamo come se questi rischi fossero esistenziali”.

E qui, in un interessante articolo pubblicato da Wired sul tema, esce quello che è il timore di tanti filosofi e imprenditori attivi nel campo dell’informatica: il cosiddetto “Scenario Terminator”. Ovvero, la creazione di un’AGI che si mette in competizione con noi: non dobbiamo per forza pensare a cyborg, ma basta anche un’intelligenza che prende il controllo della nostra casa, dei nostri conti in banca, o di sistemi di armamento sempre più automatizzati. E proprio Altman è preoccupato da questo:

“Una Agi superintelligente non in linea con noi potrebbe diventare una minaccia per il mondo; un regime autocratico con una super-intelligence decisiva potrebbe portare allo stesso scenario. […] Arrivare a un mondo con una super intelligenza è il più importante – e incredibile e spaventoso- progetto della storia umana. Ma il successo è tutt’altro che garantito.”

Supereroe o Supervillain?

Invece che dalla lettera, partiamo da Elon Musk. Siamo nel 2015, Musk è già ricchissimo, ma non è quella celebrity a livello mondiale che conosciamo. Intervistato al Late Show di S. Colbert, gli viene posta una domanda diretta:

“- La gente ti chiama ‘Il vero Tony Stark’. Hai Tesla, hai solar pack e solar cities che la gente può mettere in casa. Stai cercando di salvare il mondo?”

– Cerco di fare qualcosa di buono”

– Ma cerchi di farlo e sei un miliardario. Questo fa un po’ supereroe e un po’ supercattivo. Tu cosa sei?

– Provo a fare qualcosa di buono”

Otto anni dopo e qualche centinaio di miliardi accumulati (e altri centinaia mandati in fumo in scommesse innovative, ma non redditizie), la domanda è ancora attuale: cosa significa fare cose buone? E soprattutto, gli ultimi sviluppi di OpenAI sono da supereroe o supercattivo?

Cara AI generativa, ti scrivo

E arriviamo ai giorni nostri: la lettera arriva come un fulmine a ciel sereno. Firmata da Musk (che nel 2019 è uscito dal board di OpenAI), Wozniak (fondatore di Apple), i fondatori di Skype e tante personalità accademiche, dipinge uno scenario cupo.

Uno scenario in cui, per la stessa ammissione del mondo dei big tech “Sviluppi non controllati nel mondo hi-tech potrebbero portare terribili conseguenze a livello economico e politico nelle democrazia”. In cui si sta facendo una corsa all’AI (si parla sempre della generativa) che “Se non regolamentata, ci porterà verso il baratro”.

La soluzione, secondo i firmatari della lettera, sarebbe una pausa di 6 mesi o più per lo sviluppo delle AI che sono più complesse di ChatGPT 4. In quel tempo, anche con l’aiuto delle istituzioni politiche, bisogna lavorare su protocolli di sicurezza e compiere un salto di qualità a livello di legislazione e copyright.

Tutto da buttare? Tutt’altro. La stessa si chiude sottolineando come “L’umanità può godersi un futuro idilliaco con l’AI. Possiamo goderci un’estate dell’AI, e dare alla società una possibilità di adattarsi”.

Il pericolo dell’AI Generativa: un grande bluff?

E se invece tutto fosse un grande bluff, una previsione apocalittica propugnata e rafforzata da un mondo vicino a OpenAI per rafforzare il proprio predominio a livello tecnologico all’indomani dell’uscita di ChatGPT 4 e in piena guerra dell’AI?

Pensa questo Andrew Ng, professore di Stanford ed ex responsabile dell’AI di Google, per cui preoccuparsi di un’AI che ci rovescia è “Come preoccuparsi del sovrappopolamento di Marte”. E anche Washington Post ricorda come “per l’AI il dentifricio è già fuori dal tubo” e che quindi fare una pausa è impossibile.

Al di là di eventuali pause nello sviluppo dell’AI, quello che possiamo dire è che sicurezza e regolamentazione saranno sempre più importanti in questo mondo. Per evitare di ritrovarci di fronte a una nuova bomba sociale per il mondo delle professioni creative e di cybercrimini sempre più efferati, al di là degli scenari più apocalittici

Camillo Cantarano
Camillo Cantarano
Ho sempre avuto le idee chiare: ho una laurea triennale storia medievale e sono vissuto a Parigi, quindi adesso lavoro nell’ambito di comunicazione e giornalismo a Roma. In mezzo, ho studiato giornalismo, ho lavorato su mondo crypto e criminalità, ho scritto un po’ e ho accumulato tante esperienze significative. Non mi spaventa scrivere di nessun argomento, a parte “scrivi qualcosa su di te”

Potrebbe piacerti anche