Gartner “Le simulazioni sono il futuro dell’AI”

da | Feb 3, 2023

Il 10 gennaio scorso Gartner, azienda leader nella ricerca e nell’analisi strategica e di mercato nel campo dell’information technology, ha rilasciato un documento dal titolo “Predicts 2023: Simulation Combined with Advanced AI Techniques Will Drive Future AI Investements”. In circa venti pagine vengono definite alcune delle sfide del business del futuro prossimo e le soluzioni più innovative nel mondo dell’artificial intelligence.

Ecco in breve le maggiori evidenze:

1. Gartner: La fisionomia delle aziende di AI cambierà radicalmente entro il 2026

Gartner porta avanti un’idea innovativa e olistica di quelle che sono le skill richieste nel mercato del lavoro dell’AI. Come si legge nel report:

“Entro il 2026 il 20% dei migliori gruppi di data science si saranno riposizionati come marchi di scienze cognitive o scienze della consulenza, aumentando la varietà di skill negli staff dell’800%”

I profili aziendali, dunque, andranno ad assumere una fisionomia totalmente diversa da quella attuale, con ovvie implicazioni anche per quanto riguarda le strategie di recruiting:

“Sistemi sociotecnici disegnati in modo responsabile richiedono un ampio set di skill di scienze cognitive, che passano attraverso l’ingegneria della conoscenza, le scienze sociali, la filosofia, la fisica, la biologia e le neuroscienze. Tutte queste skill vanno combinate per rilasciare il potenziale cognitivo delle società di consulenza. Oggi, i team di maggiori dimensioni faticano a collaborare perché sono divisi in dipartimenti, strumenti, management, metodi e flussi di lavori”.

I team di ricerca e sviluppo, nel campo dell’AI avranno skill anche molto differenti fra loro.
Fra quelle citate da Gartner sul report ci sono:

  • Sociologia, antropologia e psicologia per le scienze sociali;
  • Linguistica, logica e predicate system per l’ingegneria della conoscenza;
  • Biologia molecolare, fisiologia, biochimica, genetica comportamentale per neuroscienze e biologia;
  • Etica, deontologia, epistemologia, ontologia per la filosofia
  • Fisica, chimica, scienze dei materiali, geografica, modeling di oggetti e ambienti, simulazioni per le scienze fisiche

Tutte queste si dovrebbero muovere in una rete di interconnessione di conoscenze con le tecniche di AI, per migliorare efficienza e capacità lavorative dell’azienda di riferimento;

2. Il debito tecnico è una delle questioni chiave per Gartner

Altro tema centrale, sul quale per altro Gartner insiste non da oggi, è il cosiddetto “debito tecnico”. Prima di vedere come la simulazione può contribuire a ridurre il debito tecnico dell’AI, proviamo a illustrare il concetto. In parole povere, potremmo dire che si tratta di ciò che esce, in un ipotetico bilancio, a fronte della disponibilità di un asset tecnologico. Il tutto appare più chiaro osservando il grafico riportato qui sotto:

Fonte: Jonathan Bloom, Monetize Technical Debt, 25 marzo 2011

“Per il 2027, il debito tecnico dell’AI sarà calato del 70%, grazie all’impiego di piattaforme di simulazione e di tecnologia capace di gestire la complessità dei sistemi di AI”.

Al momento il fatto di muoversi in sistemi troppo complessi è uno degli ostacoli maggiori nella ricerca dell’efficienza di un business:

“Il passaggio da un sistema model-at-a-time a una teoria basata su un approccio a sistemi distribuiti non può avvenire senza ridurre il debito tecnico […]. Oggi gli esperti usano molti strumenti e metodi, che ostacolano il riutilizzo e la collaborazione profonda.”

“I modelli di AI stanno crescendo in numero e complessità, sebbene cambiamenti in dati, codice, infrastruttura, applicazioni, servizi interni o esterni o processi di business possono portare a un calo di precisione predittiva, output indesiderati o fallimento del modello. […] La frammentazione ostacola l’abilità di seguire il comportamento dell’AI nel suo ciclo vitale”.

Ad emergere, allora, saranno le aziende che nei prossimi anni riusciranno a mettere in piedi un modello AI di osservabilità delle capacità.

Gartner inserisce la simulazione come primo punto dei suggerimenti alle aziende nel loro approccio al lavoro sul campo e al suo rapporto con gli stakeholders:

“Bisogna ridurre il debito tecnico identificando i componenti delle piattaforme pre-esistenti e operare un reframing di tali piattaforme, utilizzando la simulazione nell’ambito nell’AI. Occorre impegnarsi nel lavoro di simulazione nell’organizzazione […] per ottenere un approccio più unitario”

Lo scopo è quindi creare un modello di lavoro che faccia riferimento a diversi KPI:

  • Scalabilità dell’interfaccia: Questo significa che deve essere possibile la distribuzione dei dati in un sistema diffuso attraverso cluster indipendenti, che si appoggino a dataset condivisi. In questo modo si creano pipeline elastiche, che sono in grado di prevedere quando sia richiesta una maggiore capacità di calcolo a seconda dei trend del momento. In questo modo, si crea un business più agile.
  • Riusabilità: Tramite il riutilizzo di componenti e soluzioni di simulazione, unite a un lavoro di personalizzazione in un sistema di pipeline di calcolo low/no-code, le soluzioni di simulazione legate al mondo business possono essere implementate in modo sempre più semplice e con un minor spreco di risorse.
  • Spiegabilità: Occorre lavorare con modelli il cui comportamento sia prevedibile e spiegabile a partire dalle sue parti singole, e non solo dai dati. Cosa che può essere favorita da modelli computazionali basati su regole esplicite di tipo deduttivo, oltre a quelli descrittivi basati sull’apprendimento automatico e il metodo induttivo.

Per un sistema più semplice passa anche la sostenibilità (questa volta più economica che ambientale) di un’azienda: per il 2026 Gartner profetizza un calo del 20% dei modelli di AI in funzione a causa delle spese di manutenzione. Perciò, investire in modelli di simulazione diventa un’opportunità da non perdere per il mondo entreprise.

3. Il futuro del NLP è negli algoritmi general purpose?

Un’altra tendenza che Gartner sottolinea è quella relativa agli algoritmi general purpose, ossia “generalisti”. Si tratta di algoritmi molto versatili e di facile utilizzo, sempre in quell’ottica di riusabilità già specificata in diversi passaggi. Anche qui si torna a parlare di simulazione. Infatti Gartner apre il report osservando come:

“Le piattaforme di simulazione AI basate su algoritmi general purpose emergono per occuparsi delle questioni di dimensioni, complessità e riusabilità”.

In questo modo si può lavorare su algoritmi di facile utilizzo e riutilizzabili. Non si va a toccare la creazione di nuovi modelli, ma si lavora tramite simulazioni su un numero di casi d’uso amplissimo. Tutto questo sempre nell’ottica di diminuire il numero di modelli, in modo da non aumentare il debito tecnico, puntando a quella riusabilità che è centrale.

Gartner evidenzia in particolare la crescita di un sottoinsieme degli algoritmi general purpose, i foundation model (spesso definiti anche large language model, LLM). Si tratta di modelli computazionali addestrati su enormi quantitativi di dati in modo non supervisionato e applicabili a diverse tipologie di problemi. Tali modelli sono caratterizzati da due proprietà: emergenza e omogeneizzazione. “Emergenza” nel senso che il modello emerge piuttosto che essere esplicitamente codificato. Per questo nel loro utilizzo si manifestano proprietà che non erano previste in fase di progettazione.

Per esempio, un modello addestrato su un grande set di dati linguistici potrebbe imparare a generare storie da solo, o a fare aritmetica, senza essere stato esplicitamente programmato per tali obiettivi. “Omogeneizzazione” significa che lo stesso metodo può essere utilizzato in molti domini. Ciò rappresenta un indubbio progresso lungo il percorso dell’intelligenza artificiale generale, ma aumenta il rischio di single punti di fallimento.

A chi vuole approfondire l’argomento, suggeriamo la visione del Workshop promosso nell’agosto del 2021 dal Center for Research on Foundation Models della Stanford University:

Dal punto di vista delle capacità:

Se i primi foundation model erano usati in applicazioni per il riconoscimento del linguaggio naturale, oggi stanno diventando multimodali, e permettono di essere utilizzati in nuove situazioni come text-to-image, text-to-code e usi scientifici”.

Il fenomeno è sotto gli occhi di tutti. Basti pensare al successo, con conseguente corollario di polemiche, di tecnologie come Dall-E, Midjourney e Chat-GPT. Pochi mesi da Oren Etzioni, responsabile dell’Allen Institute for AI, ha stimato che oltre l’80% della ricerca nell’ambito dell’intelligenza artificiale è oggi concentrato sui foundation model.

I foundation model, algoritmi autosufficienti basati sullo scraping, ossia sull’estrazione automatica di dati provenienti da fonti esterne e non etichettati da agenti umani, permettono una maggiore versatilità dei sistemi di AI rispetto a quelli che conosciamo oggi. Appoggiandosi allo scraping, determinerebbero una diminuzione dei dati necessari per l’implementazione di un sistema predittivo.

In questo caso, però, Gartner preferisce mettere in guardia gli utenti da eventuali minacce:

  • Concentrazione di potere da parte dei player maggiori.
  • Rischio di usi illeciti, come la creazione di deepfake
  • Diffusione di bias a partire dall’esperienza dell’utente: nel report viene detto come stereotipi e bias possano viaggiare in modo verticale.
  • Problematiche legali: è difficile definire chi sia il responsabile per eventuali comportamenti illeciti da parte di un insieme di algoritmi
  • Conseguenze indesiderate, poiché il testo potrebbe allontanarsi dal modo umano di leggere la realtà.

Il report sottolinea come determinati aspetti del linguaggio umano possano ripercuotersi sulle performance di un algoritmo di questo tipo. Ma ciò non impedisce previsioni rosee per questo tipo di tecnologia, secondo il report Gartner:

“Entro il 2026, il Foundation model formerà il 50% della pipeline per i casi d’uso NLP, rispetto a meno del 10% del 2022”.

I prossimi 5 anni saranno dunque, secondo Gartner, un punto di svolta decisivo per la digitalizzazione nel mondo. L’accessibilità e la semplicità d’utilizzo di molte delle tecnologie presentate nel report sono aumentate molto, soprattutto lato business. Il 2023 traccia una roadmap rispetto a quella che dovrebbe essere la trasformazione tecnologica dei prossimi anni.

Il report di Gartner secondo Tommaso Colombo e aHead Research

AHead Research è la divisione di ricerca applicata ai processi industriali del gruppo Spindox. Specializzata in innovazione, si occupa di tanti dei temi riportati da Gartner: dall’utilizzo di simulazioni applicate ai processi industriali al digital twin. Uno degli obiettivi principali di aHead è favorire la diffusione un approccio AI-based anche in business più analogici e tradizionali. Questo sia in chiave di problem-solving, sia in quello di Digital Transformation, in modo da creare valore aggiunto in un’azienda.

Abbiamo chiesto un commento a Tommaso Colombo, Head di AI Research di Spindox e da anni una delle figure chiave di aHead Research. Che conferma come alcuni dei key-point del report Gartner siano già stati implementati nei loro progetti di ricerca. Ecco le sue parole:

“Noi di aHead sosteniamo da anni la necessità di definire modelli, prima di trovare soluzioni algoritmiche.

Per questo motivo le parole di Gartner sono miele per le nostre orecchie. Infatti, il contributo che portiamo alla piattaforma Ublique© e ai nostri clienti va nelle direzioni identificate da Gartner nei key findings e nelle raccomandazioni:

  1. Soluzioni modulari, multi-algoritmiche, basate sulla combinazione non solo di modelli di machine learning di tipo descrittivo e predittivo basati su dati, ma anche di modelli espliciti (logici, matematici, fisici) del problema, in ottica prescrittiva e di spiegabilità della soluzione;
  2. Servizi algoritmici general-purpose, facilmente configurabili e riutilizzabili su use case distanti ma accomunati dal modello o dall’algoritmo di soluzione;
  3. Componibilità delle soluzioni, grazie alla scalabilità della piattaforma e al disegno low-code della pipeline di calcolo

Le cose cambiano, i trend in informatica anche. Quello che è certo è che Spindox, con le sue divisioni collegate, non sarà mai sazia d’innovazione e non smetterà mai di trasformarsi per venire incontro ai suoi clienti e offrire loro soluzioni sempre all’avanguardia.

Camillo Cantarano
Camillo Cantarano
Ho sempre avuto le idee chiare: ho una laurea triennale storia medievale e sono vissuto a Parigi, quindi adesso lavoro nell’ambito di comunicazione e giornalismo a Roma. In mezzo, ho studiato giornalismo, ho lavorato su mondo crypto e criminalità, ho scritto un po’ e ho accumulato tante esperienze significative. Non mi spaventa scrivere di nessun argomento, a parte “scrivi qualcosa su di te”

Potrebbe piacerti anche