Data center, prevedere i consumi elettrici con l’intelligenza artificiale

da | Ott 8, 2019

Spindox sviluppa un modello predittivo del consumo di energia elettrica dei data center. Così l’intelligenza artificiale contribuisce all’efficienza dell’ICT. Sullo sfondo, l’obiettivo del risparmio e della sostenibilità ambientale.

Dal 2016 DeepMind, società di AI di Google, sviluppa modelli di predizione e ottimizzazione dei consumi energetici dei data center. In particolare, gli algoritmi sono stati messi all’opera per contribuire a ridurre la componente della bolletta legata al raffreddamento dei server. Il cliente di DeepMind è la stessa Google, che gestisce notoriamente una delle infrastrutture di calcolo più grandi ed energivore del mondo. Il colosso di Mountain View ha dichiarato di avere conseguito finora ottimi risultati, con risparmi dell’ordine del 40%. Nel blog di DeepMind Chris Gamble e Jim Gao hanno fatto il punto su questo progetto in un post del 17 agosto scorso (Safety-first AI for autonomous data centre cooling and industrial control).

Il team di cognitive computing di Spindox si è esercitato su un tema analogo. Nel nostro caso si è trattato di costruire un modello previsionale del consumo annuo di energia elettrica dei data center di un grande operatore telefonico globale, in funzione del traffico voce, traffico dati e delle caratteristiche tecniche/energetiche del data center, per i differenti paesi in cui il nostro cliente opera.

Come abbiamo lavorato: dataset e modelli

La componente di consumo energetico è stata suddivisa in tre fattori: modulo core, local data center, global data center. In particolare, è stato preso in esame un dataset corrispondente ai consumi di cinque anni. I dati comprendono:

  • Traffico dati annuo [PB]
  • Traffico voce annuo in milioni di minuti [Mmin]
  • PUE annuo: indice di efficienza del consumo di energia (ne parliamo nel seguito dell’articolo)
  • Consumo annuo per la parte core [KWh]
  • Consumo annuo per il local data center [KWh]
  • Consumo annuo per il global data center [KWh]

Poiché non tutti i paesi hanno consumi per tutte e tre le componenti, si è deciso di suddividere il dataset originale in tre dataset, uno per ogni variabile (CoreTotal, LocalDataCenter, GlobalDataCenter) e costruire un modello per ogni variabile.

Fig. 1: A sinistra il consumo energetico per la parte Core in funzione del traffico voce (in alto) e del traffico dati (in basso) per ogni paese. Ogni colore indica l’appartenenza ad un cluster. A destra, sono le stesse variabili aggregate per cluster di appartenenza

Analizzando la distribuzione della variabile CoreTotal rispetto al traffico voce e al traffico dati, si può notare come dai dati originali non si possa evincere una relazione tra le variabili (Fig. 1 – sinistra). Si è quindi provveduto a raggruppare i paesi attraverso un algoritmo di clustering sui dati di traffico e PUE 2014 – 2018 e ad aggregare i dati per cluster (Fig. 2). In questo modo si riduce la varianza del dataset e fa risaltare maggiormente le relazioni tra le variabili. (Fig. 1 – destra). Sui dati aggregati è stato poi utilizzato un algoritmo di regressione (Elastic-Net Regression) su ciascuno dei cinque cluster individuati.

Fig 2: Risultato del clustering: i paesi simili per traffico e PUE sono aggregati in un unico cluster

Prevedere per risparmiare. E poi?

Quali prospettive apre il modello previsionale costruito da Spindox? Ovviamente il contesto di un data center è molto complesso, sia per le variabili in gioco sia per quanto riguarda i numerosi vincoli esistenti. Siamo solo all’inizio di un ragionamento più ampio, che ci porta a considerare l’intelligenza artificiale al servizio del risparmio energetico e dunque della sostenibilità ambientale. Il fatto è che i recuperi di efficienza di un data center non andrebbero visti solo in una prospettiva meramente economica. La sostenibilità può diventare un motore dello sviluppo del futuro e dunque guidare le nostre scelte. Per chi, come noi, sente di avere un’anima digitale il tema non potrebbe essere più caldo. Sì, perché abbiamo ormai capito che il mondo delle nuove tecnologie se da un lato può offrire un contributo decisivo alla risoluzione di determinati problemi, dall’altro lato è esso stesso causa di molti problemi.

Il fatto che a livello mondiale l’ICT contribuisca all’emissione di gas serra più del trasporto aereo potrebbe sorprendere. Eppure, è così. Il cosiddetto carbon footprint dell’information & telecommunication technology corrisponde al 2% delle emissioni totali di CO2 equivalente (Nicola Jones, How to stop data centres from gobbling up the world’s electricity, “Nature”, 13 settembre 2018). Certo, il dato si riferisce al settore dell’informatica e delle telecomunicazioni nella sua accezione più vasta. In quel 2% non c’è solo il software, dunque. Ci sono anche i dispositivi elettronici personali e domestici, come smartphone e televisori, nonché le infrastrutture per le trasmissioni telefoniche e radiotelevisive.

200 terawattora all’anno

Del resto, sappiamo bene che digitale non è sinonimo di immateriale. Dietro la Rete – concepita talvolta come qualcosa di astratto e privo di sostanza – c’è in realtà un insieme molto concreto di artefatti: cavi, trasmettitori, antenne, server, terminali, router e switch. In questo senso c’è un altro dato, ancora più significativo, che riguarda l’impatto energetico dei soli data center. Si stima che nel 2018 i data center abbiano consumato 200 terawattora (TWh), contribuendo con una quota dello 0,3% al totale delle emissioni di CO2 equivalente (se veda sempre l’articolo di Nicola Jones già citato).

Si potrebbe sostenere che, in fin dei conti, quel 2% è poca cosa. Ci sono tuttavia due fatti che non devono essere trascurati. In primo luogo, il 2% di emissioni deriva da un consumo di elettricità enorme. Il secondo punto è che tale consumo appare destinato a crescere molto nei prossimi anni.

Dall’ICT il 10% dei consumi, ma domani sarà peggio

La domanda mondiale di energia elettrica nel 2018 è stata pari a 23mila TWh, con una crescita del 4% rispetto al 2017 (fonte: IEA, Global Energy & CO2 Status Report). Ricordiamo che un TWh equivale a un miliardo di chilowattora (KWh) e che una famiglia italiana di quattro persone assorbe in media 3.300 KWh all’anno. Ebbene, il settore dell’ICT assorbe il 10% circa di questa enorme quantità di energia. Un po’ come dire che, con l’elettricità consumata dall’ICT in un anno, potremmo eseguire 1.500 miliardi di cicli di lavaggio con una moderna lavastoviglie. Oppure tenere in funzione per l’intero anno oltre 87 miliardi di lampadine da 3 Watt.

A preoccupare, come si diceva, è la tendenza. In uno scenario pessimistico, ma possibile, l’uso dell’elettricità da parte dell’ICT supererebbe il 20% del totale mondiale entro il prossimo decennio. E i data center arriverebbero a essere responsabili per un terzo di questo consumo (Jens Malmodin, Dag Lundén, The Energy and Carbon Footprint of the Global ICT and E&M Sectors 2010–2015, “Sustainability”, 10-9, 2018, 3027). Immaginiamo poi l’impatto derivante da un’ulteriore crescita di Bitcoin, i cui meccanismi crittografici richiedono, com’è noto, un abnorme dispendio energetico.

Non tutti condividono una visione così drammatica. In fondo, si fa notare, la crescita della domanda di dati non corrisponde a una crescita altrettanto sostenuta della richiesta di energia elettrica. A riprova del fatto che l’aumento del traffico di Internet e del carico di dati è controbilanciato da una maggiore efficienza delle infrastrutture. Tutti però suggeriscono un atteggiamento vigile e raccomandano di proseguire con determinazione lungo la strada del risparmio energetico.

L’era dei green data center

Oggi si parla molto di data center di tipo hyperscale. Si tratta di infrastrutture di dimensioni enormi, che possono contenere fino a 250mila server. Il più grande hyperscale data center appartiene a Microsoft e si trova a Chicago, negli Stati Uniti. Si sviluppa su una superficie di 65mila metri quadri, contiene oltre 38mila chilometri di cavi ed è costato 500 milioni di dollari. La stessa Microsoft gestisce altri tre hyperscale data center, mentre Google ne ha addirittura 12. Quanto a Facebook, in aggiunta ai propri quattro hyperscale data center, la società di Menlo Park sta progettando un mega-hyperscale data center a Singapore. Si tratterà di una struttura di 11 piani e oltre 167mila metri quadri di superficie.


Jason Waxman, The Future of Hyperscale Computing: Technologies That Will Disrupt the Data Center

Infrastrutture di questo tipo sembrano raggiungere livelli di efficienza energetica molto superiori ai data center tradizionali. I risparmi realizzati dagli hyperscale data center si misurano in termini di power usage efficieny (PUE). Questa è definita calcolando il rapporto fra l’energia complessiva, necessaria per il funzionamento dell’intera infrastruttura – compresi luci e raffreddamento – e l’energia utilizzata per il calcolo. Scrive Nicola Jones: «I data center convenzionali hanno un PUE di circa 2,0; negli hyperscale data center questo valore è stato ridotto a circa 1,2. Google, per esempio, vanta un PUE di 1,12 in media per tutti i suoi centri» (traduzione nostra).

Il problema del raffreddamento e dell’acqua

Ci si può domandare se sia questa l’unica via verso il green computing. Una via che, com’è facile intuire, possono seguire solo i grandi fornitori di infrastrutture cloud, con il risultato di conseguire un ulteriore vantaggio competitivo legato alle loro formidabili capacità di investimento. Certamente ci sono altri aspetti su cui occorrerà lavorare molto. A cominciare dalla questione del raffreddamento. Oggi in un data center tradizionale il condizionamento dell’aria incide fino al 40% della bolletta energetica. Senza contare il consumo di acqua, che è necessario per far funzionare gli impianti di raffreddamento e che determina ulteriori problemi ambientali. Uno studio di qualche anno fa giunse a determinare che nel 2014 il consumo di acqua da parte dei data center negli Stati Uniti (Bora Ristic, Kaveh Madani, Zen Makuch, The Water Footprint of Data Centers, “Sustainability”, 7, 8, 2015, 11260-11284) aveva già raggiunto i 100 miliardi di litri.

Allo studio ci sono diverse soluzioni: dall’immersione dei server in un olio non conduttivo o bagno minerale all’uso di acqua calda in tubazione. È in questo contesto che nasce la decisione di Google di chiedere aiuto all’intelligenza artificiale, coinvolgendo il team di DeepMind.

Paolo Costa
Paolo Costa
Socio fondatore e Direttore Marketing di Spindox. Insegno Comunicazione Digitale e Multimediale all’Università di Pavia. Da 15 anni mi occupo di cultura digitale e tecnologia. Ho fondato l’associazione culturale Twitteratura, che promuove l’uso di Twitter come strumento di lettura attraverso la riscrittura.

Potrebbe piacerti anche