Innovazione

Da ENEA l’intelligenza artificiale per la sostenibilità ambientale dei supercomputer

Tramite l’intelligenza artificiale si individuano eventuali sovraccarichi di lavoro, sprechi o malfunzionamenti nel sistema di raffreddamento del proprio supercomputer CRESCO6
Condividi
Da ENEA l’intelligenza artificiale per la sostenibilità ambientale dei supercomputer
La sostenibilità è uno dei temi più sentiti degli ultimi anni e soprattutto uno degli obiettivi principali dell’Agenda 2030 per lo sviluppo sostenibile, il programma composto da 17 goal che fanno riferimento ad un insieme di questioni ugualmente importanti per lo sviluppo e che prendono in considerazione in maniera equilibrata le tre dimensioni dello sviluppo sostenibile: economico, sociale ed ecologico. Il tema della sostenibilità ambientale è un cardine di questa agenda, tanto da essere declinato in diverse maniere all’interno dei 17 goal, dalla lotta al cambiamento climatico fino all’utilizzo di energia pulita e accessibile. Tema che tocca diversi settori, incluso come noto quello delle costruzioni, ma ormai di primaria importanza anche nel campo delle tecnologie informatiche, un settore nel quale i consumi energetici crescono a un tasso annuo del 9%. Ed è qui che si pone la nuova ricerca di ENEA, che tramite tecniche innovative ha l’obiettivo di utilizzare l’intelligenza artificiale per evitare guasti nei data center e migliorare le prestazioni del proprio supercomputer CRESCO6.

Che cosa è un supercomputer: ripartiamo dalla storia

Un supercomputer è un sistema di elaborazione ad alte prestazioni utilizzato per risolvere problemi computazionali molto complessi che richiedono enormi quantità di dati o di calcolo. I supercomputer utilizzano processori specializzati e una vasta gamma di tecniche di elaborazione per eseguire i calcoli in modo efficiente. Essi vengono utilizzati in una vasta gamma di settori, dalla ricerca scientifica alla modellizzazione climatica, passando per l’analisi finanziaria e molto altro. Grazie alle loro capacità di elaborazione eccezionali, i supercomputer sono in grado di eseguire calcoli e simulazioni di elevata complessità che sarebbero impossibili con un normale laptop. Storicamente, il primo supercomputer è stato il Cray-1, sviluppato da Seymour Cray e introdotto nel 1976. Il Cray-1 utilizzava una tecnologia di elaborazione all’avanguardia per l’epoca, potendo eseguire fino a 160 milioni di operazioni in virgola mobile al secondo. Ad oggi ci sono centinaia di supercomputer in tutto il mondo, con capacità di elaborazione che vanno da alcuni teraflop (cioè un Tera, ovvero 1012 operazioni in virgola mobile per secondo) a oltre 100 petaflop (dove un Peta significa 1015 operazioni in virgola mobile per secondo). Alcuni dei supercomputer più potenti del mondo raggiungono questa potenza di calcolo incredibile, come il Summit e il Sierra negli Stati Uniti o il Fugaku in Giappone. Il Summit, introdotto nel 2018 dall’americana IBM e costato 200 milioni di dollari, è un sistema IBM AC922 che utilizza 4.608 server di elaborazione contenenti due processori IBM Power9 a 22 core e sei acceleratori di elaborazione grafica Nvidia Tesla V100 ciascuno. Questo supercomputer ha una superficie di 520 metri quadri e un peso di oltre 340 tonnellate e riesce a raggiungere una capacità di elaborazione di oltre 200 petaflop. Fino al 2020 il Summit è stato il supercomputer più potente al mondo. Ovvero fino a quando il Giappone ha introdotto Fugaku, il supercomputer costruito da Fujitsu per l’istituto di ricerca Riken e che vanta una potenza di calcolo sbalorditiva di 442 petaflop. Questa enorme potenza di calcolo sarà utilizzata per la ricerca scientifica, con progetti su farmaci, nuovi materiali e tecniche per la diagnosi precoce delle malattie, ma anche simulazioni di eventi come l’origine dell’universo. In Italia, invece, attualmente si trova il quarto supercomputer più potente al mondo, il secondo in Europa. Si tratta di Leonardo, installato a fine 2022 al Tecnopolo di Bologna e gestito dal consorzio Cineca, che vanta una potenza di 174.7 petaflops, con l’obiettivo di raggiungere tra i 240 e i 250 petaflops, per un totale di 250 milioni di miliardi di operazioni in virgola mobile al secondo e con una capacità di archiviazione di oltre 100 petabyte.

Il sistema di raffreddamento

Come è possibile immaginare da questi numeri, i supercomputer sono sistemi estremamente energivori. Per poter elaborare milioni di calcoli in pochi secondi essi generano enormi quantità di calore che devono essere dissipate in breve tempo, al fine di garantire il corretto funzionamento e la stabilità del sistema. Un surriscaldamento frequente e, di conseguenza, un sistema di raffreddamento poco efficace, potrebbero causare il degrado dell’hardware, una ridotta affidabilità dei server nonché un dispendioso consumo energetico. I supercomputer, quindi, sono dotati di un sistema di raffreddamento che, tramite diverse tecniche, mantengono i sistemi a temperature sicure. Uno dei metodi più comuni per il raffreddamento dei supercomputer è il raffreddamento ad acqua. In questo sistema, l’acqua viene pompata attraverso tubi che attraversano i componenti del supercomputer per assorbire il calore generato dai processori e altri componenti. L’acqua calda viene quindi pompata fuori dal sistema e raffreddata prima di essere reinserita nel circuito. Questo sistema richiede una grande quantità di acqua e di energia per funzionare, con un risvolto importante sui costi. Un’altra tecnologia di raffreddamento utilizzata per i supercomputer è il raffreddamento a liquido refrigerante, che si basa sulla circolazione di refrigerante liquido in grado di scambiare calore con i componenti. Il raffreddamento a liquido refrigerante è molto efficiente e richiede meno energia rispetto al raffreddamento ad acqua. Oggi queste due tecniche di raffreddamento cercano di sostituire il raffreddamento ad aria, sistema meno efficiente rispetto alle tecnologie a liquido e ad acqua ma che richiede meno energia e risorse per funzionare. Leonardo, ad esempio, è raffreddato con acqua temperata tramite un sistema di 10 km di tubi: l’acqua entra nei circuiti di raffreddamento del supercomputer a 37°C ed esce a 47°C, per essere inviata agli smaltitori adiabatici che la riportano alla temperatura di 37°C. Si tratta di enormi ventilatori collegati a batterie adiabatiche che sfruttano l’evaporazione dell’acqua per abbattere la temperatura. Nel Summit, invece, più di 4.000 litri d’acqua vengono pompati attraverso il sistema ogni minuto, portando via quasi 13 megawatt di calore dal sistema.

ENEA e l’intelligenza artificiale per la sostenibilità ambientale dei supercomputer

Con il progresso scientifico che avanza, l’obiettivo è quello di realizzare supercomputer sempre più potenti. Attualmente l’obiettivo ha un nome: exascale computing, il livello di supercomputing da un miliardo di miliardi di operazioni al secondo. Ma prima di arrivare a questo impensabile livello di potenza, bisogna prima rendere i supercomputer meno energivori. Al 2020 la domanda di elettricità annua imputabile al settore IT ammontava a circa 200-250 TWh (l’1% della domanda globale di energia) contribuendo allo 0,3% delle emissioni annue di carbonio. Ma secondo le stime dell’Agenzia internazionale dell’energia questi numeri sono destinati ad aumentare e al 2025 i data center consumeranno circa 1/5 dell’approvvigionamento mondiale. Proprio in questo ambito si pone la ricerca di ENEA che, attraverso una raccolta dati sui consumi energetici, termici e computazionali del proprio data center HPC, ha l’obiettivo di individuare tramite l’intelligenza artificiale eventuali sovraccarichi di lavoro, sprechi o malfunzionamenti nel sistema di raffreddamento del proprio supercomputer CRESCO6. Grazie a questa metodologia innovativa ENEA potrebbe essere in grado di estrarre informazioni utili dai dati reali di consumo dell’infrastruttura di calcolo e di elaborare strategie di gestione che non sarebbero ottenibili con le tecniche classiche di data analysis. Nello specifico, con la metodologia di ENEA vengono raccolti e messi in relazione i dati sugli effettivi carichi di lavoro del data center e sul consumo energetico a diversi livelli. Questa mole di informazioni viene poi elaborata attraverso tecniche di apprendimento supervisionato che permettono di definire modelli previsionali in grado di predire il comportamento dei server in base alla temperatura e al carico computazionale e di mappare eventuali fenomeni di surriscaldamento. Così facendo è possibile introdurre interventi mirati ed efficaci per garantire il corretto funzionamento delle singole componenti dell’infrastruttura di calcolo, come l’ottimizzazione del flusso d’aria di raffreddamento. Sempre tramite l’intelligenza artificiale si potrebbe rendere più razionale il dispendio energetico dei supercomputer. Si potrebbero individuare esattamente gli hotspot termici in modo da consentire al cluster di lavorare a temperature simili su tutti i nodi di calcolo, evitando rischi legati al surriscaldamento e consentendo di modulare le unità di raffreddamento su potenze più basse. Oppure cercare di ridurre la concentrazione del calcolo, decentralizzando l’impegno computazionale verso le periferie della rete.
Condividi

Potrebbero interessarti

Condominio

Dalla costituzione del condominio alla gestione delle tabelle millesimali, dalle delibere assembleari ai lavori edilizi e ai titoli abilitativi:...

Decreto Salva Casa

Pubblicato sulla Gazzetta Ufficiale n. 124 del 29 maggio 2024 il Decreto Legge 29 maggio 2024, n. 69 recante “Disposizioni urgenti in materia di...