Green Data Center - Sannazzaro de' Burgondi

Vai ai contenuti
Green Data Center
Il Green Data, inaugurato a fine 2013, ospita tutti i sistemi di calcolo Eni destinati all’informatica gestionale (ad esempio 5 milioni di fatture gas/mese) e soprattutto alle elaborazioni che i tecnici chiamano di “simulazione computazionale”, il cosiddetto super computer HPC (High Performance Computing) che serve per elaborare i dati sismici e simulare i giacimenti di idrocarburi.
A vederla da fuori questa cittadella fortificata ha la forma di un trifoglio, anzi due trifogli affiancati e simmetrici, separati da un canyon d’erba largo venti metri, completamente indipendenti in tutto per garantire la continuità d’esercizio dal punto di vista strutturale e logistico. Niente capannoni a vista, niente cubotti di calcestruzzo come i Data Center tradizionali.
Ognuno dei due trifogli contiene 3 sale per gli apparati IT, due per gli “Standard computing” e una più grande per l’HPC ma la cittadella è progettata per ospitare e alimentare fino a 30MW di carico utile informatico ai massimi livelli di affidabilità “Tier IV”. L’altra cosa che si nota di un mega edificio per il resto interrato per motivi di sicurezza e sormontato da collinette artificiali piantumate, sono i 6 camini di aspirazione-espulsione dell’aria la cui funzione è importantissima, come vedremo dopo.
Perché un’azienda energetica come Eni abbia investito svariati milioni di euro in un Data Center così sofisticato, neanche fosse un colosso web di Silicon Valley, lo spiega Nicola Bienati, ingegnere geofisico, Senior Research & Project Leader del Cane a sei zampe. “Per focalizzare un’immagine il più precisa possibile di ciò che si trova in profondità, anche a 10-15 chilometri per un’estensione dell’area investigata di centinaia se non migliaia di km quadrati, si usa una tecnica cosiddetta di imaging sismico e per ricostruire queste immagini tridimensionali si utilizzano modelli matematici molto sofisticati, quindi per la complessità dei modelli che dobbiamo utilizzare per trasformare i dati in immagini nei tempi richiesti – prosegue Bienati -, non è sufficiente utilizzare i normali personal computer. Servono architetture di calcolo dedicate che facciano in contemporanea il lavoro di migliaia di pc.”
Giusto per capirsi, i livelli di risoluzione delle immagini e la quantità di dati raccolti in una tipica acquisizione sismica si misurano nell’ordine dei terabyte, ossia di alcune migliaia di dischetti DVD. Per questo se si vuole competere con le aziende concorrenti, e si vuole mantenere la leadership nella Exploration, servono anche Data Center e codici di calcolo, i cosiddetti “algoritmi di elaborazione”, all’avanguardia.
Nello sviluppo di questi algoritmi di “imaging sismico”,  oggi Eni è all’avanguardia nell’industria petrolifera mondiale. Ciascun codice risulta particolarmente adatto a ricostruire le immagini del sottosuolo in specifici domini geologici. Proprio qui a Ferrera vengono elaborati i dati geofisici relativi alle aree nelle quali il Cane a sei zampe programma di eseguire sondaggi e viene studiata l’ubicazione ottimale dei pozzi esplorativi per minimizzarne il rischio di insuccesso (magari per decidere alla fine di non farli del tutto).
Girando per i corridoi e le stanze del Green Data capisci allora che tutto ha una sua logica e niente è lasciato al vezzo estetico. Le sale computer, le spalliere nere con 7200 server che lavorano a ciclo continuo collegati da chilometri di cavetti colorati, le centinaia di metri di tubature, valvole, pompe, manometri, cavi elettrici, colonnine e contatori, le serrande per il ricircolo dell’aria, i camini, la sala per il trattamento delle acque (e quella dell’aria), la sala meccanica, la sala ventilazione. E poi il silenzio, infranto solo dal ronzio in sottofondo dei calcolatori. Colpiscono soprattutto i grandi spazi come dev’essere in un Data Center. Stanze spoglie in cemento armato e porte taglia fuoco che sembrano il set di un film con Jack Nicholson. L’impressione è che abbiano raggiunto l’efficienza lavorando tra i vuoti, quasi per sottrazione.
Con i supercalcolatori HPC1 e HPC2 alloggiati nel Green Data Center, Eni è entrata nella famiglia dei calcolatori capaci di eseguire milioni di miliardi di operazioni al secondo. L’HPC ha un’architettura molto peculiare rispetto a quelle adottate da altre compagnie petrolifere, è un’architettura ibrida nella quale ai tradizionali processori si affiancano dei particolari acceleratori di calcolo di tipo GPU (Graphic Processing Units)”, processori grafici largamente presenti nei pc portatili ma anche negli smartphone e nei tablet.
Ma soprattutto: gli acceleratori sono dei dispositivi pensati per velocizzare le elaborazioni mantenendo basso il consumo elettrico, proprio per massimizzare la durata delle batterie degli apparati commerciali portatili. “Grazie all’uso dell’architettura ibrida si è raggiunto il target di potenza di calcolo prefissato di 3 Petaflops con un consumo complessivo di poco superiore al megawatt, risultato di assoluta eccellenza mondiale”.
Qui i puristi parlerebbero di un valore di P.U.E. (Power Usage Effectiveness, cioè il rapporto tra il consumo elettrico complessivo e consumo dei soli apparati informatici) inferiore a 1,2 (la media degli altri Data Center è 2), ma ci siamo capiti.
A differenza di quanto si potrebbe immaginare, in un Data Center moderno causa dimensioni, concentrazione, smaltimento e trasporto del calore ed efficienza complessiva, il problema principale da risolvere oltre alla gestione dei dati è quello dell’energia utilizzata per alimentare i sistemi di facility necessari al raffreddamento dei sistemi informatici.
Il tema del raffreddamento è molto sentito per il suo alto impatto sul P.U.E. in posti come Silicon Valley, dove i colossi tech sono costretti a consumare enormi bacini d’acqua. Al Green Data Center la performance di 1,2 è ottenuta con l’adozione del cosiddetto “free-cooling”, il raffreddamento naturale ad aria attraverso un sistema di circolazione, trattamento e filtraggio grazie ai famosi sei camini che spuntano dall’edificio.
Anche per questo l’altro record di cui gode Ferrera Erbognone, insieme all’internet super veloce, è di avere previsioni del tempo sempre precisissime: il sistema di raffreddamento delle macchine e la temperatura impostata nelle stanze del Green Data sono continuamente tarate sul meteo, ora dopo ora. L’umidità gioca un ruolo fondamentale, e qui non c’è posto migliore della Lomellina dove in mezzo ai campi, tra nebbia e zanzare, ti vedi spuntare il più potente super computer in Europa destinato alla produzione industriale Oil&Gas, uno dei più grandi in tutto il sistema petrolifero.
Per la cronaca, la combinazione di geofisica e informatica, “imaging sismico” e HPC, insieme allo straordinario talento degli esploratori Eni, ha contribuito a tutte le più recenti scoperte esplorative nel mondo. Zohr, ma non solo Zohr…

Copyright © 2023 Romano Tassini. Tutti i diritti sono riservati.
Created with WebSite X5 Evo 2022
Web Design Romano Tassini

Le foto di Paola

Torna ai contenuti