La convergenza di Data Center e High Performance Computing (HPC) - parte 2
- Scritto da Alessandro Giacchino
- Add new comment
- dimensione font riduci dimensione font aumenta la dimensione del font
Riprendo l'argomento Data Center HPC già trattato qualche mese fa, per sottolineare che sul piano tecnico non sono tutti uguali, con differenze strutturali vocate a missioni diverse...
Uno dei settori in maggior espansione lungo questo 2019, saranno i Data Center HPC (High Performance Computing) che, mentre nel passato erano appannaggio dei centri di ricerca e delle elaborazioni più complesse, con l'uso di supercomputer quali i famosi Cray, con il Cloud Computing si stanno diffondendo in ogni parte del mondo per erogare servizi di tipo IaaS (Infrastructure as a Service), PaaS (Platform), SaaS (Software) e vari altri analoghi. Formula nata nel passato nell'impiego dei supercomputer per i quali si aveva il Coumputing as a Service (CaaS), con addebito dei costi "a consumo". Argomento che avevo già affrontato nel post Data Center e High Performance Computing (HPC) convergono sotto la spinta di Cloud Computing, IoT e Big Data nel quale rilevavo anche che tra i nuovi leader di questo mercato troviamo, quasi sorprendemente, Lenovo.
Non fare di tutto l'HPC un fascio
Sebbene l'espansione dell'HPC nei DataCenter delle imprese si favorita dall'affermarsi dei Big Data, dell'IoT e del Cloud Computing come parte integrande delle eleborazioni quotidiane, occorre ricordarsi che i sistemi sono caratterizzati da due vocazioni, spesso tra loro in contrasto. Da un lato, infatti, abbiamo qualli orientati a garantire la massima accuratezza dei dati e quelli che invece sono ottimizzati per assicurare valori di elevata qualità rispetto alle specifiche esigenze, ma in tempi ridotti. Per capire l'anima di questi sistemi dobbiamo ricorrere ad alcuni principi talvolta dimenticati: le differenze tra singola e doppia precisione nella rappresentazione dei numeri.
Per la rappresentazione dei numeri e l'esecuzione dei calcoli, i computer utilizzano la logica binaria associabile al concetto di acceso/spento applicabile ai transistor che ne costituiscono l'elemento computazionale di base. Lo stato acceso/spento viene quindi espresso in bit che possono valere 0 (spento) o 1 (acceso). I bit vengono combinati in gruppi di 8 e formano i Byte. Quindi, 1 Byte è uguale a 8 bit. I bit vengono indicati con la lettera b minuscola (b), i Byte con quella maiuscola (B).
I computer lavorano con un numero finito di bit, normalmente 32 o 64. Nella rappresentazione a 32 bit, detta a singola precisione, in base allo standard IEEE, il primo bit indica il segno S, i successivi 8 definiscono l'esponente E, i rimanenti 23 la frazione F, detta anche mantissa. Nella rappresentazione a 64 bit, detta a doppia precisione, sempre in base allo standard IEEE, abbiamo che il primo bit rappresenta sempre il segno S, i successivi 11 indicano l'esponente E, i rimanenti 52 la frazione F. Tutto ciò ha delle dirette implicazioni nella capacità di gestione dei numeri, ponendovi dei limiti determinati dal fatto che mentre i numeri sono infiniti, i bit non lo sono. Un esempio sta nella determinazione dei decimali dopo la virgola del PiGreco: mentre in termini matematici non hanno limiti né sono ricorrenti per cui rappresentabili da un algoritmo, nelle elaborazioni con un computer vengono limitati ad un certo numero, funzione del calcolo a 32 o 64 bit, lasciando la scelta nella gestione delle cifre rimanenti, troncandole o approssimandole per eccesso o difetto in base all'ultima cifra considerata.
Il livello di precisione indica il numero di cifre decimali che sono assolutamente corrette, per distinguerle da quelle successive funzione del criterio di approssimazione adottato. In sostanza, nella singola precisione il numero massimo di decimali gestiti si situa tra 7 e 8, in precisione doppia arriviamo a 15 o 16. Da qui il distinguo tra singola precisione e doppia, con pesanti implicazioni a livello di calcolo. Ad esempio, da momento che la precisione singola offre prestazioni migliori, sia pure a discapito dell'acuratezza dei valori, viene usata per le elaborazioni dei video, dei segnali (signal processing), nelle reti neurali, mentre la precisione doppi è di regola nei calcoli di fluidodinamica (Computational Fluid Dynamic), nelle applicazioni di aerodinamica o un quelle di meccanica strutturale.
Nella scelta dei sistemi - così come nello sviluppo delle applicazioni e nei criteri di gestione delle cifre decimali dopo la virgola, occorre considerare con attenzione il tipo di impiego che se ne farà e il loro contesto d'uso. Un esempio? Nel gennaio 1982, il Vancouver Stock Exchange, oggi divenuto parte del Canadian Venture Exchange (CDNX), più noto oggi come TSX Venture Exchange, inizializzò il proprio indice di valore ponendolo a 1.000,000. Da quel momento in poi tracciò tutti gli scambi troncandone il valore dopo le prime tre cifre decimali. Operazione che veniva ripetuta circa 3.000 volte al giorno, con un errore che riduceva approssimativo l'effettivo valore della borsa di 25 puntial mese. L'errore fu rilevato e corretto solo quasi due anni dopo, facendo balzare d'un colpo il valore dell'indice da 524.811 a 1098.892 punti.
Spazio ed efficienza energetica
Un aspetto non trascurabile nella diffusione dei DataCenter HPC sta nelle dimensioni ridotte in termini di spazio richieste a parità di prestazioni e nella potenzialmente maggiore efficienza energetica richiesta per il raffreddamento delle apparecchiature. Il primo aspetto è connesso ad una convenienza che deriva dalla storia e dall'evoluzione degli attuali Data Center. Infatti, al di là delle macchine vere e proprie, i Data Center hanno esigenze strutturali e di sicurezza che bisogna rispettare e che hanno fatto evolvere centri nati non propriamente nella prospettiva di raggiungere le potenze richieste attualmente. Così, ne troviamo in centri storici, in edifici riadattati nel tempo, attorno ai quali sono state create infrastrutture molto costose che non è sempre economicamente conveniente trasferire altrove, rispetto al far fare ai propri sistemi un salto di qualità in termini di potenza, senza aumentarne le dimensioni fisiche. Un argomento vincente nel passaggio dai sistemi tradizionali a quelli HPC.
Per contro, bisogna considerare anche la convenienza dal punto di vista energetico: le necessità di raffreddamento dei Data Center stanno inducendo molti a riprogettare da zero i propri sistemi - a questo punto adottando le più innovative tecnologie HPC - collocandoli in luoghi che possono fruire di vantaggi climatici o di contesti geografici particolarmente favorevoli. Ad esempio, puntando sul raffreddamento usando risorse naturali, la limitrofità ad un fiume potrebbe essere utilizzata per sfruttarne il flusso di acqua come sistema di raffreddamento, a patto di restituire l'acqua al fiume a temperature accettabili per la sua salubrità.
Da ultimo, c'è il delicatissimo problema della sicurezza e della continuità nell'erogazione dei servizi, particolarmente gravi quando i Data Center servono svariate aziende e applicazioni critiche, ma trattandosi di un tema molto complesso vi dedicherò un post a parte.
Articoli correlati (da tag)
Ultimi da Alessandro Giacchino
- Intelligenza Artificiale vs Intelligenza Emotiva: alternative o complementari? - Parte 2
- Intelligenza Artificiale vs Intelligenza Emotiva: alternative o complementari? - Parte 1
- I Reality, specchio emblematico della nostra epoca storica
- Il futuro delle vendite è ibrido: processi, strumenti e competenze
- Idrogeno? Investire sin da subito nella produzione di elettrolizzatori!