MicroServer: buone prospettive di crescita, ma arrivano già i primi abbandoni. Amd chiude SeaMicro, ma si fanno sotto Hewlett Packard, Dell, Fujitsu, Hitachi, NEC e IBM!
- Scritto da Alessandro Giacchino
- Add new comment
- dimensione font riduci dimensione font aumenta la dimensione del font
Sempre più lontani concettualmente e strutturalmente dai Mainframe di una volta, i MicroServer, grandi amori di Facebook, stanno popolando a ritmi crescenti i Data Center delle gandi imprese e dei fornitori di servizi Cloud. Macchine, piccole in dimensioni e nei consumi, ma non in potenza per un mercato che sta attirando le attenzioni di tutti i principali Vendori di Hardware...
Intel e ARM da un lato, HP, Dell, Fujitsu, Hitachi, NEC, IBM dall'altro sono in prima linea nella competizione per assicurarsi il primato nel nuovo mondo dei MicroServer, mentre stanno affilando le armi nel settore anche alcune Start-Up espressamente nate per cogliere questa nuova onda tecnologica, che però conta già i primi abbandoni: AMD, che aveva acquistato la promettente SeaMicro nel 2012 per 334 milioni di dollari, lo scorso aprile ha gettato la spugna cessando la produzione e la commercializzazione dei propri sistemi.
Eppure, non si tratta di una rinuncia dovuta alla mancanza di mercato: stando ai dati pubblicati nel Report Microserver Market, ripresi da Marketwatch, il settore crescerà dal 2015 al 2019 con un tasso composito del 53,4%, passando dai poco meno di due miliardi di dollari di valore del 2014, agli oltre 16 del 2019 portando a una radicale trasformazione dell'impostazione e del funzionamento degli attuali Data Center. Un percorso che ha affascinato prima tra tutte Facebook, che sia pure passando attraverso vari problemi tecnici e operativi, continua a credervi e a svilupparvi le proprie infrastrutture di gestione, compreso il primo MicroServer Open Source al quale è stato dato il nome di Yosemite.
I Cardini del successo dei Microserver
Il primo elemento che rende i Microserver vincenti sta proprio nelle loro dimensioni: non si ragiona più per "box" al cui interno ci sono grandi spazi pieni d'aria e di tutti gli elementi che rendono autonomo il Server, ma per componenti che si organizzano per funzioni e "cassetti". Ad esempio, in un unico Rack, HP riesce a compattare una potenza pari a quella di 400 Server ProLiant m300, con ciascun Cartridge in grado a sua volta di supportare svariati nodi di Server. Con effetti diretti sulla semplificazione di allestimento del sistema - basta cavi, connettori, basi di supporto e via dicendo - di gestione - tutte le configurazioni si definiscono a livello software - e soprattutto in risparmio di spazi fisici: rispetto ad una sala macchine tradizionale, l'area necessaria a parità di potenza erogata scende anche del 70%, riducendo le esigenze di raffreddamento e di alimentazione elettrica. Un ben risparmio, non c'è che dire.
Gli effetti sul piano dell'energia sono ancor più eclatanti. A contribuire a tale risultato concorrono principalmente due elementi: un Microserver SoC (System on a Chip) ha normalmente un TDP (Thermal Design Power) pari a 20 watt o meno, mentre i TDP dei Server tradizionali vanno dai 90 Watt in su.
L'assorbimento di una quantità minore di energia comporta anche la generazione di una quantità inferiore di calore, con il risultato che si riducono le esigenze di raffreddameno. Al proposito, HP ha condotto un test usando proprie macchine tradizionali e di nuova generazione, rilevando che a parità di potenza elaborativa, con i MicroServer si riesce a consumare l'89% in meno di energia e tra risparmi diretti e indiretti si ha una riduzione dei costi complessivi pari al 63%.
L'Architettura dei MicroServer
Normalmente, nel cuore dei Microserver pulsano i SOC di Intel e ARM. Ad esempio, continuando con il riferimento dei MicroServer ProLiant m300 di HP, al loro interno troviamo i microprocessori Atom Avoton' C2750 a 64-bit e 2.4GHz di Intel, che hanno un TDP di 20W e fanno parte della famiglia di SOC C2000 utilizzati anche per Tablet e SmartPhone. Dall'altra parte, troviamo i SOC ECX-2000 di Calxeda che usano i quadriprocessori a 1.8GHz e 32-bit Cortex A15 prodotti da ARM nei quali il TDP scende addirittura a 12W. In entrambi i casi, consumi energetici abbattuti rispetto al passato.
Al di là del cuore del sistema, resta ben poco, salvo un'infinita possibilità di sceglere e combinare gli elementi (memoria, Storage, interfacce di rete e via dicendo) che meglio si addicono a soddisfare le esigenze di determinati carichi di lavoro o utenti. Impostazione molto diversa da quella dei Server tradizionali che al loro interno, spesso a livello di motherboard, combinano una serie di componenti che li rendono in grado di gestire varie tipologie di carichi di lavoro, offrendo maggiore flessibilità, ma anche grandi dispersioni.
La disaggregazione dei componenti, per farne l'assemblaggio ottimale in funzione del contesto nel quale viene collocata la batteria di Microserver, costituisce nel contempo l'elemento di pregio maggiore che ne esalte i rapporti prezzo/prestazioni, ma anche ne rappresenta il limite principale per una diffusione su larga scala. L'ottimale consiste infatti nell'abbandonare il concetto di Server generico, a favore di batterie di Rack di Microserver specializzati per tipologie di applicazioni da gestire. Il che li rende particolarmente appetibili per i grandi Data Center o per i fornitori di servizi di infrastruttura su larga scala - quindi, ad esempio, per i Cloud Service Provider - mentre risultano meno competitivi per le situazioni dove non si sono specifiche aree applicative o per le imprese di minori dimensioni nelle quali non è possibile segmentare i Cluster di macchine per applicazioni o servizi.
Ad esempio, i Microserver potrebbero essere usati con grande successo nella fornitura di servizi di infrastruttura per l'elaborazione di Big Data e l'impiego di Analytics, pensando ad un fornitore di servizi Cloud specializzato in questo: a parità di potenza, i costi di esercizio risulterebbero molto ridotti, ma in mancanza della capacità di sfruttare appieno il sistema si rischierebbe di vanificare i positivi effetti che se ne potrebbero trarre.
Tra i primi utenti di questo tipo di soluzioni, al di là della già citata Facebook, ricordiamo:
- Verizon, che li impiega per erogare vari servizi Cloud;
- PayPal, sui quali ha allestito la propria piattaforma per la gestione dei Big Data con alla base Hadoop.
In ogni caso, bisogna anche tener presente che in alcuni casi diventa indispensabile riscrivere anche grandi porzioni di Software, per cui la capacità di fare consistenti economie di scala diventa cruciale sia per lo sviluppo del mercato, che per il successo degli utenti.
Articoli correlati (da tag)
- La convergenza di Data Center e High Performance Computing (HPC) - parte 2
- Data Center e High Performance Computing (HPC) convergono sotto la spinta di Cloud Computing, IoT e Big Data
- Il Cloud Architect: figura emergente tra le nuove professioni digitali
- Storage Server Software-Defined ed elaborazione parallela in cima alle priorità 2017 per moltiplicare la produttività dei Data Center
- Data Center 2017: sempre più Software Defined e basati su Infrastrutture Iperconvergenti
Ultimi da Alessandro Giacchino
- Intelligenza Artificiale vs Intelligenza Emotiva: alternative o complementari? - Parte 2
- Intelligenza Artificiale vs Intelligenza Emotiva: alternative o complementari? - Parte 1
- I Reality, specchio emblematico della nostra epoca storica
- Il futuro delle vendite è ibrido: processi, strumenti e competenze
- Idrogeno? Investire sin da subito nella produzione di elettrolizzatori!