Menu

Previsioni 2014: Big Data un Must, non più un'opzione!

Previsioni 2014: Big Data un Must, non più un'opzione!

La crescita di importanza dell'uso dei Big Data è lenta, per via della complessità e la mancanza di adeguate competenze ma inesorabile. La spinta alla moltiplicazione dei dati ha diverse origini che si possono ignorare, combattere o sfruttare al meglio per la competitività della propria organizzazione. O si capisce, o ci si dovrà adeguare...

Già nelle previsioni 2013, avevo dato alla crescita di importanza dei Big Data grande rilievo, indicandoli come un'area sulla quale occorre investire sia in tecnologie, sia -e soprattutto - in competenze. Nel corso dell'anno ho poi illustrato vari progetti ed usi dei Big Data spaziando dai mondi della sicurezza, del marketing della politica, della salute, del miglioramento della vita, giusto per non circoscrivere il tema alle solite aree convenzionali del Business.

Big-Data-2013Certo, la gestione dei dati con i tradizionali Database relazionali continuerà ad esser prevalente per i prossimi anni - nel 2013 il 72% delle organizzazioni monitorate da Information Week dichiaravano di usare ancora i propri DBMS SQL, pur cominciando ad affiancarvi nuove piattaforme e nuovi strumenti innovativi di memorizzazione e analisi, ma la crescita avuta in questi pochi anni appare già estremamente consistente.

Per il 2014, prevedo che i Big Data acquisiranno ulteriore importanza, per una serie di motivi, parte dei quali riprendo in queste note. I principali fattori di freno resteranno in ogni caso la difficoltà di comprendere quali dati usare e come trarne reale vantaggio, reperire le competenze adeguate a realizzare i progetti e, non ultime, le ridotte disponibilità di Budget per investire in vera innovazione, più per la scarsa propensione al rischio che si ha nei periodi di crisi, che non per l'effettiva mancanza di ritorni e di risorse.

Il caso NSA e la bravata di Ed Snowden emblematici anche sotto il profilo dei Big Data

Dell'azione di Ed Snowden, che ho eletto a protagonista dell'IT mondiale 2013 così come raccontato nel post che gli ho dedicato, sappiamo ormai tutto: ha sottratto enormi quantità di dati, frutto di azioni di spionaggio più o meno illecite condotte dalla NSA nell'insegna della sicurezza nazionale degli Stati Uniti d'America. Già, ma il punto è: di quali quantità di dati si sta parlando, con quali capacità di esaminarli e con quali soluzioni per gestirli?

Stando a Snowden, la National Security Agency (NSA) ha posto sotto monitoraggio le comunicazioni telefoniche ed il transito di dati su scala pressoché mondiale, raccogliendo gran parte del traffico in circolazione sulle reti di ogni genere, arrivando a raccogliere ogni giorno oltre un miliardo di e-Mail e numeri ben superiori per quanto riguarda telefonate, Instant Message, Post e Tweet su Internet. Questi sono numeri enormi, molto al di sopra di quelle che vengono normalmente considerate le dimensioni dei Big Data, definiti tali non solo per la quantità, ma anche per l'eterogeneità dei formati che li caratterizzano, generando consistenti problemi per la loro elaborazione e conservazione.

NSA-Big-DataLa strada seguita dall'NSA, stando a quanto dichiarato pubblicamente dal suo estroso CIO Nathanael Burton, la cui presentazione è accedibile su Youtube cliccando sull'immagine qui a fianco, è stata indirizzarsi verso il Cloud Computing, unificando in un singolo ambiente tutti i dati da analizzare attraverso strumenti evoluti capaci di individuare in tempi rapidi tutti i contenuti di potenziale interesse. Individuate le fonti dalle quali attingere i dati - e già questo non è un passaggio facile né da sottovalutare -  il primo problema è stato di carattere architetturale, dovendo integrare tra loro fonti e formati molto eterogenei. Il secondo problema è stato dotarsi di strumenti di analisi "intelligente", capaci da un lato di rilevare le informazioni interessanti navigando in un immenso mare di dati, dall'altro di farlo in tempo pressoché reale per evitare il rischio di disporre delle informazioni così rilevate in modo intempestivo, quando queste hanno perso tutto il proprio valore.

L'elemento che forse è stato eccessivamente trascurato è stata la sicurezza dei dati, visto cosa ne ha poi fatto Ed Snowden, ma questa è un'altra storia...

Scelta delle fonti, integrazione, qualità, capacità di analisi sono le parole chiave di questo gioco, nel quale per motivi di flessibilità e rapidità di avviamento dei progetti il Cloud Computing comincia ad avere un ruolo determinante, anche a fronte delle continue riduzioni dei costi dello Storage, sempre più proiettato verso le tecnologie allo stato solido, per cui può risultare poco conveniente dotarsi di proprie infrastrutture interne. Meglio infatti investire prioritariamente in competenze di analisi dei dati, così come fatto dall'NSA con il suo progetto Accumulo.

Wall Mart, la Grande Distribuzione e la Mobilità per il Marketing basato sui Big Data

Il secondo grande progetto che desidero usare per legittimare la mia previsione 2014 è quello sviluppato dai Grandi Magazzini Wal-Mart, la più grande catena di distribuzione di beni di consumo del mondo, nonché la prima azienda del mondo della Classifica di Fortune 500.

Vendere ai consumatori finali non è mai facile, ma diventa ancor più complesso quando si tratta di farlo a milioni di clienti al giorno sparsi in migliaia di supermercati di vari Paesi del mondo, volendo esser nel contempo i Leader per i prezzi più bassi ed i Leader per la gamma di offerta. Così, anticipazione dei bisogni dei clienti, percezione delle loro preferenze e alimentazione tempestiva della catena logistica dei prodotti richiesti divengono fattori determinanti per il successo. Successo che può esser amplificato dall'uso innovativo degli SmartPhone che ognuno di noi porta regolarmente con sé 24 ore su 24, come fonte di dati e veicolo di promozione pubblicitaria.

Partendo da questi ingredienti, Wal-Mart ha sviluppato una strategia di Marketing che fa pieno uso dei Big Data e degli apparati Mobili dei suoi clienti che divengono così una componente essenziale di un canale di comunicazione/vendita apparentemente personalizzato a livello individuale, ma strutturalmente concepito su larga scala.

Il progetto, condotto d Gibu Thomas, Direttore della Divisione Mobile di Wal-Mart, ha come obiettivo utilizzare i telefoni cellulari come veicoli per effettuare ordini - o pre-ordini da ritirare in negozio - per erogare assistenza, per eseguire i pagamenti e per molte altre funzioni, utilizzandone il traffico anche per conoscere meglio i clienti e per proporre loro offerte "irrinunciabili". Questo anche perché stando ai dati di una ricerca pubblicata da Deloitte, le vendite "condizionate" da informazioni e promozioni veicolate tramite i telefoni cellulari potranno raggiungere nel 2016 un volume pari a 700 miliardi di dollari, un piatto così ricco da non poter essere ignorato da nessun operatore del settore.

Il gioco, anche in questo caso, è molto complesso spaziando dalla creazione di servizi dedicati, lo sviluppo di specifiche APPS, la raccolta dei dati sugli utenti, sui loro comportamenti di acquisto e sui loro spostamenti, integrando il tutto nei piani di Marketing e promozionali dell'azienda, analizzando enormi masse di dati. E a complicare ulteriormente le cose rientra l'uso dei codici a barre - ormai sostituiti dai QR code - che per prima Wal-Mart impose a tutti i propri fornitori come condizione base per rientrare nelle catene della logistica distributiva ottimizzando in tal modo l'approvvigionamento e il riassortimento degli scaffali.

I risultati? Stando a quanto pubblicato da Wal-Mart, i clienti che fanno già uso delle APPS loro dedicate hanno mediamente raddoppiato le loro visite mensili ai supermercati ed aumentato gli acquisti di quasi il 40%.

Crescita dei Big Data favorita dall'Internet delle cose e da altri fattori innovativi

Mi fermo qui con gli esempi, ma continuerò a trattare l'argomento nei prossimi mesi, per dare alcune proiezioni sui fattori che determineranno una ulteriore crescita dei Big Data a tassi ben superiori di quelli attuali.

Comincio dai dati pubblicati da EMC che essendo un produttore di Storage, quanto più i dati divengono Big, tanto più vede crescere il proprio mercato potenziale. Bene, stando a EMC, tra il 2005 e il 2020 la quantità di dati digitali crescerà di 300 volte (non del 300%, ma 300 volte di più) rispetto a quelli che ci sono oggi. Senza ancora considerare l'onda montante dell'Internet delle cose, sulla quale torneremo tra un attimo, a causa della sola spinta verso la digitalizzazione di tutto (immagini, filmati, musica, documenti...) e dei Social Networks, già entro il 2015, ci saranno 8.000 Exabyte da gestire, numeri impensabili anche solo l'anno scorso.

Stando a IBM, ogni giorno a livello mondiale vengono generati 2.5 quintilioni (1018) di byte di nuovi dati. Per IDC, ogni adulto tra i 45 ed i 59 anni, genera ogni anno quasi 2 milioni di Gigabyte di dati. Questi in aggiunta agli oltre 4 milioni di Gigabyte relativi alle informazioni ambientali e di contorno ai quali si è esposti, senza produrle direttamente.

Ancora due dati, prima di passare all'impatto dell'Internet delle Cose, un vero fattore moltiplicativo per l'insieme di questo fenomeno. Il primo proviene da una recente ricerca condotta da Infochimp su qualche centinaio di IT Manager di grandi imprese multinazionali, il 76% dei quali hanno indicato i Big Data tra le loro priorità 2014, con l'accesso ai dati e l'integrazione tra le diverse fonti come la maggior difficoltà da affrontare e la qualità dei dati stessi come secondo fattore critico. La principale causa di fallimento dei progetti è stata invece individuata nella mancanza di precisi obiettivi e nell'incapacità di correlare correttamente le azioni con gli scopi.

A questo proposito, un recente Report del McKinsey Global Institute ha sottolineato che negli Stati Uniti d'America si lamenta già la mancanza di competenze nella gestione e nell'analisi dei Big Data, con quasi 200.000 posti di lavoro da colmare con specialisti in materia e quasi un altro milione e mezzo di posti a disposizione in attività collaterali. Personale da assumere o da formare sulle nuove discipline connesse all'acquisizione, alla gestione, all'analisi dei Big Data.

Sensori, Internet da Indossare e Internet delle Cose, nuovi fattori moltiplicativi 

In tutto questo, a concorrere alla generazione di Big Data da conservare, analizzare, far fruttare, si inseriscono nuovi elementi quali:

  1. i sensori in grado di rilevare di tutto - includendovi, ad esempio, le telecamere di sorveglianza che ormai raccolgono dati utilizzabili non solo a scopo di sicurezza;
  2. il Software Embedded in ogni genere di apparecchiatura, come automobili, frigoriferi, condizionatori d'aria, giusto per citarne alcune, che raccogliendo continuamente dati sul funzionamento può contribuire al miglioramento della qualità dei prodotti, ma anche a fornire servizi di assistenza e manutenzione;
  3. i sistemi di geolocalizzazione ormai standard di Smartphone, Tablet e molti altri apparati quali ad esempio i nuovi braccialetti Web e tutti quelli "da indossare;
  4. per non parlare delle etichette passive che si possono applicare a qualsiasi genere di prodotto o elementi in circolazione per il mondo: buste, pacchetti, scatole, container, veicoli...

Per Gartner, il solo settore dell'Internet delle cose darà vita ad un giro d'affari stimato per il 2020 in 1.900 miliardi di dollari, con 30 miliardi di oggetti costantemente connessi in rete, per guidare processi operativi e decisioni. Fenomeno nel quale saranno coinvolti tutti i settori, a partire da quelli produttivi e della sanità, seguiti da vicino da quelli finanziari, della grande distribuzione, dei trasporti. Nei 300 miliardi, Gartner considera tutte le organizzazioni coinvolte nella filiera, quindi i produttori di sensori, di apparati, di Software, così come i fornitori di servizi di rete, ma la somma è in ogni caso molto grande, offrendo consistenti opportunità per le aziende esistenti così come per nuove Start-up innovative.

Chi dovrà guidare questo sviluppo? Per alcuni versi dovrebbe esser l'IT, mentre per altri potranno essere il Marketing, la Ricerca, la Logistica, le Operations. Tant'è che al tema e alle tensioni che stanno già scaturendo tra Marketing e IT ho già dedicato il post "CMO / CIO: Lontani, ma Forzati a Lavorare Sempre di Più Assieme!". Ma le aree di intervento sono parecchie, in funzione dei contesti, per cui il tema deve esser considerato pervasivo per la gran parte delle aziende sul mercato, ma anche per le organizzazioni pubbliche e gli apparati dello Stato.

Ultima modifica ilMartedì, 07 Gennaio 2014 12:55

Aggiungi commento


Codice di sicurezza
Aggiorna

Torna in alto