Menu

Gli Analytics non si elidono, si sommano

Big Data o Data Warehouse? Sì, entrambi.

Anni fa, durante una delle prime riunioni nelle quali si discuteva di Internet, un esperto di mass media disse che i media non si sostituiscono mai definitivamente, anzi tendono a sommarsi. Pensate allo sfracello che Internet avrebbe dovuto fare di dischi, libri, TV ecc. E’ avvenuto? Solo in parte, Internet convive con la radio FM, il fax, le audio cassette (stanno tornando di moda!), il vinile (mai andato in pensione).

Venendo a noi e vedendo il battage dei Big Data verrebbe da pensare che le esigenze del Business Real Time e di scandaglio di enormi masse di dati sostiuirà presto le Query sugli ipercubi faticosamente costruiti con sessioni di procedure ETL e di assicurazione qualità dei dati. E dire che, a prima sensazione, le ragioni di questa sostituzione ci sarebbero tutte: meglio dati freschi o dati maturi? Meglio dati integri o rielaborati? Meglio spendere poco per gli analytics (Big Data) o spendere tanto per la Business Intelligence (Data Warehouse)?

Certamente se qualcuno dicesse che servono entrambi verrebbe da pensare al solito cerchiobottismo italiano o quantomeno ad un fornitore che si barcamena per piazzare i propri prodotti magari un po’ maturi.

No, chi sostiene apertamente questa tesi è Ken Rudin, direttore degli Analytics di Facebook. Ken un passato di tutto rispetto, dal Master in Business a Stanford dopo una laurea in Ingegneria ad Harvard, ad una carriera iniziata in Salesforce.com e proseguita ai vertici di Siebel e poi un paio di fortunate avventure imprenditoriali fra cui Zynga.

Rudin è impegnato quotidianamente nello scandagliare i petabyte di Facebook per migliorare sia la User Experience del sistema sia trovare nuove idee di business da proporre a Zuckenberg.

Nel corso dell’ultimo simposio di TDWI (The Data Warehouse Institute) di Chicago, Rudin ha tenuto un interessante speech in cui ha narrato la sua esperienza di analista dei dati. I Big Data, sostiene, sono utili se sono di qualità, sottolinea, e servono per comprendere fenomeni nuovi ed anticipare trend e comportamenti.

Purtroppo, non sempre i Big Data hanno la qualità richiesta e comunque quel livello di sintesi e di focalizzazione che invece un Data Warehouse ha per definizione. Avere dati focalizzati permette di lavorare meglio sullo storico e poter fare quindi delle previsioni che magari possono dare una chiave di lettura consapevole sui Big Data.

La sinergia delle due soluzioni è tutta da inventare e credo che passi per un lavoro comune con gli utenti finali; l’obiettivo è di trovare nuove soluzioni a problemi che si presentano sempre più complessi, ovvero come identificare e considerare in prospettiva storica fenomeni che si presentano in forma di piccoli eventi in grande quantità ed in tempo reale?

Un esempio? Supponiamo di voler comprendere se una nuvola di scelte sia un fenomeno casuale o se inserito all’interno di un processo storico ben individuato. Con gli analytics real time sui Big Data possiamo determinare il fenomeno e passarlo alla dimensione storica che andrà ad inquadralo in una serie di altri fenomeni dandogli un contesto storico, di conformità o meno e quindi capire se, statisticamente parlando, ci sia da preoccuparsi o meno, da gioire o meno.

Ultima modifica ilGiovedì, 18 Giugno 2015 09:10

Aggiungi commento


Codice di sicurezza
Aggiorna

Torna in alto