Menu

Big Data Management (28)

Verso l'Era degli Analytics 4.0

L'uscita del nuovo libro di Tom Davenport "Only Humans Need Apply: Winners and Losers in the Age of Smart Machines" riporta l'attenzione sui rischi di perdita di posti di lavoro indotti dall'automazione e dalla nuova era degli Analytics 4.0. E' tuttavia fondamentale coglierne gli aspetti positivi sia in senso generale sia in ottica individuale...

Tom Davenport Thomas (Tom) H. Davenport è uno di quei personaggi che nel mondo dell'IT e dei Big Data non ha bisogno di presentazioni: professore universitario, cofondatore dell'International Institute for Analytics, Fellow del MIT Center for Digital Business, è autore di 18 libri nell'area dei Big Data e degli Analytics, il più famoso dei quali è “Competing on Analytics”, uscito nel 2007.

L'interazione tra gli uomini (e le donne) e le macchine sempre più capaci e intelligenti è già da tempo divenuto uno dei tormentoni di Davenport che se da un lato esalta l'importanza e i benefici che possono scaturire dall'automazione delle operazioni, dall'altro cerca di fissare i punti sui quali le persone possono/devono concentrarsi per continuare a generare valore e così mantenere il proprio ruolo centrale in qualsiasi organizzazione. Un compito reso sempre più complesso dal continuo incremento di capacità cognitive acquisite dalle macchine, amplificato dall'impiego dei Big Data e da Analytics estremamente sofisticati.

In sostanza, in "Only Humans Need Apply: Winners and Losers in the Age of Smart Machines", Tom Davenport lancia un allarme sulla consistente perdita di posti di lavoro provocata dalle nuove tecnologie con vittime non solo, come nel passato, a livello di operai e amministrativi, ma anche tra le figure professionali di più alto livello. Per Davenport, si tratta di un fenomeno che potrebbe colpire la metà dei lavoratori degli Stati Uniti e dei Paesi più sviluppati del mondo.

Un allarme significativo, ma per certi versi mi viene da dire "nulla di nuovo sotto il sole" o "la storia si ripete". Consideriamo infatti la nascita delle macchine a vapore prima, di quelle elettriche poi che hanno dato origine alle industrie manifatturiere, oggi messe in crisi dal nuovo avanzare delle tecnologie. Complessivamente, si è trattato di un consistente passo in avanti per l'umanità, sebbene sul breve termine molte persone hanno visto scomparire il proprio posto di lavoro: quanto lavoro toglie una gru a dei manovali, o un treno a dei cocchieri? Dovremmo quindi rimpiangerne la creazione, così come quella dei martelli pneumatici, dei camion e via dicendo?

Attualmente stiamo vivendo un intersecarsi degli effetti della prima rivoluzione industriale - con la sostituzione del lavoro manuale con le macchine - con quelli della seconda, che si sta proiettando verso la quarta nella quale saranno direttamente le macchine ad interagire tra loro, riducendUo i compiti dell'uomo alla sorveglianza, alla riconfigurazione, alla determinazione dei requisiti per i nuovi sistemi. Un processo a più velocità e con differenti direttrici nel quale orientarsi appare sempre più difficile, specie nel tenere il passo alla rapidità con la quale si svolgono i cambiamenti.

Protagonisti di questa trasformazione sono la digitalizzazione, l'intelligenza artificiale, i computer capaci di apprendere attraverso l'acquisizione di immense quantità di dati e di fornire risultati molto accurati spesso in tempo reale. Tecnologie che possono imparare, predire, decidere spesso in modo molto più accurato - oltre che rapido - rispetto agli esseri umani. Il risultato si traduce in consistenti incrementi di produttività e qualità, con il riflesso di stravolgere gli equilibri sul piano del lavoro, rendendo obsolete e inutili molte professionalità.

Un fenomeno che tuttavia, benché molto rapido nel suo evolversi, passa attraverso vari stadi che vanno affrontati in modo consapevole, in corrispondenza di ciascuno dei quali occorrono competenze e tecnologie ben precise. Cosa che lascia un buon margine di reattività a coloro i quali in grado di "cavalcare la trasformazione".

Dall'inizio della Business Intelligence agli Analytics 4.0

Nei suoi studi, Davenport classifica l'evoluzione dell'analisi dei dati in quattro Ere, a partire dai primi anni '70, per arrivare agli Analytics 4.0 di oggi:
Analytics 4.0• 1.0: fase primordiale, nella quale i dati provenienti da fonti esclusivamente interne venivano utilizzati per creare Report di tipo statico e con criteri spesso soggettivi, per opera di alcuni specialisti e ad uso di pochi decisori/pianificatori aziendali. Una fase nella quale le valutazioni di conseguenze venivano svolte raramente, per lo più in modo superficiale.
• 2.0: all'inizio del nuovo millennio, nasce l'era dei Big Data, per iniziativa di poche aziende molto esposte all'uso di grandi quantità di dati, tipo Amazon, Facebook e Google, dai quali hanno capito di poter trarre grande valore. Le analisi cominciano così a considerare i dati non strutturati con nuovi strumenti quali Hadoop e i primi strumenti di analisi predittiva.
• 3.0: la terza fase dell'evoluzione apre l'impiego dei Big Data alle aziende di ogni genere, comincia a considerare usuale nelle analisi l'impiego di fonti di dati esterni all'impresa e di utilizzare varie tecniche per svolgere funzioni predittive e prescrittive. I dati divengono così centrali nell'assunzione delle decisioni e nell'impostazione di strategie e operazioni.
• 4.0: Il salto di qualità della nuova era consiste nel passaggio in automatico dalle valutazioni alle azioni che ne debbono scaturire, creando connessioni Machine-to-Machine, sistemi di Machine e Deep Learning, con i sistemi che agiscono dinamicamente sempre per il meglio, senza alcun intervento umano. Il ruolo delle persone si trasforma così dal dover assumere le decisioni, al creare i modelli decisionali e valutarne gli effetti in un processo di miglioramento continuo. Ad esempio, cita Davenport, in casa Facebook, grazie ai sistemi automatici di gestione dei Server e di correzione dei loro possibili malfunzionamenti, un Network Engineer è in grado di gestire 25.000 Server, contro i 100/200 che vengono considerati come limite massimo nei tradizionali centri EDP.

Per Davenport, attualmente la maggior parte delle imprese sono ancora a livello 1.0, ma ci sono delle aree nelle quali si stanno concretizzando eccellenti esperienze più avanzate. Ad esempio, nell'IT, ma non limitatamente ad esso, si hanno già numerosi casi di impiego:

  • Nella Manutenzione Predittiva di apparati ed elementi soggetti ad usura in modo non determinabile a priori;
  • Previsione fabbisogni in termini di approvviggionamenti e potenziamento impianti;
  • Soluzioni antifronte, basati sull'analisi di comportamenti atipici, indicatori di potenziali compromissioni della sicurezza;
  • Testing automatico dei sistemi e delle infrastrutture esposte a rischi;
  • Rilevazione e risoluzione automatica dei problemi di funzionamento;
  • Guida e supporto automatico nell'assistenza ai clienti/utenti.

Soluzioni per le quali occorre attrezzarsi con strumenti per la gestione e l'elaborazione dei dati con infrastrutture specializzare basate su Hadoop e Spark, Database e Hardware di tipo "in Memory", combinate con Tool di analisi capaci di operare con metodi statistici, intelligenza artificiale, apprendimento autonomo.

Il cuore del sistema restano però le persone capaci di operare a vari livelli, partendo dalle infrastrutture, per arrivare alla progettazione e validazione dei modelli di analisi, scegliendo le fonti, i dati, gli algoritmi, le tecniche predittive più idonee a ciascun caso.

Fondamentali le competenze dei Data Scientist

Se le tecnologie hanno un ruolo critico in tutto il discorso, ad essere realmente fondamentali sono le competenze di chi le usa. A partire dalle fasi di allestimento delle infrastrutture, per proseguire con i sistemi di elaborazione, conservazione, gestione dei dati (prima di tutto sul fronte della qualità), arrivando quindi al punto cruciale della definizione dei modelli, della scelta dei dati, delle fonti, della periodicità dei ricambi e dei controlli dei risultati. Si tratta di un mix di competenze specialistiche e multidisciplinari che non si improvvisa, nella maggior parte dei casi non viene coperto neppure dai corsi universitari, ma che va curato cercando di guidare le persone nel percorso lungo le quattro fasi di evoluzione degli Analytics. Infatti, mentre nella prima fase la focalizzazione andava posta sulle capacità di integrazione dei dati (con tutti i controlli e le conversioni del caso), pur rimanendo questo un aspetto importante, nella seconda fase assumono rilievo altri elementi quali la capacità di visualizzare i risultati, piuttosto che quella di ricombinare i dati tra loro in modo non convenzionale.

Analytics 4.0: le necessarie Competenze CumulativeLa sintesi di questo discorso è che si tratta non di un processo che riguara competenze "sostitutive", ma un accumulo di competenze che vanno sviluppate nel tempo e nell'organizzazione, così come rappresentato nella figura qui a fianco.

Un aspetto particolare degli Analytics 4.0 è che agli occhi degli utenti risultano "invisibili" in quando vengono inseriti direttamente all'interno dei processi per guidarne lo svolgimento evitando alle persone di dover svolgere qualsiasi azione: scelgono, attivano e operano in modo totalmente automatico.

Il messaggio è pertanto "coltivare" Data Scientist, partendo possibilmente da chi ha già competenze informatiche, statistiche, matematiche, ma puntando molto su tutti gli aspetti propri della gestione dei dati, a partire dal come trarvi e generarvi valore. Una cosa che non si improvvisa, ma che deve tenere in massima considerazione la necessità di dotare le persone di visione multidisciplinare, anche quando le si specializza in ben determinate funzioni tecniche. Un investimento oneroso, che però si ripaga facimente nel tempo assicurando all'azienda la marcia in più per competere e svilupparsi.

Fonte: per questo pezzo mi sono liberamente ispirato all'articolo "Analytics and IT: New Opportunity for CIOs" apparso su HBW: http://twimgs.com/custom_content/108572_1116.pdf

Leggi tutto...

Data Science: Grandi Opportunità di Lavoro per Vari Profili Professionali

Dopo aver costruito e diretto due Master in Data Science, nonché aver condotto varie conferenze in materia, ho maturato una buona percezione sulle opportunità offerte dallo specializzarsi nella gestione dei Big Data, degli Analytics, nella creazione di innovativi Data Model e in tutte le tecnologie che vi ruotano attorno. Ecco alcune indicazioni pratiche sulle quali investire per il proprio futuro.

Leggi tutto...

Data Steward per Mestiere: più Semplice che Data Analyst, più di Valore per l'Impresa!

Il Valore dei Dati è il vero tormentone del prossimo triennio per la gran parte delle imprese. Tra Big Data, Analytics, IoT e Digital Transformation le tecnologie di raccolta, gestione e analisi dei dati stanno acquisendo la piena centralità nella priorità delle aziende di ogni dimensione. Da qui, la domanda per una lunga serie di professionalità che solo qualche anno fa non esistevano. Tra queste, quelle del Data Sterward offre uno dei migliori equilibri tra necessità di competenze specialistiche, difficoltà di ruolo e criticità per l'organizzazione.

Leggi tutto...

2017: le professioni vincenti. Il Chief Data Officer, cruciale nei percorsi di Digital Transformation

Big Data, Analytics, IoT, decisioni Data Oriented: sono le parole chiave alla base delle strategie delle aziende vincenti di oggi. Che richiedono un nuovo approccio alla gestione dei dati, andando ben oltre il ruolo del tradizionale Database Admnistrator.

Leggi tutto...

Data Mining o Analisi Predittiva? Così simili, così diversi!

La domanda potrebbe anche essere Business Intelligence o Analytics, con varie declinazioni che passano da Data Warehouse, Data Mart, Big Data e via dicendo. Certo, ad una vista superficiale, Data Mining e Analisi Predittiva potrebbero sembrare la stessa cosa, ma in realtà cambiano le prospettive, le fonti e anche le tecnologie... Come?

Leggi tutto...

I Dati? Non basta che siano Big, devono essere anche Fast!

Mano a mano che le tecnologie di gestione dati evolvono nella direzione Big, ovvero grandi quantità di dati eterogenei da analizzare in tempi sempre più brevi, le applicazioni e le esigenze degli utenti divengono più sofisticate, generando la necessità di nuovi approcci e architetture. L'ultima novità in materia è rappresentata dalle piattaforme per i Fast Data definite da Tibco, capaci di gestire e analizzare i Big Data in tempo reale.

Leggi tutto...

I Big Data al servizio delle Assicurazioni che si Digitalizzano

Processi, documenti, algoritmi digitalizzati sono preziose fonti di dati per le compagnie di assicurazione auto che usando Analitics e Big Data ne possono trarre consistenti vantaggi competitivi. Vantaggi che vengono amplificati dalle Connected Car. Come sfruttarli?

Julian Nachtweh, Vice President Sales Operations & Strategy, Software AG

Leggi tutto...

Il Botto di IBM: per i Big Data e gli Analytics punta forte su Spark e lo rende un servizio Cloud!

Sfruttando la vetrina dello Spark Summit 2015, IBM lancia un nuovo servizio Cloud incentrato sul componente Open Source di Apache, utilizzabile in modo alternativo o complementare a Hadoop, per l'elaborazione direttamente in memoria di grandi quantità di dati...

Leggi tutto...

MongoDB ingloba Hadoop unificando le due più diffuse tecnologie per Big Data

Hadoop e MongoDB sono considerati sistemi complementari per la gestione dei Big Data, il primo rivolto all’accesso da fonti di dati distribuiti, l’altro insostituibile nel trattamento in real time. La conservatività del web fa sì che sulla richiesta “Hadoop vs MongoDB” i siti indicati perseverino in questa percezione. In realtà, da molti mesi varie migliorie del secondo hanno di fatto integrato i due mondi, segnando un'importante svolta nell'area....

di Gianni Giaccaglini

Leggi tutto...

Il nuovo Quadrante Magico di Gartner per BI e Analytics

Il nuovo Quadrante Magico di Gartner per BI e Analytics

Aggiornato allo scorso Aprile, il quadro complessivo stilato dagli analisti di Gartner per le piattaforme di Business Intelligence e Analytics vede svettare Tableu, con Infor agli ultimi posti e in mezzo altri 24 produttori sempre più agguerriti.

Leggi tutto...

Approcci ai Big Data e agli Analytics: valutazioni, scelta

Non è più tempo di considerare i Big Data e gli Analytics come una nuova possibile frontiera tecnologica da valutare: ormai sono divenuti un passaggio fondamentale per la gran parte delle aziende – e delle attività – per cui bisogna affrettarsi nell'avviarvi i propri progetti per non rimanere travolti dalla concorrenza e da un'ondata di nuove imprese che entrano nei nostri mercati.

Leggi tutto...

HP IDOL, il valore delle informazioni umane

HP IDOL, il Valore delle Informazioni Umane

Le informazioni a disposizione delle aziende crescono a dismisura, in termini di volumi, varietà e tipologie. Con IDOL, Hewlett Packard ne favorisce la possibilità di ricavarne utili e tempestive indicazioni ad uso del Business.

di Gianni Giaccaglini

Leggi tutto...

Big Data: la competizione tra i Vendor: chi vince, chi perde e...

Big Data: la competizione tra i Vendor: chi vince, chi perde e...

A fine 2013 il mercato dei Big Data, valutato in base ai fatturati dei Vendor ha raggiunto i 18.6 miliardi di dollari, con una crescita del 58% rispetto al 2012. Come andrà nel prossimo futuro? Le previsioni di Wikibon

Leggi tutto...

I Big Data nel Micro Targeting fanno cadere molti luoghi comuni: l'analisi delle esperienze nelle elezioni politiche per sviluppare nuove strategie commerciali

I Big Data nel Micro Targeting fanno cadere molti luoghi comuni: l'analisi delle esperienze nelle elezioni politiche per sviluppare nuove strategie commerciali

Torniamo con un significativo approfondimento sull'uso delle tecnologie usate nelle ultime presidenziali USA alla luce dei prossimi scenari elettorali in Italia con una nuova legge e la necessità di ricorrere a finanziamenti privati.

Leggi tutto...

Big Data e l'approccio secondo il Censo Romano

Questo articolo, firmato da uno dei pionieri del Data Warehousing, è apparso sul Blog di Bill Inmon alla fine dello scorso gennaio. Curioso pensare che per spiegare l'architettura dei Big Data ci si rifaccia al censo istituito nell'antica Roma come pratica per inventariare i beni dei cittadini, ma molto efficace nel rappresentare il significato dell'idea che ci sta dietro. Lo riproponiamo quindi tradotto e integrato...

di Bill Inmon

Leggi tutto...

Big Data Analytics: le piattaforme migliori!

Sull'ultimo numero di InformationWeek, firmata da Doug Henschen, è apparso un'interessante confronto tra le migliori piattaforme per effetturare analisi predittive sui Big Data. Qui ne offro uno stralcio riponderato sulla base della realtà del mercato italiano dei Big Data.

Leggi tutto...
Sottoscrivi questo feed RSS