
1. Cosa è la Business Analytics
Con Business Analytics intendiamo quella disciplina che copre tutti gli aspetti legati alla raccolta, alla gestione, all’analisi e all’elaborazione dei dati mediante tecniche avanzate, al fine di supportare o automatizzare i processi decisionali.
Con riferimento al modello “DIKW” (Data-Information-Knowledge-Wisdom) illustrato in figura, l’obiettivo della Business Analytics è quello di trasformare i dati, disponibili in modalità raw all’interno delle cosiddette sorgenti alimentanti, in informazioni e conoscenza. Solo in questo modo, considerando quindi i dati all’interno del proprio contesto e significato, è possibile facilitare – se non automatizzare – un processo decisionale.

Rielaborazione: Iconsulting
2. La Business Analytics come evoluzione della Business Intelligence: analitica descrittiva, diagnostica, predittiva e prescrittiva
La Business Analytics rappresenta una naturale estensione della Business Intelligence (BI): rispetto ai processi di analisi dei dati della BI, tipicamente di tipologia Descriptive Analytics, la Business Analytics introduce nuove tecniche di elaborazione dei dati che consentono di ottenere ulteriori e più significative tipologie di analytics, che vediamo con qualche esempio:
• Descriptive Analytics: presentando i dati agli utenti di business sotto forma di reporting/dashboarding interattivo, consente di rispondere alla domanda “cosa è successo?”. Si focalizza quindi sul rappresentare nel modo migliore, più oggettivo e affidabile possibile i dati relativi a eventi/fenomeni di business avvenuti nel passato. Un esempio di analisi descrittiva potrebbe essere un trend che mostra, per un’azienda di telecomunicazioni, un calo del numero di clienti nell’ultimo mese (quindi un aumentato churn rate).
• Diagnostic Analytics: in questo caso l’obiettivo è rispondere alla domanda “perché è successo?”. Si tratta quindi di un passo successivo: una volta evidenziato un fenomeno (Descriptive Analytics) occorre individuarne le cause. Nell’esempio sopra riportato, occorre indagare su quali sono le cause che concorrono all’incremento del churn rate. In questo caso la risposta potrebbe essere rappresentata dal fatto che esiste una correlazione tra i clienti persi e coloro che hanno riscontrato problemi tecnici con i servizi di cui hanno usufruito. Anche in questo caso il focus rimane sugli eventi passati, ma si cerca di incrociare diverse fonti dati per scoprire pattern, correlazioni, cluster comportamentali, ecc.
• Predictive Analytics: costruendo modelli che sfruttano i dati relativi ad eventi accaduti nel passato (es. gli utenti che hanno abbandonato), si cerca di proiettare tali informazioni sul futuro, in modo da anticipare ed eventualmente influenzare il verificarsi di eventi futuri. Ad esempio, conoscendo gli utenti che stanno riscontrando problemi tecnici, è possibile mettere in campo azioni di retention (es. scontistiche, servizi aggiuntivi) per evitare che tali utenti decidano di abbandonare.
• Prescriptive Analytics: si tratta dei modelli più avanzati. Conoscendo le cause dei fenomeni ed essendo in grado di prevederli nel futuro (combinando le tipologie di analytics viste finora), questi sistemi sono in grado di suggerire la migliore azione da intraprendere e, in molti casi, di intraprendere tale azione in modalità automatica. Fanno parte di questa famiglia i sistemi che implementano azioni di retention automatiche, motori di raccomandazione che suggeriscono il miglior prodotto da acquistare sulla base del proprio profilo utente e della sequenza di prodotti visualizzati, ecc.
3. Business Analytics, Data Science e Artificial Intelligence: aspetti architetturali
Si parla quindi di Business Analytics quando i processi analitici descrittivi più tradizionali sono affiancati e arricchiti da analitiche diagnostiche, predittive e/o prescrittive. Per ottenere ciò, la Business Analytics impiega modelli statistici (es. regressioni, modelli previsionali, comportamentali, clustering, ecc.) e/o modelli di Intelligenza Artificiale (AI) e Machine Learning.
L’adozione della Business Analytics all’interno di un’organizzazione richiede figure o system integrator con skill specifiche: i Data Scientist. La Data Science è infatti definibile come l’insieme di metodologie e tecniche, derivanti dai campi dell’analisi statistica e del Data Mining, volto a interpretare ed estrarre conoscenza dai dati. In altre parole, un Data Scientist è una figura in grado di interpretare i dati rispetto agli obiettivi del business in cui opera, utilizzando strumenti e tecniche di Business Analytics.
Da un punto di vista architetturale, una soluzione di Business Analytics richiede una Data Platform in grado di rispondere ai requisiti di diverse tipologie di utilizzatori:
• Gli analisti di business utilizzano capabilities tipiche di una piattaforma di Business Intelligence tradizionale:
○ Acquisizione dei dati (Data Ingestion)
○ Elaborazione dei dati (ETL/ELT)
○ Modellazione e organizzazione dei dati ai fini analitici (creazione di un Enterprise Data Model), in stile Data Warehouse, seguendo metodologie consolidate, basate su formalismi grafici come il Dimensional Fact Model (DFM). Con Indyco, software di Iconsulting, è possibile sfruttare il DFM permettendo a Business e IT di comunicare restando allineati per l’intero ciclo di vita dei dati, anche grazie alla creazione di un Business Glossary condiviso e commentabile.
○ Gestione della Data Quality
○ Data Visualization istituzionale e interattiva
• I Data Scientist necessitano di strumenti e tecnologie innovativi per sviluppare algoritmi predittivi e prescrittivi, sempre più spesso con requisiti di real-time:
○ Sviluppo di algoritmi tramite linguaggi come Python, R, Matlab, SAS, ecc.
○ Piattaforme di Data Science / Machine Learning come RapidMiner, Knime, ecc.
○ Tecnologie e architetture di storage ed elaborazione dati flessibili, ad esempio basate su Data Lake, Data Lakehouse, database NoSQL.
○ Tool in grado di gestire flussi di dati in modalità streaming.
• L’IT e i responsabili dei dati hanno esigenze di:
○ Data Governance
○ Metodologie, automatismi e tool per industrializzare i modelli di Data Science prodotti.
4.Business Analytics e Big Data Analytics
Poiché il valore aggiunto della Business Analytics risiede nella capacità di trasformare dati in informazioni e conoscenza a supporto di analitiche diagnostiche, predittive e prescrittive, i Big Data rappresentano la massima espressione del potenziale informativo a disposizione.
Oltre ad utilizzare i dati strutturati provenienti dai sistemi transazionali (OLTP) tradizionali, le organizzazioni hanno ora la possibilità di sfruttare le enormi potenzialità dei Big Data, ovvero dati, spesso real-time, generati da macchine (es. Telco, IoT, Industry 4.0) e persone (navigazione web, cookie, app, dispositivi, ecc.). Tali dati possono essere strutturati, non strutturati o semi-strutturati.
In questi casi si parla di Big Data Analytics. Oggi con questo termine intendiamo indicare tutte le tecniche e le tecnologie che consentono di raccogliere e gestire i Big Data, integrarli con dati tradizionali, elaborarli e trasformarli in “Small Data”: informazioni comprensibili utili a migliorare un processo decisionale. A tale scopo, gli aspetti fondamentali che devono essere presenti in una soluzione vincente di Big Data Analytics sono:
• Ingestion & Storage
• Compute & Querying
• Sharing & Governance
Mentre storicamente si è dedicata molta attenzione ai processi di Ingestion e Storage, molte piattaforme di Big Data Analytics non hanno soddisfatto le aspettative, perché carenti dal punto di vista della computazione e delle performance in fase di interrogazione. La selezione delle migliori tecnologie, in base ai casi d’uso definiti all’interno della propria Data Strategy, è invece spesso più importante dello storage stesso: solo grazie alle elaborazioni è possibile trasformare i Big Data in informazioni, traendone valore. Non di meno, una giusta Data Governance e una corretta gestione di Data Catalog e Lineage risultano fondamentali per la fruibilità dei dati.
5. Business Analytics maturity model
Esattamente come per i Big Data Analytics, ai quali rimandiamo per gli aspetti più tecnici, una Data Platform in grado di ospitare una soluzione di Business Analytics può essere più o meno articolata, a seconda della complessità degli use case da gestire e in base al livello di maturità dell’azienda. Inoltre, come abbiamo visto, la Business Analytics non riguarda soltanto tecnologie, ma anche organizzazione e skill.
Occorre infatti valutare se il modello organizzativo è adeguato alla strategia di trasformazione digitale che si intende seguire e definire un framework di riferimento organizzativo e architetturale per la propria Data Platform.
Una possibile risposta organizzativa è rappresentata dal paradigma del Data Mesh (e i relativi risvolti architetturali/tecnologici, anche in ottica Data Fabric). È per questo che si raccomanda, come primo step, di effettuare un check-up e definire una Data Strategy per la propria organizzazione. La Data Strategy serve infatti a definire in modo chiaro e condiviso come sfruttare i dati per mettere concretamente in atto la strategia di business. Facendo emergere consapevolezza su priorità, benefici potenziali, tecnologie e metodologie necessarie, consente di:
○ Individuare e colmare eventuali gap tecnologici;
○ Identificare e risolvere criticità organizzative;
○ Avere chiara visione dello stato di maturità dei processi aziendali;
○ Valutare gli impatti di business e i benefici attesi, attraverso una Data Strategy Roadmap.
A tal proposito, tra i framework di riferimento per valutare il livello di maturità in termini di Business Analytics compaiono:
• Catena del valore del dato, per valutare requisiti in termini di capabilities necessarie.

Rielaborazione: Iconsulting
• Business Analytics Maturity Model, framework standard molto diffuso per valutare il livello di maturità di un’organizzazione, sulla base di 5 livelli.

• Service Level Agreement framework
Il Service Level Agreement framework è una metodologia (oltre che un tool) per definire e rendere misurabili le caratteristiche di un sistema di business analytics tramite 10 variabili standard (es: Semplicità d’uso, Completezza, Velocità di risposta, ecc…) distillate dall’esperienza e dai progetti svolti da Iconsulting in oltre vent’anni di consulenza.
Queste variabili hanno la caratteristica di essere semplici da comprendere ma allo stesso tempo di incorporare tutte le caratteristiche fondazionali per definire un sistema di Business Analytics attraverso tre principali sfere di valutazione: metodologica, tecnologica e organizzativa.
Il framework, nel suo aspetto più operativo, è composto da oltre 200 rilevazioni (riaggregate nelle 10 variabili precedentemente indicate) che ponderate fra loro, permettono la valutazione del sistema di Business Analytics tramite un’attenta analisi delle caratteristiche che lo costituiscono.
Il formalismo grafico che ne deriva, chiamato petalogramma, aiuta a creare un «agreement» con il cliente e può essere sfruttato sia in ottica AS-IS (valutazione di un sistema esistente) che TO-BE (definizione dei target e delle capabilities a cui orientarsi nella creazione di un nuovo sistema da realizzare) al fine di guidare una roadmap di sviluppo consapevole e commisurata ai bisogni.


A completamento del framework, la metodologia prevede la realizzazione di un documento di Gap Analysis dove verranno dettagliate le varie features mappate, le assenti (quindi limitanti) e le desiderate (al fine di permettere l’identificazione dei punti prioritari su cui investire/lavorare).
6. Ambiti di applicazione, case studies e vantaggi
Ecco qualche caso reale di applicazione dei Business Analytics in alcuni settori industriali:
• In ambito Automotive, l’applicazione di sales analytics ci ha permesso di creare di un modello predittivo per stimare il valore residuo delle auto usate, identificando le variabili esogene ed endogene che lo influenzano. Conoscendo l’effetto di tali variabili sul futuro calo del valore residuo, è possibile infatti monitorarle ed agire tempestivamente per influenzare la curva di svalutazione. Per farlo, abbiamo preso in considerazione dati di produzione, informazioni di vendita provenienti dai dealer a livello mondo, informazioni macroeconomiche e caratteristiche delle vetture.
• Svariati sono i casi d’uso dei business analytics nel settore Banking.
Non solo è possibile realizzare e industrializzare modelli analitici dedicati a migliorare la proposizione alla clientela e la valutazione del potenziale di acquisto di prodotti finanziari, ma attraverso i marketing analytics è possibile fare una stima del patrimonio presso terzi, fare una segmentazione comportamentale della clientela, la profilazione Marketing, del Next Best Product e della probabilità di Churn.
Per un’altra importante realtà del settore, abbiamo inoltre sviluppato una proposition in ottica «as a Service» per l’automatizzazione del processo di controllo e verifica dei contratti stipulati attraverso i contact center telefonici, avvalendoci di tecniche di speech to text. A partire dal testo trascritto, l’algoritmo effettua il controllo automatico dell’aderenza della conversazione con la procedura contrattuale indicata in input, attraverso tecniche di custom entities recognition e pattern matching così da ottenere il livello di aderenza alla procedura contrattuale.
Un altro aspetto di grande attenzione per le aziende del settore bancario riguarda le persone che ne fanno parte: grazie all’applicazione dei cosiddetti people analytics, abbiamo progettato e sviluppato modelli dedicati a valutare possibili scenari di riallocazione del personale e i possibili assetti organizzativi. Li abbiamo ottenuti tenendo in considerazione criteri come esuberi, competenze del personale, costi gestionali, geolocalizzazione, work-life balance, vincoli contrattuali. Inoltre, abbiamo sviluppato dashboard interattive per l’analisi e la comparazione dei risultati di simulazione.
• La previsione delle vendite dei prodotti prima del lancio di nuove collezioni a supporto delle decisioni del business è centrale nel Fashion Luxury: per un’azienda leader internazionale del settore, i business analytics si sono rivelati decisivi per analizzare le relazioni che intercorrono tra le caratteristiche dei prodotti e la quantità ordinate di ciascun prodotto nelle diverse aree geografiche e nei canali distributivi su cui il cliente opera, allo scopo di comprendere quali fattori hanno influenzato maggiormente la domanda nel passato. Dopodiché, abbiamo calcolato una previsione di vendita a livello di singolo prodotto partendo dagli attributi in anagrafica e dallo storico della quantità ordinate. L’output finale del progetto è una dashboard di supporto per i Business User che permette di visualizzare i risultati generati dall’algoritmo e gli attributi dei prodotti che hanno influenzato maggiormente la previsione.
• Grazie a healthcare analytics e location analytics, abbiamo affiancato Regione Emilia Romagna nell’ottimizzazione del supporto territoriale fornito dalle strutture sanitarie ai pazienti, attraverso una comprensione geografica degli aspetti epidemiologici e del contesto socioeconomico di riferimento. Il Sistema ha dato alla Direzione Sanitaria la possibilità, attraverso simulazioni, di valutare la più efficace distribuzione sul territorio dei presidi sanitari e la loro calibrazione rispetto alle necessità dei pazienti.
Nell’ambito Healthcare, abbiamo inoltre applicato tecniche di image recognition e object detection per identificare la presenza e la posizione delle persone all’interno delle zone d’attesa e di triage di CeMeDi, centro medico di riferimento torinese. Il sistema si occupa di salvare in near realtime i dati provenienti dalle telecamere installate all’interno del centro per poter calcolare on the fly la distanza tra le persone all’interno dell’immagine inquadrata attraverso matrici di omografia. I dati raccolti permettono di generare notifiche di allerta realtime nel caso in cui non venissero rispettate le distanze di sicurezza, fondamentali in periodi pandemici, e di raccogliere i dati a fini analitici e di indoor analysis. I dati trattati sono totalmente anonimizzati poiché le immagini vengono utilizzate solo temporaneamente al fine di generare il dato utile alle analisi e poi eliminate definitivamente.
• Utilizzando tecniche di image recognition e object detection abbiamo creato anche numerosi prototipi per l’Industria Manifatturiera e Industria 4.0. L’obiettivo è supportare i processi di fabbrica che non possono essere monitorati attraverso sensoristica o altri classici strumenti di raccolta dati: dall’identificazione di presenza e posizione di materiale grezzo in area di stoccaggio pre-linea di produzione alla generazione di segnali allerta dati dal riconoscimento di anomalie sulla linea produttiva fino all’automatizzazione di processi manuali di riconoscimento di anomalie sul prodotto (shaerografia).
In ambito Manufacturing, è inoltre fondamentale puntare al costante miglioramento dei processi di approvvigionamento, produzione, distribuzione e vendita. A questo proposito, grazie all’applicazione dei supply chain analytics, abbiamo sviluppato un sistema di demand forecasting in grado di stimare l’evoluzione futura della domanda di acciaio e suggerire i volumi mensili da realizzare per ciascun articolo. Partendo da dati storici, la soluzione industrializzata si avvale di tecniche di predictive analytics e fornisce previsioni aggiornate quotidianamente, calcolando automaticamente la domanda degli articoli per ogni combinazione di società, magazzino e fornitore.
• Nell’ambito delle Telecomunicazioni, abbiamo supportato un’importante azienda nell’individuazione delle tematiche trattate dai propri clienti nelle indagini di customer satisfaction attraverso un modello di clustering: applicato a testi brevi (SMS), utilizza un approccio statistico basato sulla frequenza delle co-occorrenze tra le parole. Utilizzando il linguaggio R, il modello è un adattamento dell’algoritmo “Chinese Whispers“. Attualmente si sta valutando di evolvere l’approccio attuale per permettere una più accurata individuazione delle tematiche trattate utilizzando algoritmi di Natural Language Processing.
• Per la Pubblica Amministrazione è fondamentale migliorare l’esperienza utente. Per farlo, abbiamo supportato un ente PA nell’ indirizzare direttamente gli utenti sulle Q&A in essere e trovare una soluzione già censita o diversamente indirizzare le richieste irrisolte indirizzandole direttamente al Gruppo di Lavoro responsabile della specifica area applicative o di processo. Abbiamo inoltre realizzato un chatbot per permettere ai cittadini di avere una interazione semplificata.
Abbiamo recentemente supportato la Pubblica Amministrazione anche attraverso l’applicazione di epidemiology analytics e social impact analytics, progettando e costruendo un vero Data Science lab end-to-end tramite cui gli utenti possono accedere ai dati, analizzarli, costruire modelli e rilasciarli in produzione. Il Data Lab in particolare è stato utilizzato per sviluppare un sistema di allarmistica epidemiologica basato su modelli statistici e di machine learning. Abbiamo infatti definito le pipeline per l’addestramento di modelli supervisionati e non supervisionati per l’individuazione di focolai epidemiologici a partire da dati storici.
• Nel mondo dei Servizi, oggi la sicurezza è un tema di centrale importanza. In questo contesto il CERT di Poste Italiane, ovvero la divisione di Tutela Aziendale, si è rivolto a noi per capire come raccogliere informazioni provenienti da oltre 100 sistemi informatici diversi, con migliaia di flussi batch e real-time, e comprendere il livello di servizio con cui l’organizzazione risponde alle varie minacce. Per rispondere a questa sfida abbiamo risposto con fraud analytics e cyber analytics, e progettato un Data Lake capace di integrare, su un’unica piattaforma, le numerose sorgenti e silos informativi collegati ad aspetti di sicurezza, definendo in parallelo modalità di data mapping delle sorgenti informative e delle politiche di Data Governance. Per individuare le situazioni anomale all’interno dei fenomeni sotto osservazione, sono stati costruiti algoritmi in grado di segnalare anomalie alle funzioni aziendali competenti per le verifiche del caso per tenere sotto controllo fenomeno quali Data Breach e utilizzi atipici delle diverse applicazioni digitali.
Marco Mantovani, Senior Manager