Innovation sparks
Decisioni nel momento giusto e con le regole giuste in un virtuoso “infinity loop”
Inserire gli analytics in un processo decisionale non significa avere degli algoritmi che magicamente diventano la soluzione a tutti i problemi aziendali, piuttosto significa avere dei “dati che parlano” e aiutano a prendere decisioni guidate dalla realtà (e non dalle sensazioni personali).
La digital transformation arriva al business decisioning
Automatizzare le decisioni diventa la nuova frontiera degli analytics che escono dall’alveo IT e si innestano nelle organizzazioni aziendali.
Anche nelle organizzazioni più mature nel percorso di digital transformation, spesso gli analytics si “fermano” al fornire informazioni utili e conoscenza che però non vengono automatizzate e non si inseriscono nei processi decisionali, oggi ancora manuali e con il coinvolgimento frammentato di diverse persone lungo una catena non presidiata.
Il passaggio dagli analytics alla decisione è tuttora “one-off”: gli analytics producono informazioni che vengono lette e interpretate da qualcuno che deve prendere una decisione.
Oggi con architetture dati molto flessibili che consentono di fare analisi in real-time, il cloud che abilita l’analisi “at the edge” ed elimina le barriere del data warehouse, gli analytics possono arrivare in modo diretto alla decisione (in alcuni casi rendendola anche automatizzata).
Questi elementi, arricchiti con un principio di governance e trasparenza, permettono di creare un “infinity loop” dove analytics e business sono costantemente connessi, con un IT al centro che assume un ruolo critico e fondamentale nello sviluppo e, soprattutto, nella gestione e nel controllo delle performance dei modelli alla base degli analytics.
Portare gli analytics dentro le regole di business
Collegare gli analytics al business significa portare i processi decisionali dentro gli strumenti di analisi, portare cioè le regole di business dentro l’operazionalizzazione dei modelli matematici nei sistemi di analisi. In altre parole, gli analytics forniscono costantemente informazioni, queste alimentano costantemente le decisioni che, a loro volta, forniscono dati e informazioni che vanno ad arricchire ulteriormente gli analytics. Non ci sono più gli analytics da un lato e il business dall’altro; c’è un ciclo continuo e infinito di apprendimento alimentato da un circolo virtuoso di scambio di dati e informazioni.
Per alimentare questo “infinity loop”, come accennato, servono altri due ingredienti importanti:
- Governance: serve un principio di Governance degli analytics per fare in modo che “non sfuggano di mano”; il rischio di avere degli analytics incontrollati c’è, serve quindi un loro governo efficace.
- Trasparenza: interpretabilità e affidabilità dei dati (quindi delle informazioni, quindi delle decisioni) che devono basarsi su principi di trust per rendere affidabile e trasparente il processo di analisi e di decisione.
Tutti questi ingredienti, di fatto, ridefiniscono l’analytics lifecycle. Il ciclo di vita analitico “tradizionale” cambia e passa dall’essere lineare (preparare i dati, disegnare il modello di analisi, pubblicare il modello, monitorarne i risultati) all’essere un ciclo infinito dove il monitoraggio dei risultati si aggancia a una decisione che viene presa da un principio di business che permette agli analytics di aggiornarsi e che a sua volta alimenta e aggiorna la decisione.
Il business beneficia di nuove frontiere tecnologiche
L’"infinity loop” oggi è possibile
grazie alla tipologia di dati a
disposizione e alle nuove
tecnologie.
Questo “infinity loop” oggi diventa possibile e realizzabile, da un lato, grazie alla tipologia di dati che abbiamo a disposizione: moltissimi dati sono distribuiti e non c’è più bisogno di recuperarli e trasformarli per poterli utilizzare, possono alimentare le analisi anche “at the edge”, cioè rimanendo dove sono (“in periferia”, senza arrivare necessariamente al Data Center aziendale), e in qualsiasi forma destrutturata (questo grazie soprattutto al cloud); dall’altro, grazie a nuove tecnologie come machine learning e, più in generale, intelligenza artificiale e al supporto di nuovi strumenti come le GPU (Graphics Processing Unit, unità di elaborazione grafica/visiva), indispensabili nel trattamento e analisi di grandi moli di dati destrutturati (come immagini e video) in processi di machine e deep learning.
Di fatto, l’evoluzione architetturale in atto (abilitata per esempio da cloud e containers) rappresenta un forte acceleratore degli analytics di nuova generazione, basati su intelligenza artificiale e alimentati da innumerevoli risorse oggi disponibili ed accessibili facilmente via web (per esempio grazie a piattaforme open source o repository condivisi come GitHub).
Ecco perché diventa ancor più importante il principio di Governance per fare la cosiddetta ModelOps Management, la gestione dei modelli a tutto tondo, che non può esaurirsi con la semplice catalogazione di tutti i modelli presenti per “far girare” gli analytics, ma deve tener conto di tutto il ciclo di vita dei modelli stessi e dei processi che vanno a supportare. Soprattutto quando si tratta di regole e principi di business che determinano il processo decisionale e che sono inserite – anche a livello tecnologico – dentro quell’infinity loop la cui execution si basa su un principio di “continuous integration e continuous delivery”: dal punto di vista tecnologico non è più necessario “bloccare” i modelli, riscriverli e ripubblicarli. Ora è possibile integrare gli analytics, anche con nuove regole di business, rendendoli immediatamente disponibili all’interno di sistemi che già sono in produzione, e quindi in uso alle persone dell’azienda.
EBOOK
Le decisioni guidate dagli analytics sono più affidabili.
Scopri come integrare gli analytics nei tuoi processi decisionali.
Scarica l’ebook “Operationalizing Analytics" - What it is, why it matters and how to get started.
28 giugno 2021
Articoli consigliati
-
Innovation SparksDall’osservazione dei macchinari alla modellazione avanzata dei fenomeni: l’analisi dei processi produttivi di KMEMonitoraggio dei processi, modellazione avanzata e tracciabilità della carbon footprint: come KME garantisce una sostenibilità misurabile lungo la supply chain.
-
Innovation SparksComputer vision per città più inclusive: il progetto “data for good” del team RationenceIl racconto di come è nata l’idea di costruire uno strumento basato sulla computer vision capace di individuare automaticamente le barriere architettoniche nelle città.
-
Innovation SparksEsplorare il potenziale nascosto nei dati: il viaggio del team Intesa Sanpaolo al SAS HackathonIn questa intervista, il team di Intesa Sanpaolo che ha partecipato all’hackathon racconta come è nato il progetto, quali sfide ha incontrato, e come, dietro l’analisi dei dati, ci sia stata soprattutto un’esperienza umana e professionale di crescita condivisa.
-
Innovation SparksPrevedere il futuro delle promozioni nella GDO: il progetto di Axiante al SAS HackathonIntervista a Mirko Gubian, Global Demand Senior Manager, Stefano Brambilla, Application Architect e Jedina Xure, Data Scientist di Axiante.



