Innovation sparks
La nuova grammatica dell’innovazione: il coraggio di decidere, la responsabilità di governare
Dal settore sanitario a quello bancario, passando per le telecomunicazioni: un confronto costruttivo che racconta un’Italia che sperimenta, si interroga e prova a costruire un futuro digitale più consapevole.
Tempo di lettura: 5 min
In un’epoca in cui l’Intelligenza Artificiale ha smesso di essere soltanto un tema da convegno o una promessa da laboratorio, per diventare leva concreta di trasformazione dei modelli organizzativi, dei processi decisionali e delle relazioni tra persone e tecnologia, le imprese si trovano davanti a una sfida cruciale: come integrare l’AI nel quotidiano, senza perdere di vista la complessità che comporta.
L’AI non è (più) solo una questione tecnica. È un tema strategico, culturale, organizzativo. Implica scelte che riguardano non soltanto l’efficienza, ma anche la fiducia, la trasparenza, la qualità dei dati, il rispetto dei diritti fondamentali, la sostenibilità dei processi nel tempo. È, in altre parole, una tecnologia da governare — non solo da adottare.
Da qui nasce un confronto promosso da SAS per condividere approcci, dubbi, esperienze sul campo. L’AI è già dentro le organizzazioni: ora si tratta di imparare a metterla a terra — in modo responsabile, efficace, conforme a un quadro normativo in rapida evoluzione e, soprattutto, utile a creare valore reale.
Il filo conduttore? Capire non solo se si può fare qualcosa con l’AI, ma perché, come e con quali condizioni sia giusto farlo..
Un cambio di passo strategico
L’apertura del confronto è stata affidata a Stefano Turchetta, Director di Deloitte, che ha restituito un’immagine nitida della direzione che molte aziende, soprattutto nel settore finanziario, stanno prendendo: l’Intelligenza Artificiale non è più percepita come un’opportunità da esplorare a margine, ma come una leva strategica da integrare nel cuore della visione industriale.
Turchetta ha evidenziato come, nelle realtà più mature, si sia ormai superata la fase di sperimentazione isolata o “tattica”. Le aziende stanno costruendo programmi strutturati, capaci di collegare gli obiettivi industriali a iniziative concrete, con una chiara gerarchia di priorità. Questo approccio consente non solo di concentrare risorse sui casi d’uso a maggior impatto, ma anche di realizzare un’architettura tecnologica, organizzativa e normativa capace di reggere la complessità dell’AI: dalla governance alla messa in produzione dei modelli, fino alla loro manutenzione nel tempo.
Per avere successo con l'AI, serve una strategia che includa governance, organizzazione e competenze: non si può improvvisare. Stefano Turchetta Director, Deloitte
Un altro elemento chiave, secondo Turchetta, è la costruzione di un modello organizzativo chiaro. Che si tratti di un approccio centralizzato, distribuito o “hub & spoke”, è essenziale individuare un centro di responsabilità e coordinamento, che possa agire da motore della trasformazione. In questo scenario, l’AI è sì trasversale, ma non può funzionare senza una regia consapevole.
A completare il quadro, Petronilla Di Biase, Partner di EY, ha condiviso alcuni dati significativi emersi da una recente ricerca condotta in nove Paesi europei, coinvolgendo oltre 4.500 manager: in Italia, il 77% degli intervistati dichiara di aver già adottato strumenti di AI, ma il 37% denuncia un gap importante sul fronte delle competenze interne.
Il nodo, ha spiegato Di Biase, non è solo tecnologico, ma normativo e culturale. Con l’entrata in vigore dell’AI Act e delle sue implicazioni, le imprese si trovano a dover “tradurre” principi di alto livello, spesso generici, in regole concrete, integrate nei sistemi di compliance, privacy, sicurezza, ciclo di vita del software. Un processo che richiede un’elevata collaborazione tra funzioni diverse, e soprattutto la capacità di costruire un linguaggio comune tra discipline distinte.
Nel passaggio da regolazione a regolamento interno, da principio a pratica, si gioca buona parte della capacità delle imprese di costruire un rapporto sostenibile e affidabile con l’intelligenza artificiale.
Non si può governare ciò che non si comprende: formazione e multidisciplinarietà sono fondamentali. Petronilla Di Biase Partner, EY
Sanità, banche, telco: la voce delle imprese
Le testimonianze aziendali, provenienti da settori molto diversi tra loro, sono accomunate dalla necessità di portare l’intelligenza artificiale fuori dalle presentazioni e dentro i processi.
A rompere il ghiaccio è stata Ella Cocchi, Direttore dei Sistemi Informativi Aziendali di ASST Niguarda, che ha raccontato un progetto tanto ambizioso quanto emblematico: Niguarda è stato scelto come ospedale olimpico in vista delle Olimpiadi Milano-Cortina 2026. Un’infrastruttura sanitaria diffusa, che coinvolge quattro regioni e richiede un ecosistema digitale interoperabile, in grado di garantire una continuità di cura in tempo reale per atleti e delegazioni provenienti da oltre 80 Paesi.
In questo scenario, l’intelligenza artificiale diventa un alleato strategico: non solo per supportare decisioni cliniche rapide, ma anche per facilitare la comunicazione multilingua, standardizzare i protocolli e uniformare l’accesso ai dati su scala interregionale. Ma perché tutto ciò funzioni, ha ribadito Cocchi, serve una base solida: dati di qualità, standard condivisi e una governance chiara.
L’intelligenza artificiale ci aiuterà a parlare con pazienti di 80 Paesi diversi: la comunicazione è parte della cura. Ella Cocchi Direttore dei Sistemi Informativi Aziendali, ASST Niguarda
Dalla sanità pubblica a una visione più sistemica con Antonio Barone, CDO & Head of Digital Information Hub di ARIA, che ha ricordato come il vero nodo, oggi, sia l’integrazione del patrimonio informativo. Soprattutto nella pubblica amministrazione, dove non si può misurare il valore in termini di profitto, definire che cosa raccogliere, con quali criteri e per quale scopo è una scelta di senso e responsabilità.
Barone ha sottolineato che non basta raccogliere dati: bisogna saperli trasformare in informazione utile, leggibile e interoperabile, con una governance che non sia solo tecnica, ma anche culturale. Un lavoro sistemico che richiede collaborazione tra enti, università, centri di ricerca e aziende tecnologiche.
Non basta raccogliere dati: bisogna saperli trasformare in informazione utile, leggibile e interoperabile, con una governance che non sia solo tecnica, ma anche culturale. Antonio Barone CDO & Head of Digital Information Hub - ARIA
Anche il mondo bancario si confronta con sfide simili, ma con una pressione normativa ancora più stringente anche per effetto della sovrapposizione con altri regolamenti già in essere e specifici del settore dei servizi finanziari (es.: DORA).
Davide Masi, Head of Risk, Data and AI Applications di Banco BPM, ha spiegato come la l’introduzione della Generative AI abbia riacceso l’interesse verso un tema già proprio delle banche - quello dell’utilizzo dell’intelligenza artificiale come acceleratore dei propri processi - portandolo però su un terreno di più facile accessibilità da parte di tutti gli stakeholder, ma anche più insidioso. Se nelle precedenti wave di innovazione legate al Machine Learning / Advanced l’esperienza diretta nell’utilizzo di modelli e strumenti innovativi era limitata agli esperti di ambito (Risk Manager, Risk Modeler, Data Analyst, …), con l’AI Generativa tutti hanno confidenza con le potenzialità della nuova tecnologia e vi è un bias implicito in questo. Anche se l’utilizzo individuale di strumenti di AI Generativa è estremamente semplice e intuitiva, in realtà il passaggio dalla sperimentazione in ambiente laboratoriale all’effettiva messa a scala richiede rigore, scalabilità e consapevolezza dei rischi — sia in termini di privacy, che di bias (questa volta di modello), che di sostenibilità operativa.
Nel caso di Banco BPM, la banca ha scelto di centralizzare l’esecuzione della strategia AI in un competence center che funge da hub in ambito all’area CIO, strategia che a sua volta è definita dalle linee di business, dove il “sacro fuoco” del bisogno è più autentico e vivo. Il ruolo dell’hub è quello di agire da cabina di regia, facilitatore e aggregatore delle esigenze di business, garantendo uno sviluppo coerente e sinergico delle architetture innovative a supporto dell’utilizzo dell’AI in banca.
L’AI Generativa è un’innovazione divertente e potente, ma deve essere usata con consapevolezza e piena comprensione dei rischi che porta con sé. Davide Masi Head of Risk, Data and AI Applications - Banco BPM
Alessandro Magnino, Chief Strategy & Transformation Officer, Fastweb + Vodafone, ha invece condiviso l’approccio verso un ecosistema nazionale per l’IA Generativa: lo sviluppo di un large language model (LLM) proprietario ed una potenza computazionale interamente localizzata in Italia.
L’obiettivo? Offrire alle aziende e alla pubblica amministrazione una piattaforma AI personalizzabile, sicura, conforme alle normative europee. Una sfida, ha spiegato Magnino, che ha visto tutta l’organizzazione coinvolta attraverso un modello di governance capace di filtrare, valutare e orchestrare progetti in modo strutturato, tenendo conto non solo della fattibilità tecnica, ma anche dell’impatto giuridico, etico e organizzativo.
Oggi le aziende non vogliono sapere quanti parametri ha un modello, ma se è utile, sicuro e adattabile al proprio contesto. Alessandro Magnino Chief Strategy & Transformation Officer - Fastweb + Vodafone
Tre settori, tre contesti radicalmente diversi, ma una consapevolezza comune: per rendere l’AI una risorsa concreta e sostenibile, servono dati affidabili, regole condivise e una visione a lungo termine. Sperimentare sì, ma con consapevolezza, rigore e senso del limite.
2 luglio 2025
Articoli consigliati
-
Innovation SparksGovernare l’Intelligenza Artificiale nel settore pubblicoL’adozione dell’intelligenza artificiale (AI) nel settore pubblico si è finora limitata a sperimentazioni, senza tradursi in cambiamenti strutturali duraturi. Per una reale innovazione, è necessario un approccio integrato che coinvolga dati, governance, competenze e processi organizzativi.
-
Innovation SparksDall’alert alla conversazione: come Minority Reporters ripensa la verifica antifrodeUn agente vocale basato su AI che chiama proattivamente i clienti, nella loro lingua, per verificare transazioni sospette, indagare su possibili tentativi di frode e attivare immediatamente misure di protezione.
-
Innovation SparksDall’osservazione dei macchinari alla modellazione avanzata dei fenomeni: l’analisi dei processi produttivi di KMEMonitoraggio dei processi, modellazione avanzata e tracciabilità della carbon footprint: come KME garantisce una sostenibilità misurabile lungo la supply chain.
-
Innovation SparksComputer vision per città più inclusive: il progetto “data for good” del team RationenceIl racconto di come è nata l’idea di costruire uno strumento basato sulla computer vision capace di individuare automaticamente le barriere architettoniche nelle città.



