Innovation sparks
Oltre la “polvere di stelle” dell’AI: ripensare il Credit Decisioning tra complessità, governance e nuovi paradigmi intelligenti
Articolo di Alida Popescu, Customer Advisory Manager, Risk Practice - SAS
Tempo di lettura: 5 min
Viviamo un tempo che impone nuove domande e nuovi strumenti. Il settore bancario si muove in un contesto sempre più complesso e mutevole, fatto di incertezza geopolitica, instabilità macroeconomica, accelerazione tecnologica e nuove pressioni normative. In mezzo a tutto questo, le istituzioni finanziarie sono chiamate non solo a innovare, ma a farlo con discernimento, rigore e visione. Soprattutto in un ambito delicato come quello delle decisioni di credito.
Negli ultimi anni si è parlato molto - forse troppo - di intelligenza artificiale, spesso raccontata come la bacchetta magica capace di risolvere ogni inefficienza. Ma l’AI non è “polvere di stelle” da spargere a caso nei processi bancari per risolvere problemi strutturali. È, al contrario, una tecnologia che può abilitare trasformazioni profonde se integrata con criterio, consapevolezza e attenzione alle sue implicazioni pratiche ed etiche.
La rivoluzione silenziosa dei dati
Le banche hanno avviato processi di digitalizzazione importanti, ma molte operano ancora con strumenti monolitici che rendono difficile l'implementazione rapida di modifiche strategiche. Quando l'inflazione accelera o i tassi di interesse subiscono variazioni improvvise, l'effetto a cascata sul portafoglio creditizio richiede una capacità di reazione che gli attuali sistemi spesso non sono in grado di garantire.
Parallelamente, l'entrata in vigore dell'AI Act europeo ha introdotto nuovi livelli di complessità. Dopo anni di discussioni, questa normativa obbliga ora le banche a classificare, monitorare e validare i modelli di intelligenza artificiale secondo principi rigorosi di trasparenza e controllo dei bias. Una sfida particolare emerge proprio nella validazione dei modelli di AI Generativa: come si valuta l'affidabilità di un sistema che per sua natura potrebbe generare contenuti sempre diversi?
La vera promessa dell'AI agentica nel credit decisioning non sta nell'automazione totale, ma nella capacità di supportare e migliorare le decisioni umane nei contesti più complessi e sensibili. È una tecnologia che, se ben governata, può trasformare radicalmente i processi bancari mantenendo la fiducia come bene prezioso. Alida Popescu Customer Advisory Manager, Risk Practice SAS
Oltre il mito della polvere di stelle
Troppo spesso l'intelligenza artificiale viene presentata come una soluzione miracolosa, una sorta di "polvere di stelle" da cospargere sui processi bancari per risolvere magicamente tutti i problemi. Questa visione è non solo semplicistica, ma potenzialmente pericolosa.
Prendiamo un esempio concreto: l'utilizzo di un modello linguistico per valutare l'approvazione di un prestito. Anche con prompt accuratamente formulati che insistono sull'importanza di decisioni eque rispetto a razza, genere ed età, il rischio di bias rimane elevato. Il problema non risiede nella qualità del prompting, per quanto sofisticato, ma nella necessità di eliminare i pregiudizi a monte, a livello di dataset, e di considerare che i modelli tendono naturalmente a deteriorarsi nel tempo e quindi la funzione di validazione assume un ruolo sempre più centrale
Attualmente, nessuna banca utilizza modelli linguistici per approvare crediti in autonomia, e per buone ragioni. La strada più promettente sembra essere quella di un approccio ibrido: l'AI può supportare la strutturazione e l'automazione del processo di credito, mentre la decisione del merito creditizio continua a basarsi su modelli tradizionali come la regressione logistica, preferita per la sua spiegabilità anche quando presenta performance inferiori rispetto a reti neurali più complesse ma meno trasparenti.
Dall'AI generativa all'AI agentica: un cambio di paradigma
Il settore sta già evolvendo verso quello che potremmo definire la prossima frontiera: l'intelligenza artificiale agentica. A differenza dell'AI generativa, ottima per alcuni ambiti come la creazione di contenuti, oppure nella ricerca e la sintesi documentale, ma inadatta per decisioni che richiedono consistenza e assenza di "invenzioni", l'AI agentica (Agentic AI) orchestra sistemi, prende decisioni e collabora con gli esseri umani in modi più sofisticati.
Questo approccio si articola lungo un continuum tra due estremi. Da una parte abbiamo agenti "human out of the loop", che agiscono autonomamente: pensiamo a sistemi che rilevano e bloccano transazioni fraudolente in tempo reale, con successiva revisione dei falsi positivi. Dall'altra parte troviamo agenti "human in the loop", che coinvolgono l'operatore nelle fasi critiche: questi sistemi analizzano le transazioni, arricchiscono il contesto recuperando dati aggiuntivi dai sistemi bancari, calcolano punteggi di rischio compositi e riassumono le informazioni per facilitare la valutazione umana.
L’AI agentica rappresenta una fase nuova, in cui gli “agenti” intelligenti non si limitano a produrre contenuti, ma sono in grado di orchestrare flussi decisionali, imparare dal feedback e collaborare con l’essere umano.
Nel nostro lavoro abbiamo sviluppato e integrato un motore decisionale che fonde approcci classici (modelli statistici tradizionali) con strumenti più avanzati di AI, mantenendo sempre centrale l’interfaccia umana e la trasparenza. Questo motore permette, ad esempio, a un analista di simulare l’impatto di una variazione di tasso, modificarla tramite un’interfaccia grafica senza scrivere codice o chiedere aiuto all’IT, e vedere subito l’effetto che questo ha sul portafoglio crediti.
La trasparenza come pilastro fondamentale
Ma come si garantisce governance e responsabilità in questi sistemi più complessi? La risposta sta nell'orchestrazione trasparente delle tecnologie coinvolte. Immaginiamo di trovarci davanti al rifiuto di un prestito per un cliente VIP con uno storico impeccabile: un agente intelligente può rapidamente riassumere le motivazioni recuperandole dai risultati del motore decisionale, fornire collegamenti alle "model card" che descrivono lo stato di salute del modello utilizzato, e aiutare a ripercorrere l'intero flusso decisionale.
Tutti questi elementi vengono documentati in report dettagliati, disponibili anche in formato PDF per revisioni di audit. Il grado di automazione può essere "tarato" in base alle esigenze: si può definire fino a che punto l'agente può procedere autonomamente e quando deve fermarsi per richiedere l'intervento umano, magari solo a fronte di specifici alert o alla prima anomalia rilevata.
Privacy e gestione dei dati sensibili
Un aspetto cruciale, spesso sottovalutato, riguarda la gestione dei dati sensibili. Prima di inviare informazioni a un agente o a un modello linguistico, è fondamentale implementare processi di anonimizzazione e controllo dei bias. Questo può richiedere verifiche multiple e iterative: se persistono segnali di parzialità, il caso deve essere sottoposto a revisione umana.
Le implicazioni normative sono significative: il GDPR e altre regolamentazioni sulla privacy pongono sfide importanti nell'applicazione di questi sistemi, con questioni ancora aperte su come queste normative si applichino agli agenti AI.
Dalla sperimentazione alla scala industriale
Attualmente, le banche si trovano in una fase di intensa sperimentazione, soprattutto negli ambiti di risk management. Tuttavia, poche soluzioni sono state portate a scala industriale. La ragione è semplice ma fondamentale: una cosa è far funzionare un prototipo in laboratorio, tutt'altra cosa è garantire coerenza, tracciabilità e robustezza in un ambiente enterprise con volumi di transazioni reali.
La sfida principale non risiede nell'utilizzo del modello AI in sé - il mercato offre diverse opzioni, anche di nicchia - ma nell'integrazione di questi modelli nei sistemi decisionali bancari esistenti, mantenendo accuratezza, robustezza e trasparenza. Non importa se il codice è scritto in SAS o Python; ciò che conta è la capacità di rilasciare soluzioni in un ambiente governabile e tracciabile.
Verso un'Intelligenza Artificiale matura
La vera promessa dell'AI agentica nel credit decisioning non sta nell'automazione totale, ma nella capacità di supportare e migliorare le decisioni umane nei contesti più complessi e sensibili. È una tecnologia che, se ben governata, può trasformare radicalmente i processi bancari mantenendo la fiducia come bene prezioso.
In un'epoca dove ogni decisione creditizia può avere impatti significativi sulla vita delle persone e delle imprese, l'intelligenza artificiale non può essere adottata con leggerezza. Deve essere progettata per essere responsabile, tracciabile e centrata sull'uomo. Solo così sarà possibile coglierne appieno i benefici, minimizzando rischi e conseguenze indesiderate.
Il futuro del credit decisioning potenziato da AI non sarà caratterizzato dalla sostituzione dell'elemento umano, ma dalla sua amplificazione attraverso strumenti sempre più sofisticati e affidabili. Una partnership tra intelligenza umana e artificiale che, se ben orchestrata, può aprire nuove possibilità di inclusione finanziaria e di gestione responsabile del rischio.
Leggi il report “Transforming Risk Management” realizzato in collaborazione con FT Longitude.
Basato su insight provenienti da 300 banche globali, il report esplora la trasformazione del risk management, dalla revisione dei modelli di rischio all'integrazione delle strategie di dati e AI.
25 agosto 2025
Articoli consigliati
-
Innovation SparksDall’osservazione dei macchinari alla modellazione avanzata dei fenomeni: l’analisi dei processi produttivi di KMEMonitoraggio dei processi, modellazione avanzata e tracciabilità della carbon footprint: come KME garantisce una sostenibilità misurabile lungo la supply chain.
-
Innovation SparksComputer vision per città più inclusive: il progetto “data for good” del team RationenceIl racconto di come è nata l’idea di costruire uno strumento basato sulla computer vision capace di individuare automaticamente le barriere architettoniche nelle città.
-
Innovation SparksEsplorare il potenziale nascosto nei dati: il viaggio del team Intesa Sanpaolo al SAS HackathonIn questa intervista, il team di Intesa Sanpaolo che ha partecipato all’hackathon racconta come è nato il progetto, quali sfide ha incontrato, e come, dietro l’analisi dei dati, ci sia stata soprattutto un’esperienza umana e professionale di crescita condivisa.
-
Innovation SparksPrevedere il futuro delle promozioni nella GDO: il progetto di Axiante al SAS HackathonIntervista a Mirko Gubian, Global Demand Senior Manager, Stefano Brambilla, Application Architect e Jedina Xure, Data Scientist di Axiante.



