
Innovation sparks
Il dilemma della fiducia nell'Intelligenza Artificiale: quando la percezione si scontra con la realtà
Il rerport "Data and AI Impact Report: The Trust Imperative" esamina approfonditamente lo stato globale dell'Intelligenza Artificiale (AI) e sottolinea come la fiducia sia un imperativo fondamentale per sbloccarne il pieno potenziale e l'impatto economico sostenibile.
Tempo di lettura: 5 min
Il paradosso dell'AI: fiducia alta, affidabilità bassa
Immaginate di trovarvi davanti a un sistema di intelligenza artificiale che dialoga con naturalezza, risponde alle vostre domande e sembra comprendere perfettamente ciò che cercate. La vostra reazione istintiva è probabilmente fidarvi. Eppure, questa fiducia potrebbe essere mal riposta. È proprio questa contraddizione che emerge dal rapporto globale condotto da IDC per SAS nel settembre 2025, intitolato "Data and AI Impact Report: The Trust Imperative".
Lo studio, che ha coinvolto 2.375 decisori aziendali in tutto il mondo, rivela un divario preoccupante tra quanto le organizzazioni dichiarano di fidarsi dell'intelligenza artificiale e quanto effettivamente investono per renderla davvero affidabile. Il 78% delle organizzazioni dichiara di avere piena fiducia nell'AI, ma solo il 40% mostra livelli avanzati di investimento in pratiche che la rendono effettivamente affidabile. Questo disallineamento, definito dal rapporto come "trust dilemma", rappresenta oggi uno dei principali ostacoli alla piena realizzazione del potenziale dell'AI.
IDC ha sviluppato due metriche innovative per misurare questo fenomeno. Il "Trustworthy AI Index" valuta quanto un'organizzazione abbia investito in governance, etica, trasparenza e pratiche responsabili. L'"AI Impact Index" cattura invece il valore tangibile ottenuto dagli investimenti in AI, aggregando produttività, innovazione, esperienza del cliente ed efficienza operativa.
L'incrocio di questi due indici rivela una realtà scomoda: solo il 9% delle organizzazioni globali si colloca nel quadrante ideale, dove alta fiducia si combina con alta affidabilità. Il 45% finisce nel quadrante dei ritardatari, con bassa fiducia e bassa affidabilità. Ma il dato più allarmante riguarda il 46% complessivo che manifesta il dilemma vero e proprio: l'11% sottoutilizza sistemi affidabili per scarsa fiducia, mentre ben il 35% mostra sovra-fiducia in sistemi non ancora completamente affidabili.
Come sottolinea Chris Marshall, Vice President di IDC, "questo disallineamento lascia molto del potenziale dell'AI non sfruttato, con un ROI inferiore dove manca l'affidabilità". E non è solo una questione filosofica: le organizzazioni con significativo disallineamento vedono ritorni economici notevolmente inferiori rispetto a quelle che hanno risolto il dilemma.
L'inganno dell'AI generativa: più umana, più fidata, meno affidabile
Uno degli aspetti più sorprendenti emersi dalla ricerca riguarda il diverso livello di fiducia accordato alle varie forme di intelligenza artificiale. Tra le organizzazioni che ottengono punteggi bassi nell'indice di affidabilità, la fiducia nell'AI generativa è del 200% superiore rispetto alla fiducia nel machine learning tradizionale. Questo è paradossale perché il machine learning tradizionale è matematicamente spiegabile, trasparente e ha un track record di affidabilità molto più lungo.
La spiegazione risiede in un bias cognitivo profondo: tendiamo a fidarci di tecnologie che si comportano in modi simili a noi. L'AI generativa, con la sua capacità di produrre testi fluidi e conversazioni naturali, crea un'illusione di comprensione che genera fiducia istintiva. Come osserva il rapporto, "più un'AI sembra umana, più ci fidiamo di essa, indipendentemente dalla sua reale affidabilità".
Eppure, le stesse organizzazioni che dichiarano alta fiducia nell'AI generativa esprimono preoccupazioni elevate riguardo alla privacy dei dati (62%), alla trasparenza (57%) e all'uso etico (56%). Questa contraddizione rivela che la fiducia è spesso guidata dall'utilità percepita piuttosto che da valutazioni rigorose dell'affidabilità.
Le fondamenta mancanti: i tre ostacoli principali
Il rapporto identifica con precisione cosa impedisce alle organizzazioni di costruire un’AI davvero affidabile.
- Il 49% cita ambienti di dati cloud non ottimizzati come sfida principale, con dati frammentati tra sistemi che rendono difficile costruire pipeline coerenti.
- Il 44% indica l'insufficiente governance dei dati, fondamentale per garantire qualità, sicurezza e conformità.
- Il 41% segnala la carenza di specialisti qualificati, non solo tecnici ma anche figure con expertise in etica dell'AI e gestione del rischio.
Neil Ward-Dutton di IDC sottolinea che "i casi d'uso più avanzati, dal rilevamento delle frodi alla sanità personalizzata, hanno successo solo quando sono alimentati da dati di alta qualità e ben governati". Le differenze settoriali sono significative: nel banking la governance è citata dal 44,6%, nelle assicurazioni sia governance che centralizzazione dati raggiungono il 51,4%, nelle life sciences la centralizzazione tocca il 56,4%, mentre nel settore pubblico raggiunge il 57,6%.
L'impatto economico: gli obiettivi strategici battono la riduzione costi
Il rapporto dimostra che le organizzazioni con obiettivi strategici ottengono ritorni significativamente superiori: migliorare l'esperienza del cliente genera 1,83 dollari per ogni dollaro investito; espandere la quota di mercato 1,74; migliorare la resilienza aziendale 1,71. Al contrario, il risparmio di costi genera solo 1,54 dollari per dollaro investito, il ROI più basso tra tutti gli obiettivi.
Questo contrasta con la percezione comune che vede nell'AI principalmente uno strumento di risparmio. Le organizzazioni più mature (oltre otto anni di esperienza) si concentrano su efficienza dei processi (64%) e miglioramento del decision-making (60%), mentre quelle più giovani puntano sulla produttività personale (57%), ottenendo ritorni inferiori.
Verso l'AI agentica: la prossima frontiera amplifica le sfide
L'AI agentica, sistemi autonomi che prendono decisioni in ambienti dinamici, è già adottata dal 52% delle organizzazioni globali. Tuttavia, il rapporto avverte che "il progresso dell'AI agentica probabilmente si arresterà quando si confronta con ambienti di dati non ottimizzati, scarsa governance o carenze di talento". L'AI quantistica, ancora più speculativa, vede il 30% delle organizzazioni che dichiara di utilizzarla e il 25% di fidarsi, percentuali sorprendentemente alte dato che la tecnologia è ancora largamente sperimentale. Come osserva il rapporto, "l'AI quantistica sta guadagnando fiducia più velocemente di quanto stia guadagnando comprensione".
La risposta delle organizzazioni: investimenti diseguali
A livello globale, il 58% delle organizzazioni pianifica aumenti moderati negli investimenti in AI affidabile, mentre il 25% prevede aumenti significativi. Le priorità sono chiare:
- il 56% pianifica di assumere o formare esperti in etica dell'AI e compliance
- il 54% investe in piattaforme che incorporano principi di AI responsabile
- il 47% sviluppa capacità tecniche per spiegabilità e robustezza dei modelli
Tuttavia, esistono differenze significative tra settori: il banking mostra l'outlook più aggressivo con l'11,5% che prevede crescite superiori al 20%, mentre il mondo life science mostra le aspettative più conservative con oltre un terzo che anticipa solo cambiamenti limitati.
Lezioni dai leader e raccomandazioni strategiche
Le organizzazioni che hanno risolto il dilemma mostrano tre caratteristiche comuni: hanno investito pesantemente in governance dei dati fin dalle fasi iniziali, hanno prioritizzato la formazione di tutta l'organizzazione non solo di specialisti tecnici, e hanno adottato un approccio incrementale partendo da use case a basso rischio.
A livello geografico, l'Irlanda emerge come leader con un Trustworthy AI Index di 3,26 e un Impact Index di 4,06, seguita da Australia, Nuova Zelanda, Canada e Francia.
Come conclude Bryan Harris di SAS: "Per l'AI per raggiungere la sua prossima fase di crescita, deve essere radicata nel fornire ROI tangibile alle imprese. Questo richiede a tutti di superare il dilemma della fiducia".
Il messaggio è chiaro: la fiducia nell'AI non si dichiara, si costruisce attraverso investimenti concreti in governance, trasparenza, qualità dei dati e competenze. Solo così l'intelligenza artificiale potrà realizzare la sua promessa trasformativa.
“Data and AI Impact: The Trust Imperative"
Insights provided by IDC.
28 novembre 2025
Articoli consigliati
-
Innovation SparksDall’osservazione dei macchinari alla modellazione avanzata dei fenomeni: l’analisi dei processi produttivi di KMEMonitoraggio dei processi, modellazione avanzata e tracciabilità della carbon footprint: come KME garantisce una sostenibilità misurabile lungo la supply chain.
-
Innovation SparksComputer vision per città più inclusiva: il progetto “data for good” del team RationenceIl racconto di come è nata l’idea di costruire uno strumento basato sulla computer vision capace di individuare automaticamente le barriere architettoniche nelle città.
-
Innovation SparksEsplorare il potenziale nascosto nei dati: il viaggio del team Intesa Sanpaolo al SAS HackathonIn questa intervista, il team di Intesa Sanpaolo che ha partecipato all’hackathon racconta come è nato il progetto, quali sfide ha incontrato, e come, dietro l’analisi dei dati, ci sia stata soprattutto un’esperienza umana e professionale di crescita condivisa.
-
Innovation SparksPrevedere il futuro delle promozioni nella GDO: il progetto di Axiante al SAS HackathonIntervista a Mirko Gubian, Global Demand Senior Manager, Stefano Brambilla, Application Architect e Jedina Xure, Data Scientist di Axiante.



