
Innovation sparks
SAS Retrieval Agent Manager (RAM): la GenAI per valorizzare la conoscenza aziendale nascosta
SAS RAM è una soluzione enterprise-grade di GenAI, progettata per trasformare l’informazione aziendale in conoscenza operativa, con un approccio no-code, on-premise e sicuro by design
Daniele Cazzari, Responsabile Innovazione e Engineering, Industrial IoT - SAS
Tempo di lettura: 5 min
Oltre l’80% dei dati aziendali è costituito da contenuti non strutturati (documenti, e-mail, immagini, report, note operative, ecc.) e cresce a ritmi che superano il 50% annuo. Una quantità immensa di informazioni che rappresenta, allo stesso tempo, una straordinaria opportunità e una sfida: come rendere accessibile e utile questa conoscenza dispersa, in modo sicuro e scalabile?
Da questa domanda nasce SAS® Retrieval Agent Manager (RAM), la nuova metodologia che ho sviluppato insieme al mio team nel gruppo Industrial IoT & Innovation per consentire alle organizzazioni di connettere in modo diretto e governato la propria conoscenza interna ai modelli linguistici di intelligenza artificiale.
La GenAI in azienda
Quando parliamo di intelligenza artificiale generativa in contesti aziendali, ci troviamo di fronte a una sfida che va ben oltre l'aspetto puramente tecnologico. Creare un prototipo funzionante è relativamente semplice: bastano poche righe di codice per interrogare un modello linguistico e ottenere risposte sorprendenti. Ma portare quella stessa capacità in produzione, rendendola affidabile, sicura e governabile, richiede un cambio di paradigma nell'approccio progettuale.
Con SAS Retrieval Agent Manager abbiamo voluto spostare l’intelligenza artificiale dal piano sperimentale a quello infrastrutturale. La GenAI, in questa visione, non è un “tool da laboratorio”,
ma un motore di conoscenza capace di aumentare la produttività
e la qualità delle decisioni. Daniele Cazzari Responsabile Innovazione e Engineering, Industrial IoT SAS
Il fenomeno delle allucinazioni rappresenta l'esempio più emblematico di questa complessità. I modelli linguistici possiedono una straordinaria capacità di comprendere e generare linguaggio naturale, ma sono intrinsecamente probabilistici: producono output basandosi su pattern statistici appresi durante il training, senza una reale comprensione semantica del contenuto. Quando chiediamo loro informazioni che non possiedono o che non riescono a recuperare correttamente, generano risposte plausibili nella forma ma potenzialmente errate nella sostanza.
Per un'organizzazione che intende utilizzare l'intelligenza artificiale in processi decisionali critici, questo non è accettabile.
Il Retrieval Augmented Generation (RAG): l’approccio metodologico per avere risposte sicure
La tecnica del Retrieval Augmented Generation (RAG) rappresenta oggi lo standard de facto per ancorare le capacità generative dei modelli linguistici a fonti informative controllate e verificabili.
Il principio è elegante nella sua semplicità: invece di affidarsi esclusivamente alla conoscenza parametrica del modello, si arricchisce il prompt con informazioni rilevanti recuperate da una base documentale aziendale al momento della query. Questo approccio trasforma radicalmente l'affidabilità del sistema. Non stiamo più chiedendo al modello di “sapere” qualcosa, ma di “ragionare” su informazioni che gli vengono esplicitamente fornite. La distinzione può sembrare sottile, ma è fondamentale: spostiamo la responsabilità della correttezza fattuale dalla memoria del modello alla qualità del sistema di recupero documentale.
È fondamentale comprendere che il RAG non è una singola tecnologia, ma un approccio: un processo che consente a un LLM di “recuperare” informazioni da una base di conoscenza privata prima di generare una risposta.
Il problema? Le implementazioni RAG tradizionali sono complesse, inefficienti e “code-heavy”. Richiedono team specializzati che, di fatto, sono costretti a “reinventare la ruota” per ogni progetto, gestendo manualmente l'integrazione di database vettoriali, modelli di embedding e motori OCR, con risultati spesso incostanti.
Come team di Innovazione e Engineering in SAS, ci siamo confrontati direttamente con questa sfida. Partendo dalle esigenze concrete dei clienti (come la gestione di vaste librerie di manuali di manutenzione, solo per citare un esempio) abbiamo sviluppato una soluzione, SAS Retrieval Agent Manager (RAM), nata per industrializzare e democratizzare questo processo.
RAG, ma senza codice
Il cuore tecnologico della piattaforma è il framework Retrieval Augmented Generation, come accennato un approccio che permette all’intelligenza artificiale di generare risposte basate su conoscenze proprietarie, senza incorporare i dati aziendali nel modello.
In pratica, l’AI “recupera” le informazioni pertinenti da una base documentale (vector database), le elabora tramite modelli linguistici di grandi dimensioni (LLM) e restituisce una risposta contestuale, eliminando i dati transazionali una volta conclusa l’interazione.
L’intero processo è no-code: ogni configurazione avviene tramite flag e slider. Le uniche porzioni di codice sono riservate agli agenti, ossia le automazioni intelligenti che interagiscono con la conoscenza per generare azioni o flussi personalizzati.
L'obiettivo primario di SAS RAM è astrarre la complessità tecnologica. Abbiamo ingegnerizzato una piattaforma che offre un approccio no-code guidato da un'interfaccia utente che rende la creazione di pipeline RAG accessibile anche a profili di business, non solo ai data scientist.
Questo non significa banalizzare il processo, ma renderlo governabile. La piattaforma gestisce nativamente l'integrazione dei componenti necessari:
- Ingestione e OCR: supportiamo l'importazione da molteplici fonti e integriamo motori OCR come Tesseract e PaddleOCR per gestire PDF scansionati o immagini, gestendo anche la complessità dell'estrazione di tabelle;
- Sperimentazione: l'utente può sperimentare diverse configurazioni (ad esempio diversi modelli di embedding o settaggi OCR) e valutare quale "campione" performa meglio sui propri dati specifici, tramite valutazioni manuali o automatiche (Ragas);
- Integrazione: uno degli elementi chiave di SAS Retrieval Agent Manager è la capacità di funzionare completamente on-premise, in ambienti totalmente isolati da Internet, un requisito cruciale per settori regolamentati. La piattaforma supporta inoltre configurazioni cloud e ibride con integrazione di diversi framework LLM on-premise e compatibilità con database vettoriali.
Sicurezza e Governance
Per qualunque organizzazione la sicurezza dei dati privati è un imperativo non negoziabile. Gli LLM tradizionali sono addestrati su dati pubblici, mentre SAS Retrieval Agent Manager è una soluzione sviluppata in chiave “security by design”.
Innanzitutto, la nostra soluzione non utilizza i dati aziendali per addestrare o fare fine-tuning dei LLM. I dati restano separati. Vengono passati al modello solo in modo transazionale, al momento della richiesta, per generare la risposta e poi eliminati, senza essere incorporati.
Inoltre, come evidenziato, la piattaforma è stata progettata per funzionare anche in modalità totalmente on-premise, isolata da Internet. Questo garantisce che i dati sensibili non lascino mai il perimetro aziendale.
Infine, abbiamo introdotto il concetto di "Collezioni". Ogni collezione (un set di documenti omogenei, ad esempio i manuali di una specifica linea produttiva o di un particolare macchinario) è un'entità atomica con permessi di sicurezza unici e indipendenti (se un utente non ha accesso a una collezione, il sistema non restituisce alcuna informazione).
Con Retrieval Agent Manager abbiamo voluto spostare l’intelligenza artificiale dal piano sperimentale a quello infrastrutturale.
La GenAI, in questa visione, non è un “tool da laboratorio”, ma un motore di conoscenza capace di aumentare la produttività e la qualità delle decisioni.
Non serve più scrivere codice o costruire pipeline complesse: serve comprendere i propri dati, organizzarli in modo coerente e lasciare che l’AI lavori in sinergia con essi.
Dietro SAS Retrieval Agent Manager c’è la consueta potenza analitica di SAS e l’esperienza maturata in oltre quarant’anni nel governo del dato. Ma la vera innovazione è nel modello di fruizione: accessibile, scalabile, sicuro.
Casi d’uso... più di quanti se ne possano immaginare
Le applicazioni di SAS Retrieval Agent Manager attraversano i principali settori industriali e di servizio:
- Manufacturing: dall’analisi predittiva dei guasti alla generazione automatica di piani di intervento e manutenzione, RAM estende il valore dei sistemi di predictive maintenance già consolidati da SAS, collegando i segnali IoT con la documentazione tecnica;
- Healthcare: medici e operatori sanitari possono interrogare la base dati per recuperare in pochi secondi la storia di un paziente o confrontare i sintomi con protocolli standard, mantenendo i dati clinici all’interno dell’infrastruttura aziendale;
- Financial services: team antifrode e compliance possono individuare rapidamente pattern sospetti, recuperare normative, policy o modelli di rischio, riducendo i tempi di ispezione e garantendo aderenza regolatoria;
- Settore pubblico: operatori dei contact center possono accedere a ticket e archivi per fornire risposte rapide e coerenti ai cittadini;
- Assicurazioni: i liquidatori possono accedere immediatamente a clausole contrattuali e sinistri precedenti per valutare con maggiore accuratezza le pratiche.
In ciascuno di questi ambiti, SAS Retrieval Agent Manager riduce il tempo di accesso alla conoscenza, diminuisce la dipendenza dagli esperti interni e democratizza la competenza all’interno dell’organizzazione.
3 novembre 2025
Articoli consigliati
-
Innovation SparksIntelligenza dei dati e trasparenza: il modello data-driven virtuoso del Comune di PisaLa smart city che trasforma i dati in trasparenza, servizi migliori e benessere per i cittadini. Intervista a Marco Redini, Direttore della Direzione Ambiente del Comune di Pisa, e Nunzia Linzalone, ricercatrice CNR in ambito ambientale e sanitario pubblico.
-
Innovation SparksSport Analytics: calcio femminile, dati e collaborazione a distanza nell’esperienza di Iconsulting al SAS HackathonIntevista a: Paolo Curatolo, Data & Analytics Project Leader; Filippo Giuliani, Business Analytics Consultant; Selene Gerali, Business Analytics Consultant e Virginia Nucci, Business Analytics Specialist di Iconsulting
-
Innovation SparksIl dilemma della fiducia nell'Intelligenza Artificiale: quando la percezione si scontra con la realtàIl report Data and AI Impact Report: The Trust Imperative esamina approfonditamente lo stato globale dell'AI e sottolinea come la fiducia sia un imperativo fondamentale per sbloccarne il pieno potenziale e l'impatto economico sostenibile.
-
Innovation SparksSAS Hackathon - L'AI che non sostituisce ma potenzia: la risposta di BID alle frodi assicurativeLeggi l'intervista ad Andrea Ferrari, Client Leader & Business Developer, Edoardo Frigerio, Data Scientist e Giulia Lucherini, Client Leader & Business Developer di BID.



