Le organizzazioni di tutto il mondo devono sfruttare dati, analytics e intelligenza artificiale per innovare ed essere più resilienti, ma devono farlo in modo etico, responsabile, affidabile. La Trustworthy AI, l’intelligenza artificiale affidabile, si riferisce a sistemi che incorporano livelli adeguati di responsabilità, inclusività e trasparenza, completezza e robustezza, e sono sviluppati e distribuiti tenendo sempre conto della centralità dell’essere umano.
Perché c'è bisogno di Etica
L’applicabilità dell’intelligenza artificiale spazia ormai dalla medicina alla finanza, dalla logistica al retail, dall’industria manifatturiera a quella dell’energia, dal mercato dei beni di consumo al settore viaggi... man mano che l'IA si diffonderà, influenzerà quasi tutti gli aspetti della società, dalla vita professionale a quella personale. Le opportunità sono incredibili ma vanno di pari passo ai rischi, soprattutto se i sistemi vengono creati, impiegati e gestiti senza un’adeguata governance che tenga conto dell’affidabilità dell’IA (Trustworthy AI).
I sistemi di IA addestrati su dati distorti, solo per citare un concreto esempio, possono apprendere modelli storici di discriminazione nei confronti di donne, soggetti deboli o popolazioni vulnerabili. Se i pregiudizi nei sistemi di IA non vengono identificati e mitigati prima di distribuirli e utilizzarli, i sistemi distribuiti possono ereditare pregiudizi sociali e causare conseguenze indesiderate su vasta scala.
A seguito degli ultimi anni di pandemia e crisi globali, le aziende sono ora sotto pressione per mantenere la fiducia dei clienti, dei partner, dei consumatori e per farlo dovranno gestire l'IA in modo responsabile. Secondo gli ultimi risultati dell’Edelman Trust Barometer Global Report 2023, i consumatori e i dipendenti si aspettano che le aziende li difendano e agiscano in modo etico e competente, dato che il 63% dei consumatori acquista o sostiene i marchi in base alle proprie convinzioni e ai propri valori.
Questa esigenza di fiducia nelle organizzazioni si rifletterà sempre più anche sull'uso dell'IA da parte delle aziende e solo le organizzazioni che potranno dimostrare un uso responsabile ed etico dell'IA avranno maggiore successo.
Il “senso” di una Trustworthy AI
La fiducia nell'uso responsabile dell'IA da parte delle aziende sarà dunque il perno essenziale per il continuo successo dell'attività e delle relazioni con clienti, partner, consumatori. È qui che entra in gioco la Trustworthy AI.
Un impegno concreto nei confronti dell'IA affidabile richiede innanzitutto un allineamento tra le motivazioni che portano un’azienda ad adottare l’intelligenza artificiale e i suoi valori organizzativi esistenti. I valori aziendali devono rappresentare le fondamenta sulle quali costruire il proprio approccio all’uso dell’IA, tenendo conto non solo delle esigenze e degli obiettivi interni (nessuna organizzazione aziendale lecita nasce con l’obiettivo di creare danni), ma anche degli effetti delle proprie scelte all’esterno.
Il significato di “senso” e scopo di una Trustworthy AI, infatti, va costruito tanto sulle motivazioni interne quanto tenendo conto delle pressioni esterne.
In ambito pubblico, i Governi di tutto il mondo stanno cercando di bilanciare i benefici dell'IA con la necessità di proteggere i cittadini dalle potenziali conseguenze negative delle decisioni prese da sistemi autonomi. È per questo che il panorama normativo globale relativo all'IA sta cambiando rapidamente.
Gli elementi di una corretta governance della Trustworthy AI
Identificare le motivazioni interne, valutare le pressioni esterne e assimilare i requisiti normativi, sono i tre passaggi fondamentali per stabilire il proprio modello di governance dell'IA affidabile. Coltivare un ambiente di IA affidabile all'interno di un'organizzazione richiede una strategia completa che tenga conto della necessaria supervisione, degli elementi per garantire la conformità, dello sviluppo tecnologico e delle operations, dei processi e di tutte quelle azioni atte a promuovere una cultura diffusa dell'IA affidabile.
La Trustworthy AI SAS, ethical by design
SAS ha identificato 6 principi guida per definire il proprio approccio alla Trustworthy AI. Questi principi aiutano tutte le persone di SAS a navigare, gestire e mitigare le tensioni etiche legate all’uso dell’intelligenza artificiale nei modi più produttivi e meno dannosi possibili.
Organizzata dalla Data Ethics Practice (DEP), l’approccio all’IA affidabile di SAS pone un’attenzione particolare alla partecipazione globale e interdisciplinare per acquisire un’ampia gamma di punti di vista e garantire che piattaforma tecnologica, processi e servizi aziendali mantengano l’attenzione sulle persone e seguano sempre un approccio “ethical by design”, dallo sviluppo del prodotto alla strategia di mercato.
Questi i 6 principi guida:
Chi oggi sviluppa tecnologie e soluzioni destinate a prendere decisioni che hanno un impatto significativo sugli esseri umani deve assumersi la responsabilità di garantire risultati trasparenti ed equi.
Un impegno che si sta intensificando, anche grazie alle iniziative di regolamentazione pubblica portate avanti da Europa, Gran Bretagna, Brasile, Canada, Stati Uniti d’America, e molte altre Nazioni e Federazioni, ma che deve essere portato avanti contemporaneamente anche dalle aziende private e dai professionisti del settore, consapevoli che è necessario affrontare, ora, dilemmi etici e tensioni che non possono essere ignorati.