Gruppo di colleghi che esaminano un lavoro sullo schermo del computer

Etica dell'AI

Che cos'è e quali vantaggi offre al tuo Business

L'etica dell'intelligenza artificiale (AI) consiste nell'applicazione dei principi di giusto o sbagliato, su cui si basa il comportamento umano, al campo dell'AI. Perché è così importante? Perché la tecnologia dell’AI permette alle macchine di imitare il processo decisionale umano e automatizzare le attività in modo intelligente. Per promuoverne un uso responsabile, è essenziale definire linee guida che garantiscano la progettazione e l'impiego dei sistemi di AI nel pieno rispetto dei valori umani fondamentali: privacy, inclusione, equità e tutela dei diritti individuali.

Storia dell'etica dell'AI: "Le macchine sono in grado di pensare?"

Anche se è solo negli ultimi anni che l'intelligenza artificiale ha dominato i titoli dei giornali e catturato l'immaginazione del pubblico, le sue origini risalgono ad alcuni decenni fa. Le ricerche sull'AI sono iniziate negli anni '50, grazie ai primi pionieri che hanno sviluppato concetti e algoritmi fondamentali.

I recenti progressi nella potenza di calcolo, nei big data e nelle tecniche di machine learning hanno portato l'AI alla ribalta, rendendone visibile e tangibile l'impatto sulla vita di tutti i giorni. Si pensi, ad esempio, alla rapida adozione della generative AI (GenAI), ovvero quel tipo di tecnologia AI che va oltre la previsione per generare nuovi dati come output primario.

Data la vasta risonanza che la GenAI sta avendo nell'opinione pubblica, si ha la tendenza a credere che la nostra sia la prima generazione a porsi interrogativi complessi come la distorsione dei dati, la responsabilità, l’equità degli algoritmi e gli impatti sociali delle macchine intelligenti. Ma le preoccupazioni di fondo sugli effetti a valle dell'AI e delle macchine intelligenti risalgono agli albori dell'informatica digitale.

Tutto è iniziato con visionari come Alan Turing, alle prese con le implicazioni filosofiche ed etiche dell'intelligenza artificiale. Le domande su cui si arrovellava Turing, ovvero la natura della coscienza delle macchine e la loro potenziale capacità di pensare e apprendere, continuano a riecheggiare e a evolversi nel moderno dibattito sull'etica dell'AI.

Storia dell’etica dell’AI: dalle origini a oggi

Clicca sugli anni per scoprire le tappe fondamentali nell'evoluzione dell'etica dell'AI.

Consigli di un esperto sulla trustworthy AI

“La fiducia nell’AI deve nascere ancor prima di scrivere la riga iniziale del codice.” Questo è solo uno dei consigli sull'etica dell'AI forniti da Reggie Townsend, Vicepresidente, SAS Data Ethics Practice. Guarda questo breve video per ascoltare altri preziosi consigli che Townsend ha condiviso con il pubblico di tutto il mondo.

L'etica dell'AI nel mondo di oggi

Il rispetto dell'etica dell'AI favorisce la trasparenza, la responsabilità e la fiducia. Ma per affrontare le questioni etiche legate all'intelligenza artificiale, è necessario confrontarsi con le complesse implicazioni morali, legali e sociali relative a dati e AI. Scopri in che modo gli esperti approcciano queste sfide cruciali per avere uno sviluppo e un'implementazione responsabile dell'AI.

L'etica dei dati e dell'implementazione dell'AI

Quando vengono implementati modelli di AI, la tecnologia incontra l'etica. Scopri quali domande porre durante lo sviluppo e come garantire trasparenza, affidabilità e impatto sociale nel passaggio dalla fase di sviluppo all'impiego nel mondo reale.

Dati affidabili e governance dell'AI

Dato che l'AI sta rivoluzionando il nostro mondo, cresce sempre di più il bisogno di pratiche etiche nell'uso dell'AI. In questo e-book potrai esaminare i rischi dell'AI, apprendere le strategie per la creazione di sistemi di trustworthy AI e scoprire come integrare efficacemente i principi etici dell'AI nella tua attività.

Cosa sono i dati sintetici?

Malgrado la loro ampia disponibilità, i dati di buona qualità possono essere complessi e costosi da acquisire, difficili da proteggere e limitati in termini di varietà. Ma l'addestramento dei modelli di AI si basa su set di dati voluminosi, diversificati e attendibili. Scopri in che modo i dati sintetici possono contribuire a risolvere il problema dell'"idoneità" dei dati.

Ansia da AI: affrontare il cambiamento con calma

L'AI ti tiene sveglio di notte? Non sei l'unico a cui capita. Impara a identificare le cause primarie della tua ansia da AI – dalle preoccupazioni lavorative ai dilemmi etici – e trova strategie pratiche per affrontare con tranquillità la rivoluzione dell'AI.

NIH apre nuove frontiere nella ricerca medica grazie a set di dati diversificati

Seguire un approccio unico per tutti i pazienti limita la ricerca medica. Ogni individuo è diverso dall'altro e le differenze sono determinate dal posto in cui si vive, dalle abitudini alimentari, dal patrimonio genetico, dalle esposizioni ambientali nel corso della vita e da molti altri fattori. Il National Institutes of Health (NIH) ha avviato il programma di ricerca All of Us, che mira tanto a cambiare il tipo di dati raccolti, quanto le modalità di condivisione ai fini della ricerca biomedica. Attraverso la creazione di vasti set di dati che riflettono la grande diversità della popolazione statunitense, oggi rientrano nella ricerca anche categorie di individui in precedenza sottorappresentate. L’obiettivo è rendere la ricerca più affidabile e garantire l'etica e la trasparenza nell'uso dell'AI e degli analytics.

Quali settori stanno integrando l'etica dell'AI?

Dai veicoli a guida autonoma ai chatbot alimentati dall'AI, fino agli agenti AI, le decisioni prese dall'AI influenzano gli esseri umani in misura diversa. Pertanto, l'etica dell'AI è un tema centrale in diversi settori, comprese le grandi aziende tecnologiche. Oggi molte organizzazioni riconoscono l'importanza di avere un framework etico per orientare le applicazioni e i progetti di AI, mitigare i rischi potenziali e rafforzare la fiducia degli stakeholder.

Banche

L'AI è parte integrante dei servizi finanziari. I sistemi di credit scoring utilizzano gli algoritmi per analizzare i dati e valutare l'affidabilità creditizia, mentre l'individuazione delle frodi sfrutta algoritmi avanzati di machine learning in grado di monitorare le transazioni e adattarsi in tempo reale a nuovi schemi fraudolenti. Ma, se lasciata senza controllo, l'AI può amplificare i bias. Ad esempio, i modelli di AI addestrati su dati finanziari storici rischiano di consolidare le disuguaglianze preesistenti, portando a trattamenti ingiusti nell'erogazione dei prestiti, nel credit scoring, nelle richieste di alloggio, nelle assunzioni e nella determinazione dei premi assicurativi. Introdurre funzionalità di spiegabilità e metriche di parzialità ed equità può contrastare questi rischi, insieme all'adozione di linee guida normative e alla supervisione umana. Così facendo, le banche possono diventare promotrici di un accesso più equo ai servizi finanziari e favorire la crescita.

Health Care

Dai test genetici alle terapie oncologiche personalizzate fino alla diagnostica tramite chatbot, l'AI sta rivoluzionando il settore sanitario e dunque sollevando una serie di questioni etiche. I dati dei pazienti, necessari per l'addestramento dell'AI, devono essere protetti con misure rigorose. Eppure, anche il più solido protocollo di sicurezza non basta a schermarli da algoritmi distorti, rischiando di accentuare le disparità nell’accesso alle cure. Inoltre, il carattere "black box" di molti modelli genera dubbi legittimi. Cosa accade se le macchine prendono decisioni che incidono sulla vita di una persona, senza mostrare il proprio ragionamento? E se l'AI commette un errore, chi ne è responsabile? Innovatori tecnologici, professionisti sanitari, legislatori e pazienti devono lavorare fianco a fianco per definire linee guida chiare che proteggano chi è in cura, senza intralciare il progresso. Solo così potremo sfruttare in modo davvero responsabile ed etico tutto il potenziale dell’AI nel settore sanitario.

Assicurazioni

Le compagnie assicurative raccolgono una grande quantità di dati eterogenei: dalle informazioni sui clienti contenute nelle richieste e nelle polizze, ai dati trasmessi dai sensori delle auto a guida autonoma. Grazie a questa raccolta in tempo quasi reale, gli assicuratori sono in grado di comprendere meglio le esigenze di ciascun individuo e offrire un'esperienza personalizzata di livello superiore. Ma garantire la riservatezza e la corretta gestione dei dati personali impiegati nei processi decisionali è essenziale per mantenere alta la fiducia degli utenti. Per ridurre i rischi legati alla privacy o colmare eventuali lacune nei data set, molte compagnie assicurative stanno utilizzando dati sintetici nei loro processi di pricing, definizione delle riserve e modellazione attuariale. A prescindere dal loro approccio, le compagnie assicurative devono stabilire e rispettare un framework etico dell'AI, per garantire che i modelli alimentati dai dati in loro possesso producano decisioni corrette e imparziali.

Settore pubblico

I dipendenti pubblici si impegnano a tutelare e a migliorare la qualità della vita dei cittadini. Nel rispondere alle esigenze individuali, molti di loro utilizzano l'AI per essere più produttivi ed efficaci. Ad esempio, le tecniche di GenAI possono analizzare dati storici, il sentiment del pubblico e altri indicatori per formulare raccomandazioni volte a ridurre la congestione e ottimizzare l'allocazione delle risorse. Ma l'impiego dell'AI non è privo di rischi. È fondamentale sviluppare e implementare modelli di AI che rispettino i principi di equità e trasparenza, integrare le normative statali in tutte le iniziative e arginare la rapida diffusione di informazioni errate. La capacità di sviluppare sistemi di AI etici, in grado di proteggere e rafforzare i diritti individuali, è essenziale affinché il settore pubblico possa adempiere pienamente alla propria missione.

Ti interessa l'etica dell’AI in altri settori?

Approfondisci l'argomento con una serie di riflessioni sull'etica dell'AI nel settore manifatturiero e agricolo.

Come funziona l’etica dell'AI: guida ai principi dell'intelligenza artificiale responsabile

L'etica dell'AI si colloca al crocevia tra tecnologia, filosofia e scienze sociali. Per sfruttare al meglio questa potente tecnologia, è indispensabile integrare delle considerazioni di carattere etico in ogni fase del suo ciclo di vita: dalla raccolta dei dati alla progettazione degli algoritmi, fino all'implementazione e al monitoraggio. Esaminiamo più da vicino alcuni dei principi fondamentali.

L'umanità al centro

I sistemi di AI che pongono al centro esigenze e valori umani hanno maggiori probabilità di essere adottati, valutati come affidabili e utilizzati in modo efficace. Integrando un approccio incentrato sull'uomo nello sviluppo e nell'implementazione dell'AI, le organizzazioni possono creare sistemi di AI più responsabili, efficaci e orientati al bene comune, capaci di potenziare l'ingegno e la creatività umana.

Tra le tecniche e gli approcci per implementare la centralità dell'uomo figurano:

  • Human in the loop (che integra il giudizio umano nei momenti cruciali dei processi di AI, soprattutto nelle decisioni ad alto rischio).
  • Progettazione partecipativa.
  • Valutazioni dell'impatto etico.
  • AI adattiva (che modifica il proprio comportamento in base al feedback umano e ai cambiamenti del contesto).

Con l'evoluzione dell'AI, sarà essenziale mantenere un approccio incentrato sull'essere umano, così da sviluppare sistemi in grado di apportare benefici alla società nel pieno rispetto dei diritti e della dignità individuali.

Equità e responsabilità

Un aspetto fondamentale dell'etica dell'AI è assicurare risultati corretti e privi di pregiudizi. Consideriamo questo esempio: se un algoritmo identifica gli animali come esseri umani, occorre fornire dati ulteriori su un insieme più diversificato di persone. Se invece un algoritmo produce decisioni imprecise o eticamente discutibili, potrebbe significare che il data set per l'addestramento del modello era insufficiente o che il rinforzo dell'apprendimento non era calibrato sugli obiettivi.

Gli esseri umani, a volte in modo del tutto involontario, hanno trasferito nei sistemi di AI dei valori contrari all'etica, a causa di una selezione di dati non imparziali o di un'assegnazione errata dei parametri di rinforzo. Una delle misure tecniche iniziali per garantire l'etica dell'AI è lo sviluppo di metriche di equità e tecniche di debiasing. La parità demografica e le probabilità equalizzate misurano l'equità algoritmica. Il bilanciamento dei dati di training e il debiasing avversariale possono contribuire a mitigare i bias appresi.

Ma non basta intervenire una tantum. Verifiche periodiche, insieme a una rappresentanza diversificata nei team di sviluppo dell'AI, aiuteranno a mantenere l'equità e la responsabilità durante tutto il ciclo di vita del sistema di AI. Non è sufficiente affrontare questi temi una sola volta: devono diventare parte integrante del nostro dibattito su base continuativa.

Trasparenza e spiegabilità

Trasparenza e spiegabilità sono cruciali per infondere fiducia, rispettare le normative sull'AI e ottenere la validazione sul piano etico. Un'AI trasparente e spiegabile permette agli sviluppatori di identificare e risolvere i bias o gli errori presenti nel processo decisionale, e agli utilizzatori finali di operare scelte consapevoli, avendo chiari i fattori che influenzano i risultati prodotti dall'AI.

Etichette nutrizionali per modelli di AI

Le etichette nutrizionali sugli imballaggi alimentari garantiscono trasparenza circa gli ingredienti, il valore nutrizionale e la preparazione, ad esempio, dei tuoi snack preferiti. Allo stesso modo, le model card sono le etichette nutrizionali trasparenti dei modelli di AI. Forniscono visibilità su finalità, prestazioni, limiti e considerazioni etiche di un modello, utilizzando un formato standardizzato e accessibile per comunicare gli aspetti essenziali dell'AI agli stakeholder.

Tecniche per la spiegazione di modelli complessi

Chi sviluppa modelli può ricorrere a svariate tecniche per spiegare le previsioni generate dai modelli di machine learning più complessi, contribuendo a chiarire il processo decisionale alla base dei risultati. Tra queste tecniche vi sono:

  • LIME (Local Interpretable Model-Agnostic Explanations).
  • SHAP (SHapley Additive exPlanations).
  • Grafici ICE (Individual Conditional Expectation).

Gli sviluppatori possono anche utilizzare l'elaborazione del linguaggio naturale (NLP) per generare spiegazioni leggibili dall'uomo circa le decisioni del modello. L'NLP può tradurre output statistici complessi in narrazioni chiare e contestualizzate, che sono accessibili e facili da interpretare sia per gli sviluppatori che per gli utenti. Leggi le cinque domande chiave da porre quando si sviluppano modelli di trustworthy AI.

Privacy e sicurezza

Strettamente connesse tra loro, la privacy e la sicurezza sono due aspetti fondamentali che garantiscono la protezione dei dati sensibili durante tutto il ciclo di vita dell'AI. Le tecniche di AI poste a garanzia della privacy consentono alle organizzazioni di sfruttare vasti data set, salvaguardando al contempo le informazioni individuali. A loro volta, le misure di sicurezza proteggono da attacchi informatici malevoli e accessi non autorizzati.

Evolvendosi verso modelli di dati decentralizzati, le aziende trovano nelle tecniche di federated learning una soluzione che coniuga scalabilità e flessibilità, e contribuisce anche a risolvere diversi problemi legati alla privacy e alla sicurezza. Queste tecniche, ad esempio, permettono alle organizzazioni di addestrare i modelli senza trasferire i dati grezzi, riducendo al minimo la movimentazione delle informazioni e, di conseguenza, il rischio di esposizione.

Altre tecniche dimostratesi utili per la privacy e la sicurezza sono:

  • Crittografia omomorfica (che permette di eseguire calcoli su dati cifrati senza doverli decrittografare).
  • Differential privacy (che nasconde i dati individuali aggiungendo rumore controllato).
  • Training avversariale e sanificazione degli input.
  • Protocolli robusti di controllo degli accessi e autenticazione.

Robustezza

I sistemi di AI robusti funzionano in modo coerente e accurato in varie condizioni, inclusi input imprevisti o cambiamenti ambientali. La robustezza è fondamentale per mantenere l'affidabilità e la fiducia nelle applicazioni del mondo reale.

Tra le tecniche per migliorare la robustezza figurano:

  • Il training avversariale consiste nell'esporre i modelli a input dannosi durante l'addestramento per migliorarne la resilienza.
  • I metodi ensemble implicano l'uso combinato di vari algoritmi di apprendimento per migliorare la stabilità e le prestazioni.
  • Le tecniche di regolarizzazione contribuiscono a prevenire l'eccessivo o scarso adattamento, migliorano la generalizzazione e bilanciano la complessità del modello con le sue prestazioni. Il monitoraggio continuo delle performance e gli aggiornamenti dei modelli aiutano a garantire l'accuratezza.

I software di trustworthy AI dovrebbero integrare diverse metodologie per gestire gli algoritmi e monitorarne il degrado nel tempo. In definitiva, l'etica dell'AI si traduce in un insieme integrato di governance, soluzioni tecniche e pratiche organizzative che allineano lo sviluppo e l'implementazione dell'intelligenza artificiale ai valori umani e agli interessi della società.

Affrontare 6 sfide etiche specifiche della GenAI

Se l'intelligenza artificiale ha sempre sollevato questioni etiche, la generative AI, con la sua capacità di creare nuovi dati, ne ha accresciuto la portata. Le nuove problematiche etiche e i potenziali rischi associati rappresentano sfide senza precedenti, che aziende e società civile devono affrontare con urgenza.

Pensiamo, ad esempio, che la GenAI può:

  • Portare i deepfake a un livello superiore (come nei post sui social media).
  • Violare i diritti della proprietà intellettuale.
  • Distruggere la fiducia nelle informazioni digitali.
  • Amplificare bias e discriminazioni.
  • Avere ripercussioni negative sulla salute mentale e sulla società.
  • Creare una situazione complessa e confusa in termini di responsabilità e governance.

Il ruolo della governance nell'etica dell'AI

Il presupposto indispensabile per un'implementazione etica dell'AI è disporre di un quadro di governance ben definito. Questo, infatti, stabilisce con chiarezza ruoli e responsabilità durante tutto il ciclo di vita dell'AI.

Una strategia di governance completa è necessaria per il processo decisionale, il che prevede la supervisione umana e l'assegnazione di ruoli specifici per la gestione dei progetti di AI.

In particolare, ciò potrebbe prevedere l'attribuzione del ruolo di responsabile etico dell'AI a singoli esperti o comitati, con l'incarico di sviluppare le politiche, monitorare la conformità e condurre audit etici. Le valutazioni periodiche degli algoritmi e i controlli sui bias sono attività essenziali per questi sistemi di governance, poiché assicurano che i modelli di AI restino conformi agli standard etici e ai valori delle organizzazioni.

Con l'espansione delle capacità dell'AI, il ruolo della governance diventa ancora più cruciale. La possibilità che i sistemi di AI formulino domande e generino risposte in modo indipendente sottolinea la necessità di meccanismi di supervisione robusti. Basti pensare, ad esempio, alle implicazioni delle cosiddette allucinazioni dell'AI.

Adottando protocolli di governance severi, la tua azienda potrà sfruttare il potere dell'AI, mitigando i rischi e mantenendo l'integrità etica in un contesto tecnologico sempre più autonomo.

Dotarsi di un'AI affidabile e responsabile va ben oltre la semplice riduzione degli aspetti negativi. Si tratta anche di valorizzare il suo grande potenziale per rendere più produttive ed eque le società. Reggie Townsend Reggie Townsend Vice President SAS Data Ethics Practice

Il futuro dell'etica dell'AI

Man mano che l'AI si evolve, evolverà anche la sua etica. Le tecnologie emergenti, come il calcolo quantistico e l'AI neuromorfica, apriranno la strada a nuove sfide e opportunità in campo etico. I responsabili della politica, i leader del settore e i ricercatori dovranno collaborare per sviluppare framework etici adattivi, in grado di stare al passo con i rapidi progressi tecnologici.

Le questioni fondamentali che gli strumenti e la tecnologia dell'AI sollevano sul nostro rapporto con i computer continueranno ad evolversi. È attualmente oggetto di dibattito il modo in cui l'AI plasmerà il futuro del lavoro e se – o quando – potrà verificarsi la cosiddetta singolarità tecnologica.

Anche l'istruzione e la sensibilizzazione svolgeranno un ruolo fondamentale nel plasmare il futuro dell'etica dell'AI. Promuovendo una cultura di consapevolezza etica tra sviluppatori di AI, leader aziendali e grande pubblico, potremo garantire che i benefici dell'AI vengano conseguiti in modo responsabile ed equo.

Poiché siamo alle soglie di un futuro guidato dall'intelligenza artificiale, abbracciare l'etica dell'AI è anzitutto un imperativo morale. Si tratta inoltre di una necessità strategica per quelle aziende che sperano di costruire un ecosistema di AI sostenibile, affidabile e vantaggioso per le generazioni future.

Passi successivi

Scopri come sviluppare l'AI in modo responsabile, coerente e affidabile.

Promuovere l'innovazione nell'etica dell'AI

SAS® Viya® è una piattaforma completa per lo sviluppo e l'implementazione di soluzioni etiche di AI. Grazie alle funzionalità integrate per la spiegabilità dei modelli, il rilevamento dei bias e la governance, ti consente di sfruttare il potere dell'AI nel rispetto dei più elevati standard etici.