Tre step fondamentali per un'Intelligenza Artificiale etica
Applicare l'etica all’intelligenza artificiale per un futuro più sicuro
Quando si tratta del futuro dell'intelligenza artificiale (IA), ci sono due scuole di pensiero:
- La visione utopica: i sistemi intelligenti inaugureranno una nuova era, una sorta di nuovo illuminismo, in cui gli esseri umani non dovranno più lavorare e potranno perseguire obiettivi più nobili. I sistemi di intelligenza artificiale saranno programmati per curare le malattie, risolvere equamente le controversie e migliorare, in generale, la nostra esistenza.
- La visione apocalittica: i sistemi intelligenti ci ruberanno il lavoro, supereranno gli esseri umani, diventeranno macchine da guerra e daranno priorità a un futuro lontano rispetto ai bisogni attuali. I nostri tentativi di controllo riveleranno solo le nostre carenze e la nostra inferiore capacità nell'applicare la moralità ad una tecnologia che non riusciremo più a dominare.
Come nella maggior parte dei casi, probabilmente la verità sta nel mezzo.
Indipendentemente da quale visione si ritenga più realistica, è importante considerare come gli esseri umani possono influenzare l'IA man mano che la tecnologia si evolve. Un’ipotesi è che l'uomo plasmerà in gran parte la coscienza o il tessuto morale dell'intelligenza artificiale. Ma come? E come applicare l'etica all'IA per prevenire il peggio?
Intelligenza artificiale per gli Executive
L'intelligenza artificiale presuppone che ci sia una nuova vision da realizzare; non essendo un’idea già vista e preconfezionata, nemmeno il modo di applicare l’IA dovrebbe esserlo. Grazie alla nostra esperienza, puoi integrare gli advanced analytics, inclusa l'intelligenza artificiale, nella tua strategia e comprendere punti di forza e debolezze delle differenti metodologie e secondo i tuoi specifici obiettivi.
Il rapporto tra esseri umani e IA
La potenza dei sistemi di deep learning risiede nel poter determinare in autonomia i propri parametri o le proprie caratteristiche. Basta assegnare loro un compito o uno scopo, indicare i dati e loro gestiscono il resto. Ad esempio, la funzionalità di autotuning di SAS® Visual Data Mining and Machine Learning può determinare il miglior risultato in modo autonomo. Nonostante questo le persone rappresentano ancora la parte più critica del processo.
"Sono gli esseri umani a risolvere i problemi, non le macchine", spiega Mary Beth Ainsworth, AI Specialist di SAS. "Le macchine possono visualizzare le informazioni necessarie a risolvere i problemi e quindi essere programmate per affrontarli in modo automatico, ma sarà sempre sulla base della soluzione umana fornita per il problema".
Anche se i futuri sistemi di IA potranno essere in grado di raccogliere i dati da soli, la maggior parte dei sistemi attuali si affida agli esseri umani per ricevere i parametri di input, compresi dati e miglior risultato, come dimostrano le pratiche di apprendimento per rinforzo (o reinforcement learning). Quando chiedi all'algoritmo di trovare il modo migliore per ottenere quel risultato, non hai idea di come la macchina risolverà il problema. Sai solo che lo farà in modo più efficiente di quanto non lo faccia tu.
Dato il rapporto corrente tra esseri umani e intelligenza artificiale, possiamo intraprendere una serie di step per controllare in maniera più etica il risultato dei progetti di IA. Cominciamo con i primi tre.
Sono gli esseri umani a risolvere i problemi, non le macchine. Le macchine possono visualizzare le informazioni necessarie a risolvere i problemi e quindi essere programmate per affrontarli in modo automatico, ma sarà sempre sulla base della soluzione umana fornita per il problema. Mary Beth Ainsworth AI and Language Analytics Strategist SAS
Step 1 per l'etica nell'intelligenza artificiale: fornire i dati migliori
Gli algoritmi basati sull'IA vengono addestrati a partire da un insieme di dati forniti dagli esseri umani. Se il tuo algoritmo identifica una balena come un cavallo è evidente che dovrai fornire più dati sulle balene (e sui cavalli). Se il tuo algoritmo sta prendendo decisioni imprecise o eticamente discutibili, può significare che non ci sono dati a sufficienza per addestrare il modello o che il rinforzo dell'apprendimento non è appropriato per il risultato che si desidera raggiungere.
Ovviamente, è anche possibile che i dati inseriti dagli esseri umani nel sistema siano solo parziali o che i valori di rinforzo siano stati male assegnati. Dobbiamo assicurarci perciò che i dati e gli input che forniamo traccino un quadro completo e corretto per gli algoritmi.
Step 2 per l'etica nell'intelligenza artificiale: garantire una supervisione adeguata
Stabilisci un sistema di governance con responsabili e stakeholder che chiarisca in modo inequivocabile gli obiettivi del progetto di IA. Definisci quali decisioni saranno automatizzate con l'IA e quali richiederanno invece l'intervento umano. Assegna responsabilità specifiche a tutte le parti coinvolte e fissa limiti definiti per lo sviluppo del sistema di IA. Questo prevede il monitoraggio e l’auditing regolare degli algoritmi per evitare che si insinuino eventuali distorsioni e per verificare che i modelli continuino a funzionare come previsto.
È opportuno incaricare una persona, che può essere sia un data scientist o un esperto in etica, in politiche e protocolli relative all’IA, compresa la compliance. Forse un giorno tutte le organizzazioni stabiliranno un ruolo di responsabile etico dell'IA. Aprescindere dal suo titolo, qualcuno deve essere responsabile nel determinare se attività e risultati ottenuti rientrano nell’ambito di uno specifico quadro etico.
C’è sempre una necessità di governance, tracciabilità e monitoraggio con gli analytics standard e lo stesso deve valere per l'IA, con la differenza che le conseguenze possono essere molto più importanti perché le macchine possono porre le domande e darsi le risposte da sole...
Step 3 per l'etica nell'intelligenza artificiale: considerare le ramificazioni delle nuove tecnologie
Affinché gli individui facciano rispettare le politiche, la tecnologia deve permettere agli esseri umani di apportare modifiche. Gli esseri umani devono poter selezionare e regolare i dati di addestramento, controllare le fonti dati e scegliere la modalità di trasformazione dei dati stessi. Allo stesso modo, le tecnologie basate sull'intelligenza artificiale dovrebbero supportare una governance affidabile e garantire l'accesso ai dati e la capacità di modificare gli algoritmi quando sono errati o quando operano al di fuori dei confini eticamente definiti.
Non è possibile anticipare tutti gli scenari potenziali con l'IA, ma è importante considerare le eventualità e mettere in atto controlli per il rafforzamento in positivo e in negativo. Ad esempio, l'introduzione di nuovi obiettivi, anche in concorrenza tra loro, può premiare decisioni etiche e identificare decisioni non etiche come sbagliate o fuorvianti. Un sistema di intelligenza artificiale progettato per attribuire lo stesso peso alla qualità e all'efficienza produrrebbe risultati diversi rispetto a un sistema interamente incentrato sull'efficienza. Inoltre, progettare un sistema di IA con obiettivi indipendenti e conflittuali potrebbe aumentare ulteriormente il grado di responsabilità del sistema.
Non trascurare l'etica nell'IA
L'intelligenza artificiale può migliorare la sicurezza in auto e diagnosticare un cancro, ma può anche scegliere gli obiettivi per i missili. Tutte le capacità dell'IA hanno notevoli ramificazioni etiche che devono essere discusse secondo più punti di vista. Come possiamo garantire che i sistemi etici per l'intelligenza artificiale non vengano abusati?
I tre step elencati in precedenza sono solo l'inizio. Ti aiuteranno a impostare conversazioni difficili sullo sviluppo di linee guida etiche per l’uso dell’IA nella tua organizzazione. Anche se è possibile avere dubbi o incontrare resistenze nel tracciare queste linee guida etiche, non è possibile evitare il confronto su questo argomento. Quindi non aspettare. Inizia subito a parlarne in modo da poter identificare i confini, come farli rispettare e anche come cambiarli, se necessario.
Recommended reading
- ARTICOLO Viking transforms its analytics strategy using SAS® Viya® on AzureViking is going all-in on cloud-based analytics to stay competitive and meet customer needs. The retailer's digital transformation are designed to optimize processes and boost customer loyalty and revenue across channels.
- ARTICOLO Online payment fraud stops hereBillions of dollars a year are lost to online payment fraud through channels that provide convenient – yet vulnerable – ways to shop and bank. See how to fight back and win with advanced analytics.
- ARTICOLO The transformational power of evidence-based decision making in health policyState health agencies are under pressure to deliver better health outcomes while minimizing costs. Read how data and analytics are being used to confront our biggest health care challenges head on.
- ARTICOLO Strengthen your payment fraud defenses with stronger authenticationThe rapid growth of digital wallets and payment applications ushered in many new payment fraud threats. Today, it’s more critical than ever to authenticate users. Learn four innovative to ways strengthen your authentication defenses while reducing false positives and protecting customers’ assets.
Che ne dici di iscriverti subito a Insights?
SAS® Viya™
Rendi gli analytics accessibili e facili da utilizzare a chiunque nella tua azienda