Group of coworkers reviewing work on a computer monitor

AI-etik

Vad det är och varför det är viktigt

AI-etik kopplar samman artificiell intelligens (AI) med tillämpning av etik – principerna för rätt och fel som beskriver hur människor bör agera. Varför är det så viktigt? För att AI-teknik gör det möjligt för maskiner att härma mänsklig beslutsfattning och automatisera uppgifter på ett intelligent sätt. För att göra det på ett säkert sätt behöver vi riktlinjer som försäkrar att AI-system är utformade och driftsatta i enlighet med grundläggande mänskliga värderingar, så som integritet, inklusivitet, rättvisa och skydd av individuella rättigheter.

AI-etikens historia: ”Kan maskiner tänka?”

Artificiell intelligens har dominerat nyhetsrubriker och fångat allmänhetens fantasi de senaste åren – men dess rötter sträcker sig flera årtionden tillbaka. AI-forskning började under 1950-talet med att tidiga pionjärer utvecklade grundläggande koncept och algoritmer.

Mer nutida framsteg inom datorkraft, big data och maskininlärningstekniker normaliserade AI och gjorde dess inverkan mer synlig och påtaglig i vår vardag. Ta till exempel det snabba införandet av generative AI (GenAI) – en sorts AI- teknik som inte bara förutser, utan går steget längre genom att generera ny data som sin huvudsakliga utdata.

Med all hajp runt GenAI är det lätt att anta att vår generation är den första att överväga tunga frågor om partisk data, ansvarsskyldighet, algoritmisk rättvisa och hur samhället påverkas av intelligenta maskiner. Men grundläggande farhågor kring de långsiktiga effekterna av AI och smarta maskiner sträcker sig tillbaka till födelsen av digital databehandling.

Det hela började med att visionärer som Alan Turing brottades med de filosofiska och etiska implikationerna av artificiell intelligens. Frågorna som höll Turing vaken om nätterna – medvetandets natur och maskiners potential att tänka och lära sig – fortsätter att eka och utvecklas i dagens diskussioner om AI-etik.

En tidslinje över AI-etikens historia

Klicka dig igenom årtalen för att läsa om några viktiga milstolpar för utvecklingen av AI-etik.

Utveckla pålitlig AI

Från idé till leverans krävs det att människor samarbetar mot ett gemensamt mål för att utveckla pålitlig AI-programvara som bygger på mänskliga värderingar. Det inkluderar produktchefer, dataanalytiker, mjukvaruutvecklare, UX-designers och mjukvarutestare. Alla ställer sig tre centrala frågor under arbetet med en produkt: ”För vilket syfte, med vilket mål, och för vem kan det gå fel?” Titta på videon för att lära dig mer om hur vi redan från början inkluderar ett etiskt perspektiv i våra AI-system.

AI-etik i dagens samhälle

Att följa AI-etik främjar transparens, ansvarsskyldighet och förtroende. Men att navigera AI-etik kräver att man brottas med data och AI:s komplexa moraliska, rättsliga och samhälleliga implikationer. Upptäck hur experter närmar sig dessa kritiska utmaningar med ansvarsfull utveckling och driftsättning av AI.

Etiken bakom driftsättning av data och AI

Teknik möter etik när AI-modeller sätts i drift. Lär dig vilka frågor som bör ställas under utvecklingsfasen och se hur du kan ta hänsyn till transparens, trovärdighet och samhällspåverkan när du går från utveckling till verkligt användande.

Tillförlitlig data och styrning av AI

När AI revolutionerar vår värld skjuter behovet för etiskt AI-bruk i höjden. I denna e-bok kan du utforska riskerna med AI, lära dig strategier för att bygga pålitliga AI-system och upptäcka hur du effektivt kan integrera principer för AI-etik i ditt företag.

Vad är syntetisk data?

Trots omfattande tillgänglighet kan högkvalitativ data vara svår (och kostsam) att få tag i, krävande att skydda och ha en begränsad variation. Men att träna AI-modeller kräver stora, olikartade och autentiska datamängder. Se hur syntetisk data hjälper till att lösa problemet med datas ”lämplighet”.

AI-ångest: möt förändringen med lugn

Håller AI dig vaken om nätterna? Du är inte ensam. Lär dig att identifiera de grundläggande orsakerna till din AI-ångest – från oro gällande jobb till etiska dilemman – och hitta praktiska strategier för att navigera AI-revolutionen med tillförsikt.

NIH utmanar gränserna inom hälsoforskning med olikartade datamängder

En metod som bygger på att en lösning passar alla är begränsad när det gäller medicinsk forskning. Allas kroppar är olika – med variationer baserade på var man bor, vad man äter, anlagstyp, livstidsexponering med mera. Hos National Institutes of Health (NIH) vill forskningsprogrammet All of Us ändra vilken sorts data som samlas in och hur den delas för biomedicinsk forskning. Genom att bygga breda datamängder som reflekterar USA:s stora mångfald av invånare inkluderar datamängder för forskning nu många grupper som tidigare var underrepresenterade. Det handlar om att göra forskning mer pålitlig och att försäkra att AI och analys är transparent och etisk.

Vilka branscher använder AI-etik?

Från förarlösa fordon till AI-chattbottar och nu AI-agenter, beslut fattade av AI påverkar människor till olika grader. Därför är AI- etik ett kritiskt avseende inom många branscher, däribland Big Tech-företag. Idag ser många organisationer vikten av att ha etiska ramverk för att guida deras AI-applikationer och AI- initiativ, minska potentiella risker och bygga upp tilliten bland intressenter.

Banksektorn

AI är väsentligt för finansiella tjänster. System för credit scoring använder algoritmer för att analysera data och bedöma kreditvärdighet. Bedrägeribekämpning använder avancerade maskininlärningsalgoritmer för att skanna transaktioner och anpassa sig till nya bedrägerimönster i realtid. Men AI kan förstärka partiskhet om det inte kontrolleras. AI-modeller som tränas på historisk finansiell data kan till exempel vidmakthålla befintliga olikheter, vilket leder till orättvis behandling vid lånebeviljning, credit scoring, bostadsansökan, anställning och prissättning av försäkringar. Förklaringsfunktioner samt mått för partiskhet och rättvisa kan vara till hjälp, tillsammans med regelbunden vägledning och mänsklig tillsyn. I sin tur kan banker vara katalysatorer för välstånd och rättvis åtkomst.

Hälsovård

Nu när AI revolutionerar hälso- och sjukvården – från genetiska tester och personligt anpassade cancerbehandlingar till diagnostiserande chattbottar – för det med sig en hel uppsjö av etiska frågor. Patientuppgifter, vilka behövs för AI-träning, kräver exceptionellt robust säkerhet. Men robust säkerhet kan inte skydda mot partiska algoritmer som kan förstärka olikheter inom sjukvården. ”Black box”-beslutsfattning väcker andra bekymmer. Vad händer om maskiner fattar livsomvälvande beslut utan transparens? Vem är ansvarig om AI begår ett misstag? Tech-innovatörer, sjukvårdspersonal, patienter och makthavande måste samarbeta för att ta fram riktlinjer som skyddar patienter utan att kuva framsteg. På så vis kan vi på ett ansvarsfullt och etiskt sätt låsa upp AI:s fulla potential inom sjukvården.

Försäkring

Försäkringsbolag samlar in en mängd olika data – från kundinformation i applikationer och policy till dataströmning från sensorer på självkörande bilar. Att samla in information i så nära realtid som möjligt möjliggör för försäkringsbolag att förstå en individs behov bättre och ge dem en överlägsen personlig upplevelse. Men att skydda och reglera personuppgifter medan man använder dem till att fatta beslut är nödvändigt för att upprätthålla förtroende. För att undvika oro gällande sekretess eller brist på tillräcklig data väljer vissa försäkringsbolag att använda syntetisk data för prissättning, reservationer och försäkringsmodeller. Oavsett vilken metod de väljer måste försäkringsbolag etablera och följa ett AI-etiskt ramverk för att försäkra att modellerna som matas med deras data fattar rättvisa och opartiska beslut.

Offentlig sektor

Anställda inom den offentliga sektorn är hängivna att skydda och förbättra livet för människorna de arbetar för. Många av dem använder AI för att vara mer produktiva och effektiva när de hanterar invånares behov. GenAI-tekniker kan till exempel analysera historisk data, allmänhetens åsikter och andra indikatorer för att sedan generera rekommendationer för att minska överbelastning eller finjustera resurstilldelning. Men det är inte riskfritt att använda AI. Det är nödvändigt att utveckla och driftsätta AI-modeller rättvist och med transparens, att integrera statliga bestämmelser i alla initiativ och att få bukt med dagens snabba spridning av missinformation. Förmågan att bygga etiska AI-system som skyddar och stärker individers rättigheter är nödvändigt för att hjälpa den offentliga sektorn att uppfylla sitt uppdrag.

Nyfiken på AI-etik i andra branscher?

Utforska ett brett urval av överväganden kring AI-etik inom tillverkning och jordbruk.

Hur AI-etik fungerar: att förstå etiken bakom artificiell intelligens

AI-etik verkar i korsningen av teknologi, filosofi och samhällsvetenskap. För att framgångsrikt använda denna kraftfulla teknik måste vi bädda in etiska överväganden i varje steg av AI:s livscykel – från datainsamling och utformning av algoritmer till driftsättning och kontroll. Låt oss utforska några av de huvudsakliga principerna.

Människocentrering

AI-system som prioriterar mänskliga behov och värderingar har en större sannolikhet att tas i bruk, vinna tillit och användas effektivt. Genom att bädda in människocentrering när vi utvecklar och implementerar AI kan organisationer skapa mer ansvarsfulla, effektiva och samhällsnyttiga AI-system som kan komplettera mänsklig intelligens och kreativitet.

Tekniker och metoder för att implementera människocentrering inkluderar:

  • Human-in-the-loop (integrering av mänskligt omdöme vid viktiga punkter i AI-processen, särskilt vid viktiga beslut).
  • Deltagardesign.
  • Bedömning av etisk inverkan.
  • Adaptiv AI (system som justerar sitt beteende baserat på mänsklig feedback och skiftande kontexter).

Allt eftersom AI utvecklas är det nödvändigt att upprätthålla en människocentrerad metod för att skapa AI-system som gör nytta för samhället samtidigt som det respekterar individens rättigheter och värdighet.

Rättvisa och ansvarsskyldighet

En viktig aspekt av AI-etik är att försäkra att resultaten är rättvisa och opartiska. Tänk dig följande exempel: om din algoritm identifierar djur som människor behöver du mata den med mer data om en mer mångfaldig grupp människor. Om din algoritm fattar felaktiga eller oetiska beslut kan det innebära att det inte fanns tillräckligt med data för att träna modellen, eller att återkopplingsinlärning inte var lämplig för det önskade resultatet.

Människor har, ibland utan avsikt, fört in oetiska värden i AI-system på grund av partisk dataselektering eller dåligt anvisade återkopplingsvärden. Ett av de första tekniska stegen mot att försäkra AI-etik är att utveckla rättvisemått och tekniker för att utesluta partiskhet. Demografisk jämlikhet och utjämnade odds mäter algoritmers rättvisa. Att mäta om träningsdata och kontradiktorisk uteslutning av partiskhet kan bidra till mindre inlärd partiskhet.

Men en engångsaktion räcker inte. Regelbundna revisioner, i kombination med mångfaldig representation i team för AI- utveckling kommer att hjälpa till att upprätthålla rättvisa och ansvarsskyldighet genom hela AI-systemets livscykel. Det räcker inte att ha enstaka konversationer om dessa problem, vi måste göra det till en fortsatt och väsentlig del av vår diskurs.

Transparens och förklaringsbarhet

Transparens och förklaringsbarhet är nödvändiga för att bygga upp förtroende, följa AI-föreskrifter och uppnå etisk validering. Transparent och förklaringsbar AI gör det möjligt för utvecklare att identifiera och ta itu med partiskhet eller felaktigheter i beslutfattningsprocessen. Det låter även slutanvändaren fatta välinformerade beslut baserat på faktorer som påverkar AI:ns utdata.

Näringsdeklaration för AI-modeller

Näringsdeklarationer på matförpackningar ger transparens kring ingredienser, näring och hur du förbereder ditt favoritsnack. På ett liknande sätt är modellkort transparenta ”näringsdeklarationer” för AI-modeller. De ger insikt i en modells ändamål, prestanda, begränsningar och etiska avseenden. De använder en standardiserad och tillgänglig metod för att förmedla AI-modellers huvudsakliga aspekter till intressenter.

Tekniker för att förklara komplexa modeller

Det finns flera olika tekniker som utvecklare kan använda för att förklara komplexa maskininlärningsmodellers prediktioner, vilket bidrar till att göra modellens beslutfattningsprocess mer begriplig. Några exempel på dessa tekniker är:

  • LIME (Local Interpretable Model-Agnostic Explanations).
  • SHAP (SHapley Additive exPlanations).
  • ICE plots (Individual Conditional Expectation).

Utvecklare kan även använda naturlig språkbehandling (NLP) för att generera förklaringar av modellens beslut som är läsbara för människor. NLP kan översätta komplex statistisk utdata till tydliga och kontextuella beskrivningar som är tillgängliga och lätta att tyda för utvecklare och användare. Läs om fem viktiga frågor att ställa sig när man utvecklar pålitliga AI-modeller.

Sekretess och säkerhet

Sekretess och säkerhet är två sammanflätade pelare som försäkrar att data är skyddad under den fulla livscykeln för AI. Sekretessbevarande AI-tekniker möjliggör för organisationer att utnyttja stora datamängder samtidigt som de skyddar personlig information. Säkerhetsåtgärder skyddar mot skadliga attacker och obehörig åtkomst.

När företag går mot en decentraliserad modell, erbjuder samordnade inlärningstekniker skalbarhet och flexibilitet, samtidigt som det löser flera problem med sekretess och säkerhet. Samordnade inlärningstekniker gör det till exempel möjligt för organisationer att träna modeller utan att dela rådata – vilket minskar datarörelse (och därmed risken för exponering).

Andra användbara tekniker för sekretess och säkerhet är:

  • Homomorfisk kryptering (möjliggör för beräkning av krypterad data utan att dekryptera originalet).
  • Differentiell integritet (döljer individuell data genom att lägga till kontrollerat brus).
  • Motståndsträning och sanering av indata.
  • Robust åtkomstkontroll och auktoriseringsprotokoll.

Robusthet

Robusta AI-system presterar konsekvent och korrekt under olika förhållanden, inklusive oförväntade inmatningar eller förändringar i miljön. Robusthet är viktigt för att upprätthålla funktionssäkerhet och pålitlighet i praktiskt användande.

Tekniker för att förbättra robusthet inkluderar:

  • Motståndsträning involverar att utsätta modeller för skadlig indata under träningen för att förbättra motståndskraft.
  • Helhetsmetoder innebär att man kombinerar flera algoritmer för inlärning för att förbättra stabilitet och prestanda.
  • Normeringstekniker hjälper till att förhindra över- och underanpassning, förbättra generalisering och balansera modellkomplexitet med prestanda. Fortgående övervakning av prestanda och modelluppdateringar hjälper till att upprätthålla precision.

Pålitlig AI-mjukvara bör omfatta flera olika metoder för att hantera algoritmer och granska deras avvärjande över tid. Förhoppningsvis skapar AI-etik ett ramverk för reglering, tekniska lösningar och organisatoriska tillvägagångssätt som stämmer överens med utveckling och driftsättning av AI med mänskliga värderingar och samhällets bästa i åtanke.

Hur man navigerar sex av generativ AI:s unika etiska utmaningar

Artificiell intelligens har alltid väckt etiska frågor, men GenAI – med sin förmåga att generera ny data – har trappat upp oron. De etiska frågor och potentiella faror som följer introducerar risker och utmaningar som är helt nya i sitt slag och som organisationer och samhället snarast måste ta itu med.

Överväg följande exempel på hur GenAI kan:

  • Ta deepfake till en helt ny nivå (t.ex. i inlägg på sociala medier).
  • Kränka immateriella rättigheter.
  • Förstöra förtroende för digital information.
  • Förvärra partiskhet och diskriminering.
  • Ha negativ intellektuell och social påverkan.
  • Skapa en ohanterlig röra av ansvarsskyldighet och regelverk.

Regelverkens roll i etisk AI

Ett regelverk utger ryggraden i etisk implementering av AI. Dessa strukturer etablerar tydliga ansvarsled genom hela AI- livscykeln.

En omfattande strategi för regelverk bör fastställa beslutfattningsprocessen – inklusive mänsklig tillsyn – och tilldela specifika roller för AI-projektledning.

Vid någon tidpunkt kan det inkludera att tilldela roller som chefer för AI-etik eller kommittéer som ansvarar för policyutveckling, övervakning av regelefterlevnad och etiska granskningar. Regelbundna bedömningar av algoritmer och kontroller av partiskhet är viktiga komponenter i dessa regelverk och försäkrar att AI-modeller fortsatt följer etiska standarder och organisationens värderingar.

Allt eftersom möjligheterna med AI växer blir regelverkens roll ännu viktigare. AI-systems potential att självständigt ställa frågor och generera svar understryker behovet av robusta tillsynsmekanismer. Tänk dig till exempel implikationerna av AI- hallucinationer.

Genom att införa stränga styrningsprotokoll kan din organisation utnyttja kraften av AI, samtidigt som ni minskar risker och upprätthåller etisk integritet i ett alltmer självstyrande teknologiskt landskap.

Pålitlig och ansvarsfull AI handlar om mer än att minska det negativa. Det handlar också om att lyfta fram AI:s stora potential att möjliggöra mer produktiva och rättvisa samhällen. Reggie Townsend Reggie Townsend vicepresident SAS Data Ethics Practice

Framtiden för AI-etik

Fältet för AI-etik kommer att utvecklas i takt med AI. Framväxande tekniker som kvantdatorteknik och neuromorfisk AI kommer att introducera nya etiska utmaningar och möjligheter. Makthavare, branschledare och forskare måste samarbeta för att ta fram anpassningsbara etiska ramverk som kan hålla takten med snabba teknologiska framsteg.

De grundläggande frågorna AI-verktyg och teknologi väcker gällande vårt förhållande med datorer kommer att fortsätta utvecklas. Debatter om hur AI kommer att påverka framtidens arbete – och om (eller när) teknisk singularitet kommer att inträffa – pågår.

Utbildning och medvetenhet kommer också att spela en viktig roll i att forma framtidens AI-etik. Genom att främja en kultur av etisk medvetenhet bland AI-utvecklare, företagsledare och allmänheten kan vi försäkra att fördelarna med AI förverkligas ansvarsfullt och rättvist.

Nu när vi står på tröskeln till en AI-driven framtid är det först och främst moraliskt nödvändigt att anamma AI-etik. Det är dessutom ett strategiskt behov för företag som hoppas bygga ett hållbart, pålitligt och välgörande AI-ekosystem för många generationer framöver.

Nästa steg

Upptäck hur man på ett ansvarsfullt, konsekvent och pålitligt sätt kan utveckla AI.

Stärka innovation inom AI-etik

SAS® Viya® är en omfattande plattform för utveckling och driftsättning av etiska AI-lösningar. Med inbyggda funktioner för förklaringar av modeller, upptäckt av partiskhet och regelverk låter det dig utnyttja kraften av AI samtidigt som du följer de allra högsta etiska standarderna.