
AI-etik
Vad det är och varför det är viktigt
AI-etik kopplar samman artificiell intelligens (AI) med tillämpning av etik – principerna för rätt och fel som beskriver hur människor bör agera. Varför är det så viktigt? För att AI-teknik gör det möjligt för maskiner att härma mänsklig beslutsfattning och automatisera uppgifter på ett intelligent sätt. För att göra det på ett säkert sätt behöver vi riktlinjer som försäkrar att AI-system är utformade och driftsatta i enlighet med grundläggande mänskliga värderingar, så som integritet, inklusivitet, rättvisa och skydd av individuella rättigheter.
AI-etikens historia: ”Kan maskiner tänka?”
Artificiell intelligens har dominerat nyhetsrubriker och fångat allmänhetens fantasi de senaste åren – men dess rötter sträcker sig flera årtionden tillbaka. AI-forskning började under 1950-talet med att tidiga pionjärer utvecklade grundläggande koncept och algoritmer.
Mer nutida framsteg inom datorkraft, big data och maskininlärningstekniker normaliserade AI och gjorde dess inverkan mer synlig och påtaglig i vår vardag. Ta till exempel det snabba införandet av generative AI (GenAI) – en sorts AI- teknik som inte bara förutser, utan går steget längre genom att generera ny data som sin huvudsakliga utdata.
Med all hajp runt GenAI är det lätt att anta att vår generation är den första att överväga tunga frågor om partisk data, ansvarsskyldighet, algoritmisk rättvisa och hur samhället påverkas av intelligenta maskiner. Men grundläggande farhågor kring de långsiktiga effekterna av AI och smarta maskiner sträcker sig tillbaka till födelsen av digital databehandling.
Det hela började med att visionärer som Alan Turing brottades med de filosofiska och etiska implikationerna av artificiell intelligens. Frågorna som höll Turing vaken om nätterna – medvetandets natur och maskiners potential att tänka och lära sig – fortsätter att eka och utvecklas i dagens diskussioner om AI-etik.
En tidslinje över AI-etikens historia
Klicka dig igenom årtalen för att läsa om några viktiga milstolpar för utvecklingen av AI-etik.
Utveckla pålitlig AI
Från idé till leverans krävs det att människor samarbetar mot ett gemensamt mål för att utveckla pålitlig AI-programvara som bygger på mänskliga värderingar. Det inkluderar produktchefer, dataanalytiker, mjukvaruutvecklare, UX-designers och mjukvarutestare. Alla ställer sig tre centrala frågor under arbetet med en produkt: ”För vilket syfte, med vilket mål, och för vem kan det gå fel?” Titta på videon för att lära dig mer om hur vi redan från början inkluderar ett etiskt perspektiv i våra AI-system.
AI-etik i dagens samhälle
Att följa AI-etik främjar transparens, ansvarsskyldighet och förtroende. Men att navigera AI-etik kräver att man brottas med data och AI:s komplexa moraliska, rättsliga och samhälleliga implikationer. Upptäck hur experter närmar sig dessa kritiska utmaningar med ansvarsfull utveckling och driftsättning av AI.
NIH utmanar gränserna inom hälsoforskning med olikartade datamängder
En metod som bygger på att en lösning passar alla är begränsad när det gäller medicinsk forskning. Allas kroppar är olika – med variationer baserade på var man bor, vad man äter, anlagstyp, livstidsexponering med mera. Hos National Institutes of Health (NIH) vill forskningsprogrammet All of Us ändra vilken sorts data som samlas in och hur den delas för biomedicinsk forskning. Genom att bygga breda datamängder som reflekterar USA:s stora mångfald av invånare inkluderar datamängder för forskning nu många grupper som tidigare var underrepresenterade. Det handlar om att göra forskning mer pålitlig och att försäkra att AI och analys är transparent och etisk.
Vilka branscher använder AI-etik?
Från förarlösa fordon till AI-chattbottar och nu AI-agenter, beslut fattade av AI påverkar människor till olika grader. Därför är AI- etik ett kritiskt avseende inom många branscher, däribland Big Tech-företag. Idag ser många organisationer vikten av att ha etiska ramverk för att guida deras AI-applikationer och AI- initiativ, minska potentiella risker och bygga upp tilliten bland intressenter.
Hur AI-etik fungerar: att förstå etiken bakom artificiell intelligens
AI-etik verkar i korsningen av teknologi, filosofi och samhällsvetenskap. För att framgångsrikt använda denna kraftfulla teknik måste vi bädda in etiska överväganden i varje steg av AI:s livscykel – från datainsamling och utformning av algoritmer till driftsättning och kontroll. Låt oss utforska några av de huvudsakliga principerna.
Människocentrering
AI-system som prioriterar mänskliga behov och värderingar har en större sannolikhet att tas i bruk, vinna tillit och användas effektivt. Genom att bädda in människocentrering när vi utvecklar och implementerar AI kan organisationer skapa mer ansvarsfulla, effektiva och samhällsnyttiga AI-system som kan komplettera mänsklig intelligens och kreativitet.
Tekniker och metoder för att implementera människocentrering inkluderar:
- Human-in-the-loop (integrering av mänskligt omdöme vid viktiga punkter i AI-processen, särskilt vid viktiga beslut).
- Deltagardesign.
- Bedömning av etisk inverkan.
- Adaptiv AI (system som justerar sitt beteende baserat på mänsklig feedback och skiftande kontexter).
Allt eftersom AI utvecklas är det nödvändigt att upprätthålla en människocentrerad metod för att skapa AI-system som gör nytta för samhället samtidigt som det respekterar individens rättigheter och värdighet.
Rättvisa och ansvarsskyldighet
En viktig aspekt av AI-etik är att försäkra att resultaten är rättvisa och opartiska. Tänk dig följande exempel: om din algoritm identifierar djur som människor behöver du mata den med mer data om en mer mångfaldig grupp människor. Om din algoritm fattar felaktiga eller oetiska beslut kan det innebära att det inte fanns tillräckligt med data för att träna modellen, eller att återkopplingsinlärning inte var lämplig för det önskade resultatet.
Människor har, ibland utan avsikt, fört in oetiska värden i AI-system på grund av partisk dataselektering eller dåligt anvisade återkopplingsvärden. Ett av de första tekniska stegen mot att försäkra AI-etik är att utveckla rättvisemått och tekniker för att utesluta partiskhet. Demografisk jämlikhet och utjämnade odds mäter algoritmers rättvisa. Att mäta om träningsdata och kontradiktorisk uteslutning av partiskhet kan bidra till mindre inlärd partiskhet.
Men en engångsaktion räcker inte. Regelbundna revisioner, i kombination med mångfaldig representation i team för AI- utveckling kommer att hjälpa till att upprätthålla rättvisa och ansvarsskyldighet genom hela AI-systemets livscykel. Det räcker inte att ha enstaka konversationer om dessa problem, vi måste göra det till en fortsatt och väsentlig del av vår diskurs.
Transparens och förklaringsbarhet
Transparens och förklaringsbarhet är nödvändiga för att bygga upp förtroende, följa AI-föreskrifter och uppnå etisk validering. Transparent och förklaringsbar AI gör det möjligt för utvecklare att identifiera och ta itu med partiskhet eller felaktigheter i beslutfattningsprocessen. Det låter även slutanvändaren fatta välinformerade beslut baserat på faktorer som påverkar AI:ns utdata.
Näringsdeklaration för AI-modeller
Näringsdeklarationer på matförpackningar ger transparens kring ingredienser, näring och hur du förbereder ditt favoritsnack. På ett liknande sätt är modellkort transparenta ”näringsdeklarationer” för AI-modeller. De ger insikt i en modells ändamål, prestanda, begränsningar och etiska avseenden. De använder en standardiserad och tillgänglig metod för att förmedla AI-modellers huvudsakliga aspekter till intressenter.
Tekniker för att förklara komplexa modeller
Det finns flera olika tekniker som utvecklare kan använda för att förklara komplexa maskininlärningsmodellers prediktioner, vilket bidrar till att göra modellens beslutfattningsprocess mer begriplig. Några exempel på dessa tekniker är:
- LIME (Local Interpretable Model-Agnostic Explanations).
- SHAP (SHapley Additive exPlanations).
- ICE plots (Individual Conditional Expectation).
Utvecklare kan även använda naturlig språkbehandling (NLP) för att generera förklaringar av modellens beslut som är läsbara för människor. NLP kan översätta komplex statistisk utdata till tydliga och kontextuella beskrivningar som är tillgängliga och lätta att tyda för utvecklare och användare. Läs om fem viktiga frågor att ställa sig när man utvecklar pålitliga AI-modeller.
Sekretess och säkerhet
Sekretess och säkerhet är två sammanflätade pelare som försäkrar att data är skyddad under den fulla livscykeln för AI. Sekretessbevarande AI-tekniker möjliggör för organisationer att utnyttja stora datamängder samtidigt som de skyddar personlig information. Säkerhetsåtgärder skyddar mot skadliga attacker och obehörig åtkomst.
När företag går mot en decentraliserad modell, erbjuder samordnade inlärningstekniker skalbarhet och flexibilitet, samtidigt som det löser flera problem med sekretess och säkerhet. Samordnade inlärningstekniker gör det till exempel möjligt för organisationer att träna modeller utan att dela rådata – vilket minskar datarörelse (och därmed risken för exponering).
Andra användbara tekniker för sekretess och säkerhet är:
- Homomorfisk kryptering (möjliggör för beräkning av krypterad data utan att dekryptera originalet).
- Differentiell integritet (döljer individuell data genom att lägga till kontrollerat brus).
- Motståndsträning och sanering av indata.
- Robust åtkomstkontroll och auktoriseringsprotokoll.
Robusthet
Robusta AI-system presterar konsekvent och korrekt under olika förhållanden, inklusive oförväntade inmatningar eller förändringar i miljön. Robusthet är viktigt för att upprätthålla funktionssäkerhet och pålitlighet i praktiskt användande.
Tekniker för att förbättra robusthet inkluderar:
- Motståndsträning involverar att utsätta modeller för skadlig indata under träningen för att förbättra motståndskraft.
- Helhetsmetoder innebär att man kombinerar flera algoritmer för inlärning för att förbättra stabilitet och prestanda.
- Normeringstekniker hjälper till att förhindra över- och underanpassning, förbättra generalisering och balansera modellkomplexitet med prestanda. Fortgående övervakning av prestanda och modelluppdateringar hjälper till att upprätthålla precision.
Pålitlig AI-mjukvara bör omfatta flera olika metoder för att hantera algoritmer och granska deras avvärjande över tid. Förhoppningsvis skapar AI-etik ett ramverk för reglering, tekniska lösningar och organisatoriska tillvägagångssätt som stämmer överens med utveckling och driftsättning av AI med mänskliga värderingar och samhällets bästa i åtanke.
Hur man navigerar sex av generativ AI:s unika etiska utmaningar
Artificiell intelligens har alltid väckt etiska frågor, men GenAI – med sin förmåga att generera ny data – har trappat upp oron. De etiska frågor och potentiella faror som följer introducerar risker och utmaningar som är helt nya i sitt slag och som organisationer och samhället snarast måste ta itu med.
Överväg följande exempel på hur GenAI kan:
- Ta deepfake till en helt ny nivå (t.ex. i inlägg på sociala medier).
- Kränka immateriella rättigheter.
- Förstöra förtroende för digital information.
- Förvärra partiskhet och diskriminering.
- Ha negativ intellektuell och social påverkan.
- Skapa en ohanterlig röra av ansvarsskyldighet och regelverk.
Regelverkens roll i etisk AI
Ett regelverk utger ryggraden i etisk implementering av AI. Dessa strukturer etablerar tydliga ansvarsled genom hela AI- livscykeln.
En omfattande strategi för regelverk bör fastställa beslutfattningsprocessen – inklusive mänsklig tillsyn – och tilldela specifika roller för AI-projektledning.
Vid någon tidpunkt kan det inkludera att tilldela roller som chefer för AI-etik eller kommittéer som ansvarar för policyutveckling, övervakning av regelefterlevnad och etiska granskningar. Regelbundna bedömningar av algoritmer och kontroller av partiskhet är viktiga komponenter i dessa regelverk och försäkrar att AI-modeller fortsatt följer etiska standarder och organisationens värderingar.
Allt eftersom möjligheterna med AI växer blir regelverkens roll ännu viktigare. AI-systems potential att självständigt ställa frågor och generera svar understryker behovet av robusta tillsynsmekanismer. Tänk dig till exempel implikationerna av AI- hallucinationer.
Genom att införa stränga styrningsprotokoll kan din organisation utnyttja kraften av AI, samtidigt som ni minskar risker och upprätthåller etisk integritet i ett alltmer självstyrande teknologiskt landskap.
Framtiden för AI-etik
Fältet för AI-etik kommer att utvecklas i takt med AI. Framväxande tekniker som kvantdatorteknik och neuromorfisk AI kommer att introducera nya etiska utmaningar och möjligheter. Makthavare, branschledare och forskare måste samarbeta för att ta fram anpassningsbara etiska ramverk som kan hålla takten med snabba teknologiska framsteg.
De grundläggande frågorna AI-verktyg och teknologi väcker gällande vårt förhållande med datorer kommer att fortsätta utvecklas. Debatter om hur AI kommer att påverka framtidens arbete – och om (eller när) teknisk singularitet kommer att inträffa – pågår.
Utbildning och medvetenhet kommer också att spela en viktig roll i att forma framtidens AI-etik. Genom att främja en kultur av etisk medvetenhet bland AI-utvecklare, företagsledare och allmänheten kan vi försäkra att fördelarna med AI förverkligas ansvarsfullt och rättvist.
Nu när vi står på tröskeln till en AI-driven framtid är det först och främst moraliskt nödvändigt att anamma AI-etik. Det är dessutom ett strategiskt behov för företag som hoppas bygga ett hållbart, pålitligt och välgörande AI-ekosystem för många generationer framöver.
Stärka innovation inom AI-etik
SAS® Viya® är en omfattande plattform för utveckling och driftsättning av etiska AI-lösningar. Med inbyggda funktioner för förklaringar av modeller, upptäckt av partiskhet och regelverk låter det dig utnyttja kraften av AI samtidigt som du följer de allra högsta etiska standarderna.
Rekommenderad läsning
- Article AI transforms insurance: See 8 examples of how it worksUsing AI in insurance can boost value for customers, insurance companies and stakeholders alike. Examples range from stronger fraud detection and improved customer service to optimized underwriting processes and competitive advantage. Learn more about how AI is transforming the industry.
- Article IFRS 17 and Insurance Capital Standards: Insurance regulation meets insurance accounting standardsIFRS 17 and ICS facilitate comparability and transparency for insurers from a regulatory and accounting perspective. Explore their similarities and differences, recognizing how clear communications can help stakeholders navigate regulatory and statutory reporting changes, increase confidence, and help mitigate adverse effects on share prices and ratings.
- Article AI and humanity: Collaborating to solve global problemsDisplaced communities, the food crisis and natural disasters – these situations affect quality of life, and even the ability to survive. Could artificial intelligence be the unexpected boost humanity needs? Could it accelerate our ability to make a positive, lasting impact? Learn more and read examples of how AI is being used to find solutions to global problems.
