
Etyka AI
Teoria i praktyka
Etyka AI to połączenie sztucznej inteligencji (AI) ze stosowaniem zasad etycznych, które pozwalają odróżnić dobro od zła i określają, jak ludzie powinni postępować. Dlaczego jest to tak ważne? Technologie AI umożliwiają maszynom naśladowanie czynności wykonywanych przez ludzi, np. podejmowania decyzji czy inteligentnej automatyzacji zadań. Aby robić to w sposób bezpieczny, potrzebujemy wytycznych, które zapewnią, że opracowywanie i wdrażanie systemów AI będzie odbywać się zgodnie z podstawowymi wartościami wyznawanymi przez ludzi, takimi jak prywatność, włączenie, sprawiedliwość i ochrona praw jednostki.
Historia etyki AI: „Czy maszyny potrafią myśleć?”
W ostatnich latach sztuczna inteligencja często pojawia się w nagłówkach wiadomości i rozpala wyobraźnię ludzi. Warto jednak pamiętać, że jej początki sięgają kilkadziesiąt lat wstecz. Badania nad AI rozpoczęły się w latach 50. XX wieku, kiedy to pierwsi pionierzy tej dziedziny zaczęli rozwijać podstawowe koncepcje i algorytmy.
Ostatnie osiągnięcia w dziedzinie mocy obliczeniowej, big data i technik uczenia maszynowego wprowadziły AI do głównego nurtu, a wpływ sztucznej inteligencji na nasze codzienne życie stał się bardziej widoczny i odczuwalny. Przykładem może być szybkie upowszechnianie się generatywnej AI (GenAI) – technologii wykraczającej poza prognozowanie i skupiającej się głównie na tworzeniu nowych danych.
O generatywnej sztucznej inteligencji mówi się dziś tak dużo, że można spokojnie założyć, iż nasze pokolenie jako pierwsze będzie musiało zająć się trudnymi tematami dotyczącymi stronniczości danych, odpowiedzialności, sprawiedliwości algorytmów czy społecznego wpływu inteligentnych maszyn. Jednak – co ciekawe – dylematy dotyczące skutków korzystania z AI i inteligentnych maszyn sięgają początków technologii cyfrowych.
Zaczęło się od wizjonerów, takich jak Alan Turing, których nurtowały filozoficzne i etyczne konsekwencje korzystania ze sztucznej inteligencji. Kwestie, które nie dawały spokoju Turingowi – np. istota świadomości czy potencjał uczenia się i myślenia maszyn – wciąż powracają i we współczesnych rozważaniach nad etyką AI przybierają coraz to nowsze formy.
Chronologia historii etyki AI
Kliknij daty, aby przeczytać o przełomowych momentach w historii etyki AI
Godna zaufania AI – porady eksperta
„Zaufanie do AI musi zaczynać się jeszcze przed napisaniem pierwszej linijki kodu”. To tylko jedna z rad dotyczących etyki AI, jakie ma dla nas Reggie Townsend, wiceprezes SAS Data Ethics Practice. Obejrzyj ten krótki film i poznaj inne cenne wskazówki, którymi Reggie Townsend dzieli się z odbiorcami z całego świata.
Etyka AI w dzisiejszym świecie
Przestrzeganie zasad etyki AI buduje przejrzystość, odpowiedzialność i zaufanie, ale poruszanie się po zagadnieniach z tego obszaru wymaga uwzględnienia złożonych moralnych, prawnych i społecznych konsekwencji korzystania z danych i sztucznej inteligencji. Dowiedz się, jak eksperci podchodzą do tych kluczowych wyzwań w ramach odpowiedzialnego rozwijania i wdrażania AI.
Narodowy Instytut Zdrowia przełamuje bariery w obszarze badań medycznych dzięki zróżnicowanym zbiorom danych
W przypadku badań medycznych uniwersalne rozwiązania mają ograniczone zastosowanie. Nasze organizmy różnią się między sobą w zależności od tego, gdzie mieszkamy, co jemy, jakie mamy geny i na jakie czynniki jesteśmy narażeni w ciągu życia. Realizowany przez Narodowy Instytut Zdrowia (NIH) program badawczy „All of Us” zmienia rodzaje gromadzonych danych i sposoby ich udostępniania na potrzeby badań biomedycznych. Tworzenie obszernych zbiorów danych odzwierciedlających ogromną różnorodność mieszkańców USA pozwala uwzględniać w danych badawczych wiele osób, które były wcześniej niedostatecznie reprezentowane. Wszystko to służy temu, by badania były bardziej wiarygodne, a sztuczna inteligencja i analityka przejrzyste i zgodne z zasadami etyki.
W jakich branżach ma zastosowanie etyka AI?
Od pojazdów autonomicznych po chatboty i agentów AI – decyzje podejmowane przez sztuczną inteligencję w różnym stopniu wpływają na życie ludzi. Etyka AI jako taka ma kluczowe znaczenie w różnych branżach, w tym w firmach Big Tech. Wiele organizacji rozumie dziś, jak ważne jest posiadanie ram etycznych, które będą wyznaczać kierunki dla zastosowań i przedsięwzięć AI, zmniejszać potencjalne ryzyko i budować zaufanie ze strony interesariuszy.
Na czym polega etyka AI: zrozumieć etykę sztucznej inteligencji
Etyka AI to dziedzina z pogranicza technologii, filozofii i nauk społecznych. Aby skutecznie wykorzystywać potężną technologię, jaką jest AI, musimy uwzględniać kwestie etyczne na wszystkich etapach cyklu życia AI – od gromadzenia danych i opracowywania algorytmów po wdrażanie i monitorowanie. Przyjrzyjmy się kilku kluczowym zasadom.
Koncentracja na człowieku
Systemy AI traktujące priorytetowo ludzkie potrzeby i wartości mają większe szanse na to, by je przyjęto, obdarzono zaufaniem i efektywnie stosowano. Opracowując i wdrażając rozwiązania AI skoncentrowane na człowieku, organizacje mogą tworzyć bardziej odpowiedzialne, skuteczne i korzystne ze społecznego punktu widzenia systemy AI będące uzupełnieniem ludzkiej inteligencji i kreatywności.
Wdrażaniu rozwiązań skoncentrowanych na człowieku służą następujące techniki i podejścia:
- Human-in-the-loop (stosowanie ludzkiego osądu w kluczowych punktach procesów AI, zwłaszcza przy podejmowaniu istotnych decyzji)
- Współtworzenie
- Ocena konsekwencji etycznych
- Adaptacyjna sztuczna inteligencja (systemy, które dostosowują swoje zachowanie na podstawie informacji zwrotnych od ludzi i zmieniającego się kontekstu).
W miarę rozwoju AI zachowanie podejścia skoncentrowanego na człowieku będzie kluczowe, ponieważ pozwoli tworzyć systemy AI, które przynosić będą korzyści społeczeństwu, szanując jednocześnie prawa i godność jednostki.
Sprawiedliwość i odpowiedzialność
Jednym z kluczowych aspektów etyki AI jest zapewnienie sprawiedliwych i bezstronnych wyników. Przykłady? Jeśli algorytm rozpoznaje zwierzęta jako ludzi, należy mu dostarczyć więcej danych o bardziej zróżnicowanym zbiorze ludzi, a jeśli podejmuje błędne lub nieetyczne decyzje, może to oznaczać, że ilość danych użytych do trenowania modelu była niewystarczająca lub że wzmacnianie procesu uczenia się było z punktu widzenia pożądanego efektu niewłaściwe.
Ludziom zdarza się, czasem w sposób niezamierzony, wprowadzać nieetyczne wartości do systemów AI – przyczyną może być dokonywanie wyboru danych w sposób stronniczy lub błędne przypisywanie wartości wzmocnień. Jednym z pierwszych kroków technicznych mających na celu zapewnienie etycznego działania AI jest opracowanie parametrów sprawiedliwości oraz technik eliminowania stronniczości. Do oceny sprawiedliwości algorytmów służą równość demograficzna i wyrównane szanse. Ponowne ważenie danych treningowych oraz eliminowanie uprzedzeń metodą przeciwstawną to mechanizmy, które mogą pomóc redukować wyuczoną stronniczość.
Warto przy tym zaznaczyć, że nie mówimy tu o działaniu, które wystarczy podjąć raz. O sprawiedliwość i odpowiedzialność na przestrzeni całego cyklu życia systemu AI pomogą zadbać regularne audyty w połączeniu ze zróżnicowanym składem zespołów pracujących nad rozwiązaniami AI. Jednorazowe omówienie tych problemów nie wystarczy – ich eliminowanie musi stać się stałą i integralną częścią wszystkich naszych rozważań.
Przejrzystość i wyjaśnialność
Przejrzystość i wyjaśnialność są kluczowe w kontekście budowania zaufania, przestrzegania przepisów dotyczących AI i osiągania akceptowalności etycznej. Przejrzyste i wyjaśnialne rozwiązania AI umożliwiają programistom rozpoznawanie i eliminowanie uprzedzeń i błędów wykrytych w procesie decyzyjnym oraz pozwala użytkownikom końcowym podejmować świadome decyzje uwzględniające czynniki wpływające na wyniki generowane przez AI.
Etykiety opatrujące modele AI
Etykiety umieszczane na produktach spożywczych dostarczają przejrzystych informacji na temat składników i wartości odżywczych oraz zawierają wskazówki dotyczące przygotowywania ulubionych przekąsek. Podobną rolę pełnią karty modelu, które są niczym etykiety opatrujące modele AI. Karty te w ustandaryzowany i przystępny sposób informują interesariuszy o kluczowych aspektach modelu AI – określają jego cel, działanie, ograniczenia i kwestie etyczne.
Techniki wyjaśniania złożonych modeli
Modelatorzy mogą wykorzystywać wiele różnych technik w celu wyjaśnienia prognoz generowanych przez złożone modele uczenia maszynowego – to pomaga zrozumieć, jak przebiega proces decyzyjny danego modelu. Wśród przykładów takich technik możemy wymienić:
- LIME (Local Interpretable Model-Agnostic Explanations)
- SHAP (SHapley Additive exPlanations)
- ICE plots (Individual Conditional Expectation).
Do generowania zrozumiałych dla ludzi wyjaśnień decyzji podejmowanych przez modele programiści, którzy je tworzą, mogą także wykorzystywać przetwarzanie języka naturalnego (NLP). Przy pomocy NLP można przekładać złożone wyniki statystyczne na jasny, osadzony w kontekście tekst, który jest przystępny i łatwy do zinterpretowania przez programistów i użytkowników. Poznaj pięć kluczowych kwestii, które należy rozważyć, tworząc godne zaufania modele AI.
Prywatność i bezpieczeństwo
Prywatność i bezpieczeństwo to dwa powiązane ze sobą elementy, które służą zapewnieniu ochrony danych wrażliwych na przestrzeni całego cyklu życia AI. Techniki ochrony prywatności AI umożliwiają organizacjom zabezpieczenie dużych zbiorów danych przy jednoczesnej ochronie informacji o jednostce. Środki bezpieczeństwa chronią przed złośliwymi atakami i nieuprawnionym dostępem.
W miarę jak firmy przechodzą na zdecentralizowane modele danych, techniki uczenia federacyjnego zapewniają skalowalność i elastyczność, rozwiązując jednocześnie szereg problemów dotyczących prywatności i bezpieczeństwa. Techniki te przykładowo umożliwiają organizacjom trenowanie modeli bez udostępniania surowych danych, co ogranicza przekazywanie danych (a zatem również ryzyko ich ujawnienia).
Do innych pomocnych technik ochrony prywatności i bezpieczeństwa zaliczyć można:
- szyfrowanie homomorficzne (umożliwia operowanie na zaszyfrowanych danych bez konieczności ich odszyfrowywania)
- prywatność różnicową (ukrywanie danych poszczególnych osób poprzez dodawanie kontrolowanego szumu)
- trenowanie antagonistyczne i oczyszczanie danych wejściowych
- niezawodną kontrolę dostępu i protokoły uwierzytelniania.
Niezawodność
Niezawodne systemy AI działają konsekwentnie i prawidłowo w różnych warunkach – także wtedy, gdy zostaną zasilone nieoczekiwanymi danymi lub narażone na zmianę środowiska. Niezawodność jest kluczowa dla utrzymania wiarygodności i zaufania do praktycznych zastosowań AI.
Do technik zwiększania niezawodności można zaliczyć następujące rozwiązania:
- Trenowanie antagonistyczne, które polega na eksponowaniu modeli na złośliwe dane na etapie uczenia, aby zwiększać ich odporność.
- Metody zespołowe obejmujące łączenie różnych algorytmów uczenia w celu poprawy stabilności i wydajności.
- Techniki regularyzacji, które pomagają zapobiegać wykazywaniu nadmiernego i niewystarczającego dopasowania, poprawiają generalizację i zapewniają równowagę między złożonością modelu a jego wydajnością. Stałe monitorowanie wydajności i aktualizacje modelu pomagają utrzymać jego wysoką dokładność.
Godne zaufania oprogramowanie AI powinno uwzględniać różne metody zarządzania algorytmami i monitorowania utraty wartości w czasie. Etyka AI tworzy strukturę nadzoru, rozwiązań technicznych i praktyk organizacyjnych, które pomagają rozwijać i wdrażać AI w sposób zgodny z wartościami ludzkimi i interesem społecznym.
Poznaj 6 wyjątkowych wyzwań etycznych, jakie niesie generatywna AI
Sztuczna inteligencja od początku budziła wątpliwości etyczne, a GenAI – ze swoją zdolnością do generowania nowych danych – jeszcze bardziej nasiliła tego typu obawy. Związane z nią pytania natury etycznej oraz potencjalne zagrożenia stanowią źródło nieznanego dotąd ryzyka, a także wyzwań, którym organizacje i społeczeństwo muszą pilnie stawić czoła.
Warto zastanowić się nad tym, jak GenAI może:
- pomóc osiągać deepfake’om (na przykład w formie postów w mediach społecznościowych) nowy poziom możliwości
- naruszać prawa własności intelektualnej
- niszczyć zaufanie do informacji cyfrowych
- zwiększać stronniczość i pogłębiać dyskryminację
- wywierać negatywny wpływ psychiczny i społeczny
- tworzyć problemy związane z odpowiedzialnością i nadzorem.
Rola nadzoru w etycznej sztucznej inteligencji
Ramy nadzoru stanowią centralną oś procesu wdrażania etycznych rozwiązań AI. Wyznaczają one jasne granice odpowiedzialności w całym cyklu życia AI.
Kompleksowa strategia nadzoru powinna definiować procesy podejmowania decyzji – w tym nadzór przez człowieka – i przypisywać konkretne role w zakresie zarządzania projektami AI.
Na pewnym etapie może to oznaczać przydzielanie obowiązków specjalistom lub zespołom ds. etyki AI odpowiedzialnym za opracowywanie zasad, monitorowanie zgodności i przeprowadzanie audytów etycznych. Regularna ocena algorytmów i weryfikacja stronniczości to kluczowe elementy takich systemów zarządzania, służące zapewnieniu, że modele AI pozostaną zgodne ze standardami etycznymi i wartościami organizacji.
W miarę poszerzania się możliwości AI rola nadzoru staje się jeszcze ważniejsza. Umiejętność samodzielnego formułowania pytań i generowania odpowiedzi przez systemy AI podkreśla potrzebę wprowadzenia niezawodnych mechanizmów nadzoru. Warto w tym miejscu wziąć pod uwagę na przykład skutki halucynacji AI.
Dzięki wdrożeniu restrykcyjnych protokołów nadzoru organizacja może korzystać z możliwości AI, ograniczając jednocześnie ryzyko i utrzymując zgodność z zasadami etyki w coraz bardziej autonomicznym otoczeniu technologicznym.
Przyszłość etyki AI
Wraz z rozwojem AI zmieniać się będą także zasady etyczne dotyczące tego obszaru. Pojawiające się nowe technologie, takie jak obliczenia kwantowe czy neuromorficzna sztuczna inteligencja, przyniosą kolejne możliwości i wyzwania etyczne. Decydenci polityczni, branżowi liderzy i naukowcy muszą wspólnie opracowywać adaptacyjne ramy etyczne, które dotrzymają tempa szybkim postępom technologicznym.
Pod wpływem narzędzi i technologii AI zmieniać się będą także podstawowe pytania dotyczące naszej relacji z komputerami. Nie ustają dyskusje na temat tego, jak AI wpłynie na przyszłość pracy oraz czy (lub kiedy) nastąpi osobliwość technologiczna.
Kluczową rolę w kształtowaniu przyszłości etyki AI będzie także odgrywać edukacja i świadomość. Budując kulturę świadomości etycznej wśród programistów AI, liderów biznesowych i ogółu społeczeństwa, możemy zadbać o to, by korzyści płynące z AI były osiągane w sposób odpowiedzialny i sprawiedliwy.
Jako że znajdujemy się u progu przyszłości napędzanej przez AI, przyjęcie zasad etycznych mających zastosowanie w kontekście AI to przede wszystkim obowiązek moralny, a dodatkowo również konieczność strategiczna dla firm, które chcą budować zrównoważony, godny zaufania i przynoszący korzyści system AI dla przyszłych pokoleń.
Wspieramy innowacje w dziedzinie etyki AI
SAS® Viya® to kompleksowa platforma do tworzenia i wdrażania etycznych rozwiązań AI. Dzięki wbudowanym funkcjom, takim jak wyjaśnialność modeli, wykrywanie uprzedzeń i nadzór, platforma umożliwia wykorzystywanie potencjału AI przy jednoczesnym zachowywaniu najwyższych standardów etycznych.
Polecane materiały
- Artykuł Beyond IFRS 17 – what's next?IFRS 17 is not just another accounting standard. It represents a long-term investment that will pay off for insurers with a clear vision for future goals. Learn how IFRS 17 can provide transparency and insight to an insurance business while identifying strengths and areas for improvement.
- Artykuł What is a customer data platform?Customer data platform popularity has risen, leading to confusion in the marketplace. Here's everything you need to know about how a CDP works, the challenges to consider when looking at options, and ways to extend the CDP capabilities beyond marketing through easy integration of real-time decision engines.
- Artykuł AI transforms insurance: See 8 examples of how it worksUsing AI in insurance can boost value for customers, insurance companies and stakeholders alike. Examples range from stronger fraud detection and improved customer service to optimized underwriting processes and competitive advantage. Learn more about how AI is transforming the industry.
