Grupa współpracowników analizujących projekt na ekranie komputera

Etyka AI

Teoria i praktyka

Etyka AI to połączenie sztucznej inteligencji (AI) ze stosowaniem zasad etycznych, które pozwalają odróżnić dobro od zła i określają, jak ludzie powinni postępować. Dlaczego jest to tak ważne? Technologie AI umożliwiają maszynom naśladowanie czynności wykonywanych przez ludzi, np. podejmowania decyzji czy inteligentnej automatyzacji zadań. Aby robić to w sposób bezpieczny, potrzebujemy wytycznych, które zapewnią, że opracowywanie i wdrażanie systemów AI będzie odbywać się zgodnie z podstawowymi wartościami wyznawanymi przez ludzi, takimi jak prywatność, włączenie, sprawiedliwość i ochrona praw jednostki.

Historia etyki AI: „Czy maszyny potrafią myśleć?”

W ostatnich latach sztuczna inteligencja często pojawia się w nagłówkach wiadomości i rozpala wyobraźnię ludzi. Warto jednak pamiętać, że jej początki sięgają kilkadziesiąt lat wstecz. Badania nad AI rozpoczęły się w latach 50. XX wieku, kiedy to pierwsi pionierzy tej dziedziny zaczęli rozwijać podstawowe koncepcje i algorytmy.

Ostatnie osiągnięcia w dziedzinie mocy obliczeniowej, big data i technik uczenia maszynowego wprowadziły AI do głównego nurtu, a wpływ sztucznej inteligencji na nasze codzienne życie stał się bardziej widoczny i odczuwalny. Przykładem może być szybkie upowszechnianie się generatywnej AI (GenAI) – technologii wykraczającej poza prognozowanie i skupiającej się głównie na tworzeniu nowych danych.

O generatywnej sztucznej inteligencji mówi się dziś tak dużo, że można spokojnie założyć, iż nasze pokolenie jako pierwsze będzie musiało zająć się trudnymi tematami dotyczącymi stronniczości danych, odpowiedzialności, sprawiedliwości algorytmów czy społecznego wpływu inteligentnych maszyn. Jednak – co ciekawe – dylematy dotyczące skutków korzystania z AI i inteligentnych maszyn sięgają początków technologii cyfrowych.

Zaczęło się od wizjonerów, takich jak Alan Turing, których nurtowały filozoficzne i etyczne konsekwencje korzystania ze sztucznej inteligencji. Kwestie, które nie dawały spokoju Turingowi – np. istota świadomości czy potencjał uczenia się i myślenia maszyn – wciąż powracają i we współczesnych rozważaniach nad etyką AI przybierają coraz to nowsze formy.

Chronologia historii etyki AI

Kliknij daty, aby przeczytać o przełomowych momentach w historii etyki AI

Godna zaufania AI – porady eksperta

„Zaufanie do AI musi zaczynać się jeszcze przed napisaniem pierwszej linijki kodu”. To tylko jedna z rad dotyczących etyki AI, jakie ma dla nas Reggie Townsend, wiceprezes SAS Data Ethics Practice. Obejrzyj ten krótki film i poznaj inne cenne wskazówki, którymi Reggie Townsend dzieli się z odbiorcami z całego świata.

Etyka AI w dzisiejszym świecie

Przestrzeganie zasad etyki AI buduje przejrzystość, odpowiedzialność i zaufanie, ale poruszanie się po zagadnieniach z tego obszaru wymaga uwzględnienia złożonych moralnych, prawnych i społecznych konsekwencji korzystania z danych i sztucznej inteligencji. Dowiedz się, jak eksperci podchodzą do tych kluczowych wyzwań w ramach odpowiedzialnego rozwijania i wdrażania AI.

Etyka danych i wdrażania AI

Podczas wdrażania modeli AI technologia styka się z etyką. Sprawdź, co warto rozważyć podczas opracowywania modeli i jak zapewniać przejrzystość i wiarygodność oraz uwzględniać wpływ społeczny na poszczególnych etapach – od prac nad modelem po zastosowanie go w praktyce.

Wiarygodny nadzór nad AI i danymi

W miarę jak AI rewolucjonizuje nasz świat, rośnie potrzeba stosowania etycznych praktyk AI. W tym e-booku znajdziesz informacje na temat zagrożeń, jakie niesie AI, poznasz strategie budowania godnych zaufania systemów AI oraz dowiesz się, jak skutecznie włączać zasady etyki AI do swojej działalności.

Czym są dane syntetyczne?

Pomimo powszechnej dostępności danych uzyskanie danych wysokiej jakości może być trudne (i kosztowne), ich ochrona może stanowić wyzwanie, a brak ich zróżnicowania bywa problematyczny, szczególnie że trenowanie modeli AI wymaga obszernych, zróżnicowanych i autentycznych zbiorów danych. Zobacz, jak dane syntetyczne pomagają rozwiązać problem „przydatności” danych.

Obawy przed sztuczną inteligencją: Spokój w obliczu zmian

AI spędza Ci sen z powiek? Nie tylko Tobie. Ustal, co jest przyczyną Twojego lęku przed sztuczną inteligencją – od obaw związanych z pracą po dylematy etyczne – i poznaj praktyczne strategie, które pomogą Ci się odnaleźć w dobie rewolucji AI.

Narodowy Instytut Zdrowia przełamuje bariery w obszarze badań medycznych dzięki zróżnicowanym zbiorom danych

W przypadku badań medycznych uniwersalne rozwiązania mają ograniczone zastosowanie. Nasze organizmy różnią się między sobą w zależności od tego, gdzie mieszkamy, co jemy, jakie mamy geny i na jakie czynniki jesteśmy narażeni w ciągu życia. Realizowany przez Narodowy Instytut Zdrowia (NIH) program badawczy „All of Us” zmienia rodzaje gromadzonych danych i sposoby ich udostępniania na potrzeby badań biomedycznych. Tworzenie obszernych zbiorów danych odzwierciedlających ogromną różnorodność mieszkańców USA pozwala uwzględniać w danych badawczych wiele osób, które były wcześniej niedostatecznie reprezentowane. Wszystko to służy temu, by badania były bardziej wiarygodne, a sztuczna inteligencja i analityka przejrzyste i zgodne z zasadami etyki.

W jakich branżach ma zastosowanie etyka AI?

Od pojazdów autonomicznych po chatboty i agentów AI – decyzje podejmowane przez sztuczną inteligencję w różnym stopniu wpływają na życie ludzi. Etyka AI jako taka ma kluczowe znaczenie w różnych branżach, w tym w firmach Big Tech. Wiele organizacji rozumie dziś, jak ważne jest posiadanie ram etycznych, które będą wyznaczać kierunki dla zastosowań i przedsięwzięć AI, zmniejszać potencjalne ryzyko i budować zaufanie ze strony interesariuszy.

Bankowość

AI stanowi integralną część usług finansowych. Systemy scoringu kredytowego wykorzystują algorytmy do analizy danych i oceny zdolności kredytowej. Na potrzeby wykrywania oszustw finansowych stosuje się zaawansowane algorytmy uczenia maszynowego, które analizują transakcje i reagują w czasie rzeczywistym na nowe wzorce nadużyć. Należy jednak pamiętać, że brak kontroli nad AI może prowadzić do pogłębiania problemu stronniczości. Na przykład modele AI, które trenowano na historycznych danych finansowych, mogą utrwalać istniejące nierówności, prowadząc do niesprawiedliwego traktowania w kontekście decyzji kredytowych, scoringu kredytowego, wniosków o przydział mieszkania, zatrudnienia czy wyceny polis ubezpieczeniowych. Z pomocą przychodzą tutaj funkcje umożliwiające wyjaśnianie decyzji oraz mierniki stronniczości i sprawiedliwości, a także wytyczne regulacyjne i ludzki nadzór. Banki mogą dzięki temu stać się katalizatorami dobrobytu i sprawiedliwego dostępu.

Opieka zdrowotna

Rewolucja AI w ochronie zdrowia – od badań genetycznych po spersonalizowane leczenie nowotworów i diagnostykę z użyciem chatbotów – wiąże się z szeregiem pytań natury etycznej. Dane pacjentów służące do trenowania modeli AI wymagają ścisłej ochrony, jednak nawet najbardziej solidne zabezpieczenia nie pomogą, gdy mamy do czynienia ze stronniczymi algorytmami, które mogą zwiększać nierówności w obszarze ochrony zdrowia. Proces decyzyjny realizowany w modelu „czarnej skrzynki” może budzić kolejne obawy. Co się stanie, gdy maszyny zaczną podejmować decyzje wpływające na ludzkie życie w sposób pozbawiony przejrzystości? Kto będzie odpowiadać za błędy popełnione przez AI? Twórcy innowacyjnych rozwiązań technologicznych, pracownicy ochrony zdrowia, pacjenci i decydenci polityczni muszą wspólnie stworzyć wytyczne, które zadbają o bezpieczeństwo pacjentów, nie wstrzymując przy tym postępu. W ten sposób możemy odpowiedzialnie i etycznie wykorzystywać pełny potencjał AI w ochronie zdrowia.

Ubezpieczenia

Firmy ubezpieczeniowe zbierają szereg różnych danych – od zawartych we wnioskach i polisach informacji o klientach po strumieniowanie danych z czujników znajdujących się w samochodach autonomicznych. Gromadzenie informacji w czasie zbliżonym do rzeczywistego pozwala ubezpieczycielom lepiej rozumieć potrzeby poszczególnych osób i zapewniać im bardziej spersonalizowane doświadczenia, niemniej w celu utrzymania zaufania konieczne są ochrona i nadzór nad danymi osobowymi wykorzystywanymi do podejmowania decyzji. Aby uniknąć problemów dotyczących prywatności lub braku wystarczających danych, do zadań związanych z tworzeniem wycen, szacowaniem rezerw lub modelowaniem aktuarialnym niektórzy ubezpieczyciele wykorzystują dane syntetyczne. Niezależnie od stosowanego podejścia firma ubezpieczeniowa musi ustalić ramy etyczne AI i stosować się do nich – to pozwala zagwarantować, że modele zasilane przez jej dane generują sprawiedliwe i bezstronne decyzje.

SEKTOR PUBLICZNY

Pracownicy sektora publicznego dokładają wszelkich starań, aby chronić ludzi, którym służą, i podnosić jakość ich życia. Odpowiadając na potrzeby obywateli, urzędnicy często korzystają z AI, aby zwiększać swoją produktywność i efektywność. Rozwiązania oparte na generatywnej AI pozwalają analizować dane historyczne, nastroje społeczne i inne wskaźniki, a następnie generować zalecenia mające na celu zmniejszenie zatorów czy dostrojenie alokacji zasobów. Korzystanie z AI nie jest jednak wolne od ryzyka, dlatego tak ważne jest rozwijanie i wdrażanie modeli AI w sposób sprawiedliwy i transparentny, przestrzeganie obowiązujących przepisów w ramach wszystkich realizowanych przedsięwzięć oraz radzenie sobie z wyzwaniem, jakim jest dziś szybkie rozpowszechnianie nieprawdziwych informacji. Umiejętność budowania etycznych systemów AI, które chronią i wzmacniają prawa jednostki, jest z perspektywy realizacji misji sektora publicznego kluczowe.

Interesuje Cię temat etyki AI w innych branżach?

Zapoznaj się z szeregiem spostrzeżeń na temat etyki AI w sektorach produkcji i rolnictwa.

Na czym polega etyka AI: zrozumieć etykę sztucznej inteligencji

Etyka AI to dziedzina z pogranicza technologii, filozofii i nauk społecznych. Aby skutecznie wykorzystywać potężną technologię, jaką jest AI, musimy uwzględniać kwestie etyczne na wszystkich etapach cyklu życia AI – od gromadzenia danych i opracowywania algorytmów po wdrażanie i monitorowanie. Przyjrzyjmy się kilku kluczowym zasadom.

Koncentracja na człowieku

Systemy AI traktujące priorytetowo ludzkie potrzeby i wartości mają większe szanse na to, by je przyjęto, obdarzono zaufaniem i efektywnie stosowano. Opracowując i wdrażając rozwiązania AI skoncentrowane na człowieku, organizacje mogą tworzyć bardziej odpowiedzialne, skuteczne i korzystne ze społecznego punktu widzenia systemy AI będące uzupełnieniem ludzkiej inteligencji i kreatywności.

Wdrażaniu rozwiązań skoncentrowanych na człowieku służą następujące techniki i podejścia:

  • Human-in-the-loop (stosowanie ludzkiego osądu w kluczowych punktach procesów AI, zwłaszcza przy podejmowaniu istotnych decyzji)
  • Współtworzenie
  • Ocena konsekwencji etycznych
  • Adaptacyjna sztuczna inteligencja (systemy, które dostosowują swoje zachowanie na podstawie informacji zwrotnych od ludzi i zmieniającego się kontekstu).

W miarę rozwoju AI zachowanie podejścia skoncentrowanego na człowieku będzie kluczowe, ponieważ pozwoli tworzyć systemy AI, które przynosić będą korzyści społeczeństwu, szanując jednocześnie prawa i godność jednostki.

Sprawiedliwość i odpowiedzialność

Jednym z kluczowych aspektów etyki AI jest zapewnienie sprawiedliwych i bezstronnych wyników. Przykłady? Jeśli algorytm rozpoznaje zwierzęta jako ludzi, należy mu dostarczyć więcej danych o bardziej zróżnicowanym zbiorze ludzi, a jeśli podejmuje błędne lub nieetyczne decyzje, może to oznaczać, że ilość danych użytych do trenowania modelu była niewystarczająca lub że wzmacnianie procesu uczenia się było z punktu widzenia pożądanego efektu niewłaściwe.

Ludziom zdarza się, czasem w sposób niezamierzony, wprowadzać nieetyczne wartości do systemów AI – przyczyną może być dokonywanie wyboru danych w sposób stronniczy lub błędne przypisywanie wartości wzmocnień. Jednym z pierwszych kroków technicznych mających na celu zapewnienie etycznego działania AI jest opracowanie parametrów sprawiedliwości oraz technik eliminowania stronniczości. Do oceny sprawiedliwości algorytmów służą równość demograficzna i wyrównane szanse. Ponowne ważenie danych treningowych oraz eliminowanie uprzedzeń metodą przeciwstawną to mechanizmy, które mogą pomóc redukować wyuczoną stronniczość.

Warto przy tym zaznaczyć, że nie mówimy tu o działaniu, które wystarczy podjąć raz. O sprawiedliwość i odpowiedzialność na przestrzeni całego cyklu życia systemu AI pomogą zadbać regularne audyty w połączeniu ze zróżnicowanym składem zespołów pracujących nad rozwiązaniami AI. Jednorazowe omówienie tych problemów nie wystarczy – ich eliminowanie musi stać się stałą i integralną częścią wszystkich naszych rozważań.

Przejrzystość i wyjaśnialność

Przejrzystość i wyjaśnialność są kluczowe w kontekście budowania zaufania, przestrzegania przepisów dotyczących AI i osiągania akceptowalności etycznej. Przejrzyste i wyjaśnialne rozwiązania AI umożliwiają programistom rozpoznawanie i eliminowanie uprzedzeń i błędów wykrytych w procesie decyzyjnym oraz pozwala użytkownikom końcowym podejmować świadome decyzje uwzględniające czynniki wpływające na wyniki generowane przez AI.

Etykiety opatrujące modele AI

Etykiety umieszczane na produktach spożywczych dostarczają przejrzystych informacji na temat składników i wartości odżywczych oraz zawierają wskazówki dotyczące przygotowywania ulubionych przekąsek. Podobną rolę pełnią karty modelu, które są niczym etykiety opatrujące modele AI. Karty te w ustandaryzowany i przystępny sposób informują interesariuszy o kluczowych aspektach modelu AI – określają jego cel, działanie, ograniczenia i kwestie etyczne.

Techniki wyjaśniania złożonych modeli

Modelatorzy mogą wykorzystywać wiele różnych technik w celu wyjaśnienia prognoz generowanych przez złożone modele uczenia maszynowego – to pomaga zrozumieć, jak przebiega proces decyzyjny danego modelu. Wśród przykładów takich technik możemy wymienić:

  • LIME (Local Interpretable Model-Agnostic Explanations)
  • SHAP (SHapley Additive exPlanations)
  • ICE plots (Individual Conditional Expectation).

Do generowania zrozumiałych dla ludzi wyjaśnień decyzji podejmowanych przez modele programiści, którzy je tworzą, mogą także wykorzystywać przetwarzanie języka naturalnego (NLP). Przy pomocy NLP można przekładać złożone wyniki statystyczne na jasny, osadzony w kontekście tekst, który jest przystępny i łatwy do zinterpretowania przez programistów i użytkowników. Poznaj pięć kluczowych kwestii, które należy rozważyć, tworząc godne zaufania modele AI.

Prywatność i bezpieczeństwo

Prywatność i bezpieczeństwo to dwa powiązane ze sobą elementy, które służą zapewnieniu ochrony danych wrażliwych na przestrzeni całego cyklu życia AI. Techniki ochrony prywatności AI umożliwiają organizacjom zabezpieczenie dużych zbiorów danych przy jednoczesnej ochronie informacji o jednostce. Środki bezpieczeństwa chronią przed złośliwymi atakami i nieuprawnionym dostępem.

W miarę jak firmy przechodzą na zdecentralizowane modele danych, techniki uczenia federacyjnego zapewniają skalowalność i elastyczność, rozwiązując jednocześnie szereg problemów dotyczących prywatności i bezpieczeństwa. Techniki te przykładowo umożliwiają organizacjom trenowanie modeli bez udostępniania surowych danych, co ogranicza przekazywanie danych (a zatem również ryzyko ich ujawnienia).

Do innych pomocnych technik ochrony prywatności i bezpieczeństwa zaliczyć można:

  • szyfrowanie homomorficzne (umożliwia operowanie na zaszyfrowanych danych bez konieczności ich odszyfrowywania)
  • prywatność różnicową (ukrywanie danych poszczególnych osób poprzez dodawanie kontrolowanego szumu)
  • trenowanie antagonistyczne i oczyszczanie danych wejściowych
  • niezawodną kontrolę dostępu i protokoły uwierzytelniania.

Niezawodność

Niezawodne systemy AI działają konsekwentnie i prawidłowo w różnych warunkach – także wtedy, gdy zostaną zasilone nieoczekiwanymi danymi lub narażone na zmianę środowiska. Niezawodność jest kluczowa dla utrzymania wiarygodności i zaufania do praktycznych zastosowań AI.

Do technik zwiększania niezawodności można zaliczyć następujące rozwiązania:

  • Trenowanie antagonistyczne, które polega na eksponowaniu modeli na złośliwe dane na etapie uczenia, aby zwiększać ich odporność.
  • Metody zespołowe obejmujące łączenie różnych algorytmów uczenia w celu poprawy stabilności i wydajności.
  • Techniki regularyzacji, które pomagają zapobiegać wykazywaniu nadmiernego i niewystarczającego dopasowania, poprawiają generalizację i zapewniają równowagę między złożonością modelu a jego wydajnością. Stałe monitorowanie wydajności i aktualizacje modelu pomagają utrzymać jego wysoką dokładność.

Godne zaufania oprogramowanie AI powinno uwzględniać różne metody zarządzania algorytmami i monitorowania utraty wartości w czasie. Etyka AI tworzy strukturę nadzoru, rozwiązań technicznych i praktyk organizacyjnych, które pomagają rozwijać i wdrażać AI w sposób zgodny z wartościami ludzkimi i interesem społecznym.

Poznaj 6 wyjątkowych wyzwań etycznych, jakie niesie generatywna AI

Sztuczna inteligencja od początku budziła wątpliwości etyczne, a GenAI – ze swoją zdolnością do generowania nowych danych – jeszcze bardziej nasiliła tego typu obawy. Związane z nią pytania natury etycznej oraz potencjalne zagrożenia stanowią źródło nieznanego dotąd ryzyka, a także wyzwań, którym organizacje i społeczeństwo muszą pilnie stawić czoła.

Warto zastanowić się nad tym, jak GenAI może:

  • pomóc osiągać deepfake’om (na przykład w formie postów w mediach społecznościowych) nowy poziom możliwości
  • naruszać prawa własności intelektualnej
  • niszczyć zaufanie do informacji cyfrowych
  • zwiększać stronniczość i pogłębiać dyskryminację
  • wywierać negatywny wpływ psychiczny i społeczny
  • tworzyć problemy związane z odpowiedzialnością i nadzorem.

Rola nadzoru w etycznej sztucznej inteligencji

Ramy nadzoru stanowią centralną oś procesu wdrażania etycznych rozwiązań AI. Wyznaczają one jasne granice odpowiedzialności w całym cyklu życia AI.

Kompleksowa strategia nadzoru powinna definiować procesy podejmowania decyzji – w tym nadzór przez człowieka – i przypisywać konkretne role w zakresie zarządzania projektami AI.

Na pewnym etapie może to oznaczać przydzielanie obowiązków specjalistom lub zespołom ds. etyki AI odpowiedzialnym za opracowywanie zasad, monitorowanie zgodności i przeprowadzanie audytów etycznych. Regularna ocena algorytmów i weryfikacja stronniczości to kluczowe elementy takich systemów zarządzania, służące zapewnieniu, że modele AI pozostaną zgodne ze standardami etycznymi i wartościami organizacji.

W miarę poszerzania się możliwości AI rola nadzoru staje się jeszcze ważniejsza. Umiejętność samodzielnego formułowania pytań i generowania odpowiedzi przez systemy AI podkreśla potrzebę wprowadzenia niezawodnych mechanizmów nadzoru. Warto w tym miejscu wziąć pod uwagę na przykład skutki halucynacji AI.

Dzięki wdrożeniu restrykcyjnych protokołów nadzoru organizacja może korzystać z możliwości AI, ograniczając jednocześnie ryzyko i utrzymując zgodność z zasadami etyki w coraz bardziej autonomicznym otoczeniu technologicznym.

Godna zaufania i odpowiedzialna sztuczna inteligencja to więcej niż tylko ograniczanie negatywnych zjawisk – technologia ta wykazuje ogromny potencjał w zakresie budowania bardziej wydajnych i sprawiedliwych społeczeństw. Reggie Townsend Reggie Townsend Vice President SAS Data Ethics Practice

Przyszłość etyki AI

Wraz z rozwojem AI zmieniać się będą także zasady etyczne dotyczące tego obszaru. Pojawiające się nowe technologie, takie jak obliczenia kwantowe czy neuromorficzna sztuczna inteligencja, przyniosą kolejne możliwości i wyzwania etyczne. Decydenci polityczni, branżowi liderzy i naukowcy muszą wspólnie opracowywać adaptacyjne ramy etyczne, które dotrzymają tempa szybkim postępom technologicznym.

Pod wpływem narzędzi i technologii AI zmieniać się będą także podstawowe pytania dotyczące naszej relacji z komputerami. Nie ustają dyskusje na temat tego, jak AI wpłynie na przyszłość pracy oraz czy (lub kiedy) nastąpi osobliwość technologiczna.

Kluczową rolę w kształtowaniu przyszłości etyki AI będzie także odgrywać edukacja i świadomość. Budując kulturę świadomości etycznej wśród programistów AI, liderów biznesowych i ogółu społeczeństwa, możemy zadbać o to, by korzyści płynące z AI były osiągane w sposób odpowiedzialny i sprawiedliwy.

Jako że znajdujemy się u progu przyszłości napędzanej przez AI, przyjęcie zasad etycznych mających zastosowanie w kontekście AI to przede wszystkim obowiązek moralny, a dodatkowo również konieczność strategiczna dla firm, które chcą budować zrównoważony, godny zaufania i przynoszący korzyści system AI dla przyszłych pokoleń.

Kierunki rozwoju

Zobacz, jak rozwijać AI w sposób odpowiedzialny, konsekwentny i godny zaufania.

Wspieramy innowacje w dziedzinie etyki AI

SAS® Viya® to kompleksowa platforma do tworzenia i wdrażania etycznych rozwiązań AI. Dzięki wbudowanym funkcjom, takim jak wyjaśnialność modeli, wykrywanie uprzedzeń i nadzór, platforma umożliwia wykorzystywanie potencjału AI przy jednoczesnym zachowywaniu najwyższych standardów etycznych.