Czy jesteśmy gotowi na wykorzystanie sztucznej inteligencji w ochronie zdrowia?

(14 kwietnia 2021 r.) – Ogromne inwestycje w sztuczną inteligencję nie dziwią, gdyż korzyści wynikające z tej technologii są nie do przecenienia. Jednak pojawia się wiele pytań dotyczących zagrożeń wynikających z jej niewłaściwego – celowego lub nieumyślnego – wykorzystania. Coraz głośniej mówi się o etycznym aspekcie używania AI. 

Innowacje oczekiwane przez pacjentów i lekarzy
Już w 2018 roku uczestnicy badania przeprowadzonego przez SAS entuzjastycznie wypowiadali się na temat wykorzystania sztucznej inteligencji w ochronie zdrowia. Co ciekawe znacznie więcej obaw wiązało się z implementacją tej technologii w bankowości czy handlu. Respondenci pozytywnie odnieśli się do przykładów wykorzystania AI do wsparcia lekarzy w opiece nad pacjentami. Aż 47 proc. badanych stwierdziło, że czułoby się komfortowo w asyście AI nawet podczas operacji. Tak pozytywne podejście do sztucznej inteligencji świadczy o tym, że oczekujemy namacalnych korzyści wynikających z zastosowania tej technologii. Sektor ochrony zdrowia mierzy się z wieloma wyzwaniami, które pandemia COVID-19 dodatkowo spotęgowała. Wśród nich m.in. rosnące koszty, braki personelu i coraz większe zapotrzebowanie na usługi. Specjaliści SAS są zdania, że branży może pomóc wykorzystanie zalet technologii AI. Twierdzą, że sztuczna inteligencja odegra istotną rolę w przekształcaniu branży opieki zdrowotnej, którą znamy.

Bezpieczeństwo danych przede wszystkim 
AI i zaawansowana analityka mają bardzo szerokie zastosowanie w sektorze opieki zdrowotnej. Mogą istotnie wpływać na poprawę efektywności całego systemu. Zapewnić lepsze zrozumienie potrzeb i stanu zdrowia pacjentów, odciążenie lekarzy oraz personelu medycznego w zakresie zadań administracyjnych czy wsparcie procesów diagnostyki i leczenia chorych. Jednak mamy tu do czynienia z bardzo wrażliwymi informacjami. Można wyrządzić pacjentowi realną szkodę, gdyby jego dane osobowe i medyczne zostały błędnie zanalizowane lub dostały się w niepowołane ręce.

Mając na uwadze wykorzystanie danych medycznych, należy zadbać o właściwe środki zarządzania, nadzoru i bezpieczeństwa. Mieć pewność, że są używane w uzgodnionym zakresie, dostęp do nich mają upoważnieni pracownicy i autoryzowane algorytmy. Upewnić się, że każde wykorzystanie danych przechodzi weryfikację w celu sprawdzenia, czy przynosi korzyść i wyklucza możliwość wyrządzenia szkody. Z jednej strony powinniśmy chronić prywatność, ale z drugiej – umożliwiać postęp naukowy w medycyniemówi Piotr Kramek, Lider Praktyki Public Sector & Health Care w SAS Polska.

Czy sztuczna inteligencja jest obiektywna
Techniki machine learning mogą być skuteczne na tyle, na ile pozwala jakość, ilość oraz reprezentatywność danych używanych do treningu modeli. Jednym z wyzwań jest niedostateczna reprezentacja pewnych grup populacji w wykorzystywanych danych. Przekłada się ona na stronniczość algorytmów AI (ang. algorythmic bias). W efekcie model sztucznej inteligencji może generować gorsze wyniki dla mniej reprezentowanych grup.

– Dane, które nie są zrównoważone np. w zakresie płci, mogą wpływać na niższą dokładność modeli dla niedostatecznie reprezentowanej płci. Modele wykrywania raka skóry, które „uczą się” głównie na pacjentach o jasnej karnacji, mogą działać gorzej na osobach z ciemniejszą karnacją. W przypadku opieki zdrowotnej słabe wyniki modelu dla określonej grupy mogą dostarczyć niewiarygodnych informacji, prowadząc do niewłaściwej diagnozy lub nieprawidłowego leczeniapodkreśla Piotr Kramek.

Zasilanie modeli AI zaburzonymi danymi może z kolei prowadzić do uzyskania nieobiektywnych rezultatów. To ważne, biorąc pod uwagę potencjalny efekt wykorzystania sztucznej inteligencji w opiece zdrowotnej.

Jak zrozumieć algorytm
Niektóre z algorytmów zwykle używanych w systemach AI (takich jak sieci neuronowe) są uważane za „czarne skrzynki”. Dostarcza się algorytmowi dane treningowe i prosi, aby nauczył się rozpoznawać określone wzorce na podstawie tych danych. Można parametryzować algorytmy oraz zmieniać dane wejściowe przez dodawanie nowych charakterystyk. Nie ma jednak bezpośredniego wglądu w przyczynę, dla której algorytmy zaklasyfikowały daną obserwację w określony sposób. W rezultacie można mieć bardzo dokładny model, który czasem daje nieoczekiwane wyniki. W przypadku ochrony zdrowia błędna klasyfikacja ze strony modelu i brak dodatkowego wyjaśnienia czy interpretacji ze strony algorytmu ogranicza możliwość weryfikacji wyniku po stronie lekarza. Może mieć ona negatywne konsekwencje dla zdrowia pacjenta. Dlatego bardzo ważne jest, aby z jednej strony zrozumieć i zweryfikować aspekty danych, z których korzystają algorytmy. Z drugiej zaś strony zapewnić interpretowalność wyników modeli sztucznej inteligencji, co pozwoli na weryfikację poprawności ich działania.

– Czasami użycie mniej złożonych modeli może zapewnić lepsze zrozumienie zasad działania algorytmu. Regresja liniowa lub drzewa decyzyjne zapewnią wystarczającą dokładność oraz dobrą widoczność zmiennych i kluczowych czynników. Kiedy wykorzystuje się bardziej złożony model, warto użyć narzędzi wspierających wyjaśnialność algorytmów AI. Eksperci zajmujący się tym procesem powinni w obu przypadkach zweryfikować wyjaśnienie, szukając potencjalnych błędów i wątpliwości w doborze zmiennych oraz charakterystyk, które wykorzystuje modeldodaje Piotr Kramek.

AI potrzebuje człowieka
Jedną z barier hamujących realizację projektów AI jest brak odpowiednich kompetencji. Dlatego tak ważne jest kształcenie kadr oraz zapewnienie odpowiednich regulacji prawnych gwarantujących, że sztuczna inteligencja będzie wykorzystywana w sposób etycz­ny, z poszanowaniem prawa do zachowania prywatności.

Informacja o firmie SAS Institute

SAS Institute jest światowym liderem w zakresie analityki biznesowej oraz największym niezależnym dostawcą oprogramowania Business Intelligence. Z rozwiązań SAS korzysta na świecie ponad 83 000 firm i instytucji w 148 krajach, w tym 96 przedsiębiorstwa z pierwszej setki listy 2017 Fortune Global 500. Firma istnieje od 1976 r. i zatrudnia ponad 14 000 pracowników. W Polsce SAS Institute działa od 1992 r. i jest wiodącym dostawcą zaawansowanej analityki i BI. Rozwiązania i oprogramowanie SAS adresowane są do wszystkich sektorów gospodarki, m.in. bankowości, ubezpieczeń, telekomunikacji, energetyki, farmacji, przemysłu, handlu oraz sektora administracji publicznej.

Kontakt:

SAS Polska
Katarzyna Kwiecień
Communications Manager
SAS Institute Sp. z o.o.
ul. Gdańska 27/31
01-633 Warszawa
+48 22 560 46 00

Back to Top