Czy jesteśmy gotowi na wykorzystanie sztucznej inteligencji w ochronie zdrowia?

(14 kwietnia 2021 r.) – Ogromne inwestycje w sztuczną inteligencję nie dziwią, gdyż korzyści wynikające z tej technologii są nie do przecenienia. Jednak pojawia się wiele pytań dotyczących zagrożeń wynikających z jej niewłaściwego – celowego lub nieumyślnego – wykorzystania. Coraz głośniej mówi się o etycznym aspekcie używania AI. 

Innowacje oczekiwane przez pacjentów i lekarzy
Już w 2018 roku uczestnicy badania przeprowadzonego przez SAS entuzjastycznie wypowiadali się na temat wykorzystania sztucznej inteligencji w ochronie zdrowia. Co ciekawe znacznie więcej obaw wiązało się z implementacją tej technologii w bankowości czy handlu. Respondenci pozytywnie odnieśli się do przykładów wykorzystania AI do wsparcia lekarzy w opiece nad pacjentami. Aż 47 proc. badanych stwierdziło, że czułoby się komfortowo w asyście AI nawet podczas operacji. Tak pozytywne podejście do sztucznej inteligencji świadczy o tym, że oczekujemy namacalnych korzyści wynikających z zastosowania tej technologii. Sektor ochrony zdrowia mierzy się z wieloma wyzwaniami, które pandemia COVID-19 dodatkowo spotęgowała. Wśród nich m.in. rosnące koszty, braki personelu i coraz większe zapotrzebowanie na usługi. Specjaliści SAS są zdania, że branży może pomóc wykorzystanie zalet technologii AI. Twierdzą, że sztuczna inteligencja odegra istotną rolę w przekształcaniu branży opieki zdrowotnej, którą znamy.

Bezpieczeństwo danych przede wszystkim 
AI i zaawansowana analityka mają bardzo szerokie zastosowanie w sektorze opieki zdrowotnej. Mogą istotnie wpływać na poprawę efektywności całego systemu. Zapewnić lepsze zrozumienie potrzeb i stanu zdrowia pacjentów, odciążenie lekarzy oraz personelu medycznego w zakresie zadań administracyjnych czy wsparcie procesów diagnostyki i leczenia chorych. Jednak mamy tu do czynienia z bardzo wrażliwymi informacjami. Można wyrządzić pacjentowi realną szkodę, gdyby jego dane osobowe i medyczne zostały błędnie zanalizowane lub dostały się w niepowołane ręce.

Mając na uwadze wykorzystanie danych medycznych, należy zadbać o właściwe środki zarządzania, nadzoru i bezpieczeństwa. Mieć pewność, że są używane w uzgodnionym zakresie, dostęp do nich mają upoważnieni pracownicy i autoryzowane algorytmy. Upewnić się, że każde wykorzystanie danych przechodzi weryfikację w celu sprawdzenia, czy przynosi korzyść i wyklucza możliwość wyrządzenia szkody. Z jednej strony powinniśmy chronić prywatność, ale z drugiej – umożliwiać postęp naukowy w medycyniemówi Piotr Kramek, Lider Praktyki Public Sector & Health Care w SAS Polska.

Czy sztuczna inteligencja jest obiektywna
Techniki machine learning mogą być skuteczne na tyle, na ile pozwala jakość, ilość oraz reprezentatywność danych używanych do treningu modeli. Jednym z wyzwań jest niedostateczna reprezentacja pewnych grup populacji w wykorzystywanych danych. Przekłada się ona na stronniczość algorytmów AI (ang. algorythmic bias). W efekcie model sztucznej inteligencji może generować gorsze wyniki dla mniej reprezentowanych grup.

– Dane, które nie są zrównoważone np. w zakresie płci, mogą wpływać na niższą dokładność modeli dla niedostatecznie reprezentowanej płci. Modele wykrywania raka skóry, które „uczą się” głównie na pacjentach o jasnej karnacji, mogą działać gorzej na osobach z ciemniejszą karnacją. W przypadku opieki zdrowotnej słabe wyniki modelu dla określonej grupy mogą dostarczyć niewiarygodnych informacji, prowadząc do niewłaściwej diagnozy lub nieprawidłowego leczeniapodkreśla Piotr Kramek.

Zasilanie modeli AI zaburzonymi danymi może z kolei prowadzić do uzyskania nieobiektywnych rezultatów. To ważne, biorąc pod uwagę potencjalny efekt wykorzystania sztucznej inteligencji w opiece zdrowotnej.

Jak zrozumieć algorytm
Niektóre z algorytmów zwykle używanych w systemach AI (takich jak sieci neuronowe) są uważane za „czarne skrzynki”. Dostarcza się algorytmowi dane treningowe i prosi, aby nauczył się rozpoznawać określone wzorce na podstawie tych danych. Można parametryzować algorytmy oraz zmieniać dane wejściowe przez dodawanie nowych charakterystyk. Nie ma jednak bezpośredniego wglądu w przyczynę, dla której algorytmy zaklasyfikowały daną obserwację w określony sposób. W rezultacie można mieć bardzo dokładny model, który czasem daje nieoczekiwane wyniki. W przypadku ochrony zdrowia błędna klasyfikacja ze strony modelu i brak dodatkowego wyjaśnienia czy interpretacji ze strony algorytmu ogranicza możliwość weryfikacji wyniku po stronie lekarza. Może mieć ona negatywne konsekwencje dla zdrowia pacjenta. Dlatego bardzo ważne jest, aby z jednej strony zrozumieć i zweryfikować aspekty danych, z których korzystają algorytmy. Z drugiej zaś strony zapewnić interpretowalność wyników modeli sztucznej inteligencji, co pozwoli na weryfikację poprawności ich działania.

– Czasami użycie mniej złożonych modeli może zapewnić lepsze zrozumienie zasad działania algorytmu. Regresja liniowa lub drzewa decyzyjne zapewnią wystarczającą dokładność oraz dobrą widoczność zmiennych i kluczowych czynników. Kiedy wykorzystuje się bardziej złożony model, warto użyć narzędzi wspierających wyjaśnialność algorytmów AI. Eksperci zajmujący się tym procesem powinni w obu przypadkach zweryfikować wyjaśnienie, szukając potencjalnych błędów i wątpliwości w doborze zmiennych oraz charakterystyk, które wykorzystuje modeldodaje Piotr Kramek.

AI potrzebuje człowieka
Jedną z barier hamujących realizację projektów AI jest brak odpowiednich kompetencji. Dlatego tak ważne jest kształcenie kadr oraz zapewnienie odpowiednich regulacji prawnych gwarantujących, że sztuczna inteligencja będzie wykorzystywana w sposób etycz­ny, z poszanowaniem prawa do zachowania prywatności.

Informacja o firmie SAS Institute


SAS jest liderem rynku analityki i AI. Dzięki innowacyjnemu oprogramowaniu i profesjonalnym usługom wspiera firmy i instytucje na całym świecie w podejmowaniu trafnych decyzji w oparciu o dane, aby szybko reagować na zachodzące zmiany i stymulować innowacyjny rozwój. 83 000 firmy i instytucje w 147 krajach korzystają z zaawansowanych technologii, wiedzy biznesowej i ekspertyzy branżowej ekspertów SAS. Firma powstała w 1976 roku i obecnie zatrudnia ponad 12 000 pracowników. Na polskim rynku SAS Institute jest obecny od 1992 roku. Ponad 300 konsultantów oraz ekspertów data science tworzy i wdraża rozwiązania SAS dla blisko 200 klientów krajowych. Rozwiązania SAS adresowane są do wszystkich sektorów gospodarki, m.in. bankowości, ubezpieczeń, telekomunikacji, energetyki, przemysłu, handlu, farmacji, ochrony zdrowia, nauki oraz sektora administracji publicznej.
www.sas.com/poland

Kontakt:

SAS Polska
Katarzyna Kwiecień
Communications Manager
SAS Institute Sp. z o.o.
ul. Gdańska 27/31
01-633 Warszawa
+48 22 560 46 00