Nowy ekosystem informacji - źródła i metody wykorzystania w banku

Zarys koncepcji SAS Institute

 

Nowy Ekosystem Informacji to przede wszystkim baza i platforma środowiska Big Data, pozwalająca na pozyskiwanie danych o klientach i prospektach ze źródeł zewnętrznych, niestrukturalnych, szybko zmiennych, o dużym wolumenie i różnorodności (paradygmat 3V w Big Data - Volume/Velocity/ Variety). Kluczowym elementem tego ekosystemu jest technologia i funkcjonalność pozwalająca na szybkie, efektywne i wiarygodne przetworzenie strumienia pozyskiwanych informacji w wiedzę biznesową o kliencie / prospekcie i powiązanie jej z danymi przetwarzanymi przez Organizację.

Schemat logiczny źródeł danych w Ekosystemie Informacji o Kliencie

Rys. 1 Schemat logiczny źródeł danych w Ekosystemie Informacji o Kliencie

Tak zdefiniowany nowy ekosystem informacji oparty jest o 6 kluczowych źródeł danych:

  • Profil bankowy - standardowe źródło danych o kliencie oparte o informacje transakcyjne, produktowe, relacyjne, finansowe, wnioski produktowe etc - zwykle rozszerzone o tzw. profil analityczny (predyktory wykorzystywane w procesie modelowania analitycznego pod kątem oceny ryzyka, czy też w modelach propensity-to-buy - zwykle dostarczane w formie analitycznej tabeli ABT (SAS Analytical Base Table - zbiór kilku-kilkunastu tysięcy predyktorów analitycznych opisujących pojedynczego klienta)
  • Dane social media - dane pozyskiwane z internetu, z portali społecznościowych (takich jak Facebook czy Twitter) oraz blogów, portali specjalistycznych, forów internetowych etc. Dane te pozyskiwane są przy pomocy mechanizmu web-crawling oraz analizowane pod kątem identyfikacji sentymentu oraz ich kategoryzacji w sygnały opisujące konkretne stany oraz sytuacje (potrzeby zakupowe, irytacja, złe postrzeganie marki etc). Analiza odbywa się przy wykorzystaniu zaawansowanych algorytmów SAS Text Mining, wykorzystujących zlokalizowaną polską taksonomię oraz reguły tekstowe umożliwiające właściwą interpretację przetwarzanych treści. Kluczowa w przypadku danych social media jest właściwa identyfikacja autora treści - jest to realizowane również przy wykorzystaniu technik text mining oraz poprzez inkrementalne budowanie wektora informacji na poziomie pojedynczego źródła (rozumianego jako autora).
  • Voice of Customer - dane pozyskiwane ze źródeł wewnętrznych Banku - korespondencji klientów / prospektów z Bankiem, składanych reklamacji, rozmów prowadzonych z infolinią, wirtualnym doradcą oraz notatek z procesu sprzedaży (pozyskanych z operacyjnego CRM). Dane te podobnie jak w przypadku treści internetowych podlegają automatycznej interpretacji, analizie sentymentu oraz właściwej kategoryzacji przy wykorzystaniu technik text mining.
  • Dane Geo-lokacyjne - dane zwyczajowo pozyskiwane z 3 źródeł - z geolokacji merchantów (w przypadku transakcji kartowych), aplikacji mobilnych dostępnych na smartfonach (z wykorzystaniem GPS), danych BTS pozyskiwanych od operatorów telekomunikacyjnych. Informacje te wykorzystywane są zarówno do tzw. Geo-advertising, ale również wykazały swoją wysoką wartość dyskryminacyjną w analitycznych modelach skłonności (x/up sell) oraz oceny ryzyka - poprzez wykorzystanie specjalnie wyliczanego wskaźnika mobilności klientów jako predyktora w analitycznej tabeli ABT.
  • Dane WWW - informacje techniczne o zachowaniu odwiedzającego strony www Banku gromadzone na podstawie logów serwera www - techniczna perspektywa zachowania klienta na stronie WWW, zazwyczaj wykorzystywana do oceny serwisu internetowego pod kątem top pages, click-thorough, click-rate etc. - w obszarze rozszerzania informacji o kliencie/prospekcie - dane wykorzystywane są do naliczania zmiennych informujących o sposobie korzystania odwiedzającego strony z poszczególnych elementów serwisu (jak często robi przelewy, czy sprawdza tabele prowizji i opłat, jak często i o jakich porach loguje się do serwisu etc.)
  • Customer Experience - informacje o zachowaniu odwiedzającego na stronach www Banku rejestrowane po stronie przeglądarki internetowej - dzięki temu możliwy jest rzeczywisty pomiar, jak klient odbiera serwis internetowy, ile czasu zajmuje mu realizacja funkcjonalności (np. aplikacja o kredyt) dostępnych na stronie. Ponadto, dane te mogą obejmować pełną szczegółowość zachowania klienta - tj. od rejestracji ruchu myszką po stronach serwisu, poprzez przesuwanie zawartości (scrolling), wypełnianie pól formularzy (bez konieczności ich zatwierdzania metodą get lub post) etc. Dane takie porządkowane są w tzw. konteksty biznesowe, które stanowią biznesową interpretację funkcjonalności dostępnych na stronach (np. zestaw stron/formularzy związanych z aplikacją o kredyt przypisany jest do kontekstu: "money need" ).

Centralnym funkcjonalnym elementem Platformy jest silnik decyzyjny (SAS Real Time Decision Manager - RTDM), którego głównym zadaniem jest, w odpowiednim czasie, w reakcji na zdarzenie lub jawne żądanie, wykorzystując właściwe elementy ekosystemu informacyjnego, zrealizować proces biznesowy i dostarczyć we właściwy sposób jego wynik. Poniżej na rysunku przedstawiono ogólny schemat logiczny prezentowanej koncepcji:

Rys. 2 Główne komponenty funkcjonalne koncepcji

Silnik decyzyjny udostępnia dla systemów zewnętrznych usługi jako tzw. web service, zgodne ze standardem protokołu SOAP, zatem każda aplikacja (np. call center, operacyjny CRM, strona internetowa), która potrafi wywołać web service, może korzystać z logiki decyzyjnej ukrytej w Silniku Decyzyjnym. Każda usługa udostępniana przez Silnik powiązana jest z diagramem zawierającym logikę biznesową realizującą poszczególne decyzje. Przykładowo, może to być logika decyzji kredytowej (w reakcji na wypełnienie wniosku kredytowego) lub logika decyzji o przedstawieniu najlepszej następnej oferty dla klienta, który np. przegląda strony internetowe Banku lub zidentyfikował się przez IVR w call center albo rozmawia z pracownikiem Banku w oddziale.

Rys. 3 Przykład diagramu decyzyjnego - dobór oferty (banner na stronie WWW) w zależności od wykrytego zdarzenia

W procesie realizacji decyzji, Silnik Decyzyjny SAS umożliwia wykorzystanie pełni dostępnych w rozwiązaniu danych, zarówno w postaci strukturalnej, jak i pełnotekstowej. Dzięki wykorzystaniu mechanizmu in-database, możliwe jest korzystanie z danych i procesów "zanurzonych" w zewnętrznych w stosunku do rozwiązania silnikach danych, dedykowanych do przechowywania ogromnych wolumenów Big Data - co jest istotne, przetwarzanie in-database odbywa się po stronie takiego zewnętrznego silnika bazodanowego, co eliminuje konieczność transferu dużych ilości danych (w ten między innymi sposób realizowany jest scoring oparty o modele zbudowane w środowisku analitycznym SAS - ich deployment do środowiska produkcyjnego zapewniany jest przez moduł SAS Model Manager, który wykorzystując np. mechanizm SAS Scoring Accelerator for Hadoop, osadza gotowe funkcje scoringowe jako tzw. embeded process w zewnętrznym Silniku Bazodanowym) .

Reasumując, omawiany Nowy Ekosystem Informacji to nie tylko nowe źródła danych, ale także potrzeba szybkiej reakcji na zmieniające się otoczenie biznesowe, co wymusza wykorzystanie technologii przygotowanej do przetwarzania dużej ilości zmiennych danych w celu wychwycenia potencjalnie interesujących sytuacji, zdarzeń, sygnałów. Z drugiej strony, pojawiają się wyzwania związane z przechowywaniem tak dużych zbiorów danych - wyzwania, których klasyczne technologie bazodanowe ze względu na potencjalnie ogromne koszty oraz problemy techniczne (np. przetwarzanie danych niestrukturalnych, tekstowych), nie potrafią w chwili obecnej podjąć. Planując zatem działania w kierunku rozszerzania klasycznego profilu informacji o kliencie do Nowego Ekosystemu Informacyjnego, trzeba mieć na uwadze konieczność wykorzystania dedykowanych dla obszaru Big Data technologii, zarówno od strony przechowywania i przetwarzania danych, jak i w zakresie realizacji decyzyjnych procesów biznesowych opartych o nowe źródła danych.

Informacja o autorze:


Radosław Grabiec
Jest absolwentem Uniwersytetu Warszawskiego, pracuje w firmie SAS Institute jako Business Development Director, od 2011 roku Dyrektor Regionalnego Centrum Kompetencyjnego Customer Intelligence SAS Institute.