Hero SASCOM Background 3q2014

"Prognoza pogody" dla ryzyka: nadchodzi globalne przyspieszenie...

 

Wiele banków uniwersalnych staje przed dylematem: czy konieczne jest zarządzenie ryzykiem w czasie rzeczywistym jeżeli bank nie prowadzi aktywnej działalności w księdze handlowej, a reakcja portfela na zmiany czynników ryzyka nie jest aż tak znacząca? Dotychczas stosowane podejście wydaje się zupełnie akceptowalne. Bank bazujące na danych, które pojawiają się z jedno-, a czasem z dwudniowym opóźnieniem jest w stanie "skutecznie" zarządzać ryzykiem i przez wiele lat nie było z tym podejściem problemów. Czy konieczna jest zatem inwestycja w nowoczesne narzędzia? Jaka jest wartość dodana zarządzania ryzykiem w czasie rzeczywistym?

Od razu nasuwa się pytanie: czy przypadkiem taka sytuacja nie jest zbieżna z prowadzeniem samochodu z użyciem lusterka wstecznego? Jeżeli droga jest szeroka i zakręty dość łagodne, jest szansa, że nic się nie stanie. Ale czy w dzisiejszych trudnych pod względem prowadzenia biznesu czasach zakręty są łagodne, czy raczej przypominają górskie serpentyny?

No właśnie, wykorzystując nieaktualne informacje nie wiemy, jaka wartość poznawcza kryje się za prawdziwymi wartościami, które analizowane z opóźnieniem nawet jedno lub dwudniowym, mogą zupełnie stracić na znaczeniu. A niestety czasami to czego nie widać lub to co widać dopiero z opóźnieniem może spowodować duże straty lub też nie pozwoli na zrealizowanie zaplanowanych zysków.

Dla wszystkich sceptyków dobra wiadomość jest taka, iż zarządzanie ryzykiem w czasie rzeczywistym jest w chwili obecnej zarówno podejściem techniczne możliwym, jak i bardziej optymalnym kosztowo niż kiedykolwiek - dzięki wykorzystaniu zaawansowanej technologii umożliwiającej przetwarzanie ogromnych wolumenów danych w czasie rzeczywistym przy wykorzystaniu szybkiej pamięci operacyjnej RAM. Jest to więc podejście jak najbardziej pożądane.

W zakresie zarządzania ryzykiem finansowym wspomniana powyżej technologia high-performance wspiera procesy biznesowe począwszy od integracji i poprawy jakości danych w czasie rzeczywistym, poprzez wykonywanie przeliczeń (z uwzględnieniem wielu powiązanych ze sobą skorelowanych scenariuszy zmian czynników ryzyka), eksploracji i raportowaniu wyników, wykonywaniu wycen, analiz statystycznych i ekonometrycznych, a skończywszy na podejmowaniu racjonalnych decyzji biznesowych ad-hoc. Stanowi zatem efektywne wsparcie dla menedżerów ryzyka wszędzie tam, gdzie go potrzebują.

Obecnie coraz wyraźniej widać dobrą koniunkturę do wdrażania rozwiązań opartych na technologii high-performance. Notowana na rynkach finansowych duża szybkość i zmienność, ciągle rosnąca presja zmniejszenia marż dla klientów, konieczność bardziej szczegółowych i skrupulatnych przeliczeń oraz ciągle rosnące wymagania regulacyjne - to wszystko sprawia, że Banki z czysto ekonomicznych, jak również racjonalnych pobudek, dokonują industrializacji procesów zarządzania ryzykiem, idąc w kierunku przetwarzania i wizualizacji wyników w czasie rzeczywistym.

Warto wyróżnić pięć głównych obszarów, w których zastosowanie technologii high-performance pozwoli na uzyskanie wartości dodanej i znaczące usprawnienie bieżących procesów:

  1. Agregacja danych w czasie rzeczywistym
    Stosowanie podejścia wsadowego pozwala na zasilanie hurtowni danych z systemów operacyjnych zazwyczaj jeden raz w ciągu dnia (batch), dane te następnie są wykorzystywane na potrzeby zarządzania ryzykiem. Jednak dla niektórych obszarów (np. zarządzania limitami) wymagana jest interakcja w czasie rzeczywistym, jeszcze przed podjęciem decyzji biznesowej lub zawarciem transakcji z klientem. Co więcej, poprawne oszacowanie kosztów ryzyka, w tym kosztu płynności jest w tej sytuacji niemożliwe lub obarczone dużym ryzykiem.

    Co więc należy zrobić? Scenariusz "do-nothing" jest podejściem bardzo krótkowzrocznym. Prędzej czy później, presja ze strony udziałowców, organizacji regulacyjnych czy też rynku na uzyskanie najlepszego produktu w najlepszej cenie (czytaj najniższej) skusi nas do podjęcia racjonalnych kroków. Podejście "optymalne" polega na odejściu od procesowania w trybie batchowym i zastosowaniu podejścia zorientowanego na transakcje, przygotowania danych oraz wykonywania przeliczeń w czasie rzeczywistym. Pozwoli to na błyskawiczną budowę holistycznej czyli uwzględniającej różne perspektywy (np. perspektywę płynnościową, stopy procentowej, itp.) analizy transakcji i jej wpływu na bieżący portfel jeszcze przed jej zawarciem. Technologia high-performance pozwala na wykorzystanie do oceny danej transakcji zarówno aktualnych, jak również historycznych (czyli długich szeregów czasowych) danych oraz czynników ryzyka. A to wszystko jest wykonywane w czasie rzeczywistym, czyli wtedy gdy pojawiają się dane. W tym ujęciu, nasze szacunki wskaźników ryzyka dla portfela transakcji będą zawsze aktualne.
  2. Poprawa jakości danych wejściowych
    Tematyka zarządzania jakością danych w organizacjach jest sztandarowym przykładem tematu, o którym mówiło się w przeszłości, mówi się dziś i zapewne będzie się jeszcze wiele mówiło w przyszłości. Zamiast zbierać dane i porządkować je dopiero na poziomie hurtowni danych, technologia high-performance pozwala na poprawę jakości danych już podczas ich zbierania, czyli u źródeł (data-collection). Z uwagi na częste zmiany w danych w systemach źródłowych nie jest to jednak proces łatwy - wymaga zaangażowania zarówno po stronie biznesu jak i IT. Bieżące monitorowanie jakości danych jest nie tylko istotne z uwagi na wymagania Rekomendacji D Komisji Nadzoru Finansowego, czy też wymagania bazylejskie związane z poprawnością, kompletnością spójnością czy jednoznacznością danych, lecz przede wszystkim satysfakcją odbiorców końcowych raportów cieszących się wysoką ich jakością. Dlatego też monitorowanie jakości danych wykorzystywanych do wyliczeń, a tym samym do generowania raportów staje się tematem kluczowym.
  3. Raportowanie w czasie rzeczywistym
    Z perspektywy czasu wyraźnie widać, iż raportowanie w czasie rzeczywistym nie jest kaprysem, lecz stało się już koniecznością. Standardowe, statyczne raporty stały się nieadekwatne do ciągle żyjących własnym życiem i zmieniających się wymagań departamentów biznesowych. Co więcej, wielowymiarowe kostki OLAP nie zawsze są skutecznym rozwiązaniem wspierającym procesy zarządzania ryzykiem choćby z uwagi na konieczność monitorowania, szacowania i raportowania wielu nieaddytywnych miar ryzyka. Co więcej, wymaga się w chwili obecnej, aby wykonywanie zaawansowanych analiz statystycznych, budowanie hierarchii raportowych, wyliczanie miar w locie, było wykonywane przez osoby, które nie posiadają zaawansowanej wiedzy technicznej, czy też programistycznej. Osoby te muszą w jak najszybszym czasie zrozumieć powiązania pomiędzy danymi, aby poprawnie zidentyfikować raportowane wyniki oraz oszacować poziom ekspozycji na ryzyko. Z pomocą przychodzą rozwiązania raportowe SAS. Zapewniają one dodatkową wartość dodaną w procesie raportowania, a sposób w jaki wykonywana jest eksploracja i analiza danych jest przejrzysty, prosty w obsłudze, ale dający zawansowane możliwości analityczno-raportowe, a tym samym wymierne efekty biznesowe. Dzięki technologii high-performance analitycy eksplorują miliony czy nawet miliardy rekordów, identyfikują powiązania i korelacje pomiędzy czynnikami ryzyka oraz interpretują zmiany trendów wskaźników ryzyka w czasie w czasie rzeczywistym - to jest właśnie największa przewaga technologii high-performance.
  4. Wyceny w czasie rzeczywistym: wyniki stress-testów uzyskiwane w sekundach i minutach a nie godzinach czy dniach
    Uwzględnienie wielu scenariuszy rozwoju czynników ryzyka, a co więcej scenariuszy ze sobą skorelowanych, to marzenie niejednego CRO. Stress-testy, czy też analiza scenariuszowa pozwalają na identyfikację ekspozycji w danej walucie czy też budowę bilansu przy założeniu eksperckich, bazujących na historycznych lub stochastycznych zmianach parametrów ryzyka. A im więcej scenariuszy, tym ich wartość poznawcza jest większa. Stąd, również do takich zadań specjalnych z pomocą przychodzi technologia high-performance, pozwalająca na wykonywane wycen instrumentów w portfelach Banku, czy też przeprowadzanie stress-testów w krótkim czasie, w sekundach zamiast minut czy godzin, dostarczając rzeczowych informacji dla wszystkich zainteresowanych stron. Co więcej technologia ta sprawia, że wszystkie wykorzystywane do tej pory założenia i uproszenia, mogą pójść w niepamięć. Możemy definiować dowolną liczbę scenariuszy, wykonywać dowolną ilość prób, a na wyniki czekamy dosłownie chwilę. Więc nie musimy już tak jak kiedyś "dobrze się zastanowić", zanim uruchomimy wielogodzinny proces stress-testów - dziś to samo zadanie wykonujemy w sekundy lub minuty, więc możemy symulować do woli i bez ograniczeń. Co więcej, analitycy mogą symulować wpływ transakcji na dany portfel czy też cały bilans w czasie rzeczywistym, jeszcze zanim transakcja zostanie zawarta. Ocena ryzyka odbywa się więc w czasie rzeczywistym. Co więcej, podejście pozwala na zrozumienie czynników ryzyka na prowadzony przez nas biznes, a tym samym zapewnia podejmowanie poprawnych biznesowo i optymalnych przychodowo decyzji.
  5. Podejmowanie decyzji biznesowych w czasie rzeczywistym
    Optymalizacja i industrializacja, czyli tak modne ostatnio zoperacjonalizowanie całego procesu biznesowego w zakresie zarządzania ryzykiem pozwala na znaczące lub praktycznie nawet całkowite wyeliminowanie ryzyka - jeszcze przed podjęciem decyzji biznesowych. Symulacje wykonywane w czasie rzeczywistym wspierają analityków w analizie przedziałowej (w odróżnienie od analizy punktowej), pozwalają na opis i wizualizację graficzną oczekiwanych efektów danej decyzji biznesowej, a jak wiemy pismo obrazkowe przemawia do wielu z nas skutecznie.

    Jeżeli przyjmiemy założenie, iż wyniki naszych symulacji powinny się znaleźć na samym początku procesu podejmowania decyzji czyli "tu i teraz" i nie możemy na nie czekać, to uzyskując pożądane informacje w czasie rzeczywistym, budujemy przewagę konkurencyjną, podejmując właściwe biznesowo optymalne decyzje, które bazują na dokładnych uzyskiwanych błyskawicznie informacjach i szacunkach.

Oczywiście wyżej opisane rekomendowane sposoby podejścia do zarządzania ryzykiem, nie mają na celu całkowitego wyeliminowania pracy ręcznej w procesie zarzadzania ryzykiem. Umożliwiają one budowę fundamentów lepszego, sprawniejszego i bardziej dokładnego procesu zarządzania ryzykiem w czasie rzeczywistym, zapewniając bazę do pojmowania lepszych decyzji biznesowych z jednej strony oraz lepszego wyplenienia wymagań regulacyjnych związanych z przeliczeniami czy raportowaniem z drugiej. Ale pamiętajmy, że to menedżerowie decydują, a narzędzia SAS z rodziny high-performance mają na celu udzielenie maksymalnego i kompleksowego wsparcia przy podejmowaniu decyzji.

Więcej informacji dotyczących powyżej opisanych rozwiązań SAS wykorzystujących najnowsze osiągnięcia technologiczne można znaleźć na stronach:

Informacja o autorze:

Łukasz Libuda

Łukasz Libuda
Łukasz Libuda pracuje na stanowisku Senior Business Solutions Manager w Dziale Bankowości firmy SAS Institute. Odpowiada za rozwój biznesu w obszarze zarządzania ryzykiem w bankowości, ze szczególnym naciskiem na identyfikację i zarządzanie nadużyciami finansowymi, zarządzanie aktywami i pasywami (ALM), identyfikację i zarządzanie ryzykiem kredytowym oraz rynkowym (zgodnie z wymaganiami Basel2, Basel3), zarządzanie płynnością w aspekcie zarządczym i regulacyjnym oraz wypracowanie koncepcji zarządzania ryzykiem na poziomie przedsiębiorstwa (firm-wide risk), testów warunków skrajnych oraz zgodności w zakresie kompleksowego zarządzania ryzykiem.

Back to Top