High-Performance, Risk Aggregatin & Risk Reporting

BCBS: "Principles for effective risk data aggregation and risk reporting"

 

Okres po kryzysie finansowym ostatnich lat cechuje się wzmożoną czujnością i aktywnością instytucji regulacyjnych w tym Komitetu Bazylejskiego. Pojawiające się nowe zalecenia i regulacje mają jeden konkretny cel - w maksymalny sposób zapobiegać przyszłym kryzysom i ich dotkliwym skutkom. W jednym z dokumentów pt."Principles for effective risk data aggregation and risk reporting" zebrano wytyczne i najlepsze praktyki, które stają się w chwili obecnej jednym z nadrzędnych tematów dla sektora finansowego, zwłaszcza dla znaczących systemowo banków oraz innych instytucji finansowych wdrażających coraz bardziej zaawansowane strategie zarządzania ryzykiem. Pojawienie się nowych regulacji i zaleceń ma na celu eliminację sytuacji, w których banki nie były w stanie precyzyjnie oszacować swojej ekspozycji na ryzyko lub też proces jej oszacowania był długotrwały i niezautomatyzowany, a więc obarczony dużym błędem. Niejednokrotnie bazował na niezintegrowanych i niespójnych danych wejściowych.

Wdrożenie nowych 14 regulacji opisanych we wspomnianym dokumencie (podzielonych na: Infrastrukturę i data governance, agregację danych na potrzeby zarządzania ryzykiem, praktyki w zakresie raportowania ryzykiem, przegląd ze strony instytucji regulacyjnych) zapewne okaże się dużym wyzwaniem dla banków, gdyż swoim zakresem dotyka różnorodnych aspektów ich działalności. Począwszy od wypracowania odpowiedniej architektury informatycznej, zapewnienia jakości danych oraz wdrożenia strategii data governance, a skończywszy na sposobie dokonywania przeliczeń oraz generowania raportów w zakresie zarządzania ryzykiem.

Nie wchodząc w szczegóły każdego z 14 zaleceń, warto przytoczyć cztery najważniejsze z nich, które pozwalają na zapewnienie:

  • Kompletności danych (Completeness) - tak aby banki były w stanie dokonać holistycznej analizy ryzyka pomiędzy liniami biznesowymi, jednostkami itp. Banki muszą sobie odpowiedzieć na pytanie, w jaki sposób (jeżeli w ogóle) dane mogą być zagregowane, ale przy założeniu, że agregacja nie powoduje zmniejszenia wartości informacyjnej danych. Co więcej kluczowe staje się posiadanie spójnego pod kątem logicznym i technicznym modelu danych, który będzie przechowywał zarówno dane niezbędne do przeliczeń, jak również wyniki uruchamianych procesów obliczeniowych.
  • Czasowej dostępności danych (Timeliness) - zapewnienie dostępności danych oraz możliwości generowania na ich podstawie raportów w jak najkrótszym czasie, tak aby wyeliminować niepożądane zjawiska, które miały miejsce podczas ostatniego kryzysu finansowego (np. znacząca w skali europejskiej grupa bankowa potrzebowała aż 22 dni liczonych od końca miesiąca na oszacowanie miesięcznych wartości aktywów ważonych ryzykiem (RWA), podczas gdy wyniki kwartalne pojawiały się z opóźnieniem 37 dni). Z uwagi na konieczność przetwarzania dużych wolumenów danych w coraz krótszych oknach czasowych (a nawet w czasie rzeczywistym), oczekiwana jest duża szybkość i sprawność w tym zakresie, co implikuje wykorzystanie technik "in-memory/in-database computing" czy też "in-memory analytics".
  • Poprawności danych (Accuracy) - zapewnienie odpowiedniej jakości danych oraz precyzyjnych wyników rozumiane jako dostarczenie wyników przeliczeń w najkrótszym możliwym czasie, przy eliminacji ryzyka pomyłek i zapewnieniu wysokiej jakości wyników. Stąd kluczowa staje się jakość gromadzonych danych, konieczność ich logicznie spójnego przechowywania oraz zapisywania, czas dostępu i wykonywania przeliczeń oraz czas generowania raportów.
  • Adekwatności (Adaptability) - wykorzystanie aktualnych w danym momencie danych do wykonania przeliczeń w zakresie ryzyka oraz raportowania ad-hoc wymagającego elastyczności (np. dodawanie nowych danych lub tworzenia nowych miar na bazie istniejących), jak również zapewnienie możliwości łatwej analizy raportu przez końcowych użytkowników, a w razie konieczności jego przebudowy lub aktualizacji. Oczekiwana jest możliwość tworzenia tzw. raportów "self-service" pozwalających użytkownikom końcowym na ich generowanie na dowolnie zdefiniowanym poziomie granulacji, bez konieczności zaangażowania dodatkowych jednostek w banku.

Poruszane powyżej tematy to przysłowiowy czubek góry lodowej, ale wszystkie one dotyczą konieczności modernizacji technologii przetwarzania danych w zakresie obsługi procesów zarządzania ryzykiem. SAS posiada w swojej ofercie rozwiązania, które umożliwiają realizację zaleceń zawartych w "Principles for effective risk data aggregation and risk reporting". Należy tu wymienić następujące komponenty oprogramowania SAS:

  • SAS Detailed Data Store - wypracowany na bazie wieloletnich doświadczeń w bankowości kompletny, spójny logicznie i biznesowo model danych przechowujący dane m.in. na potrzeby zarządzania ryzykiem w sposób efektywny i spójny biznesowo,
  • SAS Data Management - narzędzia pozyskiwania i standaryzacji gromadzonych danych zapewniające dostęp, integrację, poprawę jakości danych oraz wsparcie dla tematyki data governance,
  • SAS High-Performance Analytics - wsparcie analityczne w zakresie analizy dużych wolumenów w czasie rzeczywistym, maksymalne skrócenie procesów analizy danych, budowy i kalibracji modeli analitycznych wraz z obsługą cyklu życia produkcyjnych modeli analitycznych,
  • SAS Event Stream Processing - automatyzacja procesów ładowania danych na zasadzie ustawicznego monitoringu zdarzeń biznesowych wywołujących konieczność ponownego zasilenia/aktualizacji danych, które będą podstawą do przeliczeń i generowania raportów (zapewnienie aktualności danych),
  • SAS Visual Analytics - efektywna wizualizacja i eksploracja danych, praca na dużych wolumenach danych niezagregowanych (Big Data), udostępnianie tzw. raportów "self-service", które mogą być aktualizowane/modyfikowane bezpośrednio przez użytkowników końcowych,
  • SAS High-Performance Risk - wysokowydajny silnik przeliczeniowy w zakresie wykonywania analiz ekspozycji na ryzyko rynkowe, wyceny instrumentów finansowych w portfelach banku, analiz symulacyjnych, stress-testów oraz analiz wrażliwości wykonywanych na poziomie transakcji dla kompletnego bilansu banku.

Jak widać na poniższym wykresie, oferta technologiczna SAS jest w tym zakresie kompletna, a oferowane rozwiązania doskonale się uzupełniają tworząc spójne, zharmonizowane i w pełni zautomatyzowane środowisko przeliczeniowo-raportowe, bazujące na efektywnie gromadzonych danych.

SAS Solutions for Risk Aggregation

Opisane powyżej i rekomendowane przez SAS rozwiązania umożliwiają budowę fundamentów lepszego, sprawniejszego i bardziej dokładnego procesu zarządzania ryzykiem w czasie rzeczywistym, zapewniając bazę do podejmowania decyzji biznesowych z jednej strony oraz wypełnienia wymagań regulacyjnych ("Principles for effective risk data aggregation and risk reporting") związanych z przeliczeniami i raportowaniem z drugiej strony.

 

Informacja o autorze:


Łukasz Libuda
Łukasz Libuda pracuje na stanowisku Senior Business Solutions Manager w Dziale Bankowości firmy SAS Institute. Odpowiada za rozwój biznesu w obszarze zarządzania ryzykiem w bankowości, ze szczególnym naciskiem na identyfikację i zarządzanie nadużyciami finansowymi, zarządzanie aktywami i pasywami (ALM), identyfikację i zarządzanie ryzykiem kredytowym oraz rynkowym (zgodnie z wymaganiami Basel2, Basel3), zarządzanie płynnością w aspekcie zarządczym i regulacyjnym oraz wypracowanie koncepcji zarządzania ryzykiem na poziomie przedsiębiorstwa (firm-wide risk), testów warunków skrajnych oraz zgodności w zakresie kompleksowego zarządzania ryzykiem.