Zaawansowane zarządzanie płynnością

Marek Kardach, Industry Consultant, SAS Institute

 

Ostatnie lata przyzwyczaiły banki do relatywnie wysokich poziomów stóp procentowych. Mając w perspektywie trwałe ich obniżenie, banki muszą odnaleźć się w nowej rzeczywistości, gdzie z jednej strony istnieje możliwość pozyskania taniego kapitału, a z drugiej strony obniżyła się oczekiwana stopa zwrotu z tego kapitału. Marża odsetkowa – bez odpowiednich działań – ulegnie „spłaszczeniu”, co jednoznacznie przyczyni się do rentowności całego sektora. W związku z powyższym, kluczowe z punktu widzenia biznesu bankowego wydaje się efektywne zarządzanie bilansem (w żargonie bankowym ALM – Asset Liability Management). Jednym z głównych filarów ALM jest ryzyko płynności, a w szczególności metody jego pomiaru.

Podstawowym instrumentem mierzenia ryzyka płynności jest analiza luki płynności, stanowiąca różnicę aktywów zapadalnych i pasywów wymagalnych w określonych momentach czasu w przyszłości. Taka analiza umożliwia m. in. odpowiedzenie na pytanie w jakim horyzoncie czasowym płynność banku jest niezagrożona.
Można wyodrębnić dwa ujęcia luki: lukę kontraktową oraz lukę urealnioną. W przypadku tej pierwszej analizuje się nominalne terminy zapadalności poszczególnych składników bilansu (aktywów i pasywów) oraz pozabilansu. W przypadku tej drugiej, uwzględniającej zdarzenia historyczne, dzięki zastosowaniu odpowiednich metod i narzędzi ilościowych oraz zaawansowanej analityki, analizuje się urealnione (rzeczywiste) terminy zapadalności.

W tym celu stosuje się szerokie spectrum modeli statystycznych oraz zaawansowanych podejść analitycznych. Wykorzystanie instrumentarium ilościowego na gromadzonych w bankach coraz większych zbiorach danych umożliwia m. in. historyczną analizę zachowań klienta, które może być mierzone wielkością udziału przedpłaconych kredytów (skrócenie czasu zapadalności aktywów). Z drugiej strony może umożliwić szacowanie stabilnej części bazy depozytowej, w której skład wchodzą m. in. rachunki bieżące nieposiadające nominalnego terminu zapadalności. Zaawansowana analityka na danych (data discovery) pozwoli odpowiedzieć na pytanie, w jakim horyzoncie czasowym z banku odpłyną środki zdeponowane w nim przez klientów – a jest to jedno z kluczowych pytań zadawanych przez menedżerów ryzyka zwłaszcza w tak zmiennych i niestabilnych czasach jak dzisiejsze.
 


Poza analizą zachowań klientów, zaawansowane narzędzia analityczne umożliwiają analizę szeroko rozumianych rynków finansowych, których zachowanie w kontekście ryzyka płynności jest niezwykle istotne. Dzięki zastosowaniu odpowiednich modeli analitycznych można zmierzyć historyczną głębokość rynku, w celu sprawdzenia popytu na wybrane aktywo będące w posiadaniu danego banku. To z kolei pozwoli odpowiedzieć z jaką skutecznością dana instytucja jest zdolna do upłynnienia wybranych składników swojego bilansu a tym samym zapewnienia odpowiedniego wskaźnika płynności oraz pewności, iż bank działa w ramach ustalonego „apetytu na ryzyko”.

Oczywiście pomiar ryzyka płynności nie jestem celem samym w sobie. Dzięki wnioskom budowanym na podstawie wskaźników ryzyka płynności, instytucja jaką jest bank może przebudowywać strukturę swojego bilansu, tak aby ustrzec się ryzyka własnej niewypłacalności lub nieefektywnego zarządzania kapitałem, który ulokowany w odpowiednie instrumenty rynku pieniężnego lub kapitałowego generuje dodatkowe zyski. Najprostszym przykładem jest decyzja o zmianie źródeł finansowania swojej działalności, bądź decyzja o zmianie swoich należności z krótkoterminowych na długoterminowe. Takie decyzje mogą być podejmowane w oparciu o analizę luki płynności.

Z punktu widzenia ryzyka płynności istotna jest również jakość posiadanych aktywów. Miernikami jakości mogą być parametry ryzyka kredytowego (PD, LGD oraz CCF). Chodź same metody pomiaru nie zawsze są bardzo skomplikowane, to dotyczą bardzo dużej liczby ekspozycji. Rzetelne przeprowadzanie badania jakości aktywów wymaga analizy dużego wolumenu danych (niektóre portfele kredytowe potrafią liczyć miliony pozycji). Sprawna, a co ważniejsze regularna kontrola bez posiadania zaawansowanych narzędzi analitycznych stanowi duże wyzwanie, a czasem może się okazać niemożliwa do przeprowadzenia w założonym przedziale czasowym. Ponadto stosowanie mniej zaawansowanych narzędzi analitycznych może rodzić ryzyko błędu, wynikającego z braku ustrukturyzowania procesu. Przykładem konieczności przeprowadzenia kompleksowego przeglądu jakości aktywów było ćwiczenie przeprowadzone w roku 2014 o nazwie AQR (Asset Quality Review) wymagane przez Europejski Bank Centralny.

W świecie wykładniczo rosnącej liczby informacji, które mogą być wykorzystywane do przekrojowej analizy dowolnego zjawiska, istotną rolę w zarządzaniu ryzykiem pełnią wydajne narzędzia analityczne. Umożliwiają one w bardzo przejrzysty i szybki sposób weryfikację różnorakich tez stawianych przed badaniem danego zagadnienia. Dzięki wielu udogodnieniom oferowanym przez nowoczesne rozwiązania BI obszerne wolumeny danych nie stanowią już przeszkody, a wyniki przeliczeń uzyskiwane przy ich wykorzystaniu, raporty i wizualizacje za pomocą narzędzi działających w czasie rzeczywistym to przysłowiowa „kropka nad i” dla całego procesu. Systemy raportowe stają się integralną i nierozerwalną częścią rozwiązań dokonujących przeliczeń w czasie rzeczywistym na potrzeby zarządzania ryzykiem.

Informacja o autorze:


Marek Kardach

Pracuje na stanowisku Industry Consultant w Dziale Financial Services firmy SAS Institute. Pracuje przy wdrożeniach systemów informatycznych w obszarze zarządzania ryzykiem w bankowości.