Abstrakty

Otwarcie konferencji, Fabryka modeli analitycznych w Grupie PZU
Kamil Zakrzewski,Grupa PZU

Grupa PZU jest liderem na rynku ubezpieczeń majątkowych i życiowych. Jako lider pozycjonowana jest nie tylko pod względem ilości sprzedanych polis, ale również z uwagi na satysfakcję swoich klientów. Przez ostatnich kilka lat stan ten został osiągnięty poprzez budowę i stałe udoskonalanie klientocentryczności organizacji. Nie byłoby to możliwe bez nowoczesnej, zaawansowanej analityki wspieranej wiedzą biznesową ekspertów. Zbudowane modele data mining, wspierające wszelkie procesy marketingowe PZU, tworzą obecnie sprawnie funkcjonującą fabrykę, która jest głównym tematem prezentacji.


Analityka preskryptywna, czyli jak wyznaczyć optymalną decyzję?
Mateusz Zawisza

Analityka opisowa i predykcyjna weszły już na stałe do kanonu standardowych narzędzi analityków. Ich rezultaty wyposażają użytkowników biznesowych w informacje potrzebne do podejmowania optymalnych decyzji operacyjnych i strategicznych. Analityka preskryptywna jest następnym krokiem, który formalizuje proces podejmowania decyzji i wyznacza optymalne decyzje. Celem prezentacji jest wyposażenie słuchaczy w umiejętność formułowania problemów biznesowych przez pryzmat języka zadań optymalizacyjnych na przykładzie wdrożeń zrealizowanych przez SAS Institute.


Analityka High-Performance – co w sobie kryje i jakie daje korzyści?
Paweł Plewka

mance to szerokie pojęcie, które dotyka kilku obszarów technologicznych SAS. Prezentacja ma na celu wyjaśnienie pojęć związanych z analityką High-Performance, krótkie omówienie komponentów jakie się na nią składają oraz wskazanie konkretnych algorytmów i procedur które zostały zaimplementowane w obszarze statystyki i Data Mining. Pokazane są również przykłady wykorzystania środowiska High Performance dla realizacji konkretnych analiz.


Nowe możliwości interaktywnych analiz dużych wolumenów danych
Mariusz Dzieciątko

Stały przyrost objętości gromadzonych danych stawia co raz większe wyzwania przed analitykami. Z jednej strony potrzebujemy podejmować decyzje biznesowe szybciej a z drugiej strony mamy ograniczone możliwości testowania różnorodnych hipotez z powodu wydajności obecnie stosowanych narzędzi analitycznych. Ostatnio dużą popularność zyskują systemy przetwarzania danych oparte o rozwiązania in-memory. W tym roku został wprowadzony na rynek nowy produkt o nazwie SAS In- memory Statistics for Hadoop. Produkt ten jest wykorzystywany przez rozwiązania Visual Analytics oraz Visual Statistics ale aktualnie umożliwia wykorzystanie jego pełnych możliwości przez programistów. Funkcjonalność produktu obejmuje zarządzanie danymi , wykonywanie analiz eksploracyjnych, budowanie modeli i ich ocenę na nieograniczonej ilości danych zgromadzonych w Hadoop , platformie open-source , uważanej przez wielu za nową platformę przechowywania dużych danych . Architektura przetwarzania rozproszonego w pamięci oferuje bezprecedensową szybkość - krytyczny wymóg zastosowania analiz do ogromnej ilości danych. Ta sesja stanowi przegląd oparty na przykładach wybranych metod dostępnych w ramach SAS In- memory Statistics for Hadoop z użyciem nowego interfejsu programisty jakim jest SAS Studio.


SAS Visual Statistics – nowa jakość w wizualnej eksploracji danych
Piotr Borowik

Wizualna prezentacja danych od dawna pozwalała na lepsze ich zrozumienie, pokazanie zależności i trendów. Następnym, naturalnym krokiem stała się wizualna eksploracja danych, gdzie analityk uzyskuje dużą elastyczność i dowolność w pracy z danymi. Przez długi czas ograniczenia technologiczne sprawiały, że dostępne było to wyłącznie dla przypadków stosunkowo niewielkich zbiorów danych. Wraz z rozpowszechnieniem się podejścia in-memory SAS Visual Analytics umożliwił wizualną eksplorację również dużych zbiorów danych w tym problemów tzw. big data. Kolejny poziom możliwości analitycznych daje SAS Visual Statistics pozwalający na intuicyjną, wizualną eksplorację z użyciem bardziej zaawansowanych metod predykcyjnych. Użytkownik ma do wyboru metody: regresji liniowej, regresji logistycznej, generalizowanych modeli liniowych, drzew decyzyjnych, klastrowania. Natychmiastowe czasy odpowiedzi i graficzna eksploracja wyników pozwalają na wielokrotne zadawanie pytań, zmianę parametrów i poszukiwanie najlepszego modelu analitycznego. Rezultatem pracy, oprócz lepszego poznania swoich danych, są również gotowe modele predykcyjne, które mogą być wykorzystane w produkcyjnym środowisku jako kod skoringowy SAS 4GL.


Zarządzenie ryzykiem "z dopalaczem". Risk management w czasie rzeczywistym.
Łukasz Libuda

Rozwiązania SAS High-Performance Risk umożliwiają wykonanie kompleksowej oceny ryzyka na poziomie całego przedsiębiorstwa, pozwalając zarządom banków zidentyfikować globalną ekspozycję na ryzyko oraz relację do "apetytu na ryzyko". Równoległe przetwarzanie w modelu in-memory pozwala praktycznie w czasie rzeczywistym na wyliczenie zagregowanych i szczegółowych miar ryzyka, bieżącej i przewidywanej przyszłej ekspozycji na ryzyko kredytowe, wspiera zarządzanie limitami, dokonywanie wycen instrumentów finansowych MtM czy też wykonanie przeliczeń VaR za pomocą symulacji Monte Carlo. Ponadto, rozwiązania HP Risk wspierają wykonanie optymalizacji instrumentów w portfelach banku, budowę bilansu oraz oszacowanie wpływu scenariuszy zmian czynników rynkowych na wskaźniki ryzyka. Zastosowanie SAS HP Risk pozwala na przebudowanie istniejących procesów biznesowych w zakresie zarządzania ryzykiem w celu ich radykalnego przyspieszenia.

Podczas prezentacji zostaną omówione najważniejsze zagadnienia związane z HP Risk oraz przykłady praktycznego wykorzystania.


SAS Visual Scenario Designer - jak szybko tworzyć i testować reguły biznesowe
Michał Jabłonka

W klasycznym podejściu reguły biznesowe, wykorzystywane w systemach informatycznych, tworzone są przez ekspertów biznesowych, a następnie implementowane przez pracowników IT. Czy rzeczywiście implementowanie reguł biznesowych wymaga technicznej wiedzy z zakresu IT ? W jakim stopniu niezbędna jest biznesowa wiedza ekspercka ? Na te i inne pytania odpowiemy prezentując narzędzie 'SAS Visual Designer'. W ramach wystąpienia zaprezentujemy również jak szybko i wygodnie można projektować i testować reguły biznesowe.


Wykrywanie nadużyć w bankowości elektronicznej
Marcin Nadolny

Usługi bankowości internetowej i mobilnej stają się coraz bardziej popularne wśród klientów banków. Wiele banków zaczyna udostępniać nowe funkcjonalności w bankowości pozwalające na dokonywanie płatności z wykorzystaniem telefonów komórkowych. Dzięki smartfonom coraz więcej osób jest stale on-line, co wystawia je na większe ryzyko zaatakowania przez cyberprzestępców, które będzie rosło wraz z dalszym rozwojem technologii mobilnych. Narażenie klientów na ataki niesie za sobą spore ryzyko reputacyjne, dlatego coraz więcej banków decyduje się inwestować we wdrożenie rozwiązań chroniących ten obszar bankowości przed nadużyciami. W ramach prezentacji powiemy jakie zagrożenia stoją przed klientami bankowości elektronicznej i w jaki sposób można im przeciwdziałać z wykorzystaniem SAS.


Segmentacja analityczna klientów posiadających oszczędności – studium przypadku
Ewelina Plis

Umiejętność przekształcenia ogromnego wolumenu danych o klientach w wiedzę umożliwiającą dopasowanie oferty do potrzeb klienta jest jednym z kluczowych czynników decydujących o sukcesie prowadzonych kampanii marketingowych. Rosnąca świadomość klientów sprawia jednak, że wykorzystanie informacji o ich relacji z bankiem może się okazać niewystarczające. Coraz częściej klienci kierują się bowiem atrakcyjnością oferty, przedkładając ją nad lojalność wobec banku. Rozbudowa tablicy analitycznej o dane opisujące ofertę produktów oszczędnościowych oferowanych przez konkurencję pozwoliła na uwzględnienie tego dodatkowego aspektu zachowań klientów. W efekcie zostały wydzielone wewnętrznie spójne segmenty różniące się między sobą nie tylko skłonnością do zakupu poszczególnych produktów oszczędnościowych, ale również wrażliwością cenową.

W prezentacji przedstawiony zostanie sposób przeprowadzenia segmentacji analitycznej dla grupy klientów posiadających produkty oszczędnościowe. Omówione zostaną rodzaje wykorzystanych danych oraz użyte metody. Zaprezentowane również będą możliwe obszary wykorzystania wyników segmentacji.


Contract Termination Value
Artur Szymański, Anna Paszko - Play

  1. Krótki opis modelu biznesowego w telekomach.
  2. Co to za miara i do czego służy – Contract Termination Value (CTV).
  3. Dlaczego Play zdecydował się na wdrożenie systemu wspierającego liczenie CTV.
  4. Jak działa system CTV – dane historyczne + prognoza.
  5. Źródła danych systemu CTV i jak jest zbudowany (drzewa decyzyjne).
  6. Skuteczność modelu.
  7. Korzyści oraz przykłady analiz/raportów możliwych dzięki zbudowaniu systemu CTV.

Analityka tekstowa jako aktywne wsparcie Social CRM
Artur Skalski

Angażując się w dyskusje w przestrzeni społecznościowej, firma powinna mieć określoną strategię i reguły komunikacji oraz odpowiednie narzędzia wspomagające jej realizację.

Podczas tej prezentacji przedstawimy w skrócie metody wspierające realizację strategii w przestrzeni tworzonej przez klientów i prospektów organizacji. Pokażemy jak w czasie rzeczywistym analizować główne wątki napędzające dyskusję, jak wybrane zagadnienia przekazywać do odpowiednich osób w organizacji oraz jak możemy wykorzystać zagregowane informacje do poprawy procesów biznesowych organizacji, a w konsekwencji do poprawy wizerunku firmy i satysfakcji klienta.


Kokpity menedżerskie Ośrodka Informacji UFG jako narzędzie monitoringu procesów bazodanowych
Robert Stachura, UFG

W lutym 2014 roku Ośrodek Informacji UFG udostępnił kadrze zarządczej zakładów ubezpieczeń kokpity menedżerskie - opracowane na bazie technologii SAS. Kokpity menedżerskie prezentują informacje, które pozwalają zakładom ubezpieczeń w sposób kompleksowy ocenić jakość procesów wymiany danych z bazą UFG, a w konsekwencji pozwalają menedżerom na szybką diagnozę sytuacji i nadanie impulsu wewnątrz ich organizacji do podjęcia działań naprawczych. Informacje wbudowane w kokpitach menedżerskich oparte są na zaimplementowanych przez Ośrodek Informacji UFG wskaźnikach oceny jakość danych i procesów związanych z zasilaniem bazy UFG, które to wskaźniki stanowią podstawę do corocznie opracowywanego przez UFG rankingu zakładów ubezpieczeń.

W wymiarze praktycznym, kokpity menedżerskie umożliwiają z dowolnego miejsca i w dowolnym czasie dokonanie natychmiastowej oceny sytuacji. Użytkownik, któremu zostały nadane odpowiednie uprawnienia, może połączyć się z serwerem kokpitów UFG i przeglądać aktualne wskaźniki. Niewątpliwym atutem tego rozwiania jest także atrakcyjna wizualizacja. Kokpity menedżerskie, prezentują informacje w sposób nieosiągalny dla standardowych narzędzi analitycznych.

Reasumując, projekt kokpitów menedżerskich stanowi kolejny element współpracy Ośrodka Informacji UFG z zakładami ubezpieczeń, który prowadzi do poprawy jakości danych przekazywanych przez zakłady, a w konsekwencji możliwości ich efektywnego wykorzystania zarówno do wewnętrznych procesów UFG, jak i z korzyścią dla samych zakładów ubezpieczeń.


Ile zarabiamy dzięki modelom skoringowym - studium przypadku procesu akceptacji kredytowej
dr Karol Przanowski, SGH

W prezentacji omówiony jest sposób wykorzystania danych symulacyjnych portfela Consumer Finance w badaniach Credit Scoring. Prawie każdy menadżer zajmujący się procesem biznesowym zawsze zadaje sobie to samo pytanie: jak wykorzystanie zaawansowanych modeli predykcyjnych wpływa na optymalizację procesu, o ile wzrasta zysk, dzięki stosowaniu lepszych modeli statystycznych? Właśnie dzięki danym symulacyjnym, możliwe jest wykazanie korzyści stosowania modeli kart skoringowych, wykazując, że można miesięcznie o kilka milionów złotych zarabiać więcej w procesie akceptacji kredytowej, jeśli tylko nieznacznie zwiększy się własność predykcyjności modelu. Co więcej możliwe jest testowanie różnych strategii akceptacji, mierząc i wyliczając wielkości nie tylko, znane i obserwowalne w rzeczywistych procesach, ale także te ukryte, których nie da się tak prosto intuicyjnie przewidzieć. Rozważone są tu cztery różne strategie procesu akceptacji kredytowej w modelu biznesowym: tani kredyt ratalny i droga sprzedaż krzyżowa w postaci kredytu gotówkowego. Wpływ odrzuconych wniosków w procesie akceptacji jest trudny do przewidzenia i dlatego obserwacja ukrytych wskaźników, które stają się możliwe dzięki danym symulacyjnym, pozwala wyrobić sobie nieocenione doświadczenie, by lepiej i skuteczniej zarządzać rzeczywistymi procesami. Zaprezentowane są istotnie większe zyski z procesów dzięki stosowaniu modeli CLTV (ang. Customer Life Time Value), które w procesach uwzględniają bardziej złożone zależności, przewidujące wskaźniki przyszłych kredytów klienta.


Wykorzystanie makra CALMAR na potrzeby kalibracji w Narodowym Spisie Powszechnym Ludności i Mieszkań
Marcin Szymkowiak, Urząd Statystyczny w poznaniu

Narodowy Spis Powszechny Ludności i Mieszkań 2011 (NSP 2011) po raz pierwszy w historii polskiej statystki publicznej został przeprowadzony metodą mieszaną. Oznaczało to wykorzystanie danych pochodzących ze źródeł administracyjnych (rejestrów i systemów administracyjnych) a także danych zbieranych od ludności w ramach przeprowadzonego na szeroką skalę badania reprezentacyjnego, w którym liczebność próby była określona na poziomie 20% mieszkań dla Polski.

Wykorzystanie danych z różnych źródeł wymagało, na etapie uogólniania wyników badania reprezentacyjnego, odpowiedniego skorygowania wag dla wszystkich osób biorących w nim udział. Było to spowodowane koniecznością odpowiedniego zintegrowania i zachowania spójności pomiędzy wynikami badania reprezentacyjnego z danymi pochodzącymi z rejestrów w zakresie podstawowych zmiennych demograficznych odnoszących się do płci, wieku oraz miejsca zamieszkania – poziom powiatu z wyodrębnieniem części miejskiej i wiejskiej.

Na potrzeby korygowania wag wynikających ze schematu losowania próby i przypisanych wszystkim osobom biorącym udział w badaniu reprezentacyjnym wykorzystano estymatory kalibracyjne (kalibrację), których podstawy teoretyczne zostały zaproponowane przez Devilla i Särndala (1992). W klasycznym ujęciu wyznaczanie wag kalibracyjnych oparte jest na odpowiednio dobranej funkcji, która minimalizuje odległość między wejściowymi wagami wynikającymi ze schematu losowania próby a tzw. wagami kalibracyjnymi.

W efekcie zastosowania kalibracji odtwarzane są dla odpowiednio dobranych zmiennych pomocniczych z badania reprezentacyjnego ich znane wartości globalne na poziomie całej populacji, przy czym wyznaczone wagi kalibracyjne nie różnią się zbytnio, w sensie przyjętej funkcji odległości, od wag wejściowych wynikających ze schematu losowania próby (Särndal C-E., Lundström S. 2005, Särndal C-E. 2007).

Głównym celem referatu jest przedstawienie teoretycznych podstaw kalibracji wraz z jej praktycznym wykorzystaniem na potrzeby NSP 2011. W wystąpieniu omówiona zostanie idea kalibracji, a także etapy jej zastosowania do danych spisowych na potrzeby dostosowania struktur płci, wieku i miejsca zamieszkania z badania reprezentacyjnego do danych z rejestrów, które stanowiły populację referencyjną (odniesienia). Przedstawiona zostanie również szczegółowo struktura, napisanego w języku 4GL w systemie SAS, makra CALMAR, które stanowiło podstawowy program służący do wyznaczania wag kalibracyjnych i oceny ich jakości.


Text Mining w analizie sprzedaży – co myślą o naszych produktach kliencie i jak to zamodelować
Rafał Wojdan

Obecnie, w erze Big Data, działy Business Intelligence zbierają, przechowują, przetwarzają, obliczają oraz monitorują ogromne ilości danych. Mimo tego, nawet setki metryk zbudowanych na ustrukturyzowanych danych nie dają wystarczającej odpowiedzi na pytanie dlaczego dany produkt sprzedał się lepiej lub gorzej. Dzięki Text Analytics możemy rozszerzyć spektrum naszych poszukiwań o dane nieustrukturyzowane, którymi są maile, komentarze, tweety itp. W skrócie różnego rodzaju teksty, które poza mową są główną metodą komunikacji oraz wyrażania opinii przez ludzi. Mimo, że tak naturalnym jest szukać odpowiedzi na temat odbioru naszych produktów przez klientóww danych tekstowych, to jednak wydaje się, że firmy nie są świadome możliwego wykorzystania tych danych lub nie wierzą w ich wartość. Z tej prezentacji będzie się można dowiedzieć jak takie dane pozyskać, jak je przeanalizować czy jak uzyskać zmienne, które mogę zostać wprowadzone do modelu sprzedażowego.


Potęga rekomendacji
Cezary Głowiński

Firmy niezależnie do sektora działalności cały czas starają się zwiększyć skuteczność swoich działań sprzedażowych. W momencie gdy klient ma do dyspozycji wiele produktów staje przez decyzją który wybrać, niezależnie od tego czy jest to firm w wypożyczalni VOD, artykuł na portalu informacyjnym, książka w księgarni internetowej, oferta z telefonem w e-shopie operatora telekomunikacyjnego, bądź inny produkt w sklepie internetowym. Żeby klient kupił produkt powinien być dla niego w jakiś sposób interesujący, a jednocześnie gwarantował firmie odpowiedni poziom zysku. W jaki sposób zatem wybrać taki produkt? Można wykorzystać do tego analityczny system rekomendacyjny.

 

Data

25 czerwca 2014

Miejsce

SAS Innovation Hub

ul. Gdańska 27/31

01-633 Warszawa

Kontakt

SAS Institute Polska
ul. Gdańska 27/31
01-633, Warszawa
tel: (22) 560 46 00
fax: (22) 560 46 04
seminarium@spl.sas.com

Back to Top