Wartość napędzana przez właściwe Dane

Wartość napędzana przez właściwe Dane

Praktyka Data Science w instytucjach finansowych

Współczesny rynek usług finansowych nieustannie poszukuje wartości, które można opakować w usługi i zaoferować klientom. Próba pragmatycznego zdefiniowania wartości napotyka trudności ze względu na mnogość punktów widzenia reprezentowanych przez poszczególnych uczestników branży i ewoluujące oczekiwania klientów.

Wśród oczywistych kryteriów definiowania wartości możemy wyodrębnić zaufanie, postrzegane jako bezpieczeństwo oraz rzetelność, przejawiającą się poprzez wiarygodność informacyjną i spójność komunikacji z klientem. Te tradycyjne wartości uzupełniane są przez nieodłączne atrybuty branży finansowej takie jak szybkość i wygoda, postrzegane przez pryzmat płynności, różnorodności i dopasowania oferty. Trendy występujące na rynku usług finansowych związane są z wzorcami konsumpcji i oczekiwaniami klientów oraz percepcją wartości względem ceny.

Pomimo wielu hipotez uznaje się, że najskuteczniejszą metodą oceny wartości danych jest empiryczny test polegający na komercjalizacji produktów opartych na ich analizie.

Jak zatem możemy zoptymalizować proces wyboru właściwych danych? Cechami, które mogą wpływać (pozytywnie lub negatywnie) na wartość możliwą do uzyskania są: rozmiar, różnorodność, aktualność, dokładność, jednoznaczność oraz wrażliwość. Czym zatem kierować się przy wyborze danych?

  • Mniejszy zbiór danych – oznacza niższe koszty ekstrakcji wartości.
  • Mnogość źródeł – daje synergiczny przyrost wartości i rozszerza obszar.
  • Świeżość – szybszy czas od zarejestrowania to większa wartość.
  • Dokładność – obniża koszty i daje wynik o większej wartości.
  • Jednoznaczność – ułatwia interpretację i sprzedaż efektów.
  • Wrażliwość – może wpłynąć na koszty wykorzystania danych i wdrożenie produktów.

Kluczem do skutecznej realizacji wartości danych jest koncentracja na szybkim dostarczeniu efektu, którego wartość oceniamy w kontekście komercjalizacji wyniku analizy. Wykorzystanie dorobku ruchu Agile polegającego na optymalizacji względem celów biznesowych oraz szybkim operacyjnym wdrożeniu efektów, skutkuje regularnym dostarczaniem policzalnej wartości.

Czynnikami które mogą znacząco wpłynąć na percepcję wartości są: koszt pozyskania informacji lub jej analizy, czas, wiarygodność, ryzyko związane z wykorzystaniem informacji, regulacje branżowe. Uwzględniając powyższe czynniki i kierunki optymalizacji, stosujemy metodę polegającą na możliwie wczesnym uchwyceniu wartości i adopcji określonej techniki w ekosystemie instytucji. Celem jest uzyskanie przyrostu wartości poprzez dodanie lub usprawnienie istniejącego procesu w sposób komplementarny do praktyk organizacji. Tu asertywna komunikacja i zdolność do przystępnego przedstawienia zalet są kluczowe w procesie wewnętrznej sprzedaży uzyskanej wartości.

Koncentrujemy się zatem na rzeczywistości biznesowej i generowanych przez nią informacjach. W tym przypadku pomocna jest technika trzech pytań, którą z powodzeniem stosujemy na etapie wstępnym:

  • przez który system “przechodzi” największa część biznesu wyrażona dowolną miarą wartości?
  • zatrzymanie działania którego systemu oznaczałoby katastrofę dla organizacji?
  • gdyby w tym momencie zadzwonił “czerwony” telefon z informacją o awarii systemu, którą nazwę usłyszelibyśmy?

Jeżeli w dwóch przypadkach nazwa się powtarza, należy skupić się na problemach związanych z tym właśnie fragmentem biznesowej rzeczywistości. Przygotowanie prototypu analizy polega m.in. na interaktywnym wywiadzie odbywającym się w parze konsultant – ekspert dziedzinowy (reprezentujący biznes klienta), a realną analizę należy udostępnić organizacji w ramach procesu PoC i poddać ocenie. Testowa, a później produkcyjna operacjonalizacja analizy odbywa się na bazie tej samej platformy. Istotny tu jest proces adopcji i wewnętrznej “sprzedaży”. Sukces i dostarczona wartość generują kolejne interesujące wyzwania. Zatem powtarzamy to podejście aż do wyczerpania wszystkich wartościowych problemów.

Na koniec warto zwrócić uwagę na aspekty związane ze źródłami danych i sposobami ich przetwarzania. Każda organizacja finansowa posiada dane maszynowe generowane przez infrastrukturę i aplikacje, logi audytowe, rejestratory aktywności użytkowników czy metadane zawierające detale dotyczące kontekstu powstania informacji. Takie dane można wzbogacać o dostępne o otoczeniu informacje. Wszystkie one, w połączeniu z algorytmami machine learning stanowiącymi wstęp do sztucznej inteligencji, otwierają możliwości czerpania wartości z danych. A, że dane nie podlegają procesowi zmiany czy strukturyzacji, to kolejne iteracje analiz umożliwiają równoległe funkcjonowanie i porównywanie różnych metod analitycznych oraz sposobów interpretacji.

W celu zapoznania się z ofertą Linux Polska zapraszamy do odwiedzenia strony www.linuxpolska.pl/data-science.

Tags

top