Przejdź do głównej sekcji
Arrow
Arrow
CASE STUDY

Celem jest przybliżenie procesu tworzenia, wyboru algorytmów, oceny danych zmierzające do osiągnięcia zamierzonego celu jakim było usprawnienie i przyspieszenie w podejmowaniu decyzji.

Dla jednego z naszych Klientów (USA) zajmującą się dofinansowaniem/kredytowaniem (online) na platformie Amazon, dla sprzedawców opracowano i skutecznie wdrożono algorytmy uczenia maszynowego.

Naszym zadaniem było usprawnić już istniejący proces dofinansowania, który polegał na zaangażowaniu ludzi do sprawdzenia danych klientów. Po analizie, zadanie było podzielone na kilka podprojektów m.in. analiza klienta za względu na stan finansowy, przewidywanie “churn”-u bazy klientów, predykcja sprzedaży klientów.

Nasza współpraca z Klientem zaczęła się od weryfikacji danych, która polegała na sprawdzeniu ilości,  jakości i użyteczności danych.  Do dyspozycji otrzymaliśmy około 50 tysięcy wierszy przepływu danych dziennie z ostatnich dwóch lat. Struktura baz danych była zaprojektowana głównie pod dane klientów (sprzedawców), a dane dotyczące klientów rozłożone były na ok. 50 cech (zmiennych). Po analizie dostępnych danych okazało się, że duża część danych nie może być uwzględniona w analizie. Po czyszczeniu danych i wyborze podzbioru przydatnych danych została do dyspozycji półroczna historia klienta z około 20 cechami. Przyczyn było kilka, mianowicie dane nieprzydatne, niezgodności w danych spowodowane niesprawnościami w systemie zbierania danych i przejściem na nowy system zbierania danych, czy też redundancja danych. Jeśli chodzi o użyteczność, to końcowa analiza użyteczności jest przeprowadzona podczas planowania poszczególnych funkcjonalności.

Po rozeznaniu danych przygotowaliśmy pytania dotyczące udzielania pożyczek i szczegółów współpracy z platformą Amazon. Podczas wideokonferencji okazało się, że nawet pośród ich ekspertów istnieją niezgodności co do procesu oceny klienta. Było to czynnikiem który skomplikował proces wdrożenia naszych rozwiązań, niezbędne stało się zdobycie odpowiedniej wiedzy dziedzinowej.

Po rozmowach z Klientem, zaproponowaliśmy kilka podprojektów, między którymi kilka opisanych wyżej i po omówieniu szczegółów został wybrany podzbiór projektów do realizacji na  najbliższy okres współpracy. Zespół 3 osobowy ML firmy Whiteaster zaangażowano początkowo do projektu. Dzięki staraniom już po pierwszych 3 miesiącach został osiągnięty wynik lepszy aniżeli ekspertów po stronie Klienta. Po omówieniu efektów z firmą zamawiającą, dla uzyskania jeszcze lepszego wyniku, umówiliśmy się na zmianę procesu w taki sposób, ażeby klienci, których jesteśmy pewni zyskali dofinansowanie automatycznie za pomocą naszego modelu, a inni potrzebowali ręcznego sprawdzenia przez ekspertów z firmy zamawiającej.

Sam model miał brać pod uwagę takie dane jak np.: ocena sprzedawcy platformą do sprzedaży, stan finansowy sprzedawcy, ocena produktów którymi dysponuje sprzedawca i sezonowości ich sprzedaży. Każdy z czynników był oceniany osobno, po czym oceny poszczególnych czynników były analizowane przez model zbiorczy, w taki sposób uzyskaliśmy bardzo interpretowany wynik.

Po implementacji pierwszego ulepszenia razem z Klientem zaczęliśmy się zastanawiać nad bardziej ryzykownymi projektami, do których jednak nie mieliśmy wystarczająco danych. Dla realizacji takich projektów potrzebowaliśmy przydzielić dodatkowych ludzi do zespołu zajmującego się tym projektem. Zespół ML Whiteaster został powiększony do 7 osób, co pozwoliło nam na rozszerzenie zakresu zbieranych danych, implementację modeli do przewidywania sprzedaży każdego klienta osobno, dodanie kilku nowych modeli i ulepszenie wyniku tych istniejących.

Podsumowanie: 

Ważnymi elementami przy implementacji rozwiązań uczenia maszynowego są:

  • jasne kryteria osiągnięcia celu,
  • wiedza dziedzinowa,
  • użyteczność danych.

Cel 

Ulepszyć (ulepszyć skuteczność i przyspieszyć) proces podejmowania decyzji w sprawie dofinansowania klienta.

Dane

Większość potrzebnych danych była uzyskana, ale duża część danych nie była brana pod uwagę z różnych przyczyn. Czasami dobrym wyjściem jest dodanie niezbędnych danych do procesu ich pozyskiwania.

Analiza

Polepszyć/przyspieszyć analizę bardzo pomaga dobra jakość danych i wiedza dziedzinowa. Analiza polega na rozeznaniu czy cel jest osiągalny korzystając z istniejących danych i jeśli tak, to jak będą wyglądały modele danych wykorzystywane dla implementacji modeli.

Obróbka danych

Obróbka danych polega na przygotowaniu danych do uczenia, przygotowaniu skryptów do czyszczenia przepływu danych z produkcji. Etap obróbki danych jest odpowiedzialny za jakość danych, ale tylko na tyle na ile pozwalają same dane.

Model ML/DL

Modele zawierają w sobie wiedzę na podstawie której można uzyskać predykcje(w tym przypadku odnośnie bezpieczności dofinansowania klienta). Wiedza ta jest uzyskana z danych, na tyle na ile na to pozwala informacja kryjąca się w danych. W tym etapie model jest uczony na danych. Ważnym jest wybór odpowiedniego algorytmu do rozwiązywanego problemu.

Tuning modelu

Tuning modelu polega na doprecyzowaniu istniejącego algorytmu do uczenia modeli w celu polepszeniu wyników. Pod ten proces jest dedykowany cały punkt, dlatego że ten proces jest bardzo czasochłonny i tuning odbywa się na podstawie cyklu prób i błędów.

Produkcja

Wdrożenie modelu w system produkcyjny. W zależności od skali problemu albo dobudowywuje się moduł który korzysta z modelu lokalnie albo korzysta z modelu hostowanego na chmurzę.

PRACUJEMY DLA
APA Group
Urban Lab
UM Krakow
UM Jaworzno
UM Rzeszów
deegitals
Strefa Energii
ZOO Chorzów
Tarnopol

Copyrights © 2021 Whiteaster

crafted by: mastafu design