Akceptuj podobne dane: jak firmy uczą się czerpać zyski z dużych zbiorów danych

Analizując duże zbiory danych, firmy uczą się odkrywać ukryte wzorce, poprawiając wydajność biznesową. Kierunek jest modny, ale nie każdy może czerpać korzyści z big data ze względu na brak kultury pracy z nimi

„Im bardziej popularne jest nazwisko danej osoby, tym większe prawdopodobieństwo, że zapłaci na czas. Im więcej pięter ma Twój dom, tym bardziej statystycznie jesteś lepszym kredytobiorcą. Znak zodiaku prawie nie ma wpływu na prawdopodobieństwo zwrotu pieniędzy, ale psychotyp ma znaczący” – mówi Stanisław Duzhinsky, analityk Home Credit Bank, o nieoczekiwanych wzorcach zachowań pożyczkobiorców. Nie podejmuje się wyjaśniania wielu z tych wzorców – ujawniła je sztuczna inteligencja, która przetworzyła tysiące profili klientów.

Na tym polega potęga analizy dużych zbiorów danych: analizując ogromną ilość nieustrukturyzowanych danych, program może odkryć wiele korelacji, o których nawet najmądrzejszy analityk nie ma pojęcia. Każda firma posiada ogromną ilość nieustrukturyzowanych danych (big data) – o pracownikach, klientach, partnerach, konkurentach, które można wykorzystać dla korzyści biznesowych: poprawić efekt promocji, osiągnąć wzrost sprzedaży, zmniejszyć rotację pracowników itp.

Jako pierwsze zaczęły pracować z dużymi danymi duże firmy technologiczne i telekomunikacyjne, instytucje finansowe i handel detaliczny – komentuje Rafail Miftakhov, dyrektor Deloitte Technology Integration Group, CIS. Obecnie istnieje zainteresowanie takimi rozwiązaniami w wielu branżach. Co osiągnęły firmy? I czy analiza big data zawsze prowadzi do wartościowych wniosków?

Nie jest to łatwy ładunek

Banki wykorzystują algorytmy big data przede wszystkim do poprawy doświadczeń klientów i optymalizacji kosztów, a także do zarządzania ryzykiem i zwalczania oszustw. „W ostatnich latach nastąpiła prawdziwa rewolucja w dziedzinie analizy dużych zbiorów danych” – mówi Duzhinsky. „Wykorzystanie uczenia maszynowego pozwala nam dużo dokładniej przewidywać prawdopodobieństwo niespłacania kredytu – przeterminowanie w naszym banku to tylko 3,9%”. Dla porównania, na dzień 1 stycznia 2019 r. udział kredytów przeterminowanych powyżej 90 dni w kredytach udzielonych osobom fizycznym wynosił według danych Banku Centralnego 5%.

Nawet organizacje mikrofinansowe są zakłopotane badaniem dużych zbiorów danych. „Świadczenie usług finansowych bez analizowania dużych zbiorów danych jest dziś jak matematyka bez liczb” — mówi Andrey Ponomarev, dyrektor generalny Webbankir, internetowej platformy pożyczkowej. „Emitujemy pieniądze online, nie widząc ani klienta, ani jego paszportu, i w przeciwieństwie do tradycyjnych pożyczek, musimy nie tylko ocenić wypłacalność osoby, ale także zidentyfikować jej osobowość”.

Teraz baza danych firmy przechowuje informacje o ponad 500 tysiącach klientów. Każda nowa aplikacja jest analizowana z tymi danymi w około 800 parametrach. Program uwzględnia nie tylko płeć, wiek, stan cywilny i historię kredytową, ale także urządzenie, z którego dana osoba weszła na platformę, jak zachowywała się na stronie. Niepokojące może być na przykład to, że potencjalny pożyczkobiorca nie skorzystał z kalkulatora kredytowego lub nie dopytywał się o warunki kredytu. „Z wyjątkiem kilku czynników zatrzymujących – powiedzmy, że nie udzielamy pożyczek osobom poniżej 19 roku życia – żaden z tych parametrów sam w sobie nie jest powodem do odmowy lub wyrażenia zgody na udzielenie pożyczki” – wyjaśnia Ponomariew. Liczy się kombinacja czynników. W 95% przypadków decyzja podejmowana jest automatycznie, bez udziału specjalistów z działu underwritingu.

Świadczenie usług finansowych bez analizowania dużych zbiorów danych jest dziś jak matematyka bez liczb.

Analiza dużych zbiorów danych pozwala nam na uzyskanie interesujących wzorców, podziela Ponomarev. Na przykład użytkownicy iPhone’ów okazali się bardziej zdyscyplinowanymi pożyczkobiorcami niż posiadacze urządzeń z Androidem – ci pierwsi akceptację wniosków otrzymują 1,7 razy częściej. „Fakt, że personel wojskowy nie spłaca pożyczek prawie o jedną czwartą rzadziej niż przeciętny pożyczkobiorca, nie był zaskoczeniem” - mówi Ponomariew. „Ale zwykle nie oczekuje się od studentów, że będą zobowiązani, ale tymczasem przypadki niespłacania kredytów są o 10% rzadsze niż średnia dla bazy”.

Badanie dużych zbiorów danych umożliwia ocenę scoringową również ubezpieczycielom. Założona w 2016 roku firma IDX zajmuje się zdalną identyfikacją i weryfikacją dokumentów online. Usługi te są poszukiwane przez ubezpieczycieli frachtu, którym zależy na jak najmniejszej utracie towaru. Przed ubezpieczeniem przewozu towaru ubezpieczyciel za zgodą kierowcy sprawdza rzetelność – wyjaśnia Jan Sloka, dyrektor handlowy IDX. Wraz z partnerem – petersburską firmą „Risk Control” – IDX opracował usługę pozwalającą sprawdzić tożsamość kierowcy, dane paszportowe i uprawnienia, udział w zdarzeniach związanych z utratą ładunku itp. Po analizie w bazie danych kierowców firma zidentyfikowała „grupę ryzyka”: najczęściej gubiony jest ładunek wśród kierowców w wieku 30–40 lat z dużym stażem jazdy, którzy często w ostatnim czasie zmieniali pracę. Okazało się również, że ładunek najczęściej kradną kierowcy samochodów, których żywotność przekracza osiem lat.

W poszukiwaniu

Detaliści mają inne zadanie – zidentyfikować klientów, którzy są gotowi dokonać zakupu i określić najskuteczniejsze sposoby sprowadzenia ich do serwisu lub sklepu. W tym celu programy analizują profil klientów, dane z ich konta osobistego, historię zakupów, wyszukiwane hasła i wykorzystanie punktów bonusowych, zawartość elektronicznych koszyków, które zaczęli wypełniać i porzucili. Analityka danych pozwala na segmentację całej bazy danych i identyfikację grup potencjalnych nabywców, którzy mogą być zainteresowani konkretną ofertą – mówi Kirill Ivanov, dyrektor biura danych grupy M.Video-Eldorado.

Program identyfikuje na przykład grupy klientów, z których każda lubi inne narzędzia marketingowe – nieoprocentowaną pożyczkę, cashback czy kod rabatowy. Ci kupujący otrzymują biuletyn e-mailowy z odpowiednią promocją. Prawdopodobieństwo, że osoba po otwarciu listu przejdzie na stronę internetową firmy, w tym przypadku znacznie wzrasta, zauważa Iwanow.

Analiza danych pozwala również na zwiększenie sprzedaży powiązanych produktów i akcesoriów. System, który przetworzył historię zamówień innych klientów, daje kupującemu rekomendacje, co kupić wraz z wybranym produktem. Testowanie tej metody pracy, według Iwanowa, wykazało wzrost liczby zamówień z akcesoriami o 12% i wzrost obrotów akcesoriów o 15%.

Nie tylko detaliści dążą do poprawy jakości obsługi i zwiększenia sprzedaży. Zeszłego lata MegaFon uruchomił usługę „inteligentnej” oferty opartej na przetwarzaniu danych od milionów abonentów. Po zbadaniu ich zachowania sztuczna inteligencja nauczyła się tworzyć osobiste oferty dla każdego klienta w ramach taryf. Na przykład, jeśli program zauważy, że dana osoba aktywnie ogląda wideo na swoim urządzeniu, usługa zaoferuje mu zwiększenie ruchu mobilnego. Biorąc pod uwagę preferencje użytkowników, firma zapewnia abonentom nieograniczony ruch na ulubione formy spędzania wolnego czasu w Internecie – na przykład korzystanie z komunikatorów internetowych czy słuchanie muzyki w serwisach streamingowych, czatowanie na portalach społecznościowych czy oglądanie programów telewizyjnych.

„Analizujemy zachowanie subskrybentów i rozumiemy, jak zmieniają się ich zainteresowania” — wyjaśnia Witalij Szczerbakow, dyrektor ds. analizy dużych zbiorów danych w MegaFon. „Na przykład w tym roku ruch na AliExpress wzrósł 1,5 razy w porównaniu do ubiegłego roku, a ogólnie liczba wizyt w internetowych sklepach odzieżowych rośnie: 1,2–2 razy, w zależności od konkretnego zasobu”.

Innym przykładem pracy operatora z big data jest platforma MegaFon Poisk do poszukiwania zaginionych dzieci i dorosłych. System analizuje, które osoby mogą znajdować się w pobliżu miejsca zaginięcia i przesyła im informację ze zdjęciem oraz oznaczeniami osoby zaginionej. Operator opracował i przetestował system wspólnie z Ministerstwem Spraw Wewnętrznych i organizacją Lisa Alert: w ciągu dwóch minut od namierzenia zaginionej osoby otrzymuje ponad 2 tysiące abonentów, co znacznie zwiększa szanse na pomyślny wynik wyszukiwania.

Nie idź do PUBU

Analiza big data znalazła również zastosowanie w przemyśle. Tutaj pozwala prognozować popyt i planować sprzedaż. Tak więc w grupie firm Cherkizovo trzy lata temu wdrożono rozwiązanie oparte na SAP BW, które pozwala przechowywać i przetwarzać wszystkie informacje dotyczące sprzedaży: ceny, asortyment, wolumeny produktów, promocje, kanały dystrybucji, mówi Vladislav Belyaev, CIO grupy „Czerkizowo. Analiza zgromadzonych 2 TB informacji nie tylko umożliwiła efektywne uformowanie asortymentu i optymalizację portfela produktów, ale także ułatwiła pracę pracownikom. Na przykład przygotowanie dziennego raportu sprzedaży wymagałoby całodziennej pracy wielu analityków – po dwóch na każdy segment produktowy. Teraz ten raport jest przygotowywany przez robota, poświęcając tylko 30 minut na wszystkie segmenty.

„W przemyśle big data działa skutecznie w połączeniu z Internetem rzeczy” — mówi Stanislav Meshkov, dyrektor generalny Umbrella IT. „Na podstawie analizy danych z czujników, w które wyposażony jest sprzęt, można identyfikować odchylenia w jego działaniu i zapobiegać awariom oraz przewidywać wydajność”.

W Siewierstalu przy pomocy big data starają się też rozwiązywać raczej nietrywialne zadania – na przykład zmniejszać liczbę urazów. W 2019 roku firma przeznaczyła na działania poprawiające bezpieczeństwo pracy ok. 1,1 mld rubli. Siewierstal spodziewa się zmniejszenia wskaźnika urazów o 2025 proc. o 50 (w porównaniu do 2017 r.). „Jeżeli kierownik liniowy – brygadzista, kierownik budowy, kierownik warsztatu – zauważył, że pracownik wykonuje pewne czynności w sposób niebezpieczny (nie trzyma się poręczy podczas wchodzenia po schodach na terenie przemysłowym lub nie nosi wszystkich środków ochrony osobistej), wypisuje specjalną notatkę dla niego – PAB (z „audytu bezpieczeństwa behawioralnego”)” – mówi Boris Voskresensky, szef działu analizy danych firmy.

Po przeanalizowaniu danych o liczbie PAB-ów w jednym z oddziałów specjaliści firmy stwierdzili, że zasady bezpieczeństwa najczęściej łamali ci, którzy mieli już kilka uwag wcześniej, a także ci, którzy byli na zwolnieniu lekarskim lub na urlopie tuż przed incydent. Naruszenia w pierwszym tygodniu po powrocie z urlopu lub zwolnienia lekarskiego były dwukrotnie wyższe niż w kolejnym okresie: 1 vs 0,55%. Ale praca na nocnej zmianie, jak się okazało, nie wpływa na statystyki PAB.

Oderwany od rzeczywistości

Tworzenie algorytmów do przetwarzania dużych zbiorów danych nie jest najtrudniejszą częścią pracy – mówią przedstawiciele firmy. Znacznie trudniej jest zrozumieć, w jaki sposób te technologie można zastosować w kontekście każdego konkretnego biznesu. W tym tkwi pięta achillesowa analityków firmy, a nawet zewnętrznych dostawców, którzy, jak się wydaje, zgromadzili wiedzę z zakresu big data.

„Często spotykałem analityków big data, którzy byli doskonałymi matematykami, ale nie mieli niezbędnego zrozumienia procesów biznesowych” — mówi Sergey Kotik, dyrektor ds. rozwoju w GoodsForecast. Wspomina, jak dwa lata temu jego firma miała okazję wziąć udział w konkursie prognozowania popytu dla federalnej sieci handlowej. Wybrano region pilotażowy dla wszystkich towarów i sklepów, których uczestnicy dokonali prognoz. Prognozy porównano następnie z rzeczywistą sprzedażą. Pierwsze miejsce zajął jeden z rosyjskich gigantów internetowych, znany z ekspertyz w zakresie uczenia maszynowego i analizy danych: w swoich prognozach wykazał minimalne odchylenie od rzeczywistej sprzedaży.

Kiedy jednak sieć zaczęła dokładniej badać jego prognozy, okazało się, że z biznesowego punktu widzenia są one absolutnie nie do przyjęcia. Firma wprowadziła model, który tworzył plany sprzedażowe z systematycznym niedoszacowaniem. Program zorientował się, jak zminimalizować prawdopodobieństwo błędów w prognozach: bezpieczniej jest niedoszacować sprzedaż, ponieważ maksymalny błąd może wynosić 100% (nie ma sprzedaży ujemnej), ale w kierunku zawyżenia może być dowolnie duży, wyjaśnia Kotik. Innymi słowy, firma przedstawiła idealny model matematyczny, który w rzeczywistych warunkach doprowadziłby do półpustych sklepów i ogromnych strat z tytułu podsprzedaży. W rezultacie konkurs wygrała kolejna firma, której wyliczenia można było zastosować w praktyce.

„Może” zamiast big data

Technologie Big Data są istotne dla wielu branż, ale ich aktywne wdrażanie nie występuje wszędzie, zauważa Meshkov. Na przykład w służbie zdrowia występuje problem z przechowywaniem danych: zgromadzono wiele informacji i są one regularnie aktualizowane, ale w większości dane te nie zostały jeszcze zdigitalizowane. W agencjach rządowych też jest dużo danych, ale nie są one łączone we wspólny klaster. Opracowanie jednolitej platformy informacyjnej Krajowego Systemu Zarządzania Danymi (KSZR) ma na celu rozwiązanie tego problemu - mówi ekspert.

Nasz kraj jest jednak daleki od jedynego kraju, w którym w większości organizacji ważne decyzje podejmowane są w oparciu o intuicję, a nie analizę big data. W kwietniu ubiegłego roku firma Deloitte przeprowadziła ankietę wśród ponad tysiąca liderów dużych amerykańskich firm (zatrudniających 500 lub więcej pracowników) i stwierdziła, że ​​63% ankietowanych zna technologie big data, ale nie posiada wszystkich niezbędnych infrastrukturę, aby z nich korzystać. Tymczasem wśród 37% firm o wysokim poziomie dojrzałości analitycznej prawie połowa w ciągu ostatnich 12 miesięcy znacząco przekroczyła cele biznesowe.

Badanie wykazało, że oprócz trudności we wdrażaniu nowych rozwiązań technicznych, istotnym problemem w firmach jest brak kultury pracy z danymi. Nie należy oczekiwać dobrych rezultatów, jeśli odpowiedzialność za decyzje podejmowane na podstawie big data spoczywa tylko na analitykach firmy, a nie na całej firmie jako całości. „Obecnie firmy szukają interesujących przypadków użycia dużych zbiorów danych” — mówi Miftachow. „Jednocześnie realizacja niektórych scenariuszy wymaga inwestycji w systemy do gromadzenia, przetwarzania i kontroli jakości dodatkowych danych, które nie były wcześniej analizowane.” Niestety, „analiza nie jest jeszcze sportem zespołowym” – przyznają autorzy badania.

Dodaj komentarz