Data Science

Wróć do strony

Metody generowania wartości z danych:

01

Modelowanie predykcyjne

Największe doświadczenie posiadamy w modelowaniu predykcyjnym. W tym obszarze przeprowadziliśmy również największe z dotychczasowych projektów. Ich zakres obejmował:

  • Modelowanie odejścia klientów (Churn) – branża finansowa (wolumen danych (ok. kilku milionów obserwacji) – projekt w trakcie (od II kwartału 2017)

  • Modelowanie prawdopodobieństwa spłaty pożyczek (Default) – branża finansowa (ok. kilku milionów obserwacji) – projekt miał miejsce w pierwszej połowie 2017 roku

  • Modelowaniem ryzyka w branży bukmacherskiej (ok. kilkunastu tysięcy obserwacji) – druga połowa 2017 roku

W trakcie projektów stosowaliśmy wiele różnych algorytmów takich jak: lasy losowe, sieci neuronowe, regresję logistyczną, Stochastic Gradient Boosting, Support Vector Machines (metoda wektorów nośnych) i wiele innych.

02

Klasteryzacja

Analizę klasteryzacji przeprowadzaliśmy przede wszystkim w branży handlu detalicznego i budowlanej (dwa niezależne projekty na przełomie 2017 i 2018 roku). Szukaliśmy optymalnego podziału na jednorodne grupy klientów, produktów czy sprzedawców.

Najczęściej korzystaliśmy z algorytmów K-means, K-medoids i klasteryzacji hierarchicznej. Analizy były przeprowadzane na zbiorach danych liczących

do kilkuset tysięcy obserwacji.

Najczęściej korzystaliśmy z algorytmów K-means, K-medoids i klasteryzacji hierarchicznej. Analizy były przeprowadzane na zbiorach danych liczących do kilkuset tysięcy obserwacji.

03

Analiza asocjacji

Przeprowadziliśmy trzy tego typu projekty w branży detalicznej. Zakres analiz obejmował zbiory danych do kilkuset tysięcy obserwacji. Jeden projekt miał miejsce na początku 2017 roku, a pozostałe dwa na przełomie 2017 i 2018 roku.

04

Modelowanie symulacyjne

Tworzyliśmy model zapewniający optymalizację procesów i kosztów w warunkach niepewności. Było to zlecenie dla firmy produkcyjnej (branża przetwórcza), która miała ograniczoną wiedzę na temat przyszłych wartości parametrów.

Optymalizacja działalności wymagała estymacji na podstawie wielokrotnych symulacji. Zbiór danych liczył kilka milionów obserwacji. Projekt miał miejsce w drugiej połowie 2017 roku.

05

Text mining

Projekt text mining dotyczył uzupełniania niepełnych zbiorów danych oraz korekty niepoprawnych ciągów znaków na bazie dostępnego słownika możliwych wartości.

Projekt został przeprowadzony w branży farmaceutycznej w drugiej połowie 2016 roku, a zbiory danych liczyły do kilkudziesięciu tysięcy obserwacji.

Zatrudnij nas!

Nie zwlekaj i skontaktuj się z Nami

Andrzej Gut - Data Science Expert