pomoc statystyczna statystyka metodolog

Analizy statystyczne i metodologia szyta na miarę jako element strategicznego planowania rozwoju firmy i gospodarowania na nowych rynkach

W jaki sposób statystyczna analiza danych i metodologia wspiera procesy strategicznego gospodarowania zasobami w rozwoju i zdobywaniu nowych rynków?

Władzą jest wiedza o źródłach zmienności

Nie jest nowością stwierdzenie, że strategiczne planowanie rozwojem firmy jest jej rynkowym sukcesem. Niemniej wraz z postępem technologicznym i związaną z tym trudnością w kierowaniu rozwojem firm i przedsiębiorstw, niezbędne stają się innowacje związane z opracowywaniem systemów podejmowania decyzji opartych na liczbach i rozsądnych oszacowaniach. W świecie w którym zmiana warunków rynkowych, środowiska i funkcjonowania społeczeństwa jest raczej normą niż wyjątkiem, są niezbędne systemy i rozwiązania wspierające podejmowanie inteligentnych decyzji.

W tym wpisie poznamy dwa podejścia statystyczno-metodologiczne mające na celu podejmowanie inteligentnych decyzji w obszarze funkcjonowania firm i przedsiębiorstw w których sprzedaż produktu jest kluczowym źródłem dochodów i utrzymania się na rynku.

1. Podejście naukowe oparte na poznaniu i analizie funkcjonowania natury i struktury poddawanego badaniu zjawiska.

W naukowym podejściu, badania (i analizy statystyczne je wspierające) polegają na weryfikacji ostatecznych przyczyn oraz wyjaśnieniu, opisaniu i przewidywaniu zjawisk. Firmę w tym podejściu, mającą chęć poznania czynników wpływających na sprzedaż interesują konstrukty teoretyczne, schemat/szkielet funkcjonowania procesu sprzedaży, czyli opis procesu działania pewnego wycinka natury.

Powiedzmy, że firmę interesuje to co ma wpływ na sprzedaż słynnego już „proszku do prania”. Dział rozwoju i analizy statystycznej danych będzie zainteresowany całą strukturą zmiennych niezależnych, pośredniczących, moderujących i wspierających rzeczywisty wybór i w konsekwencji zakup właśnie tego proszku (a nie innego). Powiedzmy, że firma ta starać się będzie zbadać zmienne takie jak: postawy, potrzeby, motywacje, potencjał zakupowy, typy proszków i ich wzajemne powiązania jako wpływ na zakup danego proszku. Firma w tym kontekście będzie starać się uzyskać schemat polegający na utworzeniu teorii kupowania proszku do prania. Będzie to polegało na estymacji koncepcji „sprzedaży proszku” za pomocą badań statystycznych ich ocenie, implementacji, zrewidowaniu itd. itd. Trwać to będzie do momentu, aż proces ten zmaksymalizuje kupowanie „proszku do prania”. Niebywałą zaletą tego podejścia jest to, że za pomocą utworzonej teorii sprzedaży proszku można przewidywać to, co może się stać w przypadku kiedy firma będzie chciała zmienić któryś z elementów wchodzących w opracowaną statystycznie koncepcję teoretyczną, będzie chciała zająć się dalszym jej rozwojem lub kiedy coś się w jej otoczeniu rynkowym zmieni. Ograniczeniem tej strategii badawczej jest jej koszt. Rozwój tego typu podejść jest żmudny, trudny, nudny i czasochłonny. Niemniej jego opracowanie naukowe, statystyczne i metodologiczne jest niebywałą wiedzą i cennym zasobem firmy. Ponad to, dzięki tak zdobytej wiedzy stwarza się potencjał ekstrapolacji jej na inne produkty np. majtki czy jogurty.

 2. Podejście marketingowe oparte na testowaniu statystycznymi analizami zmiennych skorelowanych z celem (czyli tworzenie czarnej skrzynki lub maszynki do robienia pieniędzy).

W podejściu czarno-skrzynkowym mamy do czynienia ze statystycznym testowaniem potencjalnych zmiennych związanych z produktem, klientem i zmiennych pośredniczących między wspomnianymi elementami. Podejście to polega raczej na eksploracji zmiennych i budowaniu z nich pewnego konglomeratu lub modelu przewidującego kupno. Model (zazwyczaj wielowymiarowy/wielozmiennowy model statystyczny) ten tylko i wyłącznie ma na celu przewidywanie polegające na manipulowaniu natężeniem zmiennych, które wiążą się ze sprzedażą. Nie jest potrzebne wyjaśnienie zjawiska jeśli mamy do czynienia z czymś co robi kasę i nas zadowala. Z tego właśnie powodu to podejście jest nazywane czarnoskrzynkowym. Nie wiadomo jak to coś działa, ale zwraca się i dzięki niemu można zwiększać sprzedaż. Nic więcej nam tutaj nie potrzeba. To co jest zaletą tego podejścia, to jego prostota i niska cena. Wystarczy kilka badań eksploracyjnych i jedno badanie walidacyjne by stworzyć recepturę na sprzedaż proszku. Ograniczeniem jest to, że nie wiadomo jak to wszystko działa i do końca nie będzie jasne jak to się sprawdzi w innych warunkach lub przy innym produkcie. *poza tym wyniki istotne statystycznie mogą być uzyskane przez przypadek

Czy są różnice między tymi dwoma podejściami? Niestety tak.

Na pewno różnią się ceną i czasem realizacji. Pierwsze podejście wymaga bardzo mocnej wiedzy statystycznej i umiejętności statystycznej analizy, a także pojęcia o metodologii i krytyce otrzymanych wyników. Planowanie, przeprowadzenie i ewaluacja całej serii badań w tym podejściu jest niezwykle zasobochłonne. Niemniej stwarza to sytuacje w której sukces jest oczekiwany i z dokładnością do pewnego wycinka czasu można liczyć na zlizywanie śmietanki i zjedzenia wisienki z tortu.

Drugie podejście można traktować jako doraźne. Jego niebywałą zaletą jest szybkość i prostota. Rozwiązanie te są tanie i zapewniają szybki zwrot z inwestycji. Nie trzeba przy ich realizacji dysponować zaawansowaną wiedzą metodologiczną oraz pojęciami i umiejętnościami statystycznego analizowania danych. Niemniej przy zmianie warunków lub układu innych zmiennych mogą tracić powoli na mocy przewidującej, czyli tracić na znaczeniu predykcyjnym kupna.

Chcesz rozwinąć odpowiednie dla Ciebie sposoby podejmowania decyzji, opracować odpowiednie metody dla swojego przedsiębiorstwa? Zachęcamy do kontaktu z Metodolog.pl

analiza statystyczna w kosmetologii i marketingu kosmetyków

Statystyczna klasyfikacja i segmentacja klientów – Lead Scoring

Jak odpowiednio dokonać segmentacji potencjalnych klientów i następnie ich klasyfikować jako gotowych do zakupu klientów?

Posiadając informacje o ruchu klienta na stronie internetowej można w bardzo łatwy sposób  scharakteryzować i zamienić go na prawdopodobieństwo zakupu. Dzięki takiemu podejściu można skierować uwagę działu sprzedaży na grono najbardziej zainteresowanych ofertą klientów.

Strona firmowa to największe źródło informacji o Twoich klientach, to skarbnica wiedzy dla departamentu marketingu i sprzedaży. W dzisiejszych czasach dział marketingu ma być odpowiedzialny za gwarancję dostarczania odpowiednich klientów działowi sprzedaży. Warto rozpatrzeć synergiczne działania obu tych działów by móc wykonywać pracę opartą na inteligencji i naukowości, a nie losie i wtopach.

Ocena punktowa klienta – Lead Scoring

Wiemy, że bardzo mała część odwiedzających stronę internetową jest klientem mającym intencję zakupu. Dlatego statystyczne przypisanie leada do odpowiedniej grupy klientów jest niezwykle cennym i skutecznym działaniem zwiększającym szansę sprzedaży. Dzięki lead scoringowi można przyporządkować odpowiednią liczbę punktów każdemu klientowi i tym samym torować mu odpowiednią strategię marketingową.

Wszyscy mają swoje sposoby na identyfikację leadów. Jednak Metodolog.pl jest w stanie dostarczyć naukowo wypracowane modele statystyczne mające na celu utworzenie dopasowanych strategii marketingowych by zwiększyć sprzedaż produktów i usług.

Problemy jakie może napotkać Twoja firma, a jakie może rozwiązać statystyczne podejście do sprzedaży i marketingu:

  • Słaba sprzedaż wynikająca z tego, że dział sprzedaży i handlu dostaje klientów losowych lub błędnie ocenionych. Sprzedaż może również nie wiedzieć na jakim poziomie jest klient np. Czy jest tylko zainteresowany czy może jest gotowy do kupna?
  • Problemy z interpretacją dużego wolumenu danych. Informacje o klientach są odpowiednio interpretowane, trzymane i wysyłane do działu handlowego w odpowiednim kształcie?
  • Losowa sprzedaż. Czy Twoja firma podchodzi do każdego leada w ten sam sposób? Czy posiada w swojej etykiecie lub strategii obsługi różne scenariusze sprzedaży?
  • Strzelanie śrutem z shotguna – Twoja firma ma odpowiednie strategie zachęcania i sprzedaży produktów i usług dla określonych segmentów klientów?

Analityka predykcyjna i lead scoring jako narzędzia marketingowe zaczerpnięte z długiej tradycji naukowego zastosowania.

Analityka predykcyjna, modelowanie statystyczne oraz lead scoring dają szansę marketingowcom i działom sprzedaży na identyfikowanie najbardziej wartościowych klientów. Wykrywanie klientów gotowych do zakupu dzięki klasyfikowaniu ich do odpowiedniej grupy i ocenianiu ich potencjału za pomocą skal punktowych to niesamowita korzyść i oszczędność dla firm i instytucji zajmujących się sprzedażą i obsługą klientów.

Segmentacja i grupowanie jako narzędzie określania obszarów gospodarowania leadami.

Analiza skupisk to działanie statystyczne mające na celu wykrycie zbiorów klientów podobnych do siebie, ale na tyle różnych od innych by móc ich traktować jako specyficzną grupę leadów. Dzięki takiej praktyce można utworzyć odpowiednie oferty i strategie mające pośrednio zwiększyć sprzedaż i zainteresowanie się konkretną ofertą poprzez dopasowanie jej do wartości i cech wyselekcjonowanych grup.

Jakie są zalety wynikające z zastosowania grupowania i segmentacji leadów oraz ich oceny punktowej za pomocą lead scoringów.

  • bardzo dobre poznanie swoich leadów dzięki lead scoringowi daje poczucie kontroli nad obszarem podejmowanych działań marketingowych
  • nowa perspektywa – innowacyjne działanie lead scoringu może mieć też zastosowanie w innych dziedzinach życia firmy
  • synergiczne działanie departamentu marketingu i sprzedaży dzięki analitycznie wymodelowanej rzeczywistości leadów
  • zysk bez ryzyka – klasyfikacja klientów gotowych do kupna produktu lub usługi
  • oszczędność czasu i zasobów dzięki pracy tylko z gotowymi klientami oraz skierowanie zasobów ludzkich i ekonomicznych na pracę w przygotowaniu osoby do bycia klientem
  • wyższe morale działu sprzedaży i marketingu hehe

 

Chcesz sprawdzić nasze umiejętności? Za darmo przygotujemy Ci próbkę naszych możliwości. Zachęcamy do kontaktu

analiza statystyczna wyników badań

Statystyka i nauka – skrót raportu z warsztatów przyszłości nauk statystycznych Londyn 2014

Podsumowanie eventu.

Amerykańskie towarzystwo statystyczne ASA, Królewska społeczność statystyków i cztery inne wiodące organizacje współtworzyły uroczystość roku 2013 jako międzynarodowego roku statystyki. Zwieńczeniem tej imprezy były warsztaty, trwające od 11 do 12 listopada 2013 roku. To spotkanie zrzeszało razem więcej niż 100 zaproszonych uczestników w kontekście dwóch dni wykładów i dyskusji. Za darmo można zapoznać się z tym eventem na www.statisticsview.com.

Statystyka może być najzwięźlej opisana jako nauka o niepewności. Podczas gdy słowa „statystyka” i „dane” są często wymieniane zamiennie w dyskursie publicznym. Statystyka w aktualnej rzeczywistości wykracza poza zwykłą akumulację danych. Rolą statystyka jest:

  • projektowanie zbierania danych w formie minimalizującej błąd i zakłócające czynniki oraz maksymalizację informacyjnej zawartości
  • weryfikacje jakości danych po ich zebraniu
  • analiza danych w kierunku który dostarcza wglądu lub informacji wspierających podejmowanie decyzji

Te procesy są brane pod uwagę jako wyraźne stochastyczne i niepewne obecne w każdym realnym świecie procesów pomiarowych, a także jako systematyczna niepewność, która może być włączona w projekt eksperymentalny. To rozpoznanie jest nieodłączną charakterystyką statystyki, dlatego, że opisujemy ją jako nauka o niepewności, a nie nauka o danych. Dane są wszechobecne w społeczeństwie 21 wieku. Przenikają one naszą naukę, rząd oraz handel. Z tego powodu, statystycy mogą wskazać różne kierunki w których ich praca może zrobić coś dobrego. Jakkolwiek przydatność statystyk jest coraz częściej dostrzegana i uznawana przez społeczeństwo. Naukowcy i kierownictwo myślą o statystyce jako o infrastrukturze, podobnie jak o innych infrastrukturach. Statystycy z niektórymi wybitnymi wyjątkami, niechętnie dzielą się swoimi wynikami lu są również niezdolni do komunikowania wartości ich pracy reszcie świata

Ten raport rozpoczyna się czymś co było bardziej nieobecne na warsztatach w Londynie. Siedem studiów przypadków z przeszłości, przedstawianych jako sukcesów w statystyce. Te sukcesy są pewnie nie wyczerpujące w kontekście innych o których mówiono, ale jest nadzieja, że są one co najmniej reprezentatywne. Zawierają one:

  • rozwój metodologii randomizowanych prób kontrolnych i odpowiednich metod oceny takich prób, które są wymaganym elementem w procesie odkrywania leków w wielu krajach
  • Stosowanie statystyki Bayesa do przetwarzania obrazów, rozpoznawania obiektów, rozpoznawania mowy, a nawet przyziemnych i nudnych aplikacji takich jak sprawdzanie pisowni
  • Gwałtowne rozprzestrzenianie się metod Łańcucha Marcova, używanych w statystycznej fizyce, modelowaniu populacji i licznych innych metodach symulowania niepewności, które nie są dystrybuowane zgodnie z prostymi książkowymi modelami np. jako zmienne przypominające kształt dzwonu (rozkład normalny)
  • Zaangażowanie statystyków w wielu sprawach sądowych na przestrzeli lat. Kiedy oskarżony jest oskarżony o przestępstwo ponieważ występuje nadzwyczajne nieprawdopodobieństwo łańcucha wydarzeń
  • odkrycie za pomocą metod statystycznych biomarkerów genów, które nadają zwiększone lub zmieniejszone ryzyko pewnych rodzajów raka
  • Metoda nazywana „krikingiem”, która pozwala naukowcom interpolować wygładzone rozkłady ilości przedmiotów zainteresowania z rozdzielonych pomiarów. Obszary zastosowania tej metody obejmują wydobycie, meteorologię, rolnictwo i astronomie
  • wzrost w ostatnich latach analityki w sporcie i polityce. W niektórych przypadkach, metody zaangażowane nie są szczególnie nowe, ale to co jest nowe to zwiększone zainteresowanie interesariuszy (managerów sportowych i polityków) wartością która obiektywna analiza statystyczna może wnieść w ich dane

Niewątpliwe największym wyzwaniem i okazją jest dzisiejsza konfrontacja statystyków w powstawaniu Big Data – baz danych z ludzkim genomem, ludzkim umysłem, sprzedażą internetową, sieciami społecznymi. Big Data jest wyzwaniem z kilku ważnych powodów:

  • Problem Skali

Wiele popularnych algorytmów do analizy statystycznej analizy danych nie skaluje dosyć dobrze i bardzo powoli przetwarzają terabajty danych. Statystycy potrzebują zwiększać wydajność algorytmów lub projektować nowe, które znajdą kompromis teoretycznej skuteczności i szybkości liczenia

  • Różne rodzaje danych

Big Data są nie tylko duże, ale złożone i pochodzą z różnych form. Dla przykładu zdjęć lub sieci.

  • Efekt patrzenia wszędzie

Jak naukowcy przechodzą z hipotez do danych to  w Big Data mogą wystąpić problemy podobne jak u naukowców z weryfikacją hipotez. Polega to na wykrywaniu fałszywych zależności i produkowaniu artefaktów.

  • Bezpieczeństwo i poufność

Jest to najprawdopodobniej obszar największego zainteresowania opinii publicznej w temacie Big Data. Statystycy nie mogą sobie pozwolić na ignorowanie tego. Dane mogą być anonimizowane by ochraniać dane personalne, ale w tym kontekście nie ma czegoś takiego jak „bezpieczeństwo perfekcyjne”

  • Odkrywanie koła na nowo

Niektóre firmy zbierające Big Data, zwłaszcza firmy internetowe – mogą nie uświadamiać sobie, że statystycy mają długie doświadczenia z uzyskiwaniem informacji z danych. Niektórzy statystycy oburzają się na termin „data science”. Inni czują, że powinni akceptować rzeczywistość, którą jest nauka o danych i skupić się oraz doszkalać się z tego zakresu.

Big Data nie była jedynym bieżącym trendem omawianym podczas spotkania w Londynie. Inne omawiane tematy zawierały:

Opinie różnią się znacznie w zakresie problematyki, ale wiele odkryć, które idą do druku są niewątpliwie fałszywe. Kilka głównych czasopism naukowych wymagają lub zachęcają autorów do dokumentowania ich statystycznych metody w takim kierunku aby pozwalały innym na odtworzenie analiz statystycznych

  • Zaktualizowanie randomizowanych prób z grupą kontrolną

Tradycyjne RCT (Randomized trial control) jest droga i brakuje jej elastyczności. Adaptacyjne projekty i inteligentne próby są dwiema modyfikacjami które mają dać obiecujące rezultaty, ale praca ciągle potrzebuje przekonania klinicystów do tego, że mogą oni uwierzyć innowacyjnej metodzie w miejscu starej i prawdziwej RCT.

  • Statystyki zmian klimatu

Jest to jest z obszarów nauki, który błaga o większą ilość statystyków. Modele klimatów wyraźnie nie zawierają niepewności, więc niepewność musi być symulowana przez uruchamianie jej wielokrotnie w nieco różnych warunkach

  • Statystyki w innych nowych miejscach

Dla przykładu, jedna rozmowa wyjaśniła jak metody zbierania nowych danych i analiza statystyczna danych zwiększają (lub mogą zwiększyć) nasze zrozumienie publicznego żywienia. Inny uczestnik opisywał jak ONZ eksperymentuje pierwszy raz z probabilistycznym niż deterministycznym prognozowaniem demografii

  • Komunikacja i wizualizacja analiz statystycznych

Internet i multimedia dają statystykom nowych okazji to wzięcia ich pracy bezpośrednio na światło dzienne.

  • Edukacja

Wieloaspektowy temat był dyskutowany wiele razy, ale bez żadnych realnych uzgodnień. Wielu uczestników na spotkaniu uważało zgodnie, że program potrzebuje ponownej oceny i aktualizacji by absolwenci byli bardziej konkurencyjni w miejscu pracy.

  • Nagrody i korzyści zawodowe

Promocja i stażowy system potrzebuje zapewnienia nietradycyjnego wkładu w szerokie pisanie na temat używanej i wartościowanej części statystycznego oprogramowania. Nieoficjalna hierarchia w czasopismach w których teoretyczne czasopisma są bardziej prestiżowe niż stosowane i statystyczne pisma jest trochę przestarzała. Warto wprowadzić pewne zmiany w tym kontekście.

W sumie pogląd statystyki, który się wylania z warsztatów w Londynie była jednym polem w którym wyłoniły się trzy konteksty:

  • zdrowie
  • obfite i nowe źródła danych
  • trudne problemy do rozwiązania w ciągu następnego stulecia
analiza statystyczna ryzyka w bankowości

Budowanie karty scoringowej krok po kroku Metodolog.pl

W tym wpisie przedstawiamy jak odbywa się budowa karty scoringowej mającej na celu ocenę ryzyka klienta ubiegającego się o pożyczkę.

Dokument zawiera następujące tematy:

Zdefiniowanie dobrego i złego klienta

  • utworzenie charakterystyki dobrego i złego klienta na podstawie ekspertyzy

Eksploracja i modelowanie zmiennych jakościowych

  • Badanie wpływu zmiennych jakościowych na spłaty pożyczek

Eksploracja i modelowanie zmiennych ilościowych

  • Badanie kształtu wpływu zmiennych ilościowych na zmienność spłat

Analiza interakcji między zmiennymi ilościowymi, a jakościowymi

  • Badanie jednoczesnego wpływu kilku zmiennych na poziom spłat

Budowa modelu regresji logistycznej

  • dobór zmiennych do modelu regresji logistycznej

Podsumowanie modelu

  • ocena wykonanych kroków i opis właściwości predykcyjnych modelu klasyfikacyjnego

Budowa karty scoringowej

  • Przeliczenie punktów modelu na wyniki scoringu

Przykładowa klasyfikacja

  • Próba klasyfikacji dwóch klientów dzięki modelowi do dwóch  grup (grupy złych klientów i dobrych).

 

Budowanie-karty-scoringowej-w-oparciu-o-model-regresji-logistycznej <- pdf

Działanie przy projektach analitycznych

Analiza zawodów i zainteresowań – Redukowanie ilości danych, analiza rzetelności uogólnione modele liniowe

Redukcja danych dotyczących zawodów i zainteresowań.
Przeprowadzono analizę danych z ankiet dotyczących pewnych użytkowników. Ankietowani odpowiadali między innymi na pytania o ich preferencje co do zawodu i zainteresowań. Celem analizy była redukcja ogromu danych wraz z weryfikacją rzetelności w celu wykorzystania modelowania predykcyjnego przy użyciu uogólnionych modeli liniowych.

Analiza zawodów i zainteresowań – Analiza czynnikowa, analiza rzetelności uogólnione modele liniowe <- PDF

założenia regresji logistycznej