Wywiad badawczy w projekcie analitycznym.

meto

Metodolog.pl – Analiza Statystyczna w nauce

Firma statystyczna METODOLOG

Wywiad badawczy w projekcie analitycznym.


 

W celu usprawnienia pracy personelowi analitycznemu Metodolog i usystematyzowania wiedzy i działań Tobie, przeprowadzamy swego rodzaju wywiad. Założeniem tego wywiadu jest pomoc w przetłumaczeniu problemów badawczych  na język analitycznych rozwiązań. Dzięki tej metodologii pracy będziemy mogli lepiej zrozumieć specyfikę Twojego projektu i problematykę z którą musimy się zapoznać by była ona dobrze przez nas zrozumiana (od tego zależy sukces projektu). Naszym celem jest spełnienie Twoich oczekiwań w kontekście odkrycia prawdy naukowej lub biznesowej, a co za tym idzie? Doskonałe wykonanie analizy statystycznej Twojego projektu.

Najlepiej będzie jeśli zapoznasz się z poniższymi cennymi, a zarazem krótkimi podpunktami. Twoja odpowiedź na nie pomoże nam zorientować się w problematyce Twojego projektu oraz pozwoli na realizację rzetelnej pomocy. Przygotuj nam plik tekstowy odpowiadający na poniższe pytania (przykład jak to wygląda).

*podświetlone na czerwono przekierowują na stronę z bardziej rozbudowanymi wyjaśnieniami.


a) Opis problemu badawczego lub biznesowego.

W tym kontekście potrzebujemy ogólnego zarysu podejmowanej przez ciebie problematyki. Musimy wiedzieć z jakim uniwersum mamy do czynienia.

W tym podpunkcie musimy znać odpowiedź na następujące pytania.

  1. W jakiej dziedzinie nauki lub biznesu jest osadzony Twój projekt badawczo analityczny?
  2. Jaki jest problem badawczy?
  3. Czy projekt ma charakter weryfikacyjny, a jeśli tak to jakie są w stosunku do niego przewidywania?
  4. Czy projekt ma charakter eksploracyjny, a jeśli tak to co chciałbyś/ałabyś uzyskać?
  5. Czy projekt ma polegać na wykonaniu samych obliczeń?
  6. Czy projekt ma polegać na wykonaniu obliczeń i opisania toku analiz wraz z wizualizacją w eleganckim raporcie statystycznym?
  7. Imię klienta, miejsce zamieszkania (miasto) i nr kontaktowy.
  8. Jesteś uczniem/studentem/doktorantem/naukowcem/pracownikiem/właścicielem firmy/urzędnikiem?

 

b) Metodologia

Pokrótce opisz o tym co zostało wykonane by zebrać dane. Jak wyglądała metodologia badania, czyli?

  1. Co było przedmiotem badania?
  2. Ile osób brało udział w badaniu?
  3. Badanie polegało na porównywaniu grup obiektów?
  4. Było to badanie polegające na kilkukrotnym pomiarze tych samych obiektów?
  5. Czy porównywano różne grupy obiektów i dokonywano na nich kilkukrotnych pomiarów?
  6. Był to eksperyment?
  7. Czy było to badanie korelacyjne?
  8. Jakimi narzędziami zebrano dane ? Była to ankieta, kwestionariusz psychologiczny, linijka, waga, stoper, specjalistyczne urządzenie medyczne, zdjęcia, oceny w dzienniku szkolnym, informacje pozostawione przez klienta na stronie internetowej?

 

c) Hipotezy

W tym miejscu musisz przedstawić szczegółowo lub ogólnie hipotezy/przewidywania/problem badawczy do statystycznej weryfikacji.

  1. Ile jest hipotez/przewidywań/problemów?
  2. Jak one brzmią?

 

d) Zmienne weryfikujące hipotezy/przewidywania/problemy badawcze.

To miejsce jest szczególnie ważne. Musimy wiedzieć, które zmienne w bazie danych weryfikują Twoje hipotezy/przewidywania/problemy badawcze. Jest to istotne z tego względu, że jeśli mamy odpowiedzieć na oczekiwania to musimy wiedzieć jakie zmienne w bazie są informacjami, które biorą udział w weryfikacji hipotez/przewidywań/problemów badawczych. Mogą być tutaj różne sytuacje, które wpływają na wykonanie różnych kroków związanych z analizą. Są nimi pewne kwestie związane z istnieniem zmiennych, czyli:

  1. Czy zmienne w bazie można bezpośrednio użyć do weryfikacji?
  2. Zmienne istnieją w bazie, ale czy trzeba ułożyć z nich wskaźniki?
  3. Zmienne istnieją w bazie, ale czy trzeba odkryć/eksplorować to które będą brane pod uwagę?

W tym podpunkcie ważne jest zapisanie szczegółowych hipotez/przewidywań/problemów badawczych i powiązanie ich ze zmiennymi biorącymi udział w ich weryfikacji lub zmiennymi, które potencjalnie będą utworzone na zasadzie wskaźników lub wykrycia w toku analiz odkrywania/eksploracji.


Przykładowy zapisy hipotez/przewidywań/problemów badawczych.

Hipoteza nr 1. Płeć oraz wiek wpływa istotnie na wagę osób.

Zmienne: płeć, wiek_w_latach, waga_w_kg (zmienne w bazie do bezpośredniego użycia)


Hipoteza nr 2. Samoocena wpływa na zadowolenie z życia.

Zmienne: Samoocenę tworzy suma zmiennych (Pyt_SO1,, Pyt_SO2, Pyt_SO3) w arkuszu 1, Zadowolenie z życia tworzy uśredniony wynik zmiennych (H_1, H_2, H_3, H_4) w arkuszu 2 (zmienne wskaźnikowe)


 Hipoteza 3. Osoby z różnymi cechami demograficznymi mają odmienne preferencje reklam w TV.

Zmienna zróżnicowanie cech demograficznych jest odkrywana na podstawie analizy skupień, która klasyfikuje obserwacji do różnych grup na podstawie zmiennych (wiek, wykształcenie, stan cywilny) np. młode, bez wykształcenia wyższego, single Vs starsze, z wykształceniem wyższym, rodzice z dziećmi (zmienne poddane eksploracji)

Typy preferencji reklam zmienne – reklama_emocjonalna, reklama_content_marketing, reklama_dla_dzieci (zmienne w bazie do bezpośredniego użycia)


e) Uwagi dodatkowe.

Tutaj można wpisać swoje uwagi dodatkowe dotyczące ważnych kwestii projektu lub pytania.

(przykład jak to wygląda) <- zobacz jak wygląda przykład takiego wywiadu.

Może być tak, że będziesz potrzebować szczególnej pomocy ze względu na niestandardowy lub bardziej skomplikowany projekt. W takim wypadku oferujemy kompleksową i poszerzoną pomoc.


meto

problemy klasyfikacyjne

Założenia regresji logistycznej. Normy stosowania testu.

założenia regresji logistycznej

 

Założenia regresji logistycznej . 

Analiza regresją logistyczną to nic innego jak zastosowanie testu statystycznego dla specyficznego układu zmiennych i celu analizy.

Regresja logistyczna nie ma wielu z kluczowych założeń regresji liniowej i ogólnych modeli liniowych, które bazują na algorytmach metody najmniejszych kwadratów – zwłaszcza jeżeli chodzi o liniowość, normalność, homoskedastyczność i poziom pomiaru.

Po pierwsze, nie wymaga liniowego związku pomiędzy zmienną zależną i niezależną. Regresja logistyczna radzi sobie z każdym typem związku, ponieważ dotyczy nieliniowej transformacji logarytmicznej do przewidywanej różnicy wskaźnika. Po drugie, zmienne niezależne nie muszą być normalne wieloczynnikowo – chociaż wieloczynnikowa normalność daje bardziej stabilne rezultaty. Także błędne warunki (pozostałości) nie muszą być normalnie wieloczynnikowo rozprowadzane. Po trzecie, homoskedastyczność nie jest wymagana. Regresja logistyczna nie wymaga aby zmienne były heteroskedastyczne na każdym poziomie zmiennych niezależnych. I w końcu, może poradzić sobie z porządkowymi i nominalnymi danymi jako niezależne zmienne. Zmienne niezależne nie muszą być w systemie metrycznym.

Jednak inne założenia wciąż występują.

Regresja logistyczna wymaga aby zmienna zależna była podwójna, a porządkowa regresja logistyczna wymaga aby zmienna zależna była porządkowa. Zredukowanie porządkowej albo metrycznej zmiennej do dychotomicznego poziomu powoduje stratę dużej ilości informacji, które sprawiają, że taki test jest gorszy w porównaniu z porządkową regresją logistyczną w takim przypadku.

Po drugie, jako że regresja logistyczna zakłada, że P(Y=I) istnieje prawdopodobieństwo wystąpienia zdarzenia, koniecznym jest aby zmienna zależna została odpowiednio zakodowana. To jest, dla podwójnej regresji, czynnik poziomu I ze zmiennej zależnej powinien reprezentować oczekiwany wynik.

Po trzecie, model powinien być poprawnie dopasowany. Ani nadmierne dopasowanie, ani niedopasowanie nie powinno mieć miejsca. To jest, tylko znaczące zmienne powinny być zawarte, ale jednocześnie wszystkie znaczące zmienne powinny być zawarte. Dobrym sposobem by to zapewnić jest użycie metody stopniowania by oszacować regresję logistyczną.

Po czwarte, błędne warunki muszą być niezależne. Regresja logistyczna wymaga by każda obserwacja była niezależna. To jest, punkty danych nie powinny być z żadnej zależnej próbki, np. pomiary przed i po, albo dopasowane parowanie. Poza tym model powinien mieć małą albo w ogóle nie mieć współliniowości. Czyli zmienne niezależne powinny być niezależne od siebie nawzajem. Jednakże jest możliwość by wprowadzić efekty interakcji dla kategorycznych zmiennych w analizie i modelu. Jeżeli współliniowość jest obecna centrując zmienne, można rozwiązać problem, tj. odjąć średnią każdej ze zmiennych. Jeżeli to nie zmniejszy współliniowości, (użycie analizy czynnikowej PCA) analiza czynnikowa z prostopadle odwróconymi czynnikami powinna zostać zrobiona przed oszacowaniem regresji logistycznej.

Po piąte, regresja logistyczna zakłada liniowość zmiennych niezależnych i różnic logarytmicznych. Mimo, że nie wymaga aby zmienne zależne i niezależne były powiązane liniowo ze sobą, to wymaga by zmienne niezależne były powiązane liniowo z różnicami logarytmicznymi. W innym wypadku, test nie doceni siły związku i odrzuci związek zbyt łatwo, jako nieistotny (nie odrzuci hipotezy zerowej) chociaż powinien go uznać za istotny. Rozwiązaniem tego problemu jest kategoryzacja zmiennych niezależnych. To znaczy zamiana zmiennych metrycznych na poziom porządkowy i następnie załączenie ich do modelu. Innym sposobem jest analiza dyskryminacyjna, jeżeli założenia o homoskedastyczności, wieloczynnikowej normalności i braku współliniowości są spełnione.

I wreszcie, regresja logistyczna wymaga próbek ogromnych rozmiarów. Ponieważ maksymalne prawdopodobieństwo oszacowań jest słabsze niż metoda najmniejszych kwadratów (np. zwykła regresja liniowa, wielokrotna regresja liniowa); podczas gdy metoda najmniejszych kwadratów wymaga w analizie 5 przypadków na zmienną niezależną, uczenie maszynowe wymaga przynajmniej 10 przypadków na zmienną niezależną, a niektórzy statystycy rekomendują przynajmniej 30 przypadków na każdy oszacowany parametr.

Dane binarne w statystyce

Ekonometria

meto

 

Wybrałeś jakiś kierunek związany z szeroko rozumianymi naukami ekonomicznymi. Taki, w którym czuć pieniądz. Co więcej taki, który (wg Twoich ustaleń) w niedalekiej przyszłości sprawi, że ten pieniądz będzie czuć również od Ciebie.

Załóżmy, że wybranym przez Ciebie, drogi czytelniku, kierunkiem są Finanse i Rachunkowość. Rozpoczynasz te studia pełen optymizmu i młodzieńczej werwy. Z nadzieją patrzysz w przyszłość, w której oczami wyobraźni widzisz te wszystkie księgi rachunkowe podmiotów gospodarczych wszelkiej maści, które będziesz prowadzić. Sukcesywnie zaliczasz kolejne przedmioty. Życie jest piękne. Złapałeś pana Boga za nogi, już prawie możesz mianować się buchalterem. A tutaj przychodzi nowy semestr, nowe przedmioty i tajemniczo brzmiąca EKONOMETRIA. Z ciekawością godną młodego szulera, udajesz się na pierwszy wykład, nie mając w zasadzie pojęcia czym, ta słodko brzmiąca ekonometria się zajmuje. Przez następne kilka miesięcy  w tej materii nie zmieni się nic poza tym, że termin ten utraci ciut z pierwotnej słodyczy. Trochę posiedzisz na wykładach, na ćwiczeniach ewentualnie poczujesz w sobie wewnętrznego Pogromcę Wielkich Tajemnic XXI wieku i rozwikłasz zagadkę co jest w logo Gretla – dziewczynka czy ministrant? Jednak gdyby ktoś Cię spytał, bądź może sam zadałbyś sobie pytanie „czym jest ekonometria?”, po krótkiej chwili refleksji prawdopodobnie padłaby odpowiedź „nie wiem i w sumie to nie ważne, bo to i tak zaraz się kończy i w sumie… to byle zaliczyć”. Gdy nadejdzie czas zaliczenia to pewnie nawet za którymś razem Ci się to uda. I niebo się rozpogodzi, na horyzoncie znów będzie widać tylko piękne dni, a o ekonometrii zapomnisz tak szybko, jak szybko zdążyłeś się jej „nauczyć” na kilka dni przed egzaminem.

Tylko czemu tak to musi wyglądać? Ekonometria jest jednym z ciekawszych i przejawiających większy potencjał przedmiotów, które pojawiają się na studiach związanych z naukami ekonomicznymi.

Pomijając oczywiste argumenty związane z poszerzaniem horyzontów, zdobywaniem wiedzy z dziedzin pokrewnych, ale niekoniecznie niezbędnych w konkretnej materii, można przytoczyć wiele innych „za”. Współczesny smart thinking jest nierozerwalnie związany z metodami analitycznymi, a co za tym idzie w pewnym stopniu z ekonometrią. Szeroko pojmowane analizy zjawisk dostarczają nam informacji, na podstawie których jesteśmy w stanie prognozować. Kluczem do wartościowej prognozy jest prawidłowo zbudowany model, w tym przypadku model ekonometryczny. To podstawowe narzędzie w połączeniu z wiedzą umożliwia nam dogłębne zbadanie zdarzeń występujących na rynkach.

Prognozowanie jest jednym z istotniejszych obszarów zarządzania.

Zarówno ogromne korporacje, jak i małe przedsiębiorstwa, zmuszone są planować swoje przedsięwzięcia z dużym wyprzedzeniem. By podejmowane działania były owocne, konieczne jest zapoznanie się z danymi z przeszłości. To przy ich pomocy możemy zrozumieć istotę ubiegłych już zdarzeń i zbadać związki występujące pomiędzy interesującą nas materią a czynnikami, które teoretycznie powinny na nią wpływać. Dogłębna analiza dostarczy informacji, na podstawie których możemy podejmować dalsze kroki. Dane z przeszłości informują nie tylko o ubiegłych zdarzeniach, lecz także na ich podstawie, przy prawidłowo zbudowanym modelu, jesteśmy w stanie oszacować to co wydarzy się w przyszłości. Za przykład posłużyć może tworzenie prognoz sprzedaży dla produktu. Opierając się o pozyskane dane, dotyczące sprzedaży podobnego produktu na rynku i nastawienia konsumentów, firma może wstępnie oszacować przyszłą sprzedaż.

Ekonometria jest ciekawą i przede wszystkim – przydatną nauką.

Tak jak każda dziedzina korzystająca z metod statystycznych, systematyzuje zachodzące zdarzenia i przekłada je na język matematyki tak, by móc „wycisnąć” z nich jak najwięcej informacji i osiągnąć ekonomicznie optymalne wyniki np. sprzedaży.

Autorem jest Martyna Kuligowska

Martyna Kuligowska Analiza statystyczna danych pomoc statystyczna ekonometria analiza danych prognozowanie

analiza statystyczna wyników badań

Metoda naukowa – metodologia badań.

meto1

 

Metodologia naukowa stanowi:

  • Ogół badawczego zebrania informacji służących do znalezienia prawdy i pojęciowego jej przedstawienia;
  • Formę pozyskania materiału naukowego w celu prowadzenia badań.

Traktując metodologię naukową jako, zbieranie informacji służących do uzyskania prawdy i jej pojęciowego przedstawienia, mamy do czynienia ze zbiorem czynności i sposobów służących do rozstrzygnięcia problemów naukowych, tworzenia prac naukowych oraz do oceny rezultatów tychże działań.

W jej skład wchodzi metodologia badań naukowych, która opiera się na sposobie zdobywania materiałów do badań służących jako podstawa do opisu teoretycznego, rozstrzygnięcia problemu naukowego oraz w rezultacie do stworzenia pracy naukowej. Metodami roboczymi nazywane są te metodologię, które służą do rozwiązania konkretnego problemu.

Metodologia naukowa służy do poprawnego rozwoju nauki oraz rozszerzania wiedzy. Musi być ona dostosowana do przedmiotu badań. Istnieją uniwersalne zasady pracy badawczej, które służą wielu przedmiotom badań i naukom.

Falsyfikowalność

Kryterium falsyfikowalności jest bardzo istotne w celu stwierdzenia, czy konkretna teoria może stanowić teorię naukową. To pojęcie zostało po raz pierwszy wprowadzone przez Karla Poppera w jego dziele „Logika odkrycia naukowego”, obecnie jest ono podstawą metody naukowej. Dana teoria, aby zostać uznaną za naukową musi:

  1. Zostać opublikowana i podana do możliwości zapoznania się z nią przez szerokie grono odbiorców. Wiedza powinna być dostarczana do różnych adresatów, poczynając od specjalistów kończąc na laikach. Wiedza naukowa nie może być niedostępną tajemnicą, dlatego uznaje się, że magia i alchemia mają pewne cechy wiedzy nienaukowej.
  2. Tworzyć przewidywania. Tym bardziej podatna na falsyfikację jest teoria, która dostarcza konkretnych i wyjątkowych rezultatów. Teoria geocentryczna Ptolemeusza stanowi za przykład niespełnienia tego kryterium, na każdym jej etapie konieczne jest dostosowywanie i przekształcanie teorii do faktycznych danych doświadczalnych. Na wszystkich jej poziomach należałoby dodać kolejny epicykl, aby była ona z nimi  zharmonizowana. Wymaga to jej przebudowy. Natomiast teoria heliocentryczna Kopernika nie jest tak przewidywalna jak teoria Ptolemeusza. Mimo to umożliwia zrozumienie znacznej części obserwacji. Teoria względności Einsteina umożliwia przewidzenie zakrzywienia toru promienia światła w obecności dużych mas.  Teoria Prusinera informuje o możliwości występowania czynnika chorobotwórczego, który nie posiada kwasów nukleonowych i o jego „czysto chemicznej” naturze, która jest odporna na warunki mogące zniszczyć żywe organizmy i wirusy.
  3. Być zgodna z dotychczasowo obowiązującą wiedzą i teoriami. Należy pamiętać, że to kryterium jest mgliste, ponieważ można przewidywać rewolucyjną teorię, która neguje dotychczasową wiedzę, czasami za przykład poddaje się teorię względności Einsteina. Niektórzy jednak twierdzą, że ona nie negowała a jedynie uogólniała istniejące już teorie. Im bardziej teoria nie zgadza się z dotychczasową wiedzą tym bardziej jej założenia muszą być rewolucyjne, aby zaistniała jako teoria naukowa.  Dla przykładu, kreacjonizm zakładający, że świat został stworzony i wymyślony poprzez jeden czyn istoty nadnaturalnej w sposób, który nie zakłada żadnych odstępstw obserwacyjnych od założeń teorii ewolucji okazuje się teorią nienaukową.
  4. Być falsyfikowalna. Teoria powinna móc założyć konkretny rezultat eksperymentu, objaśnić dane zdarzenia i jego konsekwencje. Daje to możliwość ustalenia, iż teoria jest błędna. Zakładając, że Księżyc składa się tylko z węgla można sformułować teorię naukową. Jednak dzięki lotom na Księżyc istnieje możliwość obalenia tej teorii. Gdyby natomiast stworzyć teorię zakładającą, że Księżyc składa się z wyjątkowo tajemniczego węgla, którego nikt nie jest w stanie rozpoznać otrzymujemy teorię nienaukową. Nie ma bowiem sposobności weryfikacji hipotez i słuszności tejże tezy.

W wymienionych powyżej kryteriach nie widnieje zapis dotyczący zgodności z doświadczeniem. Jest ono jednak niezbędne do uznania teorii za obowiązującą. Aby uznać, że dana teza jest naukową nie ma konieczności stwierdzenia zgodności tej teorii z doświadczeniem. To powód tłumaczący dlaczego niektóre niemożliwe do sprawdzenia teorie są uważane za naukowe, badane, alternatywne modele zjawisk słusznie określające pewne konkretne części rzeczywistości, hipotezy robocze, a także abstrakcyjne teorie dzięki którym możliwe jest dokonanie analizy rozwikłania konkretnych problemów. Za przykład hipotetycznej a zarazem abstrakcyjnej teorii może służyć dynamika Newtonowska czy model cieczy idealnej.

Zgodnie z zasadami falsyfikowalności nie można poddać ocenie etycznej przekonań dzieląc je na naukowe i nienaukowe. Twierdzenie, że każdy człowiek jest sterowany przez pilnie pracujące robociki w naszej głowie, może służyć za hipotezę naukową. Wystarczy otworzyć czaszkę i okazuje się, że nie ma żadnych magicznie rządzących nami stworków. Natomiast twierdzenie, że nasze działanie jest kierowanie przez nieświadome mechanizmy, nie można uznać za naukowe do momentu, aż nie zostanie stworzony konkretny eksperyment dający sposobność na sfalsyfikowanie tego poglądu.

Teoria „dobrego paradygmatu”

Węgierski filozof nauki, Imre Lakatos spostrzegł że mimo dokonania eksperymentu falsyfikującego naukowcy nie chcą rezygnować z poprzedniej teorii. Doszedł także do wniosku, że tak naprawdę każdą jedną teorię można przekształcić, aby nie do końca poprawnie falsyfikujący ją eksperyment mógł potwierdzić jej słuszność. Postanowił więc wprowadzić nowe pojęcie, program badawczy.  Składa się on z paradygmatów, którymi określa się zestaw teorii podstawowych. Na tej podstawie tworzone są teorie szczegółowe. Natomiast te są poddawane dokładnemu testowaniu, a tworzone zostają na ściśle określonych regułach Kanta i Poppera. Oznacza to, że najczęściej są weryfikowalne lub falsyfikowalne. Czasami daną teorię traktuje się jako niepodważalną co powoduje wytwarzanie kolejnych teorii, które wyjaśniają nowe poglądy w granicach starej teorii.

Model naukowy powinien być zgodny z wieloma kryteriami takimi jak spójność logiczna, używanie jak najbardziej prostych pojęć (zgodnie z brzytwą Ockhama nie może składać się z niepotrzebnych twierdzeń), kreatywność (musi istnieć możliwość tworzenia falsyfikowalnych i weryfikowalnych teorii na podstawie modelu). Zawsze istnieje możliwość stworzenia lepszego czy bardziej twórczego paradygmatu, w takim przypadku stary model musi zostać zmieniony. Fakt ten stanowi istotną różnicę między modelami naukowymi a chociażby wierzeniami religijnymi.  Podsumowując okazuje się, że model twierdzenie Lakatosa oznacza, iż nauka stanowi dobrze zbudowany paradygmat a także zweryfikowane eksperymentalnie teorie szczegółowe.

Składniki metodologii naukowej oraz etapy pracy naukowej można podzielić w następujący sposób:

  1. Stwierdzenie i ukazanie przesłanek problemu, a także wychwycenie zagadnień pokrewnych;
  2. Analiza problemu na przestrzeni obecnych dokonań nauki poprzez analizę literatury przedmiotu;
  3. Wyszczególnienie nieodzownych założeń, twierdzeń i hipotez;
  4. Wyszczególnienie metodologii roboczych zawierających analizę obecnie funkcjonujących metod, a także selekcja oraz tworzenie nowych metod;
  5. Dokonywanie badań naukowych poprzez przeprowadzanie zabiegów wynikających z problemu oraz danej metodologii roboczej;
  6. Przetworzenie oraz synteza danych zebranych podczas badań;
  7. Pisemne omówienie rezultatów badań, a następnie przekazanie ich do publikacji naukowej;
  8. Krytyczna ocena toku swych badań oraz pisemne omówienie rezultatów.

Często realizuje się trzy pierwsze etapy łącznie tworząc etap sformułowania problemu.

Etapy należałoby przeprowadzać w wyżej wymienionej kolejności. Nie istnieje możliwość wyboru metody roboczej przed ustaleniem problemu. Etapy są naturalne i przypominają codzienne działanie człowieka w momencie postawienia go w nowej sytuacji.

Możemy wyodrębnić następujące metody badań naukowych:

W zależności od charakteru dziedzin naukowych stosuje się w nich różne metody w odmienny sposób.

Struktura pracy naukowej

Standardowo, nie bacząc na różnice społeczne i filozoficzne najczęściej zakłada się, iż rezultaty badań naukowych poddawane są krytyce i ocenie przez krąg ludzi świata nauki. Naukowcy oceniają prace za pomocą obiektywnych kryteriów, bowiem nauka jest tworzona w wyniku procesu społecznego, gdzie naukowcy poddają swoje prace analizie innym osobom. Najczęściej rezultaty publikowane są w czasopismach naukowych po wcześniejszym przyjęciu i wydaniu korzystnej oceny przez zespół badaczy. Następnie publikacja zostaje poddana komentowaniu, krytykowaniu, analizie i ocenie przez kolejnych naukowców. Mogą oni tworzyć własne badania, które stanowiłyby potwierdzenie opublikowanej pracy lub zajęłyby stanowisko przeciwne. Konferencje naukowe pełnią istotną funkcje w oddziaływaniu na ukierunkowanie pracy naukowej. Na nich odbywają się dyskusje naukowców co prowadzi do zespolenia świata nauki.

Więcej na:

Projektowanie eksperymentów dla początkujących (case study z reklamą banerową). Metodologia badań w biznesie.
Metodologia (Nauka)
Struktura procesu badawczego. Metodyka badawcza
Metodologia badań naukowych – z czym to się je ?
Metodologia Badań

analiza statystyczna ryzyka w bankowości

Modele scoringowe. Czym jest scoring i jakie ma zastosowanie?

meto1

 

Czym jest scoring i jakie ma zastosowanie?

Model scoringowy jest systemem oceny pozwalającej na utworzenie klasyfikowania klientów banku na podstawie wybranych cech. Ta metodologia  to procedury weryfikacji statystycznej mającej na celu ocenę i podjęcie decyzji o przynależności klienta do dwóch klas: (1) klienta złego, (2) klienta dobrego. Ów modele nie mają na celu ustalenia zdolności kredytowej (choć teoretycznie mogą to robić w innym układzie funkcyjnym), ale mają za cel przewidzenie tego czy klient banku spłaci w przyszłości swoje zobowiązanie kredytowe. To co ten system  ma na celu to nie wyjaśnienie modelowanego zjawiska (tak jak to robi się w badaniach naukowych), ale maksymalizowanie poprawności klasyfikacji obserwacji do wyżej wymienionych dwóch grup obserwacji. Koniec końców system oceny punktowej ma przewidzieć (co jest po części tylko wyjaśnieniem) spłatę pożyczki lub kredytu.

Model ocenia rozsądność przydzielenia kredytu klientowi. Opiera się to o ocenę:

– chęci terminowej spłaty
– tej samej chęci wyrażonej w długoterminowej perspektywie czasowej
– opisaniu scenariusza dotyczącego rozwoju finansowego klienta
Scoring dostarcza najbardziej sprawiedliwe narzędzie pozwalające na decydowaniu o tym komu przydzielić, a komu nie nie przydzielać kredytu/ pożyczki.
Jakie są plusy korzystania z metody takiej oceny ?
Pierwszym, chyba najważniejszym plusem jest poprawienie zysków i ograniczenie ryzyka w portfelu kredytowym. Drugim jest przyspieszona i sprawiedliwa decyzja polegająca na przydzieleniu lub nie odpowiednim osobom pożyczki lub kredytu. Kolejną korzyścią jest zredukowanie obciążeń finansowych wynikających z mniej zaawansowanych sposobów oceny.

Pola stosowania modelu scoringowego w instytucji pożyczkowej:

– ocena aplikacji klientów o kredyt
– wyższe zyski
– przyspieszenie i standaryzacja procedury podejmowania decyzji kredytowej
– możliwość oceny fraudów
– manipulowanie kosztami kredytu
– wgląd w potencjał wypłacalności klienta
– działania promocyjne i ofertowe

Typy modeli oceny ryzyka kredytowego.

– Scoring aplikacyjny

stosuje się w kontekście klientów nieznanych lub przy nowych działaniach ze strony banku) Dzieję się to przy aplikowaniu klienta o kredyt. W skład oceny wchodzi klient oraz sam wniosek. Wnioskowanie odbywa się w kontekście oceny statusu finansowego oraz pozycji społecznej. W skład oceny zazwyczaj wchodzi płeć, wiek, wykształcenie, zarobki, stan cywilny, typ prac itp. Itd.

– Scoring behawioralny

„stosuje się go w kontekście klientów od dawna będących klientami banku. Ocenia się zachowania klienta wyrażone w parametrach związanych z jego rachunkiem. Zazwyczaj ocenia się klienta z perspektywy roku. Jest on wykonywano tylko raz. Pojęcie tego modelu  pochodzi od zachowania per-se. Ocenie  klient jest poddawany cały czas i odnosi się on do tych klientów z którymi kontakt został nawiązany na zasadzie wspólnej relacji. Często w kontekście oceny przez ten score występują takie zmienne jak czas relacji z bankiem, liczba aktywnych rachunków, zmienność środków na koncie w czasie, średni obrót pieniędzy, poślizgi czasowe w wywiązywaniu się ze zobowiązań.

– Scoring (jako metoda klasyfikacyjna)

stosuje się go w procedurach promowania i wykrywania przestępstw bankowych.

Rodzaje kart .

Karta Ekspercka

Karta ta opiera się o intuicje dotyczące klienta. Jest subiektywna ocena typu obserwuję i decyduję. Słabą stroną tego scoringu jest mała moc predykcyjna oraz brak możliwości poradzenia sobie z ogromem potencjalnie dostępnych danych. Plusami takiej karty scoringowej jest to, że lepszy jest rydz niż nic. Może być także zapoczątkowaniem idei porządkowania i zestawiania danych.

 Karta Generyczna

Ta Karta Scoringowa zawiera w sobie oceny zebrane z różnych sektorów rynku i różnych dostawców informacji o klientach. Minusem takiej karty jest słaba moc predykcyjna oraz różnice polagające na zróżnicowaniu między rynkami z których pobiera się dane, a rynkiem działania danej instytucji. Plusem tej karty jest to, że jest o wiele lepsza od braku karty oraz karty eksperckiej oraz posiada jakaś statystyczną logikę.

Statystyczna Karta Scoringowa.

Jest to karta która w swej konstrukcji wykorzystuje tylko dane zagregowane przez instytujcję. Jej minusami są przeogromne wymagania dotyczące liczebności danych i ich jakości. Dane te oraz zmienne muszą być dokładnie weryfikowane by ograniczyć możliwość popełnienia niekorzystnych decyzji. Z minusów jest to, że karta scoringowa raz skonstruowana nie podlega dodatkowym modyfikacjom, chyba, że aktualizacją. Bardzo korzystną cechą scoringu statystycznego jest bardzo dokładna i skuteczna predykcja bazująca na rzeczywistych cechach i zachowaniach klientów.

Kroki konstrukcji statystycznego modelu.

– kumulacja danych o klientach
– charakterystyka klienta złego i dobrego.
– selekcja populacji na podstawie której konstruowany będzie model
– eksploracja danych
– selekcja zmiennych do konstrukcji modelu statystycznego
– zbudowanie modelu statystycznego
– ocena podjętych kroków wraz z oceną modelu statystycznego – klasyfikacyjnego
– ustalenie tresholdu
– implementacja
– kontrola karty scoringowej

Więcej na:

Modele scoringowe. Czym są i jakie mają zastosowanie?

Ryzyko kredytowe

Przetwarzanie danych w modelowaniu ryzyka kredytowego.

SCORING kredytowy

Scoring Fraudowy

Kryterium Informacyjne IV.
Drzewa C&RT, Drzewa decyzyjne – statystyczna analiza klasyfikacyjna

Sieci neuronowe. Statystyczna analiza danych.