ryzyko kredytowe analiza statystyczna ryzyka kredytowego

Budowa ankiet on – line oraz badanie ankietowe i jego analiza statystyczna.

 

Budowa ankiet on line, przeprowadzenie badania ankietowego oraz analiza statystyczna zebranych wyników.

W swojej ofercie Metodolog ma dla Was możliwość utworzenia formularza ankietowego w zaawansowanej formie jaką jest ankieta on – line w systemie Lime (Ponad to jesteśmy w stanie przeprowadzić badanie ankietowe) Lime jest badawczym kombajnem jeśli chodzi o możliwości badawcze. Dla przykładu możemy dzięki takiej ankiecie zbierać informacje na pytania jakościowe oraz pytania z różnorodną skalą odpowiedzi, ponad to możemy prosić badanych o umieszczenie pliku np. ze zdjęciem, dźwiękiem lub czymkolwiek, możemy prosić badanych o wskazanie swojego miejsca położenia na mapie. W najnowszej edycji ów oprogramowania do tworzenia internetowych badań jest możliwość podłączenia pod ankietę systemu Google Analitics przez co możemy śledzić naszą ankietę poprzez wgląd w geolokalizację.

Ankiety on line (badania ankietowe) są wygodną formą przeprowadzania badań szczególnie w dziedzinie psychologii, a konkretnie w psychometrii, gdzie ilość badanych obserwacji przekłada się na jakość oszacowań wynikających z dokładności pomiarowej badanych skal oraz zróżnicowanie wyników.

Oczywiście są pewne ograniczenia i dodatkowe błędy wynikające z testowania on – line. Niemniej jednak tego typu ankieta oraz możliwość badania bardzo różnorodnych prób badawczych daje wielkie pole do badań. Prawdopodobnie wraz ze wzrostem popularności testowania on – line będą opracowywane specjalne metodologie pozwalające na zminimalizowanie błędów wynikających z różnorodności warunków w których odbywa się zbieranie danych od internautów.

Bardzo wielką korzyścią przy korzystaniu z systemów ankiet internetowych jest to, że badacz może zaoszczędzić czas na wpisywaniu wyników z ankiet do bazy danych. W przypadku systemów informatycznych oferujących badania internetowe (w tym używany przez Metodolog system Lime) jest możliwość eksportu bazy danych z serwera do wielu formatów baz danych takich jak xls, txt, tab, sav, xlsx itp. Takie rozwiązanie oszczędza czas i nerwy 🙂

Po zebraniu wyników przez system internetowej ankiety może je poddawać analizie statystycznej. Niektóre systemy ankietowe posiadają w swym potencjale podstawowe analizy statystyczne i algorytmy liczące wyniki zebranych danych w internecie. Niemniej jednak statystyki te i testy statystyczne są mało zaawansowane. Choć bardzo to pomaga na etapie linkowania ankiety. Badacz może zaglądać do wyników i strategicznie planować rozmieszczenie linków i dobór obserwacji do badania.

Z całego serca polecamy możliwość badania ankietowego on line w Metodologu przy czym oferujemy oczywiście statystyczną (mniej lub bardziej zaawansowaną) analizę danych z ów ankiety.

Oczywiście, przestrzegamy przed projektowaniem ankiety internetowej samemu. Narzędzia do badań on line mają ogromy potencjał (nieznany większości) i dzięki temu cennemu aspektowi można zebrać o wiele więcej cennych danych widzianych z perspektywy badawczo naukowej.


Autorem tekstu jest Konrad Hryniewicz

cv

ryzyko kredytowe analiza statystyczna ryzyka kredytowego

Analiza ryzyka kredytowego. Czym jest ryzyko kredytowe/ Credit Scoring / analiza ryzyka kredytowego ?

Analiza ryzyka kredytowego. Czym jest ryzyko kredytowe/ Credit Scoring / analiza ryzyka kredytowego?


Czym jest ryzyko?


Ryzyko to pojęcie często używane potocznie jak  i w kontekście naukowym. Opisać je można w skrócie jako szansa na to, że podjęta przez nas decyzja nie przyniesie pożądanych przez nas efektów i będzie pewnego rodzaju obciążeniem. Ryzyko mocno daje o sobie znać w kontekście działalności gospodarczej, gdzie decyzje i działania podejmuje się przy niepełnej informacji lub braku czasu na przetworzenie wszystkich dostępnych danych. Dlatego zdolność do trafnej oceny ryzyka ma kolosalny wpływ na powodzenie podejmowanych działań. Przykładem idealnym, który ma bardzo bliski i poważny styk z ryzykiem jest firma pożyczkowa.


Czym jest ryzyko kredytowe?


Ryzyko kredytowe jest sytuacją w której kredytobiorca nie dotrzymuje zobowiązania wynikającego z podpisanej umowy z kredytodawcą. Świadomie, nieświadomie lub z powodów czysto losowych nie jest w stanie uregulować swoich zobowiązań z kredytodawcą przez co naraża jego firmę pożyczkową na deficyt. Co by nie było, nawet najdoskonalsze podejścia i metody statystyczne nie są w stanie wyeliminować strat związanych z ryzykiem. To po stronie firmy pożyczkowej jest regulowanie i zarządzanie portfelem pożyczek. W zależności od sytuacji rynkowej danej firmy pożyczkowej może ona regulować swoją strategię pożyczania pieniędzy. Niemniej jednak ponad strategiami i sytuacją rynkową jest bardzo ważna trafna oceny poziomu ryzyka. Dlatego firmy pożyczkowe mają szereg procedur, które mają charakter zarządzania ryzykiem pożyczkowym. Działania te sprawiają, że przyszłość, a konkretniej sytuacja takiej firmy jest mniej lub bardziej przewidywalna


Procedury te to:


wykrycie czynników wpływających na ryzyko i ich ewaluacja


– kontrola przyznanych pożyczek i kredytów wraz z procedurami kompensującymi skutki udzielenia złych pożyczek


W tekście tym głównie zajmiemy się możliwością oceny zdolności kredytowej i oceny ryzyka kredytowego poprzez statystyczną analizę danych. Pod pojęciem oceny ryzyka kredytowego rozumiemy terminową spłatę zobowiązania, a co za tym idzie wywiązanie się z umowy między klientem, a firmą pożyczkową.


Ocena ryzyka kredytowego/ ocena wyników karty SCORINGOWEJ osoby ubiegającej się o pożyczkę jest zawsze badana pod względem dwóch aspektów:


– prawnym

– praktycznym


W pierwszym etapie przyznania pożyczki bada się prawny potencjał pożyczkobiorcy do zaciągnięcia zobowiązania kredytowego. W drugim etapie ocenia się praktyczne aspekty czyli:


– osobowość

– stan cywilny

– majątek

– przebieg kariery zawodowej

– poziom zamożności

– aktywów

– pasywów


Metodologia ewaluacji ryzyka kredytowego/pożyczkowego.


W czasie swej historii istnienia firmy pożyczkowy wytworzyły metody oceny ewaluacji ryzyka kredytowego.

– metody polegające na ewaluacji finansów i zamożności klienta

metody algorytmiczne (statystyczne, metodologiczne, logiczne lub matematyczne) dzięki, którym przewiduje się na podstawie historii zachowań i charakterystyk starych klientów,  zachowania  klientów nowych.


Trochę więcej o pojęciu algorytmicznym.


Dla analityka danych najbardziej interesującą rzeczą jest oszacowanie ryzyka kredytowego nowych klientów na podstawie historii (zapisanych zachowań i cech w bazie danych) przeszłych klientów. Bazuje to wszystko na prostej zasadzie „Przyszłość będzie taka jak przeszłość”. Zadaniem statystyka jest wykrycie tego, które cechy pod postacią zmiennych z bazy danych wpływają istotnie na sytuację spłaty pożyczki  lub jej braku. Ważne jest też to, że tego typu metody najlepiej działają w krótkich etapach czasu lub kiedy są często aktualizowane.


Modele oceny ryzyka pożyczkowego scoringowego / kredytowego najczęściej używane w praktyce firm pożyczkowych i banów.


Procedura konstruowania statystycznego modelu przewidującego składa się z kilku procesów. Pierwszy z nich to dostosowanie odpowiedniego modelu (silnika statystycznego) a drugi (ściśle powiązany z pierwszym) przygotowanie danych w taki sposób by dawały najlepsze przewidywania (pamiętając o złotej zasadzie dotyczącej tego, że jeśli słabo zajmiemy się danymi wejściowymi to będziemy mieć słabe rezultaty opisujące nasze zjawisko). Wybór modelu statystycznego jest dowolny. Zazwyczaj wybiera się kilka modeli, a następnie porównuje się ich skuteczność. Do tych metod należy analiza regresji logistycznej, analiza drzew decyzyjnych, analiza dyskryminacyjna, sieć neuronowa, metoda SVM (support vector machines). Różne metody zwracają podobne wyniki, choć zazwyczaj młodsze metody (np. wielowarstwowy perceptron) nie mają wielu założeń co do „stanu danych” więc zdarza się, że zwracają trochę lepsze wyniki niż metody klasyczne (drzewa decyzyjne).

Chcesz dowiedzieć się więcej? Chciałbyś mieć system oceny scoringowej w swojej firmie? W Metodolog znajdziesz coś dla siebie.


Więcej o statystyce, kredytach i podejmowaniu decyzji na:


Sieci neuronowe w ryzyku kredytowym


Drzewa C&RT, Drzewa decyzyjne – statystyczna analiza klasyfikacyjna


Liniowa analiza dyskryminacyjna


Analiza regresji logistycznej


Analiza statystyczna danych warszawa wrocław kraków poznań gdansk


Metody oceny zdolności kredytowej


 

problemy klasyfikacyjne

Propensity score matching – Statystyczny wpływ netto zmiennej niezależnej na zmienną zależną.

meto1

Metodolog.pl – Analiza Statystyczna w nauce

Firma statystyczna METODOLOG

Metoda PSM to perfekcyjny przykład poznawania prawdziwych źródeł zmienności!

Propensity score matching – Statystyczny wpływ netto.

Czyli jak do obserwacji z grupy eksperymentalnej wybrać obserwacje podobne, ale jednocześnie będące grupą odniesienia ? Jak uzyskać czysty wpływ zmiennej niezależnej na zmienną zależną.

Propensity Score Matching to procedura polegająca na statystycznym utworzeniu podobieństwa między grupą kontrolną i eksperymentalną pod względem zmiennych balansujących. Pierwszy krok tej procedury polega na utworzeniu wektora balansującego wskazującego prawdopodobieństwo przynależności do grupy kontrolnej i eksperymentalnej (zazwyczaj wykonuje się to dzięki oszacowaniom regresji logistycznej). Drugi krok polega tym aby przyporządkować obserwacje podobne do siebie pod względem wartości wektora balansującego. Najczęściej przyporządkowuje się obserwacje z grupy eksperymentalnej do grupy kontrolnej za pośrednictwem metody najbliższego sąsiada. Metoda ta pozwala na przyporządkowania obserwacji z grupy eksperymentalnej do osoby z grupy kontrolnej pod względem bliskości wartości wektora balansującego. Do wykonania tej procedury można wykorzystać popularny pakiet „MatchIt” z repozytorium CRAN [1] w programie R.

[1] https://cran.r-project.org/web/packages/MatchIt/index.html


Procedura PSM jest pewnego rodzaju połączeniem statystycznej analizy danych z pewną logiką metodologiczną. O co chodzi ? W metodzie tej chodzi o to aby obserwacje w grupie eksperymentalnej były podobne do osób z grupy kontrolnej pod względem cech, które są powiązane ze zmienną niezależną oraz zmienną zależną. Chodzi o wyrównanie różnic pomiędzy grupami.


Wyobraźmy sobie sytuację kiedy badamy wpływ cukrzycy na czas trwania życia (  np. analizą przeżycia/survival analysis lub porównywaniem krzywych na wykresie Kaplana Mayera ). Kiedy zanalizujemy statystycznie ten wpływ może się okazać, że skracający życie czynnik jakim jest cukrzyca może tylko pozornie wpływać na śmiertelność. Może być tak, że grupa eksperymentalna (cukrzyków) jest inna pod względem wielu cech oraz jest inaczej traktowana w procesie długofalowego leczenia niż grupa kontrolna (zdrowych ludzi) *Niestety ze względów etycznych nie możemy losowo wybierać obserwacji i wywoływać w jednej grupie cukrzycy a w drugiej nie. Losowy dobór do grup badawczych jest oczywiście uczciwy i jak najbardziej pożądany. Wywołanie cukrzycy już takie nie jest. Niemniej jednak jest coś co możemy zrobić. Możemy wykorzystać metodę PSM. Czyli wybrać grupę kontrolną, która pod względem wielu czynników będzie podobna do grupy eksperymentalnej. Jak to zrobić ? W przypadku kiedy sytuacja wygląda na taką w której mamy 2 grupy badawcze możemy użyć regresji logistycznej ( dla problemów w których jest większa ilość grup eksperymentalnych można zastosować inne statystyczne metody klasyfikacyjne). Jako zmienne wejściowe wybieramy czynniki, które są powiązane z cukrzycą  oraz z przedwczesnymi zgonami, które chcemy wyjaśnić wpływem cukrzycy. Ów cukrzyca na potrzeby analizy regresji logistycznej jest naszą zmienną zależną ( ale tylko na chwilę). Dzięki regresji logistycznej uzyskujemy przewidywane prawdopodobieństwo przynależenia obserwacji do danej grupy ( cukrzyca – zdrowy ). Dzięki temu powiedzmy, że uzyskujemy wektor balansujący obie grupy. Jak to ? Każdy uzyskany wynik w grupie kontrolnej i eksperymentalnej możemy interpretować jako pewnego rodzaju poziom podobieństwa względnego. Dzięki takiemu zabiegowi uzyskujemy wartości identyfikacyjne na podstawie których możemy wyodrębnić jednostki w grupie kontrolnej i eksperymentalnej podobne do siebie pod względem wcześniej wyodrębnionych cech. Takie dopasowanie najlepiej wykonać analizą skupień metodą najbliższego sąsiada. Dzięki takiemu zabiegowi dobieramy do grupy eksperymentalnej bardzo podobne osoby  z grupy kontrolnej. Obie grupy są do siebie podobne pod względem różnych cech np. BMI, płci, grupy krwi, wieku, parametru Logistic Euroscore, rodzaju leczenia, ilości odbytych operacji lub hospitalizacji. Gdybyśmy planowali dobór osób do grupy kontrolnej szansa na dopasowanie do grupy eksperymentalnej osób podobnych była by prawie niemożliwa.

Koniec końców w przypadku kiedy mamy wybalansowane różnice pomiędzy grupami pod względem cech, które są powiązane z cukrzycą i zgonami możemy określić wpływ netto cukrzycy na śmiertelność.


Przyszłość tej metody.

Metoda propensity score matching zdobywa coraz większą popularność i jest coraz częściej wymagana przy projektach badań ilościowych w których losowy dobór jednostek do badania, a następnie do grup badawczych jest niemożliwy. Można powiedzieć, że metoda propensity score matching może się stać standardem przy badaniach, tak jak podwójna randomizacja w badaniach eksperymentalnych.


Etapy procedury Propensity score matching.

– znalezienie zmiennych powiązanych ze zmienną nieznależną i zależną

– zbudowanie wektora balansującego ( np. użycie do tego regresji logistycznej, naiwnego klasyfikatora Bayesa, analizy dyskryminacyjnej lub sieci neuronowej )

– dokonnać powiązania (matchingu) obserwacji z grupy eksperymentalnej i kontrolnej przy użyciu wektora balansującego ( najlepiej użyć do tego algorytmu KNN – analizy skupień najbliższego sąsiada )

– porównać różnice pomiędzy grupą kontrolną a eksperymentalną pod względem cech budujących wektor balancujący przed i po procedurze propensity score matching

– zweryfikować różnice statystyczne netto pomiędzy wybalansowanymi grupami  (zmienną niezależną) pod względem interesującej nas zmiennej zależnej


Jak ocenić skuteczność wykonanych kroków ?

– w pierwszym etapie (przed matchingiem) analizy statystycznej powinny być wyraźne różnice pomiędzy grupami pod względem czynników budujących wektor balansujący

– obie grupy po zbudowaniu wektora balansującego powinny różnić się pod względem jego wyniku

– po dopasowaniu (matchingu) różnice istotne statystycznie pod względem czynników budujących wektor balansujący powinny zniknąć

– istotna statystycznie różnica między grupami (zmienną niezależną) pod względem wektora balansującego powinna zniknąć


Jak ocenić wpływ netto zmiennej niezależnej na zmienną zależną ?

Po procedurze propensity score matching przeprowadzamy analizę statystyczną, która ma zakwestionować losowość wyników np. test t Studenta lub analizę wariancji. W naszym przypadku była to analiza Log – Rank (Logarytmicznych Rang). Zmienną niezależną była zmienna  cukrzyca lub jej brak, a zmienną zależną był czas życia po operacji.


Gdzie procedura propensity score matching może mieć zastosowanie ?

Najczęściej procedura ta może mieć zastosowanie w badaniach ewaluacyjnych przy interwencjach społecznych (np. w Projekcie Alternatywa II), w projektach badawczych przy, których manipulowanie zmienną niezależną jest nieetyczne lub niemożliwe. W badaniach w których nie można stworzyć grupy kontrolnej ze względu na koszt badań lub brak możliwości znalezienia jednostek podobnych do grupy eksperymentalnej.

Autorem tekstu jest Konrad Hryniewicz.


analiza statystyczna danych do pracy magisterskiej

Analiza statystyczna do pracy magisterskiej, licencjackiej i doktorskiej. Legal czy nielegal ?

Analiza statystyczna do doktoratu, pracy magisterskiej i licencjackiej.


Zanim zlecisz obliczenia analizy statystyczne do pracy dyplomowej zapoznaj się z tym wpisem. Dowiesz się tego czy korzystanie z pomocy firm (w tym firmy Metodolog) oferujących usługi statystyczne w pracy magisterskiej , licencjackiej  lub pracy doktorskiej jest ok ? Czy jest legalne ? Czy jest etyczne ?


Czy jest ok ? Jest.

Jak zawsze punkt widzenia zależy od punktu siedzenia. Osoby, a raczej studenci, którzy nie mają pojęcia o metodach obliczeniowych, statystyce i metodologii badań lepiej, aby zlecały wykonanie tej specyficznej i trudnej pracy. Dlaczego? Dlatego, że nieświadomie mogą zrobić krzywdę sobie oraz nauce, poprzez nieumiejętne i ślepe wykorzystywanie technik statystycznych (jest to oczywiście zależne od sumienności, skrupulatności i wiedzy danego studenta). Takie zachowanie przekłada się to oczywiście na błędy pierwszego i drugiego rodzaju. Oczywiście prace magisterskie nie są tą samą rangą badań co seria badań w artykule naukowym lub pracy doktorskiej. Niemniej jednak pokazanie wyników istotnych analiz statystycznych w pracy magisterskiej lub licencjackiej, które tak na prawdę istotne nie są, niosą bardzo ciężkie konsekwencje. Np. Ucieszony promotor – profesor może zrelacjonować ów wyniki tak wykonanej analizy statystyczne i wniosków w swojej książce, albo artykule naukowym. Profesor też człowiek. Czy będzie się on  zastanawiać nad jakością danych i zasadnością użytych analiz statystycznych w pracy magisterskiej swojego studenta w momencie kiedy wyniki wyszły pożądane (a w rzeczywistości statystyczno metodologicznej jednak takie nie wyszły)? Niestety nie… I trach ! Mamy artefakt w obiegu wiedzy!

Wszystko jest ok kiedy gra muzyka. Dla dobra stanu wiedzy, dla dobra przyszłych publikacji, dla dobra studentów i promotorów prac, sugeruje się aby analiza statystyczna do doktoratu, prac magisterskich i licencjackich były wykonywane przez profesjonalnych statystyków lub metodologów. Wykonanie analiz i obliczeń statystycznych do projektu magisterskiego lub licencjackiego w naukach społecznych (psychologia, socjologia, pedagogika, ekonomia) lub medycznych (pielęgniarstwo, lekarskie, weterynaria) nie jest drogie. Na polskim rynku jest kilku rzetelnych dostawców usług statystycznych ]. Za niektórych analityków, którzy wykonują obliczenia statystyczne do projektów badawczych mogę ręczyć osobiście, swoim majątkiem oraz dać uciąć rękę.


Czy takie usługi są legalne ? Tak.

Polskie prawo nie zakazuje zlecania  legalnie działającym podmiotom gospodarczym takich rzeczny jak wykonywanie obliczeń statystycznych i analiz do prac magisterskich, licencjackich i doktorskich.


Czy tego typu pomoc jest etyczna? I tak… I nie…

Praca magisterska, licencjacka oraz doktorska powinna być od A do Z wykonana samodzielnie przez studenta tak samo jak analiza statystyczna. Praca tego typu, szczególnie w przypadku magistra jest czymś co potwierdza zdobytą wiedzę mistrzowską oraz umiejętność produkcji wiedzy. Co więcej, we wszystkich naukach przyrodniczych jest wymagana statystyczna weryfikacja danych, czyli analizy statystyczne. Co w przypadku kiedy student dysponuje doskonałą wiedzą, praktyką i intuicją w danej dziedzinie nauki oraz potrafi wytwarzać dobra danej nauki, no ale nie radzi sobie ze statystyką ? Ma gubić się samotnie w piekle modeli liniowych, nieliniowych? W statsytyce Bayesa?  Zamiast wymodelować dane w scoringu kredytowym ma wrzucać predyktory bez żadnej obróbki do modelu klasyfikacyjnego? Nie kontrolować wielokrotności porównań w testach post hoc ? Niewiedza rodzi ignorancję, ignorancja rodzi błędy, a błędy prowadzą do katastrof (mniejszych i większych).


Warto się zastanowić uczciwie (wątek ten kieruje do studentów, promotorów i recenzentów), czy zlecanie obliczeń statystycznych w projektach magisterskich, licencjackich i doktorskich specjalistom  jest ok, czy jednak nie jest ok ? Jak w ogóle rozpatrywać tę  decyzję ?


Wątek ten można zakończyć bardzo gorącym i mądrym chińskim przysłowiem” Żyj tak jakbyś miał żyć wiecznie „


Analizy statystyczne dla wszystkich, albo promotorzy prac do roboty :)!


Więcej info o tym czym są analizy statystyczne i usługi statystyczne w nauce:

Analiza statystyczna w socjologii
Przykładowa praca magisterska
Metody statystyczne w analizie ankiet
Analiza statystyczna w medycynie
Statystyka w pedagogice
Statystyka w psychologii
Analizy statystyczne / analiza badań / metody statystyczne
Usługi statystyczne = Pomoc statystyczna
Opracowanie statystyczne ankiet
Teoria statystyki – matematyczną koncepcją opisania czegoś w ujęciu ilościowym
Statystyczny blog