analiza statystyczna w nauce

Przykład wykorzystania analizy czynnikowej w psychologii – analiza statystyczna zmiennych psychologicznych

 Metodolog - statystyczna analiza data minig

Przykład wykorzystania analizy czynnikowej w psychologii

 W psychologii analiza czynnikowa jest matematycznym sposobem redukcji dużej ilości badanych zmiennych do znacznie mniejszej liczby niezależnych czynników. Korzystanie z analizy czynnikowej w badaniach pomaga naukowcom znaleźć podobieństwa między używanymi zmiennymi oraz wyjaśnić wyniki badań i eksperymentów.

Jednym z przykładów jest eksperyment Charlesa Spearman’a, który zastosował analizę czynnikową do badania inteligencji  w 1927 i on jest twórcą pierwszej teorii czynnikowej inteligencji. Za pomocą analizy korelacji wyników wykonywania różnych poleceń wyróżnił on czynnik ogólny (g) inteligencję właściwą czyli wartość statystyczną najsilniej korelującą z wykonaniem zadań intelektualnych oraz czynnik określający specyficzne zdolności człowieka (s). Spearman przeprowadził badanie wśród uczniów i na jego podstawie stworzył swoją teorię. Pod uwagę wziął oceny szkolne oraz pomiary progów wrażliwości zmysłowej, przede wszystkim testy różnicowania światła, dotyku i dźwięku.

Analiza czynnikowa oprócz  badań inteligencji również wykorzystywana jest w innych badaniach psychologicznych np. dotyczących osobowości, postaw i przekonań. Do psychologów, którzy wykorzystywali analizę czynnikową można zaliczyć Guilforda, Cattella i Eysencka.

J.P. Guilforda teoria osobowości

Według J.P Guilforda osobność jest zdefiniowana jako układ cech jednostki a najważniejszym elementem struktury osobowości jest cecha. Cecha osobowości natomiast jest określona przez niego jako dający się wyróżnić trwały sposób zachowania, różniący daną osobę od innej. Z teorii tej wynika, że cecha może stać się podstawą do porównywania ludzi między sobą. Za pomocą analizy czynnikowej wszystkie poznane cechy osobowości można zawrzeć w dużo mniejszej grupie tzw. cech podstawowych. Guilford połączył cechy osobowości w siedem grup i nazwał je modalnościami. Każda modalność dotyczy innej strony osobowości, wyróżniamy: temperament, potrzeby, uzdolnienia, cechy morfologiczne organizmu, zainteresowania oraz cechy fizjologiczne organizmu. Elementy te autor dzieli na mniejsze grupy i wyodrębnia wymiary poszczególnych cech np. trzy wymiary uzdolnień (percepcyjne, intelektualne i psychomonetryczne) pięć wymiarów potrzeb i pięć wymiarów temperamentu. Kryteriami tych klasyfikacji jest analiza czynnikowa badań cech osobowości lub wnioskowania logistyczne.

Guilford przedstawia schemat hierarchicznego modelu struktury osobowości następująco:

  1. Typ psychiczny- dominacja, zaufanie do siebie, spokój
  2. Cecha osobowości- towarzyskość
  3. Specyficzne tendencje- chęć pracy zespole, organizacji, bycia w towarzystwie
  4. Reakcje specyficzne jednostki-szybkość decyzji, uśmiech, kontrola uczuć

Najwyższy poziom w powyższym modelu stanowią typy, które są grupą skorelowanych ze sobą cech. Dla przykładu typ osoby dobrze przystosowanej emocjonalnie składał by się z cech: obiektywizm, spokój, zaufanie do siebie. Kolejnym poziomem organizacji osobowości są podstawowe cechy osobowości, które ustala się na podstawie analizy czynnikowej poprzez badanie dużej ilości różnych zachowań człowieka. Przedostatni poziom to tendencje do reagowania w specyficzny sposób w ograniczonej liczbie konkretnych sytuacji. Najniższy poziom stanowią reakcje specyficzne, do których należą wrażenia i reakcje na pojedyncze bodźce. Guilford zidentyfikował grupę czynników dotyczącą funkcjonowania intelektu oraz dwie grupy ogólnych czynników osobowościowych- hormetyczne i temperamentalne. Cechy hormetyczne zależą od fizycznych potrzeb oraz rodzaju doświadczeń jednostki i obejmują potrzeby, postawy i zainteresowania. Cechy w ujęciu temperamentalnym są uwarunkowane i modyfikowane przez wszystkie inne cechy i właściwości danej jednostki. Jeżeli chodzi o czynniki intelektualne Guilford wyróżnia 5 rodzajów operacji: poznawanie, ocenianie, pamięć, wytwarzanie zbieżne, wytwarzanie rozbieżne; 6 rodzajów wytworów: klasy, jednostki, relacje, transformacje, systemy, implikacje; oraz 4 rodzaje treści: symboliczne, figuralne, behawioralne oraz semantyczne. Kombinacje operacji, treści i wytworów wg Guilford’a dają ok. 120 możliwych zdolności intelektualnych.

  1. B Cattella teoria osobowości

W teorii Cattella natomiast osobowość jest tym, co pozwala nam przewidzieć jak dana osoba zachowa się w danej sytuacji. Cechę definiuje jako strukturę psychiczną, wnioskiem z obserwacji zachowania, który wyjaśnia regularność czy spójność tego zachowania i dzieli je na powierzchowne oraz źródłowe. Cechy powierzchniowe to zewnętrzne zmienne, które występują łącznie. Według Cattella, jeżeli pewne zachowania występują razem to można je uznać za jedną zmienną. Cechy źródłowe wyrażają podstawowe zmienne, które współderetminują wielorakie przejawy powierzchniowe.  Cechy źródłowe są rozpoznawane za pomocą analizy czynnikowej i są najbardziej przydatne przy wyjaśnianiu zachowania. Cattell dzieli je na konstytucjonalne (zależne od wewnętrznych stanów) oraz na ukształtowane przez środowisko (zależne od  wpływów zewnętrznych: szkoły, rodziny, religii itp.).  Innym sposobem klasyfikacji cech źródłowych jest podzielenie ich ze względu na sposób w jaki się przejawiają. W tym przypadku wyróżniamy cechy: dynamiczne, czyli te które skłaniają do działania w wyznaczonym celu; temperamentu, charakteryzują tempo i ogólny styl, w jakim dana osoba wykonuje dowolne czynności oraz zdolnościowe jak dobrze jednostka radzi sobie z rozwiązywaniem zadań. Najwięcej zmienności zachowania wprowadzają cechy dynamiczne ponieważ podlegają one modyfikacji i są plastyczne. Cattell używa analizy czynnikowej aby opracować metodę, dzięki której będzie mógł mierzyć te same czynniki osobowości dla ludzi w różnym wieku.

Cattell stworzył cztery techniki badań korelcyjnych:

  • Technikę „R” , która polega na porównaniu dużej grupy ludzi w dwóch lub więcej testach
  • Technikę „P”, która polega na porównaniu wyników różnych pomiarów tej samej osoby w różnych sytuacjach i różnym czasie
  • Technikę „Q” , która polega na korelacji dużej liczby różnych pomiarów uzyskanych przez dwie osoby
  • Technikę „zróżnicowaną R” , która od zwykłej techniki „R” różni się tym, że pomiary powtarza dwukrotnie i różnice między nimi koreluje się i poddaje analizie czynnikowej

H.J. Eysencka teoria osobowości

W teorii Eysencka osobowość jest  całością aktualnych i potencjalnych układów zachowania się organizmu, zdeterminowanych przez dziedziczność oraz środowisko. Osobowość powstaje i rozwija się dzięki współdziałaniu czterech sfer: poznawczej (inteligencja), woluntarnej (charakter), afektywnej (temperament) i somatycznej (konstrukcja ciała).  Autor podaje również inną definicje osobowości jako względnie trwałą organizację charakteru, temperamentu, inteligencji oraz konstytucji fizycznej, która określa  sposób przystosowania do środowiska. Eysenck rozpatruje osobowość jako zorganizowaną w pewną hierarchię, gdzie na poziomie najwyższym mamy do czynienia z typami, na poziomie niższym znajdują się cechy, jeszcze niżej jest poziom reakcji nawykowych, natomiast na samym dole hierarchii znajdują się reakcje specyficzne, czyli zachowania obserwowane rzeczywiście.

Obok typu i cechy Eysenck wyróżnia jeszcze trzy niezależne czynniki:

  • Psychotyzm- wymiar, który charakteryzuje się tym, że na jednym jego biegunie mamy cechy takie jak altruizm, empatia, czy uspołecznienie a na drugim przestępczość, psychopatia, czy schizofrenia
  • Ekstrawersja – osoba ekstrawertywna przejawia cechy takie jak towarzyskość, żywość, aktywność, asertywność, poszukiwanie doznań
  • Neurotyczność (emocjonalność) – osoba wysoce neurotyczna posiada cechy takie jak lęk, przygnębienie, poczucie winy, niska samoocena, napięcie.

Każdy z tych czynników jest krańcem kontinuum. Biegunem przeciwnym do ekstrawersji jest introwersja, przeciwieństwo neurotyczności to równowaga emocjonalna. Psychotyczność, która została najpóźniej wprowadzona do teorii, na jednym biegunie stanowi o patologii psychicznej, na drugim o uspołecznieniu.

 

Dobre, złe i istotne statystycznie

założenia regresji logistycznej

 

Czy w psychologii występuje kryzys replikacji ze względu na trudności związane z interpretacją wartości istotności statystycznej?

Wszystko o wartości p

Amerykańskie Towarzystwo Statystyczne właśnie uwidoczniło obarczenia w temacie p-wartości, w pierwszym w historii oficjalnym oświadczeniu o praktyce statystycznej. Jest nadzieja zwłaszcza dla naukowców i dziennikarzy, którzy nie bardzo rozumieją, co oznacza wartość p. Watch Alison, McCook opisuje krótko i robi wywiad z Ronem Wasserstein, dyrektorem wykonawczym ASA.

W swojej odważnej próbie na Explainer w FiveThirtyEight Christie Aschwanden zauważa, że roczna praca ASA nad oświadczeniem pozostawiła metaforyczną krew na podłodze. Co sugeruje, że statystycy sami nie zgadzają się na to, czym jest wartość p i co robi.

Pierwszym zadaniem było zdefiniowanie terminu. Aschwanden mówi, „w końcu zgodzili  się w tej sprawie:” Nieformalnie wartość p jest prawdopodobieństwem na podstawie określonego modelu statystycznego, który statystyczne podsumowuje dane (na przykład próbka oznaczająca różnicę między dwoma porównywanymi grupami) będzie równa lub bardziej ekstremalna niż obserwowana wartość „definicja ta jest jasna jak słońce” Ona stoicyzmem stoi przy jej deklaracji w poście z ostatniego upadku: „Doszedłem do wniosku, że najbardziej podstawowym problemem z p-wartością jest to, że nie  można naprawdę powiedzieć, jaka jest. „

Nie ma mowy abym mógł adekwatnie podsumować posty Aschwanden. Jeśli trzeba zrozumieć te rzeczy, aby zrobić swoją pracę, trzeba je przeczytać. Prawdopodobnie w oświadczeniu ASA oraz 20 komentarzach jest od statystyków jest tak samo. Podobnie w wycofaniu Watch Wasserstein.

Ale zostawię cię z tymi najbardziej podstawowymi uwagami:

Od Aschwanden: „Wspólnym nieporozumieniem jest to, że wśród nie statystyków jest to, że wartość p może pokazać Ci prawdopodobieństwo, że wynik osiągnięty zostanie osiągnięty. Taka interpretacja jest całkowicie błędna. Wartość p tylko mówi Ci coś o prawdopodobieństwie. Widząc konkretne hipotetyczne wyjaśnienie – nie można powiedzieć, że wyniki są prawdziwe, czy przypadkowe”.

statystyka medyczna, biostatystyka

Klasyczne i nowoczesne teorie pomiaru, raportów o pacjentach i klinicznych wyników

Metodolog - statystyczna analiza data minig

Metodolog.pl – Analiza Statystyczna w nauce

Firma statystyczna METODOLOG

Klasyczne i nowoczesne teorie pomiaru, raportów o pacjentach i kliniczne wyniki

 

Klasyczna teoria testu (KTT) ma szerokie zastosowanie w rozwoju, opisie i niekiedy wyborze miary efektu w próbach klinicznych. To znaczy, jakość wyników, czy podawana przez klinicystów czy reprezentujące pacjentów raporty, jest często opisywana wyrażeniami „trafności” i „rzetelności”, dwoma cechami pochodzącymi z, zależnie od wewnętrznych założeń, klasycznej teorii testu.

Są bardzo rożne typy „trafności”, i podczas gdy są różne metody na obliczanie rzetelności, jest ona zdefiniowana przez klasyczną teorię testu, jako zgodność zaobserwowanego wyniku z wynikiem prawdziwym. Fundamentalną cechą klasycznej teorii testu jest sformułowanie, że każdy zaobserwowany wynik (X) jest funkcją prawdziwego wyniku jednostki (T) i losowego błędu pomiaru (e):

X=T+e

 

KTT skupia się na całkowitym wyniku testu

– teoretyczne konstrukty klasycznego testu operują na streszczeniu (sumie odpowiedzi, średniej odpowiedzi albo innym ujęciu ilościowym na ‘całkowitym poziomie’) pozycji, jednostkowe pozycje nie są brane pod uwagę. Wyjątkiem mogłaby być korelacja całkowitej-pozycji (albo przecięte na pół jej wersje). Nacisk na wynik całkowity teorii konstruktów oznacza, że kiedy miara efektu jest ustalona, opisana i wybrana na podstawie swojej rzetelności (jakkolwiek oszacowanej), sformułowanie osądu jest niemożliwe, i w zasadzie, powinno się rozważyć wymianę pozycji z osądu. Każdy wynik z 10 jest traktowany jako taki sam. Kolejną cechą opisów opartych na KTT jest to, że najlepiej się sprawdzają kiedy pojedynczy czynnik leży u źródła całkowitego wyniku. To może być rozwiązywane, w wieloczynnikowych oszacowaniach, za pomocą rzetelności „testlet” (np. dzieląc całe oszacowanie na jednowymiarowe kawałki, z których każdy ma pewne oszacowanie rzetelności). Kiedykolwiek KTT jest używana, założony jest błąd stały (dla wszystkich badanych), czyli błąd pomiaru wynikający z instrumentu badawczego musi być niezależny od prawdziwego wyniku.  To oznacza, że wynik, który jest mniej rzetelny dla jednostek z lepszym lub gorszym ogólnym wykonaniem zadania w teście nie spełnia założeń wymaganych dla interpretacji formuł pochodzących z KTT.

KTT oferuje kilka sposobów by oszacować rzetelność i założenia dla KTT mogą często być spełnione – ale wszystkie oszacowania tworzą założenia, które nie mogą być sprawdzone wewnątrz struktury KTT. Jeżeli założenia KTT nie są spełnione, wtedy rzetelność wciąż może być oszacowana, ale jej wynik nie będzie znaczący. Formuły same w sobie zadziałają; tylko że interpretacja tych wartości wyprowadzi na manowce.

IRT jest probabilistycznym (statystycznym, logistycznym) modelem tego jak badani odpowiedzieli na wszystkie dane im pozycje.

Item response theory (IRT) może być skontrastowana z klasyczną teorią testu na kilka sposobów; często IRT określa się jako „nowoczesną” teorię testu, co kontrastuje z „klasyczną” teorią testu. IRT NIE jest psychometrią. Rozmach psychometrii (i ograniczenia KTT) prowadzą do rozwoju IRT. KTT nie jest probabilistycznym modelem odpowiedzi. Zarówno klasyczne jak i nowoczesne podejścia teoretyczne do testowania rozwoju są pomocne w zrozumieniu i prawdopodobnie „mierzeniu”, psychologicznych zjawisk i konstruktów (i.e. oba są podciągnięte pod „psychometrię”). IRT ma potencjał do rozwoju i opisywania wyników prób klinicznych ponieważ zapewnia statystyczny model tego jak jak/dlaczego jednostki odpowiadają natrafiając na daną pozycję – i niezależnie, również o pozycjach samych w sobie. Opisy pochodzące z KTT dotyczą tylko całkowitych testów i są właściwe tylko dla próbki z której pochodzą, podczas gdy opisy testów pochodzące z IRT, ich składowe pozycje i jednostki są ogólne dla całej populacji pozycji albo jednostek. To jest kolejna cecha nowoczesnych metod, która jest bardzo atrakcyjna dla klinicystów. Co więcej, w IRT, rzetelność miary efektu ma inne znaczenie niż dla KTT: wtedy i tylko wtedy jeżeli model IRT pasuje, pozycje zawsze mierzą tę samą rzecz w taki sam sposób – dokładnie jak centymetry na linijce. Ta własność niezmienności jest kluczową cechą IRT.

W IRT pozycje same w sobie są scharakteryzowane; charakterystyki testu albo wyniku pochodzą po prostu z jego pozycji. W przeciwieństwie do KTT, jeżeli model pasuje, wtedy parametry pozycji (i charakterystyka testu z nich pochodząca) są niezmienne przy każdej populacji, i sprawdza się to również odwrotnie. Również inaczej niż w KTT, jeśli model IRT pasuje, wtedy charakterystyki pozycji mogą zależeć od twoich umiejętności (i.e. łatwiejsze/trudniejsze pozycje mogą mieć mniejszą/większą różnorodność).

Wewnątrz IRT, inaczej niż KTT, pozycje mogą być ukierunkowane, albo ulepszone z poszanowaniem ilości informacji jakich dostarczają o poziomie konstruktu naszego zainteresowania. To ma znaczące konsekwencje dla funkcjonalności i generalizacji rezultatów prób klinicznych, gdy używa się rezultatów pochodzących z IRT; i skomputeryzowanego testowania adaptacyjnego (CAT) uzyskującego odpowiedzi tylko z tych pozycji skupiających się coraz bardziej na danym poziomie konstruktu (lub umiejętności) jednostki. CAT ma potencjał by precyzyjnie oszacować to co rezultat stara się oszacować podczas minimalizacji liczby odpowiedzi wymaganych przez każdego uczestnika badania. Z IRT, testy mogą być dostosowane, albo ‘globalne’ testy mogą być rozwijane z precyzją w zakresie docelowym bazowego konstruktu, który podkreśla włączone kryteria albo dla którego etykietowanie FDA jest pożądane.

IRT jest potężne i oferuje możliwości w stylu klinicznych wyników, których KTT nie zapewnia.

Jednak modelowanie IRT jest złożone. System informacji o miarach wyników raportowanych pacjentów (The Patient Reported Outcome Measurement Information System – PROMIS) jest przykładem klinicznej próby wyników, które zostały opisane z użyciem IRT. Wszystkie pozycje (z obszaru zawartości) są połączone razem do oceny. Eksperci treści rozpoznają „najlepszą” reprezentację ich obszaru – wspierając test twarzy i trafność zawartości. Modele IRT są dopasowywane przez eksperckie zespoły modelujące IRT, które wykorzystują istniejące dane, tak aby wystarczająco dużej wielkości próbki zostały użyte przy oszacowywaniu parametrów pozycji. Pozycje, które nie pasują do zawartości, albo statystycznie, modelu są wyrzucane. Celem PROMIS jest „stworzenie trafnego, rzetelnego i uogólniającego działania dla klinicznych wyników zainteresowanych pacjentów.” Nieocenione w PROMIS – i wielu innych – protokoły są kierunkiem przyczynowości, jak pokazano na rysunku 1. Używając konstruktu „jakość życia” (QOL), rys. 1 pokazuje, że przyczynowość płynie z pozycji (qol1, qol2, qol3) do konstruktu (QOL). To jest, w tym przykładzie QOL jest konstruktem, który powstaje z odpowiedzi, których jednostki udzieliły w spisie pozycji QOL (3 są pokazane na rys. 1 dla ułatwienia). Poziom QOL nie powoduje różnic w tych odpowiedziach, różnorodność odpowiedzi powoduje różnice w konstrukcie QOL. Ten typ konstruktu jest nazywany „emergentnym” i jest powszechny. Problemem dla PROMIS (i podobnych aplikacji dla modeli IRT) jest fakt, że modele IRT wymagają przyczynowego czynnika będącego podstawą zaobserwowanych odpowiedzi, ponieważ warunkowanie przyczyny musi owocować warunkową niezależnością pozycji. Ta warunkowa niezależność (i.e. kiedy bazowa przyczyna jest utrzymywana na stałym poziomie, wcześniej skorelowane zmienne stają się statystycznie niezależne) jest krytycznym założeniem IRT. QOL i PROMIS są tylko przykładami tego kiedy przyczynowa kierunkowość jest utrudnieniem w możliwości interpretacji.

Jeśli ktoś odkryje, że model IRT pasuje do pozycji (qol1-3 na rys. 1), wtedy warunkowa niezależność w tych zaobserwowanych pozycjach musi pochodzić z przyczynowego czynnika; jest to zaprezentowane na rys. 1 przez ukryty czynnik F; warunkowanie czynnika, który wyłania się z zaobserwowanych pozycji, indukuje zależność, nie niezależność. Dlatego jeśli warunkowa niezależność została uzyskana, co jest niezbędne by model IRT pasował, i jeśli konstrukt (QOL na rys. 1) nie jest przyczynowy, wtedy musi być inny – przyczynowy – czynnik w systemie (F na rys. 1). Implikacja jest taka, że czynnik zainteresowania (np. QOL) nie jest konstruktem mierzonym na modelu IRT tak jak to jest pokazane na rys. 1 <właściwie, jest nim F>. Ten problem istnieje – potwierdzony bądź nie – dla każdego emergentnego konstruktu jakiego jak QOL pokazany na rys. 1. Wiele badań czynnika struktury zakłada model przyczynowy, wszystkie analizy IRT to zakładają. Rys. 1 pokazuje, że jeśli konstrukt nie jest przyczynowy, wtedy tym co mierzy model IRT nie tylko nie jest konstruktem zainteresowań, ale jeszcze wprowadza badacza w błąd, tak że myśli on, że model IRT opisuje konstrukt zainteresowań. Wysiłki takie jakie PROMIS, jeżeli omyłkowo są skierowane na konstrukty takie jak F zamiast QOL, marnują czas i cenne zasoby i dają fałszywy obraz własności, rzetelności i uogólnienia dla swoich wyników.

KTT i IRT różnią się w wielu aspektach.

Kluczowym podobieństwem jest to, że oba są modelami wykonania zadania; jeżeli założenia modelu nie są spełnione, konkluzje i interpretacje nie będą godne poparcia i badacz niekoniecznie będzie w stanie sprawdzić założeń. W przypadku IRT, jednakże, istnieją testy statystyczne pomagające ustalić czy konstrukt jest przyczynowy czy emergentny. Zarówno testowany z teoretycznej jak i statystycznej perspektywy, w modelowaniu IRT starannie powinno się rozważyć czy konstrukt jest przyczynowy czy emergentny.

Test Durbina Watsona i autokorelacja reszt pierwszego rzędu

Metodolog - statystyczna analiza data minig

Test Durbina Watsona i autokorelacja reszt pierwszego rzędu

Jedną z najpopularniejszych statystyk służących do weryfikacji hipotezy o braku autokorelacji rzędu pierwszego składników zakłócających w modelach statycznych jest statystka Durbina-Watsona. W statystyce tej są możliwe dwa układy hipotez. Jeżeli korelacja reszt w próbie jest dodatnia to:

H0 : ρ1 = 0

HA : ρ1 > 0

Oznacza to tyle, że jako hipotezę zerową przyjmujemy brak występowania autokorelacji składników losowych, gdyż współczynnik autokorelacji reszt przyjmuje wartości bliskie zeru. Weryfikujemy ją na rzecz hipotezy alternatywnej, która zakłada dodatnie skorelowanie w czasie składników losowych, które jest statystycznie istotne.

Drugim układem hipotez jest:

H0 : ρ1 = 0

HA : ρ1 < 0

W tym przypadku hipoteza zerowa również wyklucza występowanie korelacji w wartościach reszt modelu. Jednakże w tym układzie, w hipotezie alternatywnej przyjmuje się występowanie statystycznie istotnej, ujemnej autokorelacji.

Statystykę Durbina-Watsona oblicza się jako iloraz sumy kwadratów przyrostów reszt i sumy kwadratów reszt. Po odpowiednich przekształceniach matematycznych, statystykę tę możemy zapisać w przybliżonej postaci jako dwukrotność różnicy 1 oraz współczynnika autokorelacji reszt.

DW = 2(1-ρ1)

Przybliżenie to jest tym dokładniejsze, im większa liczebność próby.

Statystyka Durbina-Watsona przyjmuje wartości od 0 do 4. Im bliżej wartości skrajnych przedziału występowania DW, tym współczynnik autokorelacji jest bliższy wartości bezwzględnej z 1. Jeżeli DW przyjmuje wartości bliskie 0, to ρ1 jest bliski jedności, natomiast ρ1 jest bliski -1, gdy DW równa się 4. Brak autokorelacji składników losowych występuje gdy DW jest równe 2.

Do weryfikacji hipotezy zerowej wykorzystuje się wartości krytyczne dL oraz dU. Jeżeli otrzymana wartość DW mieści się w przedziale (dL;0), to mamy podstawy do odrzucenia hipotezy zerowej o występowaniu braku autokorelacji, na rzecz hipotezy alternatywnej o występowaniu statystycznie istotnej, dodatniej korelacji składników losowych. Gdy DW mieści się w przedziale (2;du) to nie mamy podstaw do odrzucenia hipotezy zerowej. Przedział, którego granice wyznaczają dL oraz dU, nazywamy obszarem niekonkluzywności. W przypadku, gdy DW należy do tego przedziału, test nie rozstrzyga kwestii autokorelacji, nie możemy podjąć decyzji o zaakceptowaniu, bądź odrzuceniu hipotezy zerowej. Tak jak wcześniej wspomniano, większa liczba obserwacji, skutkuje większą dokładnością przybliżenia statystki DW, co za tym idzie im większa liczebność próby, tym mniejszy obszar niekonkluzywności.

Autorem tekstu jest Martyna Kuligowska

kpt kuligov 3