Dane binarne w statystyce

Rzetelność pomiaru.

meto1

rzetelny

  1. «wypełniający należycie swe obowiązki»

  2. «taki, jaki powinien być, odpowiadający wymaganiom»

  3. «zgodny z prawdą, wiarygodny»”

Słownik języka polskiego PWN

Wszyscy cenimy ludzi rzetelnych. Wypełniających należycie swe obowiązki. Takich, jacy powinni być, odpowiadających wymaganiom. Mówiących rzeczy zgodne z prawda, wiarygodnych, według definicji „Słownika języka polskiego” PWN. Lecz jest pewna grupa ludzi, która rzetelności nie wymaga tylko od ludzi, ale przede wszystkim od zupełnie czegoś innego. Tak, mówimy o badaczach. Bo czego, jeżeli nie wiarygodnego obrazu rzeczywistości poszukują oni w swoich badaniach. Choć rzetelność w rozumieniu psychometrycznym nieco odbiega od tej, która została przedstawiona powyżej, to idea pozostaje ta sama. Chodzi o to by uzyskane przez nas wyniki jak najtrafniej oddawały rzeczywisty charakter badanego zjawiska. By nasze badanie wypełniało należycie swe obowiązki – udzielało odpowiedzi dokładnie na to zagadnienie, które chcemy zgłębić.

Budując kwestionariusz do pomiaru jakiegoś pojęcia umieszczamy w nim optymalną liczbę pozycji, czyli wskaźników naszego badania. Przez optymalna rozumiemy taką, która uwzględnia zarówno wyliczoną liczbę pozycji odpowiadającą wartości pożądanej przez nas rzetelności, jak i czynniki poboczne w obrębie naszego badania. Co to znaczy? Teoria teorią, wzory wzorami, ale musimy się liczyć z tym, że gdy wyliczymy sobie jakąś horrendalnie dużą liczbę pozycji potrzebną do uzyskania oczekiwanej rzetelności i umieścimy ją w formularzu, to możemy mieć problem, chociażby ze znalezieniem chętnych do wzięcia udziału w badaniu. Gdy już uda się nam określić optymalną liczbę pozycji, dopasowujemy do niej skalę. W zależności od charakteru przeprowadzanego badania, dobieramy ilość stopni skali. Gdy to wszystko jest już gotowe, pomiary dokonane, możemy przejść do analizy zebranych pomiarów, a co nas w dzisiejszym wpisie najbardziej interesuje – współczynnika rzetelności.

W modelu klasycznym każdy pomiar odzwierciedla do pewnego stopnia prawdziwy wynik dla badanego pojęcia, a do pewnego stopnia nieznany błąd losowy.

x=tau+error

X – odpowiedni faktyczny pomiar

tau – powszechnie używane do oznaczenia wyniku prawdziwego

error – składnik błędu losowego pomiaru

W takim rozumieniu, warunkiem rzetelnego pomiaru jest wyższy wynik prawdziwy (tau) od błędu (error). Stąd już niedaleka droga do współczynnika rzetelności. Rozumiemy go w kategoriach proporcji zmienności wyniku prawdziwego, która jest ujęta dla wszystkich osobników lub respondentów w stosunku do całkowitej obserwowanej zmienności i może być zapisana w następujący sposób:

A co będzie gdy utworzone przez nas pozycje mają różny poziom rzetelności? Jeśli składnik błędu w odpowiedziach jest rzeczywiście losowy, to możemy oczekiwać, że wartość oczekiwana lub średnia składnika błędu po pozycjach będzie równa zero. Im większa liczba pozycji, tym bardziej w skali sumarycznej odzwierciedlony zostanie wynik prawdziwy.

Najbardziej popularnym współczynnikiem, stosowanym do szacowania rzetelności skali sumarycznej jest alfa Cronbacha.

– wariancja k pojedynczych pozycji

– wariancja sumy wszystkich pozycji

Współczynnik ten przyjmuje wartości od 0 do 1. W przypadku gdy pozycje w ogóle nie dają wyniku prawdziwego, ale jedynie błąd, to wariancja sumy będzie równa sumie wariancji poszczególnych pozycji, a współczynnik alfa będzie wynosił zero. Natomiast wartość 1 otrzymamy wtedy, gdy wszystkie pozycje są idealnie rzetelne i mierzą tę samą rzecz.

Dla pozycji binarnych (prawda/fałsz) chcąc obliczyć alfę Cronbacha, korzystamy z tzw. wzoru 20 Kudera-Richardsona na rzetelność skal sumarycznych. Współczynnik rzetelności obliczany w ten sposób określa się  jako rzetelność wewnętrznie zgodną.

Alternatywna droga w obliczaniu rzetelności skali sumarycznej wymaga od nas podzielenia tej skali w losowy sposób i sprawdzenia korelacji występujących między połówkami. Doskonała korelacja (r=1,0) świadczy o doskonałej rzetelności. By to sprawdzić, do oszacowania wykorzystujemy współczynnik połówkowy Spearmana-Browna:

A jakie są konsekwencje rzetelności mniejszej niż doskonała? Jak możemy się domyślać, im większy udział błędu losowego w faktycznym pomiarze, tym mniejszy udział wyniku prawdziwego. Może to świadczyć o tym, że w rzeczywistości zbadaliśmy zagadnienie zupełnie inne niż to, które pragnęliśmy zgłębić. By się o tym przekonać możemy zbadać korelację z powiązanymi zewnętrznymi kryteriami. Gdy wszystko jest skorelowane, możemy mówić o trafności skali. Dochodzenie do trafności skali jest bardzo praco- i czasochłonne, bo wymaga rozważenia wielu zewnętrznych kryteriów, które teoretycznie powinny być powiązane z pojęciem z założenia mierzonym przez skalę.

Gdy otrzymaliśmy już rzetelność zarówno skali jak i zmiennej kryterium, i wiemy, ze są one skorelowane możemy oszacować rzeczywistą korelację wyników prawdziwych w obu miarach. Co to oznacza? Przy pomocy poniższego wzoru mamy możliwość skorygować korelację ze względu na tłumienie.

– estymator korelacji między wynikami prawdziwymi w obu miarach x i y

,  – rzetelność miar (skal) x i y

Autorem tekstu jest Martyna Kuligowska

Martyna Kuligowska Analiza statystyczna danych

Analiza supresji (Analiza Mediacji)

meto1

 

Analiza supresji

Efekt supresji to przykład efektu pośredniego, czyli wpływającego na zmianę relacji między predykatorem a zmienną objaśnianą po wprowadzeniu tzw. trzeciej zmiennej. Do efektów pośrednich należą: efekty mediacyjne, efekty supresyjne i efekty zakłócające. Efekty te są równoważne.

Trzecią zmienną uwzględniamy najczęściej wtedy, gdy próbujemy wyjaśnić mechanizm leżący u podłoża relacji między dwiema zmiennymi. W takim przypadku trzecia zmienna pełni rolę mediatora. Model taki ma zastosowanie również w przypadku, gdy chcemy zaprezentować działanie zmiennych zakłócających wpływ zmiennej niezależnej na zmienną zależną. Kontrola zmiennej zakłócającej umożliwia wówczas określenie niezależnego wpływu pozostałych zmiennych na zmienną objaśnianą. To, czy zmienna trzecia jest traktowana jako mediator czy jako zmienna zakłócająca zależy od rodzaju wcześniej wysnutych hipotez i teorii w obrębie których interpretujemy uzyskane wyniki.

Gdy zakładamy, że kontrolowanie zmiennej trzeciej osłabi związek między predykatorem a zmienną zależną, to mówimy o efekcie mediacji lub efekcie zakłócenia. Gdy pojawia się efekt odwrotny, tzn. związek między tymi zmiennymi się zwiększa, mówimy o efekcie supresji.

Supresja zachodzi wówczas, gdy zmienna pośrednicząca podwyższa własności predykcyjne zmiennej niezależnej na zmienną zależną. Dzięki temu można na przykład ująć w ramy statystyczne teorie pojawiające się w psychologii społecznej teorie procesów przeciwstawnych, czyli takie które zakładają że pojawienie się jednego procesu psychologicznego uruchamia proces o działaniu przeciwstawnym, tłumiącym pierwotny proces (np. teorie dotyczące motywacji).

Określenie supresja dotyczy wzajemnego tłumienia się efektów predyktorów, przez co włączenie w analizę tylko jednego z nich może nie wykazać istniejącego związku ze zmienną zależną. Tylko analizowanie obu predyktorów jednocześnie umożliwia ujawnienie ich związków ze zmienną zależną (stąd efekt supresji nazywa się też efektem uwydatnienia). Wystąpienie efektu supresji oznacza, że wśród osób badanych dwa związane ze sobą predykatory wywierają rożny wpływ na zmienną zależną. Nie znaczy to jednak, że wzajemny wpływ obu predyktorów jest od siebie zależny, jak dzieje się to w przypadku efektu moderacji.  Predyktory mogą jednak działać na siebie wzajemnie jako supresory i wtedy mówimy o zmiennych supresyjnych.

Wyróżniamy trzy rodzaje supresji:

  • Tradycyjną/ klasyczną, która występuje gdy efekt całkowity predykatora na zmienną objaśnianą jest zerowy bądź nieistotny statystycznie, jednak po włączaniu trzeciej zmiennej do równania regresji go uwydatnia tak bardzo, że staje się istotny statystycznie
  • Sieciową/ negatywną, która występuje w sytuacji gdy włączenie do równania zmiennej trzeciej odwraca znak relacji między predykatorem a zmienną zależną.
  • Kooperatywną, która ma miejsce wtedy, gdy wstępnie istotna relacja między predykatorem a zmienną zależną wzrasta przy kontrolowaniu zmiennej trzeciej.

Do obliczenia istotności efektu supresji używamy tych samych testów statystycznych, co w przypadku analizy mediacji czy zakłócania (np. test Sobela, metoda bootsrappingu).

W ostatnich latach (np. Locke, 2009; Paulhus i in., 2004; Zagefka, Pehrson, Mole i Chan, 2010 za: Cichocka, Bilewicz, 2010) pojawiają się artykuły przedstawiające badania wykorzystujące efekt supresji, które sugerują że ta metoda może być użyteczna w zwiększaniu trafności przewidywań budowanych modeli, a także w wyjaśnianiu na pierwszy rzut oka niewidocznych efektów statystycznych. Analiza supresji jest wykorzystywana jako narzędzie analizy danych oraz metoda weryfikacji teorii. Analiza supresji pozwala odszukać złożone zależności przyczynowe tam, gdzie pozornie ich brak.

Autorem Tekstu Jest Judyta Borchet

11647379_880289168675562_2028751748_n

Źródło:

Cichocka, A., Bilewicz, M. (2010). Co się kryje w nieistotnych efektach statystycznych? Możliwości zastosowania analizy supresji w naukach społecznych. Psychologia Społeczna, 5, 191-198.

analiza statystyczna wyników badań

Wielkość i siła efektu – podstawowe miary szacujące siłę związków i wpływów.

meto

 

Wielkość efektu weryfikują miary siły efektu.

Wielkość efektu jest ilościową miarą siły zjawiska obliczaną na podstawie danych. Stosuje się ją do mierzenia wpływu pewnego czynnika na wynik ogólny grupy, czyli siły związku między zmienną niezależną a zmienną zależną. Wielkość efektu nie jest zależna od wielkości próby, a jego interpretacja opiera się na założeniu o normalności rozkładów wyników porównywanych grup.

Miary wielości efektu dzielą się na dwie rodziny. Jest to rodzina d, w skład której wchodzą:
d Cohena (dla testu t dla prób zależnych) oraz g Hedgesa (dla testu t dla prób niezależnych).  W skład rodziny r wchodzą miary takie jak: eta-kwadrat, omega-kwadrat oraz r ( jest to współczynnik korelacji punktowo-dwuseryjnej  między grupą eksperymentalną a kontrolną, wyniki są zmienną o charakterze ciągłym).

Tab. Miary wielkości / siły efektu oraz przyjmowane przez nie wartości dla poszczególnych testów. Źródło: Internet

Miary wielkości / siły efektu Przedział wartości siły związku
Test t dla 2 średnich niezależnych i zależnych 1. d Cohena

2. g Hedgesa

3. r punktowo-dwuseryjny między grupami

d Cohena, g Hedgesa:

0.2 – efekt mały

0.5 – efekt przeciętny

0.8 – efekt duży

Jednoczynnikowa ANOVA 1. Eta-kwadrat

2. Omega-kwadrat

Eta-kwadrat <0,1>

Omega-kwadrat

0.01 – efekt mały

0.06 – efekt przeciętny

0.14 – efekt duży

Dwuczynnikowa ANOVA 1. Eta-kwadrat

2. Cząstkowa omega-kwadrat

Eta-kwadrat <0,1>

Omega-kwadrat

0.01 – efekt mały

0.06 – efekt przeciętny

0.14 – efekt duży

Chi-kwadrat Współczynnik Fi

Fi Cramera

0.1 – efekt mały

0.3 – efekt przeciętny

0.5 – efekt duży

Test Kruskala-Wallisa Epsilon-kwadrat <0,1>
Test U Manna-Whitneya rg Rangowy współczynnik korelacji dwuseryjnej Glassa <-1,1>
Test rang Friedmana Współczynnik zgodności W <0,1>
Test znaków rangowanych Wilcoxona rc Rangowy współczynnik korelacji dwuseryjnej dla par dopasowanych <-1,1>

Poszczególne analizy wymagają zastosowania określonych miar wielkości efektu. W dalszej części tekstu po kolei się im przyjrzymy.

Dla jednoczynnikowej analizy wariancji miarą wielkości efektu będzie Eta-kwadrat (stosunek korelacyjny) oraz Omega-kwadrat dla grup niezależnych. Miara Eta-kwadrat szacuje proporcję całkowitej wariancji, którą można przypisać zmiennej niezależnej. Jest ona jednak obciążona, gdyż podwyższa szacowane wartości.
ɳ2 = SSm/SSc 

gdzie: SSm – międzygrupowa suma kwadratów ; SSc – całkowita suma kwadratów

Omega kwadrat to względnie nieobciążona miara wielkości efektu w ANOVA dla grup niezależnych. Miara Omega-kwadrat szacuje proporcję wariancji zmiennej zależnej w populacji, którą możemy przypisać k warunkom eksperymentalnym.

ω2m = [SSm – (k – 1)(s2wew)]/(SSc + s2wew)

gdzie: SSm – międzygrupowa suma kwadratów;  SSc – całkowita suma kwadratów; s2wew – wewnątrzgrupowe oszacowanie wariancji

Miara wielkości efektu w ANOVA dla pomiarów powtarzanych to Eta-kwadrat dla pomiarów powtarzanych.  Miara ta szacuje tę proporcję zróżnicowania, którą można przypisać zmiennej niezależnej po wyeliminowaniu zróżnicowania spowodowanego różnicami indywidualnymi.

ɳ2 = SS2osoby/(SS2osoby + SS2reszta)

Miarą wielkości efektu w ANOVA dla planu dwuczynnikowego jest Eta-kwadrat dla planu dwuczynnikowego.

ɳ2wiersze = SSW/SSc

ɳ2kolumny = SSK/SSc

ɳ2WK = SSWK/SSc

gdzie: SSW –suma kwadratów dla wiersza; SSK – suma kwadratów dla kolumny; SSWK – suma kwadratów dla interakcji WK; SSc – całkowita suma kwadratów

Miarą siły związku między zmienną zależną a efektem eksperymentalnym każdego z czynników jest cząstkowa Omega-kwadrat dla planu czynnikowego.

ω2= oszacowanie wariancji dla (W, K oraz WK)/ [oszacowanie wariancji dla (W, K oraz WK) + oszacowanie wariancji wewnątrz kratek]

gdzie: W – liczba wierszy; K – liczba kolumn

Dane jakościowe również posiadają własne miary do oceniania wielkości efektu. Popularnie używane miary związku dla testu chi-kwadrat to współczynnik Phi oraz V Cramera. Współczynnik Phi jest związany z punktowo-dwuseryjną korelacją oraz z d Cohena i oszacowuje rozmiar związku pomiędzy dwoma zmiennymi (2×2). Natomiast V Craméra jest rozszerzeniem współczynnika fi i może być użyty ze zmiennymi o większej ilości kategorii.

Współczynniki fi=√χ2/n

V Cramera√χ2/n(df mniejsze)

V Cramera możemy przekształcić na wartość omega-kwadrat. Według Cohena można przyjąć, że omega kwadrat wynosząca 0,1 – oznacza mały efekt; 0,3 – przeciętny efekt a 0,5 – duży efekt.

Wielkość efektu jest ważna również w badaniach korelacyjnych. W przypadku analizy regresji miarami wielkości efektu są: statystyka R2 oraz współczynnik f 2 Cohena. Statystyka R2 mówi o stopniu dopasowania modelu do danych. Pokazuje jaki procent wariancji zmiennej zależnej można wyjaśnić za pomocą predykatorów. Współczynnik f 2 Cohena, wykorzystujący statystykę R2, stosowany jest w modelu regresji wielokrotnej.

 Współczynnik f 2 Cohena=R2/1-R2

W przypadku eksploracyjnej analizy czynnikowej miarą wielkości efektu jest łączny procent wariancji wyjaśnianej przez wyodrębnione czynniki. W przypadku konfirmacyjnej analizy czynnikowej stosujemy test chi-kwadrat (Jest to miara dobroci dopasowania modelu do danych) oraz wskaźniki GFI (wskaźnik dobroci dopasowania) oraz AGFI (skorygowany wskaźnik dobroci dopasowania), które porównują wyjściową oraz odtworzoną macierz kowariancji. Innymi miarami wielkości efektu dla konfirmacyjnej analizy czynnikowej jest pierwiastek ze średniego kwadratu reszt (RMR) oraz pierwiastek ze średniego kwadratu błędu aproksymacji (RMSEA). Pokazuje on średnią z macierzy pozostałości po dopasowaniu modelu (macierz reszt). Jego poprawną interpretację zapewnia odniesienie go do wielkości kowariancji z macierzy korelacji zmiennych obserwowalnych. Wysoka wartość RMR wskazuje na złe dopasowanie modelu. Z kolei pierwiastek ze średniego kwadratu błędu aproksymacji (RMSEA) szacuje wielkość popełnianego błędu aproksymacji w populacji.

Miarą wielkości efektu dla modelu analizy ścieżek Path Analysis jest, analogicznie jak w przypadku analizy regresji, statystyka R2.

W przypadku, gdy jedyną alternatywą jest brak jakiegokolwiek wskaźnika wielkości efektu próba jest mała i inne wskaźniki mogą wprowadzać w błąd, gdy zastosowano metody nieparametryczne dla których brak określonych ściśle wskaźników lub gdy badanie zbliżone jest formą do badania standardowego, stosujemy wskaźnik requivalent.  Jest to wskaźnik wielkości efektu, który można odczytać z tablic bądź obliczyć przy pomocy wzoru:

r=√t2/t2+(N+2)

Źródła:

Brzeziński, J. (2004). Metodologia badań psychologicznych. Warszawa: Wydawnictwo Naukowe PWN

King, B., Minium, E. (2009). Statystyka dla psychologów i pedagogów. Warszawa: Wydawnictwo Naukowe PWN

 Więcej na:

Jakie jest stanowisko asa (Amerykanskie Stowarzyszenie Statystyczne) na temat wartości p (istotnosci statystycznej) w odniesieniu do psychologii/

analiza statystyczna metodolog

Dobór próby badawczej i problemy z tym związane.

meto

 

Dobór próby badawczej.

Zastanówmy się nad problemem doboru próby badawczej. Osoby biorące udział w badaniu możemy dobierać na trzy sposoby. Pierwszym z nich jest dobór celowy (nieprobablistyczny) który polega na tym, że badacz sam włącza określone osoby do próby badanej. Drugim sposobem na skompletowanie próby badawczej jest włączenie w nią ochotników. Trzecim sposobem jest losowy dobór próby. Jest to jedyny sposób umożliwiający uzyskanie próby reprezentatywnej. Jeżeli chcemy, by przeprowadzony przez nas eksperyment cechował się wysoką trafnością zewnętrzną, musimy zadbać o losowość naszej próby badanej.

Pewne sytuacje wymuszają jednak zastosowanie innego doboru próby niż losowy. Dzieje się tak na przykład w przypadku badań klinicznych na populacji osób dotkniętych określoną chorobą, które wymuszają zastosowanie celowego doboru próby. W takim przypadku bardzo ważnym jest, aby z ostrożnością formułować wnioski wykraczające poza naszą grupę badaną, gdyż nie stanowi ona reprezentatywnej próby całej populacji.
Również poleganie na opinii ekspertów (np. na diagnozie psychiatrycznej)niesie ze sobą ryzyko obarczenia błędem, ponieważ żaden ekspert nie jest w stu procentach nieomylny.
Istnieje odmiana doboru celowego zwana doborem kwotowym. Dobór kwotowy, będący obok doboru całkowicie przypadkowego odmianą doboru celowego, jest najczęściej stosowany w badaniach opinii publicznej oraz przez psychometrów standaryzujących i normalizujących  testy psychologiczne.  Aby zastosować próbę kwotową trzeba znać procentowe rozkłady interesujących nas zmiennych w populacji, aby te same rozkłady odtworzyć w próbie. Nie jest to jednak doskonały sposób na otrzymanie reprezentatywnej próby. Uzyskane w ten sposób wyniki obarczone są błędem, którego wielkości nie da się tak precyzyjnie oszacować jak w przypadku doboru losowego.

Dodatkowo, próba złożona z ochotników również nie jest reprezentatywna. Ochotnicy różnią się od reszty populacji tym, że do badania sami się zgłosili. Może to być związane z różnicami w zakresie innych cech, które się przyczyniły do tego, że ochotnicy chcieli wziąć udział w badaniu. Przez to, że różnią się od reszty populacji, uzyskane przez nich wyniki nie mogą być generalizowane na resztę populacji, gdyż są tendencyjne.

Losowy dobór próby umożliwia uzyskanie reprezentacyjnej próby oraz wnioskowanie o populacji oparte na gruncie probabilistycznym (rachunku prawdopodobieństwa).
Przed przystąpieniem do losowania należy określić charakter populacji, z której pobieramy  próbę i na którą będziemy uogólniać uzyskane wyniki. Populacje dzielimy na skończone (np. dzieci, uczniów czy pacjentów, to populacje rzeczywiście istniejące) i nieskończone (hipotetyczne). Wyróżniamy 4 podziały schematów losowań próby:

  1. Losowanie niezależne vs. losowanie zależne.

    Losowanie zależne (bezzwrotne) polega na tym, że wylosowany element populacji nie jest do niej zwracany, przez co nie pojawi się w próbie więcej niż jeden raz. Oznacza to, że po każdym losowaniu liczebność populacji zmniejsza się o 1. Ten wariant losowania stosuje się w przypadku populacji skończonych. Losowanie niezależne (zwrotne) polega na tym, że wylosowany element jest zwracany do populacji. Wynika z tego , że prawdopodobieństwo wylosowania każdego z elementów jest takie samo. Ten wariant losowania jest stosowany w przypadku populacji nieskończonych.

  2. Losowanie indywidualne vs. losowanie grupowe (zespołowe).

Indywidualne losowanie odnosi się do populacji złożonej z pojedynczych, niepogrupowanych elementów np. złożonej z osób. Natomiast losowanie grupowe wymaga pogrupowania jednostek populacji na grupy (np. klasa szkolna). Operatem losowania będzie w takim przypadku wykaz grup, na które podzielona jest populacja.

  1. Losowanie jednostopniowe vs. losowanie wielostopniowe.

Przy losowaniu jednostopniowym zakładamy, że próbę tworzą elementy bezpośrednio z niej wylosowane. Przy wielostopniowym losowaniu zakładamy kilka etapów losowania. Na przykład najpierw losujemy zespoły elementów, a później dla każdego z nich losujemy elementy.

  1. Losowania nieograniczone vs. losowanie ograniczone.

Losowanie nieograniczone odbywa się bezpośrednio z populacji. Losowanie ograniczone polega na tym, że próbę kompletujemy na podstawie odrębnych losowań elementów z poszczególnych części populacji, na które została ona uprzednio podzielona.

Losowanie jednostek z populacji musi być oparte na mechanizmie losowym, który decyduje czy dana jednostka wejdzie w skład próby czy nie. Mechanizm ten powinien być jednoznaczny oraz niezbyt skomplikowany. Takim mechanizmem są tablice liczb losowych zamieszczane w podręcznikach do statystyki oraz w specjalistycznych wydawnictwach. Liczby losowe mogą też być generowane przy użyciu programu komputerowego. Oprócz mechanizmu losowego potrzebujemy także operatu losowania, czyli ponumerowanego spisu wszystkich jednostek wchodzących w skład danej populacji.

Po pobraniu elementów populacji do próby badacz sprawdza, czy kolejność w jakiej poszczególny elementy były pobierane był losowy, tj.   testuje losowość próby.  W tym celu stosuje się test serii Walda-Wolfowitza. Dodatkowo, badacz musi wyznaczyć niezbędną wielkość próby, aby umożliwiała ona uzasadnienie twierdzeń o populacji z określonym prawdopodobieństwem i w ramach określonego przedziału ufności. Wzór na jej obliczenie przyjmuje różną postać w zależności od tego jakim schematem losowania posługuje się badacz i jaki parametr populacji poddawany jest oszacowaniu.

Sposób, w jaki badacz zdecyduje się dobierać próbę jest jedną z najbardziej kluczowych decyzji przy planowaniu i analizy rezultatów badań empirycznych. Od tego, czy dana próba będzie reprezentatywna zależeć będzie trafność zewnętrzna uzyskanych wyników. Rekomendowanym jest zastosowanie doboru losowego, jednak gdy nie jest to możliwe można skorzystać z doboru kwotowego. Należy jednak wówczas pamiętać o ograniczeniach, które są z nim związane.

Źródło:

Brzeziński, J. (2015). Metodologia badań psychologicznych. Warszawa: Wydawnictwo Naukowe PWN.

Autorem tekstu jest Judyta Borchet

11647379_880289168675562_2028751748_n

Potrzebujesz wsparcia lub usług statystyczno-metodologicznych? Napisz do nas lub zadzwoń. Oferujemy niskie ceny przy badaniach korelacyjnych i prostych eksperymentach!

Władzą jest wiedza o źródłach zmienności Metodolog.pl motto

pomoc, usługi i analizy statystyczne metodolog

Wprowadzenie do analizy równań strukturalnych / SEM / Analizy ścieżek / Konfirmacyjnej analizy czynnikowej / CFA

meto

 

Analiza modelowania równań strukturalnych ma na celu analizę kształtu i siły zależności mających charakter funkcji liniowych pomiędzy zmierzonymi zjawiskami. Podstawowym przykładem modelu strukturalnego jest model regresji liniowej, który wyjaśnia wpływ zmiennej niezależnej na ilościową zmienną zależną.

Sytuacją wyjściową by modelować strukturę równań liniowych powinna być teoria dotycząca badanego zjawiska. To właśnie ona wskazuje na zależności / wpływy, które powinny być uwzględnione w estymacji układu modelu. Analiza równań strukturalnych umożliwia szacowanie zależności przyczynowo skutkowych oraz korelacyjnych. Model taki może być prezentowany za pomocą funkcji lub tabeli, choć najfajniejszą i zarazem bardzo elegancką  formą prezentacji jest układ graficzny.

Dzięki wymodelowaniu logiki zależności i wpływów można szacować teoretyczną postać macierzy wariancji-kowariancji zmiennych budujących model. Szacowanie modelu opiera się na porównaniu oszacowanych parametrów macierzy wariancji-kowariancji wynikających z modelu tak aby była ona podobna do skonceptualizowanej teoretycznej macierzy wariancji – kowariancji. Nawet w przypadku kiedy zbuduje się model z najlepszych parametrów, ale nie będą one wpływały na dopasowanie to trzeba odrzucić model lub go przekształcić. Oczywiście trzeba pamiętać, że przekształcanie modelu może doprowadzić bardzo szybko do dopasowania modelu do danych, ale może on wtedy nie pasować do wcześniej ustalonych założeń teoretycznych. W momencie kiedy obie macierze do siebie są dopasowane pod względem kryteriów dopasowania ( RMSEA, GFI, AGFI, Chi Kwadrat, CFI itp) można przyjąć, że model wraz z teorią jest jest znacząco ze sobą powiązany. Wtedy i tylko wtedy można przejść do drugiego kroku analizy jaką jest ocena parametrów opisujących model kierunków i sił zależności/wpływów. W przypadku kiedy model nie jest dopasowany do teorii (danych) metodologia postępowania w zmianie układów równań strukturalnych podrzuca sugestie (analityczne) dotyczące tego jak zmienić model by uzyskać zadowalające dopasowanie. Sugestie te obejmują dodanie i usunięcie parametrów, niekiedy sugerują też zmianę układu zależności/wpływów. Modelowanie strukturalne to narzędzie do analizy zmiennych ciągłych. Często jednak używa się go analizowania zmiennych zakodowanych na porządkowym poziomie pomiaru. Przy takim  zastosowaniu ów skali warto zatroszczyć się o to aby rozpiętość skali była możliwie jak największa. Pomiary w analizie równań strukturalnych można podzielić na da typy: pierwszym typem są zmienne obserwowalne, a drugim zmienne nieobserwowalne. Zmienne obserwowalne sa po prostu zmiennymi w bazie danych. Zmienne nieobserwowalne posiadają składniki losowe, które charakteryzują tę część zmienności modelowanych zjawisk, które nie wyjaśniają zmienne umieszczone w modelu równań strukturalnych. Pozostałe zmienne nieobserwowalne, to pomiary opisujące badane uniwersum zjawisk, które ze względu na swoją naturę wymagają mniej lub bardziej zaawansowanego pomiaru lub obróbki statystycznej. W przypadku nauk o zachowaniu większość pomiarów ma właśnie taką charakterystykę. W tym tekście skupimy się na modelowaniu równań strukturalnych biorąc pod uwagę właśnie zmienne obserwowalne i ewentualnie składniki losowe. Prostym przedstawieniem tej grupy modeli o jakich jest mowa to analiza regresji liniowej. Wzięcie pod uwagę korelacji, co jest możliwe dzięki modelowaniu strukturalnym pozawala przezwyciężyć problem interkorelacji (współliniowości), często spotykanej w tego typu modelach. Chodzi w tym o to, że oszacowania parametrów analizy są zazwyczaj zawyżone ze względu na zbyt mocne powiązanie predyktorów co w konsekwencji zwraca mniejszą istotność oszacowań związków/wpływów zmiennych. W modelach strukturalnych można ponad to analizować nie tylko bezpośrednie, ale także efekty pośrednie (mediacji/supresji) dzięki czemu można szacować modele wielorównaniowe. Modelom strukturalnym ze zmiennymi latentnymi (nieobserwowalnymi) poświęcimy osobny wpis. Niemniej to o czym będzie mowa w dalszych wpisach ma zastosowanie i w analizie równań strukturalnych, i w konfirmacyjnej analizie czynnikowej (Confirmatory Factor Analysis).

W skrócie :

Modelowanie równań strukturalnych posiada potencjał w analizie zjawisk postulowanych przez teorię, czyli powiązania różnych zależności pomiędzy badanymi zjawiskami. Model strukturalny jest skonstruowany z pomiarów ciągłych (skala ilościowa) lub porządkowych (przy zachowaniu założenia o rozpiętości skali) oraz zakłada liniową funkcję zależności pomiędzy zmiennymi. Zmienne te mogą być obserwowane lub latentne (nieobserwowalne), a zależności jakie je łączą mogą mieć charakter przyczynowo-skutkowy lub korelacyjny. Model strukturalny może składać się z bardzo wielu równań, a co za tym idzie wielu zaawansowanych zależności.

Poniższy graf ścieżkowy przedstawia empiryczny model przewidywań teorii HAPA (Schwarzer, 2008) zbudowany dla danych związanych z oszczędzaniem. Teoria ta przewiduje, że na chęć do danego zachwoania wpłwywa świadomość ryzyk związnych z brakiem zachowań pożądanych, poczucie własnej skuteczności w wykonaniu zachowania oraz postrzegane korzyści wynikające z podjętego działania (w przypadku poniższych chodzi o oszczędzanie). Wspomniane 3 czynniki determinują intencję do zachowania się. Niemniej by intencja została przekształcona w działanie musi być spełnionych kilka warunków. Są one reprezentowane przez czynniki kontroli zachowania (monitorowanie zachowania, utrzymanie poczucia skuteczności itd.). Poniższy model przedstawia wyniki oszacowań modelu równań strukturalnych wykonanych metodą SEM-CB. Więcej na temat modelu czytelnik znajdzie tutaj: Hryniewicz, K. (2019) “Motivation and Action Control in a Saving Lifestyle,” WSB Journal of Business and Finance, 53(1). doi: 10.2478/WSBJBF-2019-0014.

Konfirmacyjna analiza czynnikowa i model ścieżkowy

Przykład układu równań.

Analizę modelu równań strukturalnych najlepiej jest opisać w postaci graficznej, rysując wykres ścieżkowy. Jego różne składowe najlepiej odzwierciedlają elementy układu zmiennych. Zmienne obserwowalne są zazwyczaj przedstawiane jako kwadraty lub prostokąty, nieobserwowalne zmienne są przedstawiane jako kółka (jest to ekspresja zmiennej latentnej, które ma odzwierciedlenie we wskaźnikach obserwowalnych). Relację przyczynową skutkową symbolizuje strzałka, kierunek tej zależności jest oznaczony grotem. Element mający dwa groty strzałki, przedstawia kowarancję (czyli niestandaryzowaną korelację). Wskazuje on zależność pomiędzy zmiennymi (lub obiektami modelu strukturalnego). Każdy element oraz każda strzałka odpowiada jednemu współczynnikowi strukturalnemu. Parametry te opisują moc i kierunek korelacji lub relację przyczynowo-skutkową. Współczynnikami przyczynowo skutkowymi są standaryzowane lub niestandaryzowane współczynniki regresji. Współczynnikami relacji są kowariancje (niestandaryzowana korelacja) lub korelacje (standaryzowana kowariancja).

Niestandaryzowane współczynniki analizy ścieżek informują o tym, o ile jednostek (wyrażonych w danej jednostce pomiaru) zmieni się zmienna zależna, kiedy wyniki pomiaru zmiennej niezależnej wzrosną lub opadną.

Współczynniki standaryzowane w równaniach strukturalnych informują o ile zmieni się wynik zmiennej zależnej (wyrażonej w odchyleniach standardowych) w momencie kiedy wynik zmiennej niezależnej zmniejszy się lub zwiększy o jedno odchylenie standardowe.

Wariancja składnika losowego to zmienność która nie została wyjaśniona przez model.

Współczynnik korelacji R2 (lub inaczej współczynnik determinacji) informuje badacza o tym ile zmienności zmiennej zależnej jest wyjaśniane przez zmienne kontrolowane w układzie równań strukturalnych.