Analiza supresji (Analiza Mediacji)

meto1

 

Analiza supresji

Efekt supresji to przykład efektu pośredniego, czyli wpływającego na zmianę relacji między predykatorem a zmienną objaśnianą po wprowadzeniu tzw. trzeciej zmiennej. Do efektów pośrednich należą: efekty mediacyjne, efekty supresyjne i efekty zakłócające. Efekty te są równoważne.

Trzecią zmienną uwzględniamy najczęściej wtedy, gdy próbujemy wyjaśnić mechanizm leżący u podłoża relacji między dwiema zmiennymi. W takim przypadku trzecia zmienna pełni rolę mediatora. Model taki ma zastosowanie również w przypadku, gdy chcemy zaprezentować działanie zmiennych zakłócających wpływ zmiennej niezależnej na zmienną zależną. Kontrola zmiennej zakłócającej umożliwia wówczas określenie niezależnego wpływu pozostałych zmiennych na zmienną objaśnianą. To, czy zmienna trzecia jest traktowana jako mediator czy jako zmienna zakłócająca zależy od rodzaju wcześniej wysnutych hipotez i teorii w obrębie których interpretujemy uzyskane wyniki.

Gdy zakładamy, że kontrolowanie zmiennej trzeciej osłabi związek między predykatorem a zmienną zależną, to mówimy o efekcie mediacji lub efekcie zakłócenia. Gdy pojawia się efekt odwrotny, tzn. związek między tymi zmiennymi się zwiększa, mówimy o efekcie supresji.

Supresja zachodzi wówczas, gdy zmienna pośrednicząca podwyższa własności predykcyjne zmiennej niezależnej na zmienną zależną. Dzięki temu można na przykład ująć w ramy statystyczne teorie pojawiające się w psychologii społecznej teorie procesów przeciwstawnych, czyli takie które zakładają że pojawienie się jednego procesu psychologicznego uruchamia proces o działaniu przeciwstawnym, tłumiącym pierwotny proces (np. teorie dotyczące motywacji).

Określenie supresja dotyczy wzajemnego tłumienia się efektów predyktorów, przez co włączenie w analizę tylko jednego z nich może nie wykazać istniejącego związku ze zmienną zależną. Tylko analizowanie obu predyktorów jednocześnie umożliwia ujawnienie ich związków ze zmienną zależną (stąd efekt supresji nazywa się też efektem uwydatnienia). Wystąpienie efektu supresji oznacza, że wśród osób badanych dwa związane ze sobą predykatory wywierają rożny wpływ na zmienną zależną. Nie znaczy to jednak, że wzajemny wpływ obu predyktorów jest od siebie zależny, jak dzieje się to w przypadku efektu moderacji.  Predyktory mogą jednak działać na siebie wzajemnie jako supresory i wtedy mówimy o zmiennych supresyjnych.

Wyróżniamy trzy rodzaje supresji:

  • Tradycyjną/ klasyczną, która występuje gdy efekt całkowity predykatora na zmienną objaśnianą jest zerowy bądź nieistotny statystycznie, jednak po włączaniu trzeciej zmiennej do równania regresji go uwydatnia tak bardzo, że staje się istotny statystycznie
  • Sieciową/ negatywną, która występuje w sytuacji gdy włączenie do równania zmiennej trzeciej odwraca znak relacji między predykatorem a zmienną zależną.
  • Kooperatywną, która ma miejsce wtedy, gdy wstępnie istotna relacja między predykatorem a zmienną zależną wzrasta przy kontrolowaniu zmiennej trzeciej.

Do obliczenia istotności efektu supresji używamy tych samych testów statystycznych, co w przypadku analizy mediacji czy zakłócania (np. test Sobela, metoda bootsrappingu).

W ostatnich latach (np. Locke, 2009; Paulhus i in., 2004; Zagefka, Pehrson, Mole i Chan, 2010 za: Cichocka, Bilewicz, 2010) pojawiają się artykuły przedstawiające badania wykorzystujące efekt supresji, które sugerują że ta metoda może być użyteczna w zwiększaniu trafności przewidywań budowanych modeli, a także w wyjaśnianiu na pierwszy rzut oka niewidocznych efektów statystycznych. Analiza supresji jest wykorzystywana jako narzędzie analizy danych oraz metoda weryfikacji teorii. Analiza supresji pozwala odszukać złożone zależności przyczynowe tam, gdzie pozornie ich brak.

Autorem Tekstu Jest Judyta Borchet

11647379_880289168675562_2028751748_n

Źródło:

Cichocka, A., Bilewicz, M. (2010). Co się kryje w nieistotnych efektach statystycznych? Możliwości zastosowania analizy supresji w naukach społecznych. Psychologia Społeczna, 5, 191-198.

pomoc, usługi i analizy statystyczne metodolog

Wprowadzenie do analizy równań strukturalnych / SEM / Analizy ścieżek / Konfirmacyjnej analizy czynnikowej / CFA

meto

 

Analiza modelowania równań strukturalnych ma na celu analizę kształtu i siły zależności mających charakter funkcji liniowych pomiędzy zmierzonymi zjawiskami. Podstawowym przykładem modelu strukturalnego jest model regresji liniowej, który wyjaśnia wpływ zmiennej niezależnej na ilościową zmienną zależną.

Sytuacją wyjściową by modelować strukturę równań liniowych powinna być teoria dotycząca badanego zjawiska. To właśnie ona wskazuje na zależności / wpływy, które powinny być uwzględnione w estymacji układu modelu. Analiza równań strukturalnych umożliwia szacowanie zależności przyczynowo skutkowych oraz korelacyjnych. Model taki może być prezentowany za pomocą funkcji lub tabeli, choć najfajniejszą i zarazem bardzo elegancką  formą prezentacji jest układ graficzny.

Dzięki wymodelowaniu logiki zależności i wpływów można szacować teoretyczną postać macierzy wariancji-kowariancji zmiennych budujących model. Szacowanie modelu opiera się na porównaniu oszacowanych parametrów macierzy wariancji-kowariancji wynikających z modelu tak aby była ona podobna do skonceptualizowanej teoretycznej macierzy wariancji – kowariancji. Nawet w przypadku kiedy zbuduje się model z najlepszych parametrów, ale nie będą one wpływały na dopasowanie to trzeba odrzucić model lub go przekształcić. Oczywiście trzeba pamiętać, że przekształcanie modelu może doprowadzić bardzo szybko do dopasowania modelu do danych, ale może on wtedy nie pasować do wcześniej ustalonych założeń teoretycznych. W momencie kiedy obie macierze do siebie są dopasowane pod względem kryteriów dopasowania ( RMSEA, GFI, AGFI, Chi Kwadrat, CFI itp) można przyjąć, że model wraz z teorią jest jest znacząco ze sobą powiązany. Wtedy i tylko wtedy można przejść do drugiego kroku analizy jaką jest ocena parametrów opisujących model kierunków i sił zależności/wpływów. W przypadku kiedy model nie jest dopasowany do teorii (danych) metodologia postępowania w zmianie układów równań strukturalnych podrzuca sugestie (analityczne) dotyczące tego jak zmienić model by uzyskać zadowalające dopasowanie. Sugestie te obejmują dodanie i usunięcie parametrów, niekiedy sugerują też zmianę układu zależności/wpływów. Modelowanie strukturalne to narzędzie do analizy zmiennych ciągłych. Często jednak używa się go analizowania zmiennych zakodowanych na porządkowym poziomie pomiaru. Przy takim  zastosowaniu ów skali warto zatroszczyć się o to aby rozpiętość skali była możliwie jak największa. Pomiary w analizie równań strukturalnych można podzielić na da typy: pierwszym typem są zmienne obserwowalne, a drugim zmienne nieobserwowalne. Zmienne obserwowalne sa po prostu zmiennymi w bazie danych. Zmienne nieobserwowalne posiadają składniki losowe, które charakteryzują tę część zmienności modelowanych zjawisk, które nie wyjaśniają zmienne umieszczone w modelu równań strukturalnych. Pozostałe zmienne nieobserwowalne, to pomiary opisujące badane uniwersum zjawisk, które ze względu na swoją naturę wymagają mniej lub bardziej zaawansowanego pomiaru lub obróbki statystycznej. W przypadku nauk o zachowaniu większość pomiarów ma właśnie taką charakterystykę. W tym tekście skupimy się na modelowaniu równań strukturalnych biorąc pod uwagę właśnie zmienne obserwowalne i ewentualnie składniki losowe. Prostym przedstawieniem tej grupy modeli o jakich jest mowa to analiza regresji liniowej. Wzięcie pod uwagę korelacji, co jest możliwe dzięki modelowaniu strukturalnym pozawala przezwyciężyć problem interkorelacji (współliniowości), często spotykanej w tego typu modelach. Chodzi w tym o to, że oszacowania parametrów analizy są zazwyczaj zawyżone ze względu na zbyt mocne powiązanie predyktorów co w konsekwencji zwraca mniejszą istotność oszacowań związków/wpływów zmiennych. W modelach strukturalnych można ponad to analizować nie tylko bezpośrednie, ale także efekty pośrednie (mediacji/supresji) dzięki czemu można szacować modele wielorównaniowe. Modelom strukturalnym ze zmiennymi latentnymi (nieobserwowalnymi) poświęcimy osobny wpis. Niemniej to o czym będzie mowa w dalszych wpisach ma zastosowanie i w analizie równań strukturalnych, i w konfirmacyjnej analizie czynnikowej (Confirmatory Factor Analysis).

W skrócie :

Modelowanie równań strukturalnych posiada potencjał w analizie zjawisk postulowanych przez teorię, czyli powiązania różnych zależności pomiędzy badanymi zjawiskami. Model strukturalny jest skonstruowany z pomiarów ciągłych (skala ilościowa) lub porządkowych (przy zachowaniu założenia o rozpiętości skali) oraz zakłada liniową funkcję zależności pomiędzy zmiennymi. Zmienne te mogą być obserwowane lub latentne (nieobserwowalne), a zależności jakie je łączą mogą mieć charakter przyczynowo-skutkowy lub korelacyjny. Model strukturalny może składać się z bardzo wielu równań, a co za tym idzie wielu zaawansowanych zależności.

Poniższy graf ścieżkowy przedstawia empiryczny model przewidywań teorii HAPA (Schwarzer, 2008) zbudowany dla danych związanych z oszczędzaniem. Teoria ta przewiduje, że na chęć do danego zachwoania wpłwywa świadomość ryzyk związnych z brakiem zachowań pożądanych, poczucie własnej skuteczności w wykonaniu zachowania oraz postrzegane korzyści wynikające z podjętego działania (w przypadku poniższych chodzi o oszczędzanie). Wspomniane 3 czynniki determinują intencję do zachowania się. Niemniej by intencja została przekształcona w działanie musi być spełnionych kilka warunków. Są one reprezentowane przez czynniki kontroli zachowania (monitorowanie zachowania, utrzymanie poczucia skuteczności itd.). Poniższy model przedstawia wyniki oszacowań modelu równań strukturalnych wykonanych metodą SEM-CB. Więcej na temat modelu czytelnik znajdzie tutaj: Hryniewicz, K. (2019) “Motivation and Action Control in a Saving Lifestyle,” WSB Journal of Business and Finance, 53(1). doi: 10.2478/WSBJBF-2019-0014.

Konfirmacyjna analiza czynnikowa i model ścieżkowy

Przykład układu równań.

Analizę modelu równań strukturalnych najlepiej jest opisać w postaci graficznej, rysując wykres ścieżkowy. Jego różne składowe najlepiej odzwierciedlają elementy układu zmiennych. Zmienne obserwowalne są zazwyczaj przedstawiane jako kwadraty lub prostokąty, nieobserwowalne zmienne są przedstawiane jako kółka (jest to ekspresja zmiennej latentnej, które ma odzwierciedlenie we wskaźnikach obserwowalnych). Relację przyczynową skutkową symbolizuje strzałka, kierunek tej zależności jest oznaczony grotem. Element mający dwa groty strzałki, przedstawia kowarancję (czyli niestandaryzowaną korelację). Wskazuje on zależność pomiędzy zmiennymi (lub obiektami modelu strukturalnego). Każdy element oraz każda strzałka odpowiada jednemu współczynnikowi strukturalnemu. Parametry te opisują moc i kierunek korelacji lub relację przyczynowo-skutkową. Współczynnikami przyczynowo skutkowymi są standaryzowane lub niestandaryzowane współczynniki regresji. Współczynnikami relacji są kowariancje (niestandaryzowana korelacja) lub korelacje (standaryzowana kowariancja).

Niestandaryzowane współczynniki analizy ścieżek informują o tym, o ile jednostek (wyrażonych w danej jednostce pomiaru) zmieni się zmienna zależna, kiedy wyniki pomiaru zmiennej niezależnej wzrosną lub opadną.

Współczynniki standaryzowane w równaniach strukturalnych informują o ile zmieni się wynik zmiennej zależnej (wyrażonej w odchyleniach standardowych) w momencie kiedy wynik zmiennej niezależnej zmniejszy się lub zwiększy o jedno odchylenie standardowe.

Wariancja składnika losowego to zmienność która nie została wyjaśniona przez model.

Współczynnik korelacji R2 (lub inaczej współczynnik determinacji) informuje badacza o tym ile zmienności zmiennej zależnej jest wyjaśniane przez zmienne kontrolowane w układzie równań strukturalnych.