pomoc, usługi i analizy statystyczne metodolog

Wprowadzenie do analizy równań strukturalnych / SEM / Analizy ścieżek / Konfirmacyjnej analizy czynnikowej / CFA

meto

 

Analiza modelowania równań strukturalnych ma na celu analizę kształtu i siły zależności mających charakter funkcji liniowych pomiędzy zmierzonymi zjawiskami. Podstawowym przykładem modelu strukturalnego jest model regresji liniowej, który wyjaśnia wpływ zmiennej niezależnej na ilościową zmienną zależną.

Sytuacją wyjściową by modelować strukturę równań liniowych powinna być teoria dotycząca badanego zjawiska. To właśnie ona wskazuje na zależności / wpływy, które powinny być uwzględnione w estymacji układu modelu. Analiza równań strukturalnych umożliwia szacowanie zależności przyczynowo skutkowych oraz korelacyjnych. Model taki może być prezentowany za pomocą funkcji lub tabeli, choć najfajniejszą i zarazem bardzo elegancką  formą prezentacji jest układ graficzny.

Dzięki wymodelowaniu logiki zależności i wpływów można szacować teoretyczną postać macierzy wariancji-kowariancji zmiennych budujących model. Szacowanie modelu opiera się na porównaniu oszacowanych parametrów macierzy wariancji-kowariancji wynikających z modelu tak aby była ona podobna do skonceptualizowanej teoretycznej macierzy wariancji – kowariancji. Nawet w przypadku kiedy zbuduje się model z najlepszych parametrów, ale nie będą one wpływały na dopasowanie to trzeba odrzucić model lub go przekształcić. Oczywiście trzeba pamiętać, że przekształcanie modelu może doprowadzić bardzo szybko do dopasowania modelu do danych, ale może on wtedy nie pasować do wcześniej ustalonych założeń teoretycznych. W momencie kiedy obie macierze do siebie są dopasowane pod względem kryteriów dopasowania ( RMSEA, GFI, AGFI, Chi Kwadrat, CFI itp) można przyjąć, że model wraz z teorią jest jest znacząco ze sobą powiązany. Wtedy i tylko wtedy można przejść do drugiego kroku analizy jaką jest ocena parametrów opisujących model kierunków i sił zależności/wpływów. W przypadku kiedy model nie jest dopasowany do teorii (danych) metodologia postępowania w zmianie układów równań strukturalnych podrzuca sugestie (analityczne) dotyczące tego jak zmienić model by uzyskać zadowalające dopasowanie. Sugestie te obejmują dodanie i usunięcie parametrów, niekiedy sugerują też zmianę układu zależności/wpływów. Modelowanie strukturalne to narzędzie do analizy zmiennych ciągłych. Często jednak używa się go analizowania zmiennych zakodowanych na porządkowym poziomie pomiaru. Przy takim  zastosowaniu ów skali warto zatroszczyć się o to aby rozpiętość skali była możliwie jak największa. Pomiary w analizie równań strukturalnych można podzielić na da typy: pierwszym typem są zmienne obserwowalne, a drugim zmienne nieobserwowalne. Zmienne obserwowalne sa po prostu zmiennymi w bazie danych. Zmienne nieobserwowalne posiadają składniki losowe, które charakteryzują tę część zmienności modelowanych zjawisk, które nie wyjaśniają zmienne umieszczone w modelu równań strukturalnych. Pozostałe zmienne nieobserwowalne, to pomiary opisujące badane uniwersum zjawisk, które ze względu na swoją naturę wymagają mniej lub bardziej zaawansowanego pomiaru lub obróbki statystycznej. W przypadku nauk o zachowaniu większość pomiarów ma właśnie taką charakterystykę. W tym tekście skupimy się na modelowaniu równań strukturalnych biorąc pod uwagę właśnie zmienne obserwowalne i ewentualnie składniki losowe. Prostym przedstawieniem tej grupy modeli o jakich jest mowa to analiza regresji liniowej. Wzięcie pod uwagę korelacji, co jest możliwe dzięki modelowaniu strukturalnym pozawala przezwyciężyć problem interkorelacji (współliniowości), często spotykanej w tego typu modelach. Chodzi w tym o to, że oszacowania parametrów analizy są zazwyczaj zawyżone ze względu na zbyt mocne powiązanie predyktorów co w konsekwencji zwraca mniejszą istotność oszacowań związków/wpływów zmiennych. W modelach strukturalnych można ponad to analizować nie tylko bezpośrednie, ale także efekty pośrednie (mediacji/supresji) dzięki czemu można szacować modele wielorównaniowe. Modelom strukturalnym ze zmiennymi latentnymi (nieobserwowalnymi) poświęcimy osobny wpis. Niemniej to o czym będzie mowa w dalszych wpisach ma zastosowanie i w analizie równań strukturalnych, i w konfirmacyjnej analizie czynnikowej (Confirmatory Factor Analysis).

W skrócie :

Modelowanie równań strukturalnych posiada potencjał w analizie zjawisk postulowanych przez teorię, czyli powiązania różnych zależności pomiędzy badanymi zjawiskami. Model strukturalny jest skonstruowany z pomiarów ciągłych (skala ilościowa) lub porządkowych (przy zachowaniu założenia o rozpiętości skali) oraz zakłada liniową funkcję zależności pomiędzy zmiennymi. Zmienne te mogą być obserwowane lub latentne (nieobserwowalne), a zależności jakie je łączą mogą mieć charakter przyczynowo-skutkowy lub korelacyjny. Model strukturalny może składać się z bardzo wielu równań, a co za tym idzie wielu zaawansowanych zależności.

Poniższy graf ścieżkowy przedstawia empiryczny model przewidywań teorii HAPA (Schwarzer, 2008) zbudowany dla danych związanych z oszczędzaniem. Teoria ta przewiduje, że na chęć do danego zachwoania wpłwywa świadomość ryzyk związnych z brakiem zachowań pożądanych, poczucie własnej skuteczności w wykonaniu zachowania oraz postrzegane korzyści wynikające z podjętego działania (w przypadku poniższych chodzi o oszczędzanie). Wspomniane 3 czynniki determinują intencję do zachowania się. Niemniej by intencja została przekształcona w działanie musi być spełnionych kilka warunków. Są one reprezentowane przez czynniki kontroli zachowania (monitorowanie zachowania, utrzymanie poczucia skuteczności itd.). Poniższy model przedstawia wyniki oszacowań modelu równań strukturalnych wykonanych metodą SEM-CB. Więcej na temat modelu czytelnik znajdzie tutaj: Hryniewicz, K. (2019) “Motivation and Action Control in a Saving Lifestyle,” WSB Journal of Business and Finance, 53(1). doi: 10.2478/WSBJBF-2019-0014.

Konfirmacyjna analiza czynnikowa i model ścieżkowy

Przykład układu równań.

Analizę modelu równań strukturalnych najlepiej jest opisać w postaci graficznej, rysując wykres ścieżkowy. Jego różne składowe najlepiej odzwierciedlają elementy układu zmiennych. Zmienne obserwowalne są zazwyczaj przedstawiane jako kwadraty lub prostokąty, nieobserwowalne zmienne są przedstawiane jako kółka (jest to ekspresja zmiennej latentnej, które ma odzwierciedlenie we wskaźnikach obserwowalnych). Relację przyczynową skutkową symbolizuje strzałka, kierunek tej zależności jest oznaczony grotem. Element mający dwa groty strzałki, przedstawia kowarancję (czyli niestandaryzowaną korelację). Wskazuje on zależność pomiędzy zmiennymi (lub obiektami modelu strukturalnego). Każdy element oraz każda strzałka odpowiada jednemu współczynnikowi strukturalnemu. Parametry te opisują moc i kierunek korelacji lub relację przyczynowo-skutkową. Współczynnikami przyczynowo skutkowymi są standaryzowane lub niestandaryzowane współczynniki regresji. Współczynnikami relacji są kowariancje (niestandaryzowana korelacja) lub korelacje (standaryzowana kowariancja).

Niestandaryzowane współczynniki analizy ścieżek informują o tym, o ile jednostek (wyrażonych w danej jednostce pomiaru) zmieni się zmienna zależna, kiedy wyniki pomiaru zmiennej niezależnej wzrosną lub opadną.

Współczynniki standaryzowane w równaniach strukturalnych informują o ile zmieni się wynik zmiennej zależnej (wyrażonej w odchyleniach standardowych) w momencie kiedy wynik zmiennej niezależnej zmniejszy się lub zwiększy o jedno odchylenie standardowe.

Wariancja składnika losowego to zmienność która nie została wyjaśniona przez model.

Współczynnik korelacji R2 (lub inaczej współczynnik determinacji) informuje badacza o tym ile zmienności zmiennej zależnej jest wyjaśniane przez zmienne kontrolowane w układzie równań strukturalnych.

Pomiary w badaniach psychologicznych.

meto

 

„Not everything that counts can be counted, and not everything that can be counted counts.”

Albert Einstein

Postaramy się dzisiaj opowiedzieć trochę co nieco o pomiarach badawczych.

Odnosząc się do powyższego cytatu to właśnie zmienne teoretyczne się liczą, lecz nie mogą być policzone. Natomiast wiele „zanieczyszczonych” zmiennych może być policzone, lecz mają one zerowe znaczenie, bądź nawet wprowadzają szum do badania. Ale zacznijmy od początku.

Do wyboru mamy szeroki wachlarz metod pomiarowych: miary obserwacyjne (gdy rejestrujemy zachowania osób badanych), miary samoopisowe, czyli ankiety i kwestionariusze, jak również miary wykonaniowe, a nawet dane archiwalne. Od tego czy prawidłowo dobierzemy narzędzia zależy dalsze powodzenie badania. Możemy to porównać do soczewek. Na przykład: gdy dalekowidz będzie chciał przeczytać książkę to dużo bardziej przydadzą mu się okulary z soczewkami na plusie, niż te na minusie. Tak samo jest w przypadku pomiaru. Odpowiednio dobrane narzędzia są podstawą do uchwycenia istoty badania, a od ich precyzji zależy to, czy uda się wykryć różnice.

Na początku musimy zaprojektować sposób pomiaru zmiennej teoretycznej, ustalić co będzie wskaźnikiem zmiennej (operacjonalizacja).

Istnieje szereg sposobów, na jakie można mierzyć zmienną teoretyczną, uzyskując wiele jej wskaźników. To wiąże się z tym, że uzyskane wyniki nie zawsze będą adekwatne do badania. Należy pamiętać, że wszystkie wskaźniki są w pewnym stopniu „zanieczyszczone” wpływem innych zmiennych i nie jesteśmy w stanie tego zanieczyszczenia w stu procentach wyeliminować. Dobrym wyjściem w tej sytuacji jest użycie miar złożonych, a nie posługiwanie się pojedynczym wskaźnikiem interesującej nas zmiennej.

Gdy za pomocą odpowiednio dobranych narzędzi dokonamy już pomiaru, zebrane wyniki należałoby jakoś zakodować.

Tutaj z pomocą przychodzą nam skale pomiarowe. W zależności od charakteru zmiennych, możemy je mierzyć na skalach jakościowych i ilościowych. Gdy dokonujemy pomiaru takiej zmiennej jak np. kolor włosów, używamy najniższej skali jakościowej – skali nominalnej. Przy jej pomocy nie porządkujemy danych według jakiejś hierarchii, lecz tylko je klasyfikujemy. Pozwala nam ona na odróżnienie jednego obiektu od drugiego. Kiedy mamy do czynienia ze zmiennymi, które tworzą jakąś hierarchię, możemy posłużyć się wyższą skalą jakościową – skalą  porządkową. Dzięki zastosowaniu jej, otrzymujemy informacje o porządku poszczególnych wartości. Istotą tej skali jest to, że nie dysponujemy żadnymi jednostkami miary, więc nie pozwala nam ona oszacować o ile wynik X różni się od wyniku Y, natomiast możemy oszacować ich relację większy/mniejszy.

Jeżeli odległość między poszczególnymi wartościami na skali jest taka sama, to jest to jednoznaczne z występowaniem jednostek, a co za tym idzie używamy skali ilościowych.

Przy ich pomocy możemy nie tylko ustalić porządek danych, ale również dystans między nimi. Kryterium odróżniającym skale w ramach skali ilościowych, jest występowanie zera bezwzględnego. I tak, na skali przedziałowej mogą pojawiać się wartości ujemne, ponieważ punkt odniesienia skali nie jest bezwzględny (temperatura w stopniach Celsjusza). Na skali ilorazowej, wartości ujemne nie występują ponieważ charakter mierzonych danych na to nie pozwala, istnieje zero bezwzględne (np. liczba dzieci, wiek). Ta skala umożliwia nam nie tylko ustalenie relacji, odległości między danymi ale też stosunek ile razy wynik X jest większy od wyniku Y. Przy dokonywaniu pomiarów należy mierzyć zmienne tak, by uzyskać jak najwyższą skalę, gdyż im wyższa skala tym większą mamy zapewniona dokładność, a więc tym większe szanse na uchwycenie subtelnych nawet różnic między analizowanymi grupami. W przypadku, gdy zebrane informacje będą zbyt szczegółowe na nasze potrzeby, zawsze możemy je uogólnić schodząc do niższej skali. Jednak kiedy okaże się, że mamy za mało szczegółów nie będzie możliwości podwyższenia skali.

Podczas zbierania danych, musimy pamiętać, że dla wszystkich badanych sytuacja badawcza powinna być identyczna, a przynajmniej jak najbardziej zbliżona.

Uzyskać to możemy między innymi poprzez spisanie instrukcji do badania i odczytywanie jej za każdym razem, by każdy biorący udział usłyszał to samo polecenie. Jeżeli badanie przeprowadza więcej eksperymentatorów, warto kontrolować, która osoba była badana, przez którego badacza, aby mieć możliwość oszacowania w późniejszych analizach wpływu tej zmiennej na wyniki. Dobór do badania może się odbyć na kilka sposobów. Możemy bazować na ochotnikach, co wiąże się z wygodą, ale ma poważne wady metodologiczne. W badaniach psychometrycznych często stosuje się próbę kwotową, czyli taki dobór grupy badawczej, by zachowana została struktura z populacji. Najlepsza z punktu widzenia wnioskowania o zbiorowości generalnej, ale zarazem najtrudniejsza do uzyskania jest próba losowa. Aby ją uzyskać stosuje się różnorodne sposoby losowania. Odnośnie grupy kontrolnej spełniony być musi kanon jednej różnicy. Tylko wtedy wnioskowanie będzie sensowne.

Autorem tekstu jest Martyna Kuligowska.

kpt kuligov 3

Analiza statystyczna w psychometrii

Psychometria

meto

 

W sprawach psychometrii i teorii testów preferujemy kontakt telefoniczny.

Każda dziedzina nauki dała ludzkości coś wielkiego. Dawała i wciąż daje, choć aktualnie przyjmuje to trochę inny charakter, a mianowicie główne dziedziny rozpraszają się w coraz to nowsze i węższe specjalizacje. Te wielkie rzeczy łączyło to, że dbały o największe dobro- poprawiając bezpieczeństwo albo jakość życia. Podarowane zostało ludziom również wiele praktycznych wynalazków, które zaczęły być przez nich wykorzystywane na wielką skalę. Przykłady można mnożyć, są nimi między innymi:

– biologia – DNA (Watson i Cric 1853)

– medycyna – Antybiotyki i Szczepionki + drastyczne wydłużenie życia (Alexander Flemming 1928)

– inżynieria – Samolot (Bracia Wright 1903)

– fizyka – Energia Atomowa

– chemia – Nawozy Sztuczne (Carl Bosh i Fritz Haber 1927)

– biotechnologia – Inżynieria genetyczna i zapłodnienie in vitro

– socjologia – metody zwiększające zatrudnienie socjologów na rynku pracy

– projektowanie – Ferrari, Lamborgini, Audi

– marketing – Iphone

Ważne miejsce w tym rankingu zajmuje również psychologia – Testy psychologiczne i przewidywanie zachowania ludzi, jest to największe dobro stworzone przez psychologów.

Wprowadzenie.

Testy psychologiczne należą do najczęściej stosowanych przez psychologów narzędzi pomiarowych. Budzą też – także wśród samych psychologów – skrajne opinie. Złą sławą cieszą się, przede wszystkim, testy inteligencji. Ich konstruktorzy i użytkownicy są krytykowani ( głównie przez osoby nie do końca  obeznane z metodą psychometryczną ). Tak jak wszystko co nas otacza, tak i testy psychologiczne mają zarówno swoich zagorzałych zwolenników jak i przeciwników. Uważa się dziś, że po latach rozwoju technologii testów psychologicznych nie ma podstaw do odrzucenia tych specyficznych narzędzi pomiarowych. Trzeba natomiast eliminować z obiegu złe testy, czy wytwory działalności pseudopscyhometrów, którzy bez opamiętania produkują różne „potworki” lub „hybrydy”, udające prawdziwe testy psychologiczne. Często biorąc za nie duże pieniądze. Interpretacji testów, w sytuacji diagnostycznej, powinien dokonywać psycholog. Wykwalifikowany psycholog interpretuje wynik testowy, który jest wkomponowany w określoną teorię psychologiczną, która legła u podstaw konstrukcji testu oraz, która zakreśla ramy interpretacyjne wyniku. Niemniej jednak w skali przemysłowej do sytuacji diagnostycznej wcale nie musi dochodzić. Naszym celem jest niekiedy ilościowa klasyfikacja osób.

Po co wykonuje sie test ?

Testy są instrumentami służącymi do zbierania informacji, o człowieku, niezbędnych do pomiaru psychologicznego.

Diagnoza jest procesem zbierania danych, niezbędnych do podjęcia działań, których celem jest zmiana aktualnego działania ludzi (terapia, porada, interwencja, decyzja administracyjna)

Co test mierzy ?

Testy są metodami zbierającymi dane o różnicach w zachowaniu ludzi oraz stałość czasową i międzysytuacjyną zachowań pojedynczych osób.

Czym jest test ?

Zbiór zadań lub pytań – w standardowych warunkach (identycznych dla każdego testowanego) wywołujących określone rodzaje zachowań, które można zebrać w postaci wskaźnika liczbowego. Pomiar ten musi charakteryzować się pożądanymi wartościami psychometrycznymi, takimi jak wysoka rzetelność i wysoka trafność.

Elementarne składniki testu:

– pozycje testowe

– procedura przeprowadzania testu

– skala – pozwalająca ocenić wywołane reakcje, które są pochodnymi cechy, na skali ilościowej lub jakościowej

– reguły dochodzenia do wyniku testu oraz ocena wiarygodności tego wyniku – nasilenie danej cechy u danego człowieka oraz dobroć pomiaru testem.

Cechy testu

Rzetelność – na potrzeby testu opracowano materiały testowe i procedury badania, które maksymalizują dokładność pomiaru cechy badanej przez test.

Trafność – na potrzeby testu opracowano materiały testowe i procedury, które maksymalizują stopień w jakim test mierzy docelową cechę.

Zalety i wady testów:

Testy „reprezentują najbardziej wartościową i sprawiedliwą technologię, umożliwiającą podejmowanie wielu ważnych decyzji o ludziach”, ale jednocześnie „testowanie psychologiczne jest bardzo kontrowersyjne” (Murphy i Davidshofer, 1989, s. 2).

Testy– potrzeby rynku, oczekiwania klientów

Wg Sternberga (1992) i Morelanda (1995) oraz Standardów APA (1985), współczesny klient – przekonany o społecznej zasadności testowania – chciałby, aby testy psychologiczne gwarantowały:

– przewidywanie

– małą zmienność wyników,

– normalizację

– standaryzację

– prostotę stosowalności

– łatwość dochodzenia do wyniku

– obiektywną punktację,

  spektrum stosowalności,

– ochronę wyników,

– wyniki testów psychologicznych muszą się dawać obronić, gdyby decyzje podjęte na ich podstawie trafiły do sądów.

Pojęcie cechy

Cecha – zmienna osobowa, która wykazuje międzyosobniczą zmienność i wewnątrzosobniczą stałość (czasową i sytuacyjną).

Założenie o normalności rozkładu cech.

Zakłada się, że cechy psychologiczne mają rozkład normalny w populacji (tak jak wzrost, długość ręki, tętno, rozmiar stopy, niedopieszczane wyniki matur).  Na tej podstawie wyciąga się wnioski, o tym, że krzywa normalna jest modelowym rozkładem wyników testu.

Żeby skonstruować psychometryczną linijkę trzeba użyć do tego pozycji testowych, które są wyraźnie nacechowane i w jednakowym stopniu powiązane z mierzoną cechą.

Dąży się do tego, aby pozycje diagnostyczne jak najbardziej różnicowały badanych pod względem reagowania , opisu zachowania lub przekonań.

Do budowy miary wykorzystuje się zmienność międzyosobniczą i stałość wewnątrz-osobniczą.

Każde oprzyrządowanie pomiarowe ma swój błąd. W przypadku testowania psychologicznego odpowiedź na daną pozycję może być odgadnięta lub przypadkowa. Dlatego wykorzystuje się do pomiaru od kilku do kilkunastu, zazwyczaj, pozycji testowych.

Współwystępowanie zachowań.

Cecha jest ukrytą i stałą własnością funkcjonowania człowieka, której ekspresją obserwowaną jest zachowanie. Na podstawie znajomości  cech można przewidywać potencjalne zachowania, które wychodzą poza pole zachowań mierzonych przez test.

Cechą definiuje się właściwości determinujące współwystępowanie pewnej puli zachowań.  np. ekstrawersja łączy w sobie towarzyskość, emocjonalność, ilość znajomych, pobudzenie, reagowanie na nagrodę/karę, uczenie się, spędzanie wolnego czasu, zadowolenie z życia itd.

Pojedyncze zachowanie bywa ekspresją wielu cech, ale kombinacja wielu zachowań jednoznacznie określa poziom nasilenia danej cechy.

Właściwości testu zależą bezpośrednio od wyników poszczególnych pozycji (oraz ich wzajemnej korelacji)

Rzetelność testu.

błąd pomiaru = odchylenie standardowe √(1 – dokładność pomiarowa skali)

Potocznie rzetelność znaczy niezawodność/dokładność pomiaru. W psychometrii rzetelność jest to powtarzalność wyników otrzymywanych przy pomiarze tym samym testem, w tych samych warunkach badania. Ponieważ wielokrotne (nieskończone) badanie tym samym testem jednej osoby nie jest możliwe, to błąd pomiaru jest szacowany na podstawie rozkładu błędów pomiaru licznych (ale różnych) osób badanych. W ramach Klasycznej Teorii Testów standardowy błąd pomiaru definiuje przedział, w jakim znajduje się prawdziwy wynik osoby badanej. Błąd ten jest identyczny dla wszystkich osób badanych i dla wszystkich wyników otrzymanych. Jest on silnie związany z rzetelnością (tak jak dokładność z jaką laser lub metoda CNC wycina formę w metalach, zawsze jakaś nieidealność będzie istnieć). W naszej koncepcji jest to bardzo ważne. Wartość rzetelności przyjmuje wartości od 0 do 1. Im bliżej 1 tym błąd pomiaru jest mniejszy. Oznacza to, że wynik zależy bardziej od właściwości pozycji testowych niż od innych czynników. Gdyby rzetelność wynosiła 1 to wynik otrzymany w teście był by wynikiem prawdziwym. Jest to jednak sytuacja modelowa, rzetelność zwykle jest mniejsza od 1 i dlatego w diagnozie, poziom cechy szacuje się w określonym przedziale ufności, z określonym prawdopodobieństwem. Jednak tylko przy diagnozie indywidualnej. W swej logice obliczeniowej miara ta określa, na ile pozycje wchodzące w skład danego wymiaru osobowości są do siebie podobne i czy badają to samo zjawisko. Krótko mówiąc, określa to jaka jest zgodność odpowiedzi badanych na pozycje testowe. Jeśli zaznaczają jedną odpowiedz, to zaznaczają też inne podobne do tych odpowiedzi.

Trafność pomiaru testowego.

Zbadanie trafności odpowiada na pytania:

– co test mierzy i jak dobrze to robi ?

– czy dana skala odpowiada celom jego użytkownika ?

– jakie jest pole stosowania testu ?

Szacowanie trafności jest nazywane walidacją, która jest niekończącą się historią. Im więcej badań tym więcej informacji na temat działania skali i jej potencjału aplikowalności.

Konstruowanie – etapy opracowywanie testu.

– konceptualizacja tego, co ma być mierzone

– operacjonalizacja (jest to procedura wiązania pojęć teoretycznych z obserowowanymi wskaźnikami). Określenie puli pozycji testowych, które będą wskaźnikami mierzonej cechy

– określenie formatu pozycji i gradacji

– zgromadzenie dużej puli pozycji testowych.

– badanie

– analiza statystyczna

– zbudowanie wyjściowej wersji testu.

– manual (podręcznik obsługi z odpowiednimi normami)


thomas-bayes