Losowanie systematyczne (Systematic sampling)

Losowanie systematyczne można uważać za pewien szczególny sposób losowania prostego bez zwracania. Przyjmijmy, że wszystkie elementy operatu losowania zostały ponumerowane od 1 do N. Jeśli określiliśmy liczebność naszej próby na mniej więcej 1/k-tą część populacji generalnej (np. 1/100,1/17), to spośród k pierwszych elementów, używając tablicy liczb losowych, wybieramy jeden element. Będzie to element o określonym numerze, nie większym niż k, oznaczmy ten numer jako N0.1 teraz po kolei wybieramy do próby elementy o numerach: N0 + k, N0 + 2-k, N0 + 3 k, … itd., aż do momentu, gdy kolejny numer będzie większy niż liczebność operatu. Metoda ta jest przydatna, gdy losujemy ze stosunkowo dużych populacji.

Losowanie systematyczne bywa także wykorzystywane w przypadkach braku listy elementów, spośród których losujemy próbę. Np. spośród pacjentów zgłaszających się do szpitala z powodu określonego schorzenia losujemy np. co piątą osobę przez okres roku. Wówczas po upływie roku będziemy dysponowali odpowiednią próbą. Którą osobę powinniśmy włączać do próby, zależy od przewidywanej liczebności populacji zgłaszających się, którą określa się na podstawie danych z lat poprzednich.

Losowanie proste bez zwracania

Losowanie proste bez zwracania (Simplerandom sampling without replacement)

Elementy losuje się do próby z całej (tj. niepodzielonej na części) zbiorowości statystycznej, czyli jednostkami losowania są poszczególne elementy zbiorowości i każdy element ma jednakowe, dodatnie prawdopodobieństwo dostania się do próby.

Ten schemat może być realizowany jako losowanie że zwracaniem albo bez zwracania do populacji elementu już wylosowanego.

Schemat losowania ze zwracaniem polega na wylosowaniu elementu* dokonaniu jego pomiarów i zwrocie do populacji generalnej. Przy takim sposobie losowania jeden element może wielokrotnie znaleźć się w próbie. Większe znaczenie, szczególnie dla psychologów, będzie miał schemat losowania prostego bez zwracania. Element wylosowany z próby nie wraca już do populacji generalnej. Jak zatem spełniony jest postulat jednakowego prawdopodobieństwa wylosowywania elementu? Otóż prawdopodobieństwo jest jednakowe dla wszystkich elementów na danym etapie losowania. Losując pierwszy element, dla każdego elementu mamy prawdopodobieństwo wylosowania px. Ponieważ po wylosowaniu pierwszego elementu liczebność populacji generalnej, z której losujemy drugi element, zmniejszyła się o jednostkę, to podczas losowania drugiego elementu każdy z nich może być wylosowany z jednakowym prawdopodobieństwem p2. Oczywiście pf s?Ł p2, dokładniej: pj < p2. Taki sposób losowania gwarantuje, że ten sam element nie trafi dwa (albo więcej) razy do próby. Czyli próba prosta n-elementowa będzie składała się z n różnych elementów (ludzi).

Planowanie eksperymentu

Planowanie eksperymentu polega, najogólniej mówiąc, na zaplanowaniu wszelkich szczegółów związanych z realizacją badania (Goodwin, 2008; Hicks, 1973).

Planując eksperyment, powinniśmy więc określić skale pomiarowe oraz zmienne, które będą mierzone na tych skalach. Bardzo ważne jest także określenie ilości badanych zmiennych, gdyż jak pamiętamy z rozważań np. o modelach regresyjnych, liczba zmiennych determinuje w pewnym sensie wielkość próby. Jednakże na wielkość próby wpływa nie tylko liczba zmiennych, ale także dokładność, z jaką chcemy szacować badane zależności. Musimy sobie także określić plan eksperymentu, czy będzie to np. plan jednoczynnikowej, jednozmiennowej analizy wariancji, czy może wieloczynnikowej, a może plan wielozmiennowy lub odpowiedni model regresyjny. Musimy także zmierzyć się z tak poważnym problemem, jak przewidzenie ewentualnych czynników zakłócających badane relacje (w przypadku psychologicznych badań na ludziach, problemu tego nie da się uniknąć, nie jesteśmy w stanie wyeliminować wszystkich czynników zakłócających, niekiedy zaś celowo wprowadzamy tzw. moderatory). A jak pamiętamy, wprowadzenie zmiennych zakłócających powoduje zmianę ewentualnie wybranego już modelu analizy danych. Konieczne jest także określenie, zgodnie z celami badania, sposobu doboru próby.

Na koniec, chyba najważniejsza kwestia. Czy dysponujemy narzędziami obliczeniowymi umożliwiającymi przeprowadzenie wszystkich operacji rachunkowych? Wbrew pozorom nie jest to pytanie retoryczne po prostu dlatego, że nie istnieje pakiet statystyczny, który zawierałby wszystkie potencjalnie potrzebne nam procedury. Nie wspominam tutaj o umiejętności obsługi takiego oprogramowania, gdyż dysponując odpowiednią wiedzą statystyczną i sporym samozaparciem oraz czasem, jesteśmy w stanie opanować każdy, najbardziej skomplikowany i nieintuicyjny program.

Carl Friedrich Gauss (1777-1855)

Niemiecki matematyk, astronom i fizyk. Już od najmłodszych lat przejawiał ogromny talent matematyczny. W 1796 roku Gauss udowodnił. że możliwa jest konstrukcja 17-kąta foremnego przy użyciu tzw. narzędzi Euklidesowych, czyli linijki i cyrkla. Było to odkrycie, z którego do końca życia był niezmiernie dumny i które ostatecznie przekonało go do kontynuowania kształcenia w zakresie matematyki. Głośnym triumfem Gaussa było wyznaczenie orbity planetoidy Ceres na podstawie obserwacji włoskiego astronoma Piazziego. W ciągu następnych 20 lat obliczał orbity wielu nowo odkrywanych planetoid, a wyniki swoich dociekań zawarł w wydanej w 1809 roku Theoria motus corporum coelestium in sectionibus conicus Solem am-bietium, która stała się obowiązkową pozycją XIX-wiecznych astronomów. W roku 1820 zajął się geodezją. Właśnie temu zainteresowaniu Gaussa współczesna nauka zawdzięcza najbardziej chyba znane z jego odkryć, odnoszące się do rachunku prawdopodobieństwa twierdzenie o rozkładzie normalnym błędów, nazywanym także krzywą normalną bądź krzywą Gaussa. Oprócz tego prowadził badania w zakresie optyki, elektrostatyki, badał ziemski magnetyzm, był więc niezwykle aktywnym naukowcem. Osiągnięcia Gaussa już za jego życia doprowadziły do nadania mu tytułu „księcia matematyków”.

Ważniejsze dzieła:

Disquistiones arithmeticae (1801)

Disquisitiones generales circa superficies curvas (1827)

Dioptrische Untersuchungen (1841)

Opracowanie: Konrad Piotrowski

Analiza ścieżek (path analysis)

Analiza ścieżek

Analiza ścieżek jest zaawansowaną metodą statystyczną, która stanowi rozszerzenie modelu wielokrotnej regresji liniowej. Umożliwia dokonanie interpretacji przyczynowej analizowanych zmiennych – w ramach modelu uwzględniającego niekiedy znaczną liczbę zmiennych wyjaśniających zmienność zmiennej zależnej (zmienna kryterialna, wyjaśniana) – tworzących skonstruowany przez psychologa model. Można powiedzieć, że ustala porządek przyczynowy w analizowanym zbiorze zmiennych. Powinna być rutynowo stosowana w fazie interpretacji modelu wielokrotnej regresji liniowej (chyba najczęściej wykorzystywanego przez psychologów). Z samego faktu bowiem, że model obejmuje jakąś liczbę zmiennych niezależnych (wyjaśniających) – na satysfakcjonującym poziomie istotności statystycznej (na przykład p = 0,05) i wyjaśniającym jakiś, dostatecznie duży, procent wariancji zmiennej Y- czy też pozwala na uporządkowanie owych zmiennych według stopnia ich wpływu ną zmienną Y. nie wynika wcale, iż jedne są przyczynami drugiej. Analiza ścieżek umożliwia nadanie danej strukturze zmiennych, utworzonej w ramach modelu wielokrotnej regresji liniowej, poszukiwanej interpretacji przyczynowej. Jest też swoistym i nieodzownym testem teorii psychologicznej, której potwierdzenia badacz szukał w badaniu empirycznym, odwołującym się do tego wielowymiarowego modelu statystycznego. Jej rezultat przedstawia się pod postacią grafu, w którym strzałki łączące poszczególne zmienne reprezentują związek przyczynowy. Daną zmienna X,, w modelu występująca przed kolejną zmienną X2. traktowana jest jako przyczyna tej drugiej X2. traktowanej z kolei jako skutek i występującej po X, w modelu, a zatem: X} -* X2. Natomiast tak zwane współczynniki ścieżek (path coefficients) umieszczane przy poszczególnych strzałkach pozwalają na dokonanie oceny siły przyczynowego wpływu jednej zmiennej na drugą.