analiza statystyczna wyników badań

Metoda naukowa – metodologia badań.

meto1

 

Metodologia naukowa stanowi:

  • Ogół badawczego zebrania informacji służących do znalezienia prawdy i pojęciowego jej przedstawienia;
  • Formę pozyskania materiału naukowego w celu prowadzenia badań.

Traktując metodologię naukową jako, zbieranie informacji służących do uzyskania prawdy i jej pojęciowego przedstawienia, mamy do czynienia ze zbiorem czynności i sposobów służących do rozstrzygnięcia problemów naukowych, tworzenia prac naukowych oraz do oceny rezultatów tychże działań.

W jej skład wchodzi metodologia badań naukowych, która opiera się na sposobie zdobywania materiałów do badań służących jako podstawa do opisu teoretycznego, rozstrzygnięcia problemu naukowego oraz w rezultacie do stworzenia pracy naukowej. Metodami roboczymi nazywane są te metodologię, które służą do rozwiązania konkretnego problemu.

Metodologia naukowa służy do poprawnego rozwoju nauki oraz rozszerzania wiedzy. Musi być ona dostosowana do przedmiotu badań. Istnieją uniwersalne zasady pracy badawczej, które służą wielu przedmiotom badań i naukom.

Falsyfikowalność

Kryterium falsyfikowalności jest bardzo istotne w celu stwierdzenia, czy konkretna teoria może stanowić teorię naukową. To pojęcie zostało po raz pierwszy wprowadzone przez Karla Poppera w jego dziele „Logika odkrycia naukowego”, obecnie jest ono podstawą metody naukowej. Dana teoria, aby zostać uznaną za naukową musi:

  1. Zostać opublikowana i podana do możliwości zapoznania się z nią przez szerokie grono odbiorców. Wiedza powinna być dostarczana do różnych adresatów, poczynając od specjalistów kończąc na laikach. Wiedza naukowa nie może być niedostępną tajemnicą, dlatego uznaje się, że magia i alchemia mają pewne cechy wiedzy nienaukowej.
  2. Tworzyć przewidywania. Tym bardziej podatna na falsyfikację jest teoria, która dostarcza konkretnych i wyjątkowych rezultatów. Teoria geocentryczna Ptolemeusza stanowi za przykład niespełnienia tego kryterium, na każdym jej etapie konieczne jest dostosowywanie i przekształcanie teorii do faktycznych danych doświadczalnych. Na wszystkich jej poziomach należałoby dodać kolejny epicykl, aby była ona z nimi  zharmonizowana. Wymaga to jej przebudowy. Natomiast teoria heliocentryczna Kopernika nie jest tak przewidywalna jak teoria Ptolemeusza. Mimo to umożliwia zrozumienie znacznej części obserwacji. Teoria względności Einsteina umożliwia przewidzenie zakrzywienia toru promienia światła w obecności dużych mas.  Teoria Prusinera informuje o możliwości występowania czynnika chorobotwórczego, który nie posiada kwasów nukleonowych i o jego „czysto chemicznej” naturze, która jest odporna na warunki mogące zniszczyć żywe organizmy i wirusy.
  3. Być zgodna z dotychczasowo obowiązującą wiedzą i teoriami. Należy pamiętać, że to kryterium jest mgliste, ponieważ można przewidywać rewolucyjną teorię, która neguje dotychczasową wiedzę, czasami za przykład poddaje się teorię względności Einsteina. Niektórzy jednak twierdzą, że ona nie negowała a jedynie uogólniała istniejące już teorie. Im bardziej teoria nie zgadza się z dotychczasową wiedzą tym bardziej jej założenia muszą być rewolucyjne, aby zaistniała jako teoria naukowa.  Dla przykładu, kreacjonizm zakładający, że świat został stworzony i wymyślony poprzez jeden czyn istoty nadnaturalnej w sposób, który nie zakłada żadnych odstępstw obserwacyjnych od założeń teorii ewolucji okazuje się teorią nienaukową.
  4. Być falsyfikowalna. Teoria powinna móc założyć konkretny rezultat eksperymentu, objaśnić dane zdarzenia i jego konsekwencje. Daje to możliwość ustalenia, iż teoria jest błędna. Zakładając, że Księżyc składa się tylko z węgla można sformułować teorię naukową. Jednak dzięki lotom na Księżyc istnieje możliwość obalenia tej teorii. Gdyby natomiast stworzyć teorię zakładającą, że Księżyc składa się z wyjątkowo tajemniczego węgla, którego nikt nie jest w stanie rozpoznać otrzymujemy teorię nienaukową. Nie ma bowiem sposobności weryfikacji hipotez i słuszności tejże tezy.

W wymienionych powyżej kryteriach nie widnieje zapis dotyczący zgodności z doświadczeniem. Jest ono jednak niezbędne do uznania teorii za obowiązującą. Aby uznać, że dana teza jest naukową nie ma konieczności stwierdzenia zgodności tej teorii z doświadczeniem. To powód tłumaczący dlaczego niektóre niemożliwe do sprawdzenia teorie są uważane za naukowe, badane, alternatywne modele zjawisk słusznie określające pewne konkretne części rzeczywistości, hipotezy robocze, a także abstrakcyjne teorie dzięki którym możliwe jest dokonanie analizy rozwikłania konkretnych problemów. Za przykład hipotetycznej a zarazem abstrakcyjnej teorii może służyć dynamika Newtonowska czy model cieczy idealnej.

Zgodnie z zasadami falsyfikowalności nie można poddać ocenie etycznej przekonań dzieląc je na naukowe i nienaukowe. Twierdzenie, że każdy człowiek jest sterowany przez pilnie pracujące robociki w naszej głowie, może służyć za hipotezę naukową. Wystarczy otworzyć czaszkę i okazuje się, że nie ma żadnych magicznie rządzących nami stworków. Natomiast twierdzenie, że nasze działanie jest kierowanie przez nieświadome mechanizmy, nie można uznać za naukowe do momentu, aż nie zostanie stworzony konkretny eksperyment dający sposobność na sfalsyfikowanie tego poglądu.

Teoria „dobrego paradygmatu”

Węgierski filozof nauki, Imre Lakatos spostrzegł że mimo dokonania eksperymentu falsyfikującego naukowcy nie chcą rezygnować z poprzedniej teorii. Doszedł także do wniosku, że tak naprawdę każdą jedną teorię można przekształcić, aby nie do końca poprawnie falsyfikujący ją eksperyment mógł potwierdzić jej słuszność. Postanowił więc wprowadzić nowe pojęcie, program badawczy.  Składa się on z paradygmatów, którymi określa się zestaw teorii podstawowych. Na tej podstawie tworzone są teorie szczegółowe. Natomiast te są poddawane dokładnemu testowaniu, a tworzone zostają na ściśle określonych regułach Kanta i Poppera. Oznacza to, że najczęściej są weryfikowalne lub falsyfikowalne. Czasami daną teorię traktuje się jako niepodważalną co powoduje wytwarzanie kolejnych teorii, które wyjaśniają nowe poglądy w granicach starej teorii.

Model naukowy powinien być zgodny z wieloma kryteriami takimi jak spójność logiczna, używanie jak najbardziej prostych pojęć (zgodnie z brzytwą Ockhama nie może składać się z niepotrzebnych twierdzeń), kreatywność (musi istnieć możliwość tworzenia falsyfikowalnych i weryfikowalnych teorii na podstawie modelu). Zawsze istnieje możliwość stworzenia lepszego czy bardziej twórczego paradygmatu, w takim przypadku stary model musi zostać zmieniony. Fakt ten stanowi istotną różnicę między modelami naukowymi a chociażby wierzeniami religijnymi.  Podsumowując okazuje się, że model twierdzenie Lakatosa oznacza, iż nauka stanowi dobrze zbudowany paradygmat a także zweryfikowane eksperymentalnie teorie szczegółowe.

Składniki metodologii naukowej oraz etapy pracy naukowej można podzielić w następujący sposób:

  1. Stwierdzenie i ukazanie przesłanek problemu, a także wychwycenie zagadnień pokrewnych;
  2. Analiza problemu na przestrzeni obecnych dokonań nauki poprzez analizę literatury przedmiotu;
  3. Wyszczególnienie nieodzownych założeń, twierdzeń i hipotez;
  4. Wyszczególnienie metodologii roboczych zawierających analizę obecnie funkcjonujących metod, a także selekcja oraz tworzenie nowych metod;
  5. Dokonywanie badań naukowych poprzez przeprowadzanie zabiegów wynikających z problemu oraz danej metodologii roboczej;
  6. Przetworzenie oraz synteza danych zebranych podczas badań;
  7. Pisemne omówienie rezultatów badań, a następnie przekazanie ich do publikacji naukowej;
  8. Krytyczna ocena toku swych badań oraz pisemne omówienie rezultatów.

Często realizuje się trzy pierwsze etapy łącznie tworząc etap sformułowania problemu.

Etapy należałoby przeprowadzać w wyżej wymienionej kolejności. Nie istnieje możliwość wyboru metody roboczej przed ustaleniem problemu. Etapy są naturalne i przypominają codzienne działanie człowieka w momencie postawienia go w nowej sytuacji.

Możemy wyodrębnić następujące metody badań naukowych:

W zależności od charakteru dziedzin naukowych stosuje się w nich różne metody w odmienny sposób.

Struktura pracy naukowej

Standardowo, nie bacząc na różnice społeczne i filozoficzne najczęściej zakłada się, iż rezultaty badań naukowych poddawane są krytyce i ocenie przez krąg ludzi świata nauki. Naukowcy oceniają prace za pomocą obiektywnych kryteriów, bowiem nauka jest tworzona w wyniku procesu społecznego, gdzie naukowcy poddają swoje prace analizie innym osobom. Najczęściej rezultaty publikowane są w czasopismach naukowych po wcześniejszym przyjęciu i wydaniu korzystnej oceny przez zespół badaczy. Następnie publikacja zostaje poddana komentowaniu, krytykowaniu, analizie i ocenie przez kolejnych naukowców. Mogą oni tworzyć własne badania, które stanowiłyby potwierdzenie opublikowanej pracy lub zajęłyby stanowisko przeciwne. Konferencje naukowe pełnią istotną funkcje w oddziaływaniu na ukierunkowanie pracy naukowej. Na nich odbywają się dyskusje naukowców co prowadzi do zespolenia świata nauki.

Więcej na:

Projektowanie eksperymentów dla początkujących (case study z reklamą banerową). Metodologia badań w biznesie.
Metodologia (Nauka)
Struktura procesu badawczego. Metodyka badawcza
Metodologia badań naukowych – z czym to się je ?
Metodologia Badań

Dane binarne w statystyce

Wstęp do meta-analizy. Pierwsze kroki w statystycznej analizie wielu badań.

meto

 

Meta-analiza jest zbiorem statystycznych procedur używanych w dostarczeniu przejrzystych, obiektywnych i replikowalnych podsumowań odkryć badawczych.

Zaczniemy od wprowadzenia w meta-analizę wraz z wyszczególnieniem wstępnych kroków zawartych w kompletowaniu syntezy badań.

Gane Glass wprowadził termin meta-analiza w odniesieniu do statystycznej analizy szerokiej kolekcji wyników analiz z indywidualnych badań w celu integracji wniosków.  Jak z każdą statystyczną procedurą, meta-analiza ma mocne strony oraz ograniczenia. Niemniej jednak jest ona teraz standardowym narzędziem do dostarczania przejrzystych, obiektywnych i powtarzalnych podsumowań w naukach społecznych, medycynie, edukacji i innych polach nauki.

Systematyczne strategie badawcze.

Przed konstrukcją meta-analizy, pytanie badawcze musi być sformułowane precyzyjnie, te pytania wpłyną w całości na proces meta-analityczny. Tak więc, jak jest w zwykłych badaniach empirycznych muszą być dopracowane kryteria włączania i wyłączania. To dostarczy jasność na to jak wyniki badań będa generalizowane na populację.  Jednym z celów jet  każdej meta-analizy jest zebranie reprezentatywnej próby podstawowych badań, które zapewniają zdefiniowane kryteria ich doboru. Systematyczna strategia badawcza zawiera dwa główne kroki: (1) zdefiniowanie problemu i kryteriów wyborów (włączenia i wyłączenia) oraz (2) wyboru badań.

(1) Kryteria włączenia i wyłączenia.

Definiowanie badania w włączaniu i wyłączaniu powinno być oparte na hipotezie badawczej i pytaniach badawczych. Kryteria włączania i wyłączania mogą potencjalnie wpływać na wyniki badania. Taki więc jest ważne aby były one wyraźne i przemyślane.

(2) Selekcja badań.

Selekcja badań i proces wydobycia danych jest często najbardziej czasochłonnym krokiem w przeprowadzeniu meta-analizy. Proces wyboru badań zwykle zawiera szczególną sekwencję z wstępnego wyszukania do kodowania sił efektu z pojedynczego badania podstawowego. Może być pomocne ustruktyruzowanie procesu przy bazowaniu na 4 krokach (identyfikacja, przejrzenie, kwalifikowanie i włączenie) uszczegółowionych w Meta-Analisis Reporting Standards (MARS), instrukcja jest na stronie (http://www.apa.org/pubs/ authors/jars.pdf)  lub PRISMA (http://www.prisma-statement.org/statement.htm). Powyższe kroki powinny być podwójnie kodowane (np. przez dwie osoby) by zapewnić większa obiektywność i precyzję w procesie selekcjonowania badań.

 

czerwony alarm pogotowie statystyczne

Metaanaliza – Statystyczne podsumowanie wyników wielu badań.

meto

 

Finałem metaanalizy jest powiązanie danych z tych badań, złączenie ich i charaktersytyka ogólnej tendencji lub kierunku wyników tych badań.

Metaanaliza polega na zbiorze informacji o wynikach przeprowadzonych badań mających ze  sobą zbieżną narrację. Często weryfikuje się w ten sposób wiedzę na temat badań klinicznych (w których mała liczność obserwacji zmusza do ostrożniejszego wyciągania wniosków z danych).

Metaanaliza jako metodologia ma w sobie pewną logikę. Oto kroki tej logiki.

– postawiene pytania/problemu badawczego

– wykrycie odpowiednich badań na określony temat

– krytyczna selekcja odpowiednich badań

– ewaluacja i podsumowanie wyników Metaanalizy.

Przed metanalizą należy oszacować poziom i źródła heterogeniczności (braku jednorodności wyników) wyników badań ujętych w metaanalizie.

Do badania jednorodności stosuje się wiele procedur; takich jak metody ocen wzrokowych ( wykres leśny, wykres Galbraitha) lub metod ocen formalnych takich jak test Hartleya, Corhana, Indexu I2).

Najczęściej pojawiającymi się źródłami hetoregoniczności wariancji badań w metaanalizie są:

odmienne metodologie badań

– zróżnicowane próby badawcze

– różnorodne okresy trwania badania

– zróżnicowane wskaźniki i sposoby estymacji wyników

W celu usunięcia tych czynników stosuje się analizę wrażliwości, metaregresję lub analizuje się wyniki w różnorodnych populacjach badań.

Do meta-analiz wykorzystujemy oprogramowanie Comprehensive Meta Analysis CMA, Jasp, Jamovi oraz R.

analiza statystyczna ankiet

Struktura procesu badawczego (Metodologia Badań)

meto1

Struktura procesu badawczego w psychologii

Psychologia jest nauką o zachowaniach człowieka, które są ukierunkowane na osiągnięcie określonego celu (czynności) oraz o samym człowieku, który jest podmiotem swoich działań (Tomaszewski, 1975 za: Brzeziński, 2015). Taki obszar zainteresowań psychologii wpływa na konieczność użycia specyficznych schematów metodologicznych podczas poszukiwania odpowiedzi na pytania badawcze. Stosowane procedury badawcze muszą uwzględniać fakt, że podmiotem badania jest istota ludzka, a nie element przyrody nieożywionej np. skała, skamielina.

Etapy procesu badawczego w psychologii:

  1. Postawienie problemu badawczego i hipotezy badawczej.

Każde naukowe badanie zaczyna się, gdy badacz werbalizuje problem naukowy w formie pytania. Źródłem pytania badawczego są luki w wiedzy, rozbieżność stanowisk naukowych występująca wokół danego zagadnienia, a także chęć znalezienia lepszego od dotychczasowych sposobów opisywania danego wycinka rzeczywistości. Próbą odpowiedzi na pytanie nurtujące badacza jest hipoteza badawcza.

  1. Określenie obrazu przestrzeni zmiennych niezależnych X1, …, Xn istotnych dla zmiennej zależnej Y- O(Py) oraz obrazu struktury przestrzeni zmiennej zależnej YO(Sy).

W tej fazie mieszczą się problemy istotnościowe, hipotezy istotnościowe i hipotetyczne układy zmiennych niezależnych.

Faza ta rozpoczyna się postawieniem problemu istotnościowego: Jakie zmienne niezależne są istotne dla zmiennej zależnej Y? W celu odpowiedzi na to pytanie wysnuwamy hipotezę istotnościową 1 ( Zmienne niezależne X1, …, Xn są istotne dla zmiennej zależnej Y). Zbiór zmiennych niezależnych, uznanych przez badacza za istotne dla Y, tworzy obraz przestrzeni zmiennych istotnych dla Y.

Hipoteza istotnościowa 2 również jest formą odpowiedzi na pytanie badawcze ( Zmienne z O(Py) uporządkowane są pod względem istotności dla Y w następujący sposób…). Przyjęcie hipotezy, która wprowadza do O(Py) porządek istotnościowy stwarza obraz struktury przestrzeni zmiennej Y (tj. O(Sy)). Zmienne wchodzące w składy obrazu struktury przestrzeni zmiennej Y mogą oddziaływać na Y niezależnie bądź wchodzić ze sobą w interakcje i wspólnie oddziaływać na zmienną zależną Y.

Trzeci problem istotnościowy zawiera się w pytaniu: Jaki jest rodzaj obrazu struktury przestrzennej zmiennej Y? Obraz ten może być interakcyjny bądź izolowany.

  1. Operacjonalizacja zmiennych.

Etap ten polega na nadaniu sensu empirycznego pojęciom abstrakcyjnym, teoretycznym. Operacjonalizacja zmiennych wymaga zastosowania narzędzi pomiarowych. Mogą nimi być istniejące już specjalistyczne aparatury, testy psychologiczne bądź narzędzia konstruowane specjalnie na potrzeby danego badania.

  1. Wybór modelu badawczego:

  1. Dobór próby z populacji.

Dobór próby jest bardzo ważny, gdyż to dzięki udziałowi osób badanych badacz weryfikuje swoje przewidywania. Ważnym jest, aby próba była reprezentatywna, w tym celu pobieramy ją z populacji w sposób losowy. Inne sposoby wyłaniania próby z populacji obarczają wyniki badania mniejszym lub większym błędem.
Więcej na temat doboru próby możecie poczytać tutaj: Dobór próby i problemy z tym związane/.

  1. Wybór modelu statystycznego:

Wybór ten jest uzależniony od wybranego w kroku 4 modelu badawczego.

  1. Akceptacja bądź odrzucenie hipotezy.

W tym kroku badacz decyduje, czy weryfikowaną przez siebie hipotezę uznaje za potwierdzoną bądź nie.
Warto pamiętać o tym, że odrzucenie hipotezy nie jest klęską, gdyż mogło to być efektem błędów metodologicznych. Dlatego w przypadku niepotwierdzenia hipotezy należy krytycznie przeanalizować przebieg postępowania badawczego pod kątem błędów w sztuce.

  1. Ocena, interpretacja oraz generalizacja rezultatu badawczego.

W celu zakończenia procesu badawczego naukowiec musi sobie zadać jeszcze kilka pytań:
1) Jaka była jakość badania pod względem metodologicznym?

Krytyczna ocena tej części procesu badawczego powinna skłonić badacza do powrotu do czynności przeprowadzonych na poprzednich etapach badania, co umożliwia wprowadzenie potrzebnych poprawek. Cofanie się do wcześniejszych etapów badania może obejmować więcej niż jeden pełny cykl badawczy.

2) Jakie jest znaczenie psychologiczne uzyskanego wyniku?

W tym kroku zastanawiamy się, co nasze wyniki wnoszą do psychologii (rozwój teorii) oraz jaki jest ich wymiar aplikacyjny (możliwość wykorzystania w praktyce).

3) Jaki jest zasięg wniosków, które wyłoniły się po zakończeniu badania?

Pytanie to dotyczy generalizowalności wniosków badania. Aby wyniki uzyskane na danej próbie można było generalizować na całą populację, owa próba musi być reprezentatywna. Zakres wniosków jest zależny także od użytych procedur manipulowania zmiennymi.

Powodzenia w badaniach!

Źródło:

Brzeziński, J. (2015). Metodologia badań psychologicznych. Warszawa: Wydawnictwo Naukowe PWN.

Potrzebujesz wsparcia lub usług statystyczno-metodologicznych? Napisz do nas lub zadzwoń. Oferujemy niskie ceny przy badaniach korelacyjnych i prostych eksperymentach!

Władzą jest wiedza o źródłach zmienności Metodolog.pl motto

Pomiary w badaniach psychologicznych.

meto

 

„Not everything that counts can be counted, and not everything that can be counted counts.”

Albert Einstein

Postaramy się dzisiaj opowiedzieć trochę co nieco o pomiarach badawczych.

Odnosząc się do powyższego cytatu to właśnie zmienne teoretyczne się liczą, lecz nie mogą być policzone. Natomiast wiele „zanieczyszczonych” zmiennych może być policzone, lecz mają one zerowe znaczenie, bądź nawet wprowadzają szum do badania. Ale zacznijmy od początku.

Do wyboru mamy szeroki wachlarz metod pomiarowych: miary obserwacyjne (gdy rejestrujemy zachowania osób badanych), miary samoopisowe, czyli ankiety i kwestionariusze, jak również miary wykonaniowe, a nawet dane archiwalne. Od tego czy prawidłowo dobierzemy narzędzia zależy dalsze powodzenie badania. Możemy to porównać do soczewek. Na przykład: gdy dalekowidz będzie chciał przeczytać książkę to dużo bardziej przydadzą mu się okulary z soczewkami na plusie, niż te na minusie. Tak samo jest w przypadku pomiaru. Odpowiednio dobrane narzędzia są podstawą do uchwycenia istoty badania, a od ich precyzji zależy to, czy uda się wykryć różnice.

Na początku musimy zaprojektować sposób pomiaru zmiennej teoretycznej, ustalić co będzie wskaźnikiem zmiennej (operacjonalizacja).

Istnieje szereg sposobów, na jakie można mierzyć zmienną teoretyczną, uzyskując wiele jej wskaźników. To wiąże się z tym, że uzyskane wyniki nie zawsze będą adekwatne do badania. Należy pamiętać, że wszystkie wskaźniki są w pewnym stopniu „zanieczyszczone” wpływem innych zmiennych i nie jesteśmy w stanie tego zanieczyszczenia w stu procentach wyeliminować. Dobrym wyjściem w tej sytuacji jest użycie miar złożonych, a nie posługiwanie się pojedynczym wskaźnikiem interesującej nas zmiennej.

Gdy za pomocą odpowiednio dobranych narzędzi dokonamy już pomiaru, zebrane wyniki należałoby jakoś zakodować.

Tutaj z pomocą przychodzą nam skale pomiarowe. W zależności od charakteru zmiennych, możemy je mierzyć na skalach jakościowych i ilościowych. Gdy dokonujemy pomiaru takiej zmiennej jak np. kolor włosów, używamy najniższej skali jakościowej – skali nominalnej. Przy jej pomocy nie porządkujemy danych według jakiejś hierarchii, lecz tylko je klasyfikujemy. Pozwala nam ona na odróżnienie jednego obiektu od drugiego. Kiedy mamy do czynienia ze zmiennymi, które tworzą jakąś hierarchię, możemy posłużyć się wyższą skalą jakościową – skalą  porządkową. Dzięki zastosowaniu jej, otrzymujemy informacje o porządku poszczególnych wartości. Istotą tej skali jest to, że nie dysponujemy żadnymi jednostkami miary, więc nie pozwala nam ona oszacować o ile wynik X różni się od wyniku Y, natomiast możemy oszacować ich relację większy/mniejszy.

Jeżeli odległość między poszczególnymi wartościami na skali jest taka sama, to jest to jednoznaczne z występowaniem jednostek, a co za tym idzie używamy skali ilościowych.

Przy ich pomocy możemy nie tylko ustalić porządek danych, ale również dystans między nimi. Kryterium odróżniającym skale w ramach skali ilościowych, jest występowanie zera bezwzględnego. I tak, na skali przedziałowej mogą pojawiać się wartości ujemne, ponieważ punkt odniesienia skali nie jest bezwzględny (temperatura w stopniach Celsjusza). Na skali ilorazowej, wartości ujemne nie występują ponieważ charakter mierzonych danych na to nie pozwala, istnieje zero bezwzględne (np. liczba dzieci, wiek). Ta skala umożliwia nam nie tylko ustalenie relacji, odległości między danymi ale też stosunek ile razy wynik X jest większy od wyniku Y. Przy dokonywaniu pomiarów należy mierzyć zmienne tak, by uzyskać jak najwyższą skalę, gdyż im wyższa skala tym większą mamy zapewniona dokładność, a więc tym większe szanse na uchwycenie subtelnych nawet różnic między analizowanymi grupami. W przypadku, gdy zebrane informacje będą zbyt szczegółowe na nasze potrzeby, zawsze możemy je uogólnić schodząc do niższej skali. Jednak kiedy okaże się, że mamy za mało szczegółów nie będzie możliwości podwyższenia skali.

Podczas zbierania danych, musimy pamiętać, że dla wszystkich badanych sytuacja badawcza powinna być identyczna, a przynajmniej jak najbardziej zbliżona.

Uzyskać to możemy między innymi poprzez spisanie instrukcji do badania i odczytywanie jej za każdym razem, by każdy biorący udział usłyszał to samo polecenie. Jeżeli badanie przeprowadza więcej eksperymentatorów, warto kontrolować, która osoba była badana, przez którego badacza, aby mieć możliwość oszacowania w późniejszych analizach wpływu tej zmiennej na wyniki. Dobór do badania może się odbyć na kilka sposobów. Możemy bazować na ochotnikach, co wiąże się z wygodą, ale ma poważne wady metodologiczne. W badaniach psychometrycznych często stosuje się próbę kwotową, czyli taki dobór grupy badawczej, by zachowana została struktura z populacji. Najlepsza z punktu widzenia wnioskowania o zbiorowości generalnej, ale zarazem najtrudniejsza do uzyskania jest próba losowa. Aby ją uzyskać stosuje się różnorodne sposoby losowania. Odnośnie grupy kontrolnej spełniony być musi kanon jednej różnicy. Tylko wtedy wnioskowanie będzie sensowne.

Autorem tekstu jest Martyna Kuligowska.

kpt kuligov 3