Teoria instynktu – sformułowana przez Konrada Lorenza (1965 – 1996).

Teoria instynktu

Wywodzi się z nurtu biologicznego. Uznaje agresję jako wrodzoy element człowieczeństwa, naturalną formę wyładowania energii, mało podatną na wpływy zewnętrzne i proces uczenia się. Teoria ta współcześnie nie jest uznawana za prawdziwą.

Agresja jest spontaniczna, tzn. może wystepować bez jakichkolwiek powodów zewnętrznych. Podstawą ku temu jest hydrauliczna koncepcja agresji twierdząca, iż energia agresywna jest spontanicznie produkowana oraz zbierana wewnątrz organizmu (jak woda stale napływającej pod ciśnieniem do zbiornika). Ciągły przepływ tej energii powoduje co jakiś czas konieczność  rozładowywania przez agresywne zachowanie, co zachodzi pod wpływem wystąpienia – wyzwalaczy agresji. Rozładowanie  jest wtedy nagradzające (daje ulgę) dlatego też  jest poszukiwane. Im dłużej powstrzymuje się energię  agresji przed rozładowywaniem (i ciągle napływa do „zbiornika”), tym słabsze wyzwalacze wystarczają do jej wyrzutu. Ogromne nagromadzenie energii doprowadza do jej rozładowania przy nieobecnoścci wyzwalaczy typowych, a nawet jakichkolwiek (spontaniczna eksplozja agresywna). Jednakże nawet zwykłe wyzwalacze agresji nie są wystarczające do jej pojawienia się, jeśli ilość nagromadzonej energii jest bardzo niska. To z kolei dzieje się  tylko dzięki uprzednimu rozładowaniu energii przez reakcję agresywną, bądź jemu podobną.
Agresja jest nieuchronna w zachowaniach zwierząt i ludzi, a jedyny sposób, w jaki człowiek może sobie z nią poradzić, to rozładowywanie agresywnego instynktu przez wielokrtone, a mało szkodliwe akty agresji i zachowania podobne.

Nie dało się także naukowo udowodnić, że agresja ma wrodzony charakter i wszyscy do niej dążą.
U zaawansowanych ewolucyjnie zwierząt typowe dla danego gatunku zachowanie agresywne mogą w ogołe się nie wydarzać. Np. koty czasami zabijają szczury a czasami nie – w zależności od wychowania (Kuo, 1938)
Ludzie są skłonni do zachowań agresywnych, jednak w różnym stopniu nasilenia i różnie je zaspokajają.
Osoby świadome swojego działania, posiadające, wykształcone  w toku rozwoju poczucie odpowiedzialności, mogą same znajdować akceptowane społecznie sposoby zaspokajania agresji np. rywalizacja w sporcie.

Teoria autopercepcji – Sformułowane przez Dayla Bema (1967-1972).

Teoria autopercepcji

Głosi, że człowiek posiadający słabą orientację we własnych postawach, poznaje je u siebie tak jakby poznawał u innych ludzi, których obserwuje.
Interpretujemy własne zachowania i towarzyszące im okoliczności.
idealnym przykładem jest osoba, która zapytana czy lubi włoską kuchnię, odpowiada
“Muszę ją lubić, zawsze chodzimy do włoskiej restauracji z rodziną”.

 

Człowiek rozpoznaje własne postawy obserwując swoje zachowania i jego okoliczności.
Im słabsze są wskaźniki wewnętrzne (przyczyny zachowania w osobowości)  tym bardziej decydują o wnioskach na swój temat wskaźniki zewnętrzne           (kontekst sytuacyjny).
Człowiek spostrzegający własne zachowanie jako uzależnione od sytuacji, nie ma podstaw aby traktować je jako swoje cechy.

 

Weryfikację teorii przypisuje się Chaiken i Baldwin (1981), Prosili  badanych o odtworzenie wspomnień o własnych zachowaniach dotyczących ochrony środowiska, dopiero później mierzyli ich postawy.

Na podstawie ich badania można stwierdzić, że ludzie wnioskują o własnych postawach w oparciu o swoje niedawne  zachowanie.
Dzieje się tak gdy, spełnione są dwa warunki :
1.Po pierwsze początkowa postawa (sprzed zachowania) musi być słaba, mało świadoma.
2. Po drugie, zachowanie musi być uznane jako niewymuszone zewnętrznymi naciskami (np. nadzór, wymagania innych ludzi, nagrody, kary).

Efekt sufitu i efekt podłogi w badaniach eksperymentalnych Metodolog.pl

Efekt sufitowy i efekt podłogi – efekty błędnych manipulacji eksperymentalnych.

 

W badaniach eksperymentalnych możemy mieć czasem do czynienia z dwoma rodzajami błędów związanych ze słabą metodologią badania. Tymi dwoma błędami są efekt podłogi i efekt sufitowy.

Efekt sufitowy:

Przyjmijmy, że mamy eksperyment mający na celu przetestowanie następującej hipotezy H1 – Płeć osoby oceniającej reklamę ma wpływ na ocenę reklamowanego piwa X.  Zaprojektowano badanie (badani mieli za zadanie zobaczyć reklamę i ocenić jej atrakcyjność na skali od 1 – nieatrakcyjna do 5-atrakcyjna. ), przebadano dużo osób i przeanalizowano wyniki. Dzięki statystycznej analizie danych otrzymano następujące rezultaty:

  • w grupie mężczyzn uzyskano średnią ocenę równą 4,56
  • w grupie kobiet uzyskano średnią ocenę równą 4,59

Co z tego wynika? Wynika z tego to, że uzyskano oszacowania bliskie maksimum. Czyli otrzymano wyniki bliskie sufitu skali. Przewidywane różnice miedzy grupami nie wystąpiły z tego względu, że płeć nie różnicowała oceny reklamy. Ponad to reklama była tak atrakcyjna, że obie grupy oceniały ją tak samo wysoko (bardzo blisko maksimum). Dlatego sytuację lub efekt taki nazywamy metaforycznie sufitowym. Błąd ten może wynikać ze słabej manipulacji eksperymentalnej i niezbyt trafnego pomiaru zmiennej zależnej lub innych zmiennych np. zakłócających trafność wewnętrzną.

 

Efekt podłogi:

Efekt podłogi jest odwrotnością sytuacji powyższej. Polega on na tym, że pomiary zmiennej zależnej (czyli w tym przypadku oceny reklamy) we wszystkich badanych grupach eksperymentalnych są bliskie minimum.

 

Masz problem z zagadnieniem jakim jest efekt sufitu i efekt podłogi? Możemy Ci pomóc z poprawną interpretacją tych wyników lub znaleźć remedium na zaistniały fakt.

analiza statystyczna wyników badań

Teoria danych i teoria skalowania

Związek teorii danych i skalowania z teorią pomiaru

Teoria pomiaru określa warunki konstruowania rozmaitego typu skal. Skalowaniem nazywamy proces przypisywania liczb obiektom lub właściwościom. Trzy powody skłaniają do osobnego omówienia skalowania w uzupełnieniu do teorii pomiaru. Po pierwsze, aksjomatyczna analiza statystyczna modeli pomiaru nie zawsze dostarcza możliwych do zastosowania metod konstruowania skal. Na przykład można sprawdzić założenia modelu addytywnego pomiaru łącznego bez żadnej wiedzy o tym, jak otrzymuje się skale addytywne (co wymaga opracowania specjalnych metod).

Po drugie, modele pomiaru rzadko (jeśli w ogóle) są całkowicie satysfakcjonujące. Nawet gdy założenia modelu nie są systematycznie gwałcone, to zawsze zdarzają się pewne odstępstwa od modelu. Odstępstwa te mogą być związane z niedoskonałością naszych obserwacji, z niedosko

nałością procedur badawczych lub też z innymi, nie kontrolowanymi czynnikami. Te odstępstwa od modeli pomiaru przypisuje się błędowi, czyli szumowi. Jego występowanie czyni jednakże problem skalowania znacznie bardziej skomplikowanym. Aby zbudować skalę z danych o jakimś poziomie szumu (noisy data), trzeba zastosować takie metody skalowania, które pozwalają „usunąć” błąd i określić „prawdziwe” wartości skalowe.

Po trzecie, wiele modeli pomiaru w psychologii nie ma opracowanych podstaw aksjomatycznych. Modele te są konstruowane raczej z myślą o pożądanej reprezentacji liczbowej, a nie poprzez formułowanie założeń, z których tę reprezentację można by wyprowadzić. Chcąc sprawdzić takie modele, można budować skale i sprawdzać ich wewnętrzną niesprzeczność oraz moc predyktywną. W praktyce więc metodę skalowania można traktować jako^ technikę, i jako kryterium.

Jeśli metodę skalowania stosuje się jako technikę, to zakłada się istnienie pewnego określonego modelu pomiaru. Odstępstwo od modelu traktuje się jako fluktuacje losowe lub błędy obserwacji, a celem skalowania jest znalezienie takich liczb, które zapewniają „najlepsze” dopasowanie modelu i danych zawierających jakiś błąd. Pojęcie najlepszego dopasowania definiujemy zwykle przez minimalizację jakiejś funkcji błędu, np. sumy kwadratów odchyleń w metodzie najmniejszych kwadratów. W przypadku traktowania metody skalowania jako kryterium stosowana jest ona jako metoda testowania opisowej trafności danego modelu pomiaru. Celem skalowania jest wtedy zbadanie, czy model jest dopasowany do danych.

A więc, jeśli procedurę skalowania stosuje się jako technikę, to ponieważ jest ona przeznaczona do zbudowania skali liczbowej bez względu na to, czy model jest satysfakcjonujący, czy też nie — przyjmujemy, że procedura ta jest niewrażliwa na błąd. Odwrotnie zaś jest, gdy procedurę skalowania stosujemy jako kryterium: przyjmujemy wówczas, że jest ona wrażliwa na błąd, ponieważ głównym jej celem jest odkrycie odstępstw od teorii.

Należy zauważyć, że nazwom: pomiar i skalowanie nadajemy różne znaczenie, mimo że w literaturze przedmiotu czasami używa się ich I nie. W celu lepszego ustrukturalizowania naszego wykładu skalowanej i jego relacji z danymi empirycznymi oraz z teorią pomiaru, wprowadzimy prosty system klasyfikacyjny zwany teorią danych. System ten umożliwia czytelne omówienie pomiaru i skalowania oraz ułatwia dobór reprezentatywnych przykładów metod skalowania.

Teoria danych

Wiele modeli pomiaru w naukach behawioralnych opiera się na geometrycznej reprezentacji obserwowanego zachowania. Często reprezentacja taka jest tylko skalą jednowymiarową. Coraz częściej stosowane są też reprezentacje wielowymiarowe. Punkty na skalach lub w przestrzeniach mogą reprezentować osoby, bodźce lub i osoby, i bodźce, a relacje między punktami odzwierciedlają — według określonych reguł — zebrane obserwacje.

Wprowadzimy teraz dwa dychotomiczne podziały, dające razem cztery klasy danych. Wszystkie obserwacje i teorie skalowania można zaliczyć do jednej z tych klas. Dzięki temu oczywiste staną się pewne istotne podobieństwa i różnice. Pierwszy podział związany jest z rodzajem obserwowanej relacji między obiektami. ‚

Obserwację relacji między dwoma obiektami można zaliczyć tylko do jednej z dwu klas: porządku (dominacji) lub zgodności (bliskości). Przykładem relacji porządku jest ocena przez jednostkę, że jeden dźwięk jest głośniejszy od drugiego, jeden charakter pisma bardziej czytelny niż inny, lub obserwacja, że jedno kurczę dziobie drugie, czy też że jeden tenisista wygrywa z drugim. Przykładem relacji bliskości jest sąd jednostki, że dwa tony są identyczne, że jeden kolor jest podobny do drugiego, bądź że ten papieros smakuje tak samo jak inny; ogólnie są to relacje wskazujące, iż dwa bodźce są podobne lub nierozróżnialne.

Powyższe obserwacje można by przedstawić w postaci macierzy kwadratowej, w której każdy obiekt reprezentowany jest przez odpowiedni wiersz i odpowiednią kolumnę. Klatki macierzy zawierałyby zakodowane w jakiś sposób obserwacje, np. jedynka mogłaby oznaczać, że dany obiekt w wierszu „przewyższa” dany obiekt w kolumnie, a zero

jest odwrotnie. W podobny sposób można przedstawić relacje zgodności lub niezgodności. Oczywiście, wartości w klatkach macierzy nie muszą być ograniczone tylko do dwu liczb. Na przykład najczęściej spotykaną macierzą bliskości jest macierz korelacji, w której wartość zawarta w każdej klatce macierzy jest miarą bliskości. W niektórych okolicznościach miary amplitudy lub czasu utajenia (latency) mogą być interpretowane jako relacje bliskości (obszerniejsze omówienie takich miar można znaleźć w: Coombs, 1964, s. 526).

Dokonaliśmy jednego dychotomicznego podziału obserwacji rzeczywistości na relacje: porządku i bliskości. Zobaczymy teraz, że niezależnie od tego podziału możemy dokonać innego podziału dychotomicznego. Niekiedy obserwujemy relacje między elementami tego samego zbioru, czasami zaś tylko relacje między elementami różnych zbiorów. Na przykład wszystkie podane wyżej przypadki mogą być zaklasyfikowane jako odzwierciedlające relacje między elementami tego samego zbioru. Jako ilustrację obserwacji, która może być reprezentowana w postaci i relacji porządku pomiędzy elementami różnych zbiorów1, rozważmy i dobre lub złe rozwiązanie problemu arytmetycznego przez jednostkę. 1 Dwoma różnymi elementami rzeczywistości są tu: trudność problemu i matematyczne zdolności jednostki. Obserwacja: dobre lub złe rozwiązanie (sukces lub porażka) odzwierciedla relację porządku między tymi elementami.

Ten sam rodzaj danych można spotkać przy pomiarze progu wrażliwości zmysłowej jednostki. Bodziec sensoryczny może być naniesiony jako punkt na osi intensywności, a odpowiedź badanego, jako wskaźnik tego , czy wykrył on sygnał, czy też nie, może być reprezentowana jako relacja porządku między punktem intensywności a punktem odpowiadającym progowi wrażliwości badanego. Można przytoczyć wiele przykładów relacji porządku między punktami różnych zbiorów. Jeden z takich przykładów omówimy przy okazji przedstawiania modelu skalowania danych tego typu.

Łatwo również znaleźć przykłady relacji bliskości (czy zgodności) między elementami różnych zbiorów. W ten sposób można przedstawić np. gotowość jednostki do zaaprobowania jednego spośród wielu stwierdzeń wyrażających jej postawę. Jednostkę i każde ze stwierdzeń można traktować jako odpowiednie punkty na continuum wyrażającym postawy: od pro do contra. Punkt oznaczający jednostkę odpowiada hipotetycznemu idealnemu stwierdzeniu, które dokładnie oddaje jej postawę.

Aprobata wyrażona wobec danego stwierdzenia implikuje, że punkt odpowiadający temu stwierdzeniu jest bliski względem punktu idealnego. Wszystkie przypadki klasyfikowania są przykładami ustalania relacji bliskości między obiektami różnych zbiorów, np. psychiatryczna klasyfikacja pacjentów, oceny sprawności kierowników, podział malarstwa na renesansowe, nowoczesne itd. W każdym przypadku można by określać odpowiedniość między zbiorem punktów odpowiadających różnym kategoriom odpowiedzi a zbiorem punktów odpowiadających klasyfikowanym obiektom. Porównanie punktu z jednego zbioru z punktem z drugiego zbioru pozwala określić ich względną bliskość.

Obserwacje takie mogą być ujęte w postaci macierzy. Ponieważ jednak obiekty pochodzą z dwu różnych zbiorów, macierz może nie być kwadratowa (np. wtedy, gdy jest więcej osób niż rozwiązywanych przez nie zadań arytmetycznych).

Między macierzą danych dla elementów jednego zbioru ą macierzą dla elementów drugiego zbioru zachodzi relacja, której poznanie wydaje się pożyteczne, relacja ta implikuje bowiem pewien związek między odpowiadającymi sobie teoriami pomiaru i modelami skalowania. Jeśli weźmiemy kwadratową macierz danych i podzielimy obiekty na dwa rozłączne podzbiory: ^-elementowy i m-elementowy, to macierz danych dla tych dwu podzbiorów będzie macierzą cząstkową (podmacierzą) pełnej macierzy danych, nie zawierającą elementów symetrycznych względem głównej przekątnej; macierz tę nazwiemy macierzą poza przekątniową. Zatem dane pochodzące z dwóch zbiorów obiektów mogą być traktowane jako szczególny przypadek danych pochodzących z jednego zbioru obiektów — tak jak gdyby z jakiegoś powodu nie wszystkie dane zostały zebrane (tzn. nie były zaobserwow ane relacje wewnątrz zbioru). Dzięki temu potencjalnie możliwe jest przystosowanie modelu analizy macierzy danych jednego typu do analizy innego typu macierzy.

Zapoznaliśmy się do tej pory z dwoma rodzajami macierzy: porządku i bliskości. Każdy z tych rodzajów może być macierzą pełną lub poza-przekątniową macierzą cząstkową, w zależności od tego, czy obserwujemy relacje między elementami tego samego zbioru, czy też między elementami dwóch różnych zbiorów „ćwiartek”. Każda z ćwiartek określona jest przez najbardziej dla niej typowe obserwacje.

Jednakże, te same obserwacje zachowania się można — zależnie od teorii

— zaliczać do różnych ćwiartek. Przypuśćmy na przykład, że każdy z członków klubu tenisowego wymienia nazwiska innych członków, z którymi chciałby grać. Jeden człowiek może wymienić tych kolegów, których ma nadzieję pokonać, drugi zaś tych, z którymi ma nadzieję rozegrać dobry mecz. Zachowanie się pierwszego gracza jest reprezentowane przez relację porządku (dominacji), zachowanie drugiego — przez relację bliskości.

Gdy zastanawiamy się, czy elementy rzeczywistego świata reprezentować przez jeden, czy przez dwa zbiory punktów, to na pierwszy rzut oka może się wydawać, że możliwy jest jeden tylko zbiór punktów, w omawianym przykładzie — członkowie klubu tenisowego. Ale przecież samoocena pojedynczego członka może nie pokrywać się z oceną dokonaną przez jego kolegów klubowych, na przykład gdy mają oni przesadnie skromne lub zawyżone opinie o sobie samych.

W takim przypadku każda jednostka winna być reprezentowana przez dwa punkty: jeden — odpowiadający jej własnej samoocenie i drugi

— odpowiadający ocenom poczynionym w stosunku do tej jednostki przez pozostałych kolegów klubowych, tzn. punkty reprezentujące gracza jako podmiot opiniujący i jako przedmiot (bodziec) opinii innych ludzi.

Wobec tego, choć zawsze można zapisać obserwacje w macierzy, to jakakolwiek ich analiza jest możliwa dopiero po sprecyzowaniu stanowiska teoretycznego: czy istnieje jeden, czy dwa zbiory punktów oraz czy jest to relacja porządku, czy bliskości.

Ta wersja teorii danych (Coombs, 1964), mimo że uproszczona i skrócona, obejmuje większość rodzajów macierzy danych, spotykanych w naukach społecznych. Poniżej przedstawimy przynajmniej po jednym reprezentatywnym i istotnym modelu skalowania dla zilustrowania każdego rodzaju macierzy danych. Oczywiście, pominiemy niektóre bardzo ważne teorie skalowania. Na szczęście bardziej wyczerpujące opracowania zawarte są w książkach: Torgersona (1958) i Coombsa (1964).

W rozdziale tym przedstawimy tylko niektóre z istniejących teorii skalowania. Właściwe więc wydaje się naszkicowanie tu nieco szerszej perspektywy tej dziedziny badań. Aż do końca drugiej wojny światowej opracowano jedynie teorię wyżej przedstawionych rodzajów macierzy danych. Sporadycznie zdarzały się wprawdzie przypadki takich obserwacji, które mogłyby być zaklasyfikowane inaczej, ale możliwości takiej zwykle nie uświadamiano sobie. W istocie, tylko dwa z wyżej wymienionych czterech rodzajów macierzy danych naprawdę przykuwały uwagę badaczy. Były to dwa rodzaje macierzy porządku: macierz pełna i jej podmacierz pozaprzekątniowa, czyli ćwiartka III i ćwiartka II (rys. 3.2). Podstawowym modelem analizy macierzy pełnej (III ćwiartka) z proporcjami2 w klatkach macierzy — jest prawo ocen porównawczych Thurstone’a (1927tf). Model ten omówimy w niniejszym rozdziale. Wspomnimy także o konkurencyjnym modelu, opracowanym przez Luce’a (1959), ponieważ model ów odgrywa istotną rolę w teorii zachowania się (patrz § 5.3). Zastosowanie modelu Thurstone’a zdecydowaliśmy się zilustrować na przykładzie badań będących powtórzeniem przeprowadzonych 40 lat temu badań nad wartościami społecznymi. Podmacierze pozaprzekątniowe dla relacji porządku (ćwiartka II) cieszyły się największym zainteresowaniem wśród psychologów zajmujących się psychometrią, w szczególności pomiarem zdolności i umiejętności, oraz wśród psychologów zajmujących się mierzeniem progów psychofizycznych. Podczas drugiej wojny światowej Louis Guttman (1944) opracował dla analizy macierzy danych z II ćwiartki metodę zwaną skalogramem. Model ten był stosowany bardzo szeroko, zwłaszcza w naukach społecznych. Model Guttmana zilustrujemy na przykładzie jednego z jego zastosowań z okresu drugiej wojny światowej.

Przed rokiem 1950 jedynym rodzajem macierzy bliskości, dla której opracowano teorię, była macierz korelacji — pełna macierz bliskości (ćwiartka IV). W 1904 roku Charles Spearman rozpoczął budowę czynnikowej teorii inteligencji. Pracę tę kontynuowali później: jego rodak — Cyril Burt oraz Godfrey Thomson w Szkocji, a następnie Kelley, Holzinger i Thurstone w USA.

Od roku 1950 rozwijane są metody analizy macierzy pozaprzekątnio-wych dla ćwiartki I. Zaprezentujemy tu jedną z takich metod: teorię rozwijania skal. Główną ideą tej metody, podobnie jak i innych, późniejszych metod analizy macierzy bliskości, jest interpretacja danych w macierzy bliskości jako relacji określonych na odległościach.

Początkowo teoria rozwijania była teorią preferencji (preferential choice behaoior) (Coombs, 1950) i wobec tego dotyczyła raczej nie analizy bliskości, lecz analizy relacji porządku (takich, jak np. punktacje w teście); porządki te określone były natomiast na „odległościach”. Na przykład jednostka i stwierdzenie wyrażające jej postawę reprezentowane są w teorii rozwijania jako punkty: jednostka jako punkt idealny i stwierdzenie jako pewien inny punkt. Stosunek jednostki do stwierdzenia reprezentowany jest przez względne odległości między tymi punktami. Przedkładanie przez jednostkę jednego stwierdzenia nad drugie reprezentowane jest przez relację porządku względnych bliskości dwu punktów punktowi idealnemu, a zatem przez relację porządku określoną na odległościach.

Macierz danych z wierszami odpowiadającymi osobom badanym, kolumnami odpowiadającymi bodźcom oraz z klatkami zawierającymi miary odpowiedzi będące miarami bliskości pozwala wyznaczyć rangowy porządek odległości punktów reprezentujących bodźce od punktu idealnego, tzn. uporządkowanie preferencji. Dlatego właśnie dane z ćwiartki I są interpretowane jako wybory według preferencji.

Teoria rozwijania jest teorią skalowania, w której buduje się przestrzeń z dwoma zbiorami punktów: jeden zbiór punktów dla jednostek (osób), drugi — dla obiektów będących przedmiotem wyboru, tzn. dla bodźców. Uporządkowanie preferencji przez jednostkę jest reprezentowane przez relację porządku określaną na odległościach między odpowiednimi punktami.

Począwszy od r. 1952 obserwuje się intensywny rozwój opracowań dotyczących analizy pełnych macierzy bliskości (ćwiartka IV — dane o podobieństwach). Torgerson (1952) rozszerzył zastosowanie analizy czynnikowej na takie przypadki macierzy bliskości, gdy w klatkach macierzy zawarte są odległości między punktami zmierzone na skali
5 Wprowadzenie do psychologii matematycznej przedziałowej, tzn. z dokładnością do przekształcenia liniowego. Analiza czynnikowa współczynników korelacji równoważna jest mierzeniu odległości na skali ilorazowej, tzn. z dokładnością do mnożenia przez dowolną stałą dodatnią. Zauważmy, że macierz korelacji jest symetryczna, a w metodzie Torgersona wymagana jest także symetria macierzy odległości między punktami.

Następnie Shepard w r. 1962 po raz pierwszy przedstawił iteracyjną procedurę komputerową analizy pełnej macierzy bliskości. W procedurze tej odległości między punktami były mierzone na skali tylko porządkowej, tzn. z dokładnością do przekształcenia monotonicznego. Potem Torgerson i Meuser, Kruskal (1964), Guttman oraz Lingoes opracowali metody będące udoskonaleniami programu Sheparda (Torgerson, 1965). Ze względu na szybki rozwój i ciągle zmieniający się stan wiedzy w zakresie konstruowania tych metod — żadna z nich nie zostanie omówiona tu szczegółowo. Przedstawimy jedynie ogólną charakterystykę tych metod, ich wspólne cechy oraz przykłady zastosowania.

Pierwotnie wszystkie te metody były przeznaczone do analizy statystycznej pełnej macierzy bliskości. Istnieje inna jeszcze, często spotykana forma pełnej macierzy bliskości (zwana warunkową macierzą bliskości), która nie jest macierzą symetryczną. Obydwa typy macierzy omówimy szczegółowo w §3.4.

Hays opracował metodę przeznaczoną właśnie do analizy warunkowych macierzy bliskości. Metodę tę można również stosować do analizy symetrycznych macierzy bliskości; Coombs (1958) podał przykład zastosowania tej metody dla symetrycznej macierzy danych dotyczących alfabetu Morse’a. Od tego czasu metoda Haysa została jeszcze lepiej opracowana. Jest ona opisana w pracy Coombsa (1964).

Metoda Haysa jest słabsza od jakichkolwiek innych stosowanych tu komputerowych procedur iteracyjnych, zachowany jest w niej bowiem jedynie porządek rangowy odległości wewnątrz trójkątów, tzn. dla wszystkich trójek punktów odpowiadających częściowemu uporządkowaniu odległości par punktów — co jest czymś bardziej ogólnym niż proste uporządkowanie odległości w symetrycznej macierzy bliskości. To częściowe uporządkowanie jest jednakże właściwe dla typu skali 66 pomiaru w warunkowej macierzy bliskości.

analiza statystyczna metodolog

Jak skonstruować dobry test psychometryczny tips&tricks

Jak skonstruować dobry test psychometryczny tips&tricks Metodolog.pl

Można powiedzieć, że test psychologiczny jest narzędziem, które:

(1) pozwala na uzyskanie takiej próbki zachowań, o których można przyjąć (np. na podstawcie założeń teoretycznych), że są one wskaźnikami interesującej nas cechy psychologicznej. Zachowania te nie muszą ściśle przypominać tych, które chcemy oszacować na podstawie testu. Wystarczy wykazać, że istnieje między nimi określony związek;

(2) dostarcza reguł obliczania wartości mierzonej cechy;

(3) spełnia określone kryteria formalne, takie jak: obiektywność (czyli niezależność wyników testowania), standaryzacja (czyli jednolitość reguł badania testem), rzetelność (czyli dokładność pomiaru), trafność (czyli ustalenie, że test mierzy właśnie to, co z założenia powinien mierzyć) i normalizacja (czyli określenie reguł interpretacji wyniku testowego)

(4) jasno określa zakres i rodzaj dopuszczalnych zachowań ze strony diagnosty, zakładając kooperacyjną postawę osoby badanej.

 

Charakterystyka statystyczna pozycji, które powinny być włączone do testu

(1) Średnia pozycji nie powinna osiągać wartości ekstremalnej w danej skali punktacji. Pozycja taka oznacza bowiem, że wszystkie osoby badane osiągnęły ten sam wynik. Nie wnosi więc ona żadnego wkładu w obserwowane różnice międzyosobnicze. Optymalna pozycja powinna zatem mieć średnią, „ulokowaną” idealnie w środku danej skali pomiarowej, na przykład przy kodowaniu „zero-jedynkowym” powinna być równa 0,50. W testach zdolności, z uwagi na silne skorelowanie pozycji, które prowadziłoby do uzyskiwania rozkładów platykurtycznych (o zbyt niskiej kurtozie; zob. Blalock, 1977), wprowadza się pozycje o zróżnicowanej średniej, to znaczy odpowiadające wzrastającemu poziomowi trudności pozycji.

(2) Wariancja pozycji nie powinna być równa zero. Pozycja taka bowiem nie wnosi żadnego wkładu w obserwowane różnice międzyosobnicze. Optymalna pozycja powinna zatem mieć dużą wariancję wyników. Przykładowo: maksymalna wariancja wyników pozycji jest rejestrowana przy „zero-jedynkowym” systemie punktacji dla średniej 0,50 i wynosi wtedy 0,25, co jest maksymalnie możliwym do uzyskania wynikiem.

(3) Pozycja powinna wykazywać dodatnie skorelowanie z innymi pozycjami. Przy korelacji równej zero pozycja ta zwiększa wariancję wyników testu, ale jedynie o wartość własnej wariancji. Jeśli jednak nie koreluje z innymi pozycjami, to znaczy, że nie mierzy tego, co one, oraz nie generuje kowariancji, a dokładniej – generuje zerowe kowariancje. Przy korelacji ujemnej pozycja z kolei także zwiększa wariancję wyników testu jako całości o swoją wariancję, ale generuje ujemne kowariancje z innymi pozycjami. Całkowita wariancja testu po dodaniu takiej pozycji wręcz maleje, co w oczywisty sposób jest sprzeczne z założeniami testu, który powinien ujawniać znaczne różnice międzyosobnicze. Interkorelacje pozycji z innymi pozycjami powinny być zatem dodatnie, tylko bowiem w tym wypadku maksymalizowana jest wariancja wyników testu jako całości. Optymalne pozycje nie powinny jednak wykazywać zbyt silnego skorelowania z innymi pozycjami (co jest zresztą przypadkiem raczej teoretycznym), ponieważ zbyt duża zgodność odpowiedzi może prowadzić do uzyskania rozkładów platykurtycznych wyniku testu.

 

Relacja między rzetelnością a trafnością pomiaru cechy testem

Rzetelność i trafność są dwoma parametrami psychometrycznymi pomiaru danej cechy testem. Wykazują także zbliżone uwarunkowania – zależą od charakterystyki testu (długość i interkorelacje pozycji testowych ) oraz zmienności w badanej próbie. Ograniczenie zmienności powoduje obniżanie się zarówno rzetelności, jak i trafności pomiaru. Trafność pomiaru jest jednak bardziej „wrażliwa” na zmiany procedury badania testem, na przykład zmiana warunków badania może skutkować nie tyle obniżeniem rzetelności, ile trafności pomiaru testem w konsekwencji badania innej zmiennej psychologicznej. jak przykładowo tendencji do dysymulowania. Pomiar jest wówczas rzetelny, ale nietrafny. Rozumowanie to prowadzi nas do wskazania istotnych relacji między rzetelnością a trafnością pomiaru. Utwierdzenia, że ogólnie rzetelność jest koniecznym, ale niewystaczającym warunkiem trafności pomiaru (rzetelność stanowi bowiem kres trafności pomiaru) Test może zatem oferować rzetelny i mało trafny pomiar, ale niemożliwa jest sytuacja odwrotna – testo o mało rzetelnym pomiarze będzie także testem mało trafnym, a test oferujący pomiar o dużej trafności automatycznie musi być testem o dużej rzetelności.

Czynniki wpływające na wielkość współczynników rzetelności pomiaru testem

Na rzetelność pomiaru, rozumianą jako zgodność wewnętrzna, wpływają dwa główne czynniku zakres zmienności w badanej próbie oraz charakterystyki testu, czyli jego długość i wielkość skorelowania pozycji. Współczynnik rzewności oznacza rzetelność pomiaru różnic interindywidualnych w zakresie cechy. Z tego względu ograniczenie zmienności wyników w badanej próbie skutkuje niższą rzetelnością pomiaru cechy, na przykład w grupach jednorodnych demograficznie współczynniki zgodności wewnętrznej są często niższe niż w całej próbie zróżnicowanej demograficznie. Wariancja prawdziwa jest definiowana poprzez kowariancję wyników pozycji, toteż większą rzetelnością pomiaru charakteryzują się testy zawierające większą liczbę pozycji (ze względu na większą liczbę wyrażeń kowariancyjnych pozycji oraz testy, których pozycje są wyżej skorelowane (z uwagi na wielkość wyrażeń kowariancyjnych. Zwiększenie rzetelności pomiaru – jak wskazuje wzór Spearmana-Browna – może zatem odbyć się poprzez wydłużenie testu,  poprzez wprowadzenie do testu pozycji wysoko wzajemnie skorelowanych.

 

Zalecenia dotyczące opcji odpowiedzi w kwestionariuszach

W wypadku metod kwestionariuszowych sugeruje się zastosowanie raczej rozszerzonych formatów odpowiedzi a więc zawierających kilka (więcej niż dwie) opcji odpowiedzi. Formaty nie powinny jednak być nadmiernie szeroki oraz zawierać opcji pośredniej, wskazującej na niepewność osoby badanej (na przykład „Nie wiem” czy znaku zapytania [„?”]). Opcja centralna może być jednak uwzględniona, gdy oznacza przeciętne nasilenie zachowania. Optymalna liczba powinna wynosić od 4 do 7 opcji odpowiedzi, przy czym najlepiej, jeśli byłyby one wyrażone w formie akceptacji-dezakceptacji treści pozycji i nie zawierały opisów częstości czy intensywności zachowania (chyba że wymaga tego badany konstrukt teoretyczny). Inna kwestia dotyczy zakotwiczenia skali odpowiedzi, która powinna obejmować kategorie niemalże ekstremalne, rozszerzające poznawczo zakres analizowanych przez osobę badaną zachowań. kierunek zakotwiczenia zaś powinien przebiegać od opcji negatywnych do afirmatywnych, na przykład od „Zdecydowany nie zgadzam się” do „Zdecydowanie zgadzam się” . Ponadto powinny one być językowo proste i dostosowane do treści pozycji oraz preferencji osób badanych, co można ustalić w badaniach pilotażowych (Angleitner i in. 1986). Użytecznym rozwiązaniem jest także stosowanie określeń werbalnych (w formie gradacji stopnia akceptacji-dezakceptacji treści pozycji) wraz z przyporządkowanymi im wartościami liczbowymi. Kanonem jest ponadto wprowadzenie opcji o jednolitym formacie dla wszystkich pozycji, w przeciwnym razie zróżnicowanie szerokości formatu skutkuje zróżnicowaniem wag pozycji.

Sprzeczność między trafnością teoretyczną a kryterialną pomiaru cechy testem

Koncepcja cechy wymaga wprowadzenia do testu odmiennych treściowo, ale skorelowanych pozycji. Wybór pozycji wysoko wzajemnie skorelowanych powoduje jednak, że charakteryzują się one dużym podobieństwem treściowym. Rodzi to sprzeczność między teoretyczną „szerokością” definiowania cechy a możliwością jej raczej „wąskiego” zoperacjonalizowania w praktyce. Przyjmując też, że skorelowanie pozycji maleje wraz ze zmniejszaniem się podobieństwa treściowego, warunkuje to także sprzeczność między precyzją pomiaru (rzetelnością) a zakresem wskaźników cechy, obejmowanym przez test. W wypadku bowiem, gdy test zawiera pozycje podobne treściowo, to pomiar cechy jest bardzo rzetelny, ale cecha jest „wąsko zoperacjonalizowana”. Natomiast gdy cecha jest „zoperacjonalizowana szeroko”, to test obejmuje pozycje odmienne treściowo i słabo skorelowane, wskutek czego pomiar cechy jest mało rzetelny (zob. Murphy i Davidshofer, 2005). Paradoks ten powoduje też istnienie sprzeczności między trafnością teoretyczną a kryterialną zarówno pozycji testowych, jak i testu jako całości. W pierwszym wypadku bowiem cecha jest ujmowana precyzyjnie, a test charakteryzuje duża trafność teoretyczna pomiaru, ale słaba trafność kryterialna – badana cecha wyjaśnia w niewielkim stopniu złożone zachowania w naturalnych sytuacjach. W drugim zaś – badana cecha wyjaśnia wiele zmienności kryterium, ale wskutek wewnętrznej niejednorodności pozycji pomiar testowy jest mało trafny teoretycznie, a badana cecha treściowo niejednoznaczna. Rozwój teorii różnic indywidualnych, diagnostyki psychologicznej oraz psychometrii spowodował jednak, że psychologowie z reguły opowiadają się za pierwszą z tych możliwości, preferując konstruowanie testów o dużej trafności teoretycznej.

 

Chcesz zobaczyć jak wygląda prawdziwy test psychologiczny, kwestionariusz osobowości? Sprawdź http://www.testmirror.pl