Dane binarne w statystyce

Wstęp do meta-analizy. Pierwsze kroki w statystycznej analizie wielu badań.

meto

 

Meta-analiza jest zbiorem statystycznych procedur używanych w dostarczeniu przejrzystych, obiektywnych i replikowalnych podsumowań odkryć badawczych.

Zaczniemy od wprowadzenia w meta-analizę wraz z wyszczególnieniem wstępnych kroków zawartych w kompletowaniu syntezy badań.

Gane Glass wprowadził termin meta-analiza w odniesieniu do statystycznej analizy szerokiej kolekcji wyników analiz z indywidualnych badań w celu integracji wniosków.  Jak z każdą statystyczną procedurą, meta-analiza ma mocne strony oraz ograniczenia. Niemniej jednak jest ona teraz standardowym narzędziem do dostarczania przejrzystych, obiektywnych i powtarzalnych podsumowań w naukach społecznych, medycynie, edukacji i innych polach nauki.

Systematyczne strategie badawcze.

Przed konstrukcją meta-analizy, pytanie badawcze musi być sformułowane precyzyjnie, te pytania wpłyną w całości na proces meta-analityczny. Tak więc, jak jest w zwykłych badaniach empirycznych muszą być dopracowane kryteria włączania i wyłączania. To dostarczy jasność na to jak wyniki badań będa generalizowane na populację.  Jednym z celów jet  każdej meta-analizy jest zebranie reprezentatywnej próby podstawowych badań, które zapewniają zdefiniowane kryteria ich doboru. Systematyczna strategia badawcza zawiera dwa główne kroki: (1) zdefiniowanie problemu i kryteriów wyborów (włączenia i wyłączenia) oraz (2) wyboru badań.

(1) Kryteria włączenia i wyłączenia.

Definiowanie badania w włączaniu i wyłączaniu powinno być oparte na hipotezie badawczej i pytaniach badawczych. Kryteria włączania i wyłączania mogą potencjalnie wpływać na wyniki badania. Taki więc jest ważne aby były one wyraźne i przemyślane.

(2) Selekcja badań.

Selekcja badań i proces wydobycia danych jest często najbardziej czasochłonnym krokiem w przeprowadzeniu meta-analizy. Proces wyboru badań zwykle zawiera szczególną sekwencję z wstępnego wyszukania do kodowania sił efektu z pojedynczego badania podstawowego. Może być pomocne ustruktyruzowanie procesu przy bazowaniu na 4 krokach (identyfikacja, przejrzenie, kwalifikowanie i włączenie) uszczegółowionych w Meta-Analisis Reporting Standards (MARS), instrukcja jest na stronie (http://www.apa.org/pubs/ authors/jars.pdf)  lub PRISMA (http://www.prisma-statement.org/statement.htm). Powyższe kroki powinny być podwójnie kodowane (np. przez dwie osoby) by zapewnić większa obiektywność i precyzję w procesie selekcjonowania badań.

 

analiza statystyczna w nauce

Czym jest testowanie hipotezy? Podstawy metodologii badań naukowych

meto

Czym jest testowanie hipotezy?

 

Statystyczna hipoteza jest założeniem o parametrze populacji. To założenie może się okazać prawdziwe lub nie. Testowanie hipotezy odnosi się do formalnych procedur używanych przez statystyków by przyjąć albo odrzucić hipotezę statystyczną.

Hipotezy statystyczne

 

Najlepszym sposobem aby ustalić czy hipoteza statystyczna jest prawdziwa, byłoby przebadanie całej populacji. Jako, że jednak jest to często niepraktyczne, badacze zazwyczaj badają losową próbkę z populacji. Jeżeli próbka nie potwierdza hipotezy, wtedy hipoteza zostaje odrzucona.

Mamy dwa typy hipotez statystycznych:

  • Hipoteza zerowa – oznaczana jako H0, jest zwykle hipotezą, gdzie wyniki z próbek obserwacyjnych wynikają z czystego przypadku.
  • Hipoteza alternatywna – oznaczano jako H1, jest hipotezą, gdzie wyniki z próbek obserwacyjnych są zdefiniowane przez jakąś nielosową przyczynę.

Na przykład, załóżmy, że chcieliśmy ustalić czy moneta jest sprawiedliwa i dobrze wyważona. Hipoteza zerowa mogłaby być taka, że połowa rzutów skończy się orłem, a połowa reszką. Alternatywną hipotezą mogłoby być to, że liczba orłów i reszek będzie różna. W sposób symboliczny, możemy to zapisać następująco:

H0: P = 0.5

H1: P ≠ 0.5

Załóżmy, że rzuciliśmy monetą 50 razy i otrzymaliśmy 40 orłów i 10 reszek. Po otrzymaniu takiego wyniku, będziemy skłonni odrzucić hipotezę zerową. Moglibyśmy wywnioskować, bazując na dowodach, że moneta prawdopodobnie jest niesprawiedliwa i źle wyważona.

Czy możemy przyjąć hipotezę zerową?

Niektórzy badacze mówią, że sprawdzanie hipotez może mieć jeden z dwóch efektów: przyjmujemy hipotezę zerową albo ją odrzucamy. Wielu statystyków, jednakże, kwestionuje pojęcie „przyjęcia hipotezy zerowej”. Zamiast tego, mówią, że odrzuciłeś hipotezę zerową albo nie udało ci się odrzucić hipotezy zerowej.

Jaka jest różnica pomiędzy „przyjąć”, a „nie udało się odrzucić”? Przyjęcie sugeruje, że hipoteza zerowa jest prawdziwa. Nieudane odrzucenie sugeruje, że dane nie są dostatecznie przekonujące dla nas by przedłożyć hipotezę alternatywną ponad hipotezą zerową.

Testowanie hipotez

 

Statystycy idą według formalnych procesów by ustalić czy należy odrzucić hipotezę zerową, opartą na próbce danych. Ten proces, zwany testowaniem hipotez, składa się z czterech kroków:

  • Postawienie hipotez. W nim zawiera się postawienie hipotezy zerowej i alternatywnej. Hipotezy są stawiane w taki sposób aby się wzajemnie wykluczały. To znaczy, że jeśli jedna jest prawdziwa, to druga musi być fałszywa.
  • Sformułowanie planu analizy. Plan analizy opisuje jak użyć próbki danych do oceny hipotezy zerowej. Ocena często skupia się wokół pojedynczej statystyki testowej.
  • Analiza próbki danych. Znalezienie wartości statystyki testowej (średni wynik, proporcje, wynik-t, wynik-z, itd.) opisane w planie analizy.
  • Interpretacja wyników. Zastosowanie zasady decyzyjnej opisanej w palnie analizy. Jeżeli wartość statystki testowej, bazująca na hipotezie zerowej, jest nieprawdopodobna, wtedy odrzucamy hipotezę zerową.

Błędy decyzyjne

 

Z testowania hipotez mogą wyniknąć dwa błędy:

  • Błąd 1 typu – występuje wtedy gdy badacz odrzuca hipotezę zerową, chociaż jest prawdziwa. Prawdopodobieństwo popełnienia błędu 1 typu nazywamy poziomem istotności. To prawdopodobieństwo jest również zwane alfą, i często zapisywane jako α.
  • Błąd 2 typu – występuje kiedy badacz nie odrzuca hipotezy zerowej chociaż jest nieprawdziwa. Prawdopodobieństwo popełnienia błędu 2 typu nazywamy Betą, która jest często oznaczana przez β. Prawdopodobieństwo niepopełnienia błędu 2 typu jest nazywane mocą testu.

Zasady decyzyjności

 

Plan analizy zawiera zasady decyzyjności dla odrzucania hipotez zerowych. W praktyce, statystycy opisują te zasady decyzyjności na dwa sposoby – w odniesieniu do wartości P albo w odniesieniu do przedziału ufności.

  • Wartość P – mierzy siłę dowodów wspierających hipotezę zerową. Załóżmy, że statystyka testu wynosi Wartość P jest prawdopodobieństwem zaobserwowania statystyki testu tak skrajnej jak S, zakładając prawdziwą hipotezę zerową. Jeżeli P wynosi mniej niż poziom istotności, wtedy odrzucamy hipotezę zerową.
  • Przedział ufności – jest zakresem wartości. Jeżeli statystyka testu mieści się w przedziale ufności, hipoteza zerowa nie jest odrzucona. Przedział ufności jest tak definiowany aby szansa popełnienia błędu 1 typu była tożsama z poziomem istotności.

Zestaw wartości poza przedziałem ufności nazywamy obszarem krytycznym. Jeżeli statystyka testu mieści się w obszarze krytycznym, hipoteza zerowa zostaje odrzucona. W takich przypadkach, mówimy że hipotezy zostały odrzucone na poziomie istotności α.

Te podejścia są równoważne. Niektóre testy statystyczne używają wartości P, inne przedziału ufności. W kolejnych częściach, ten tutorial zaprezentuje przykłady obrazujące każde z tych podejść.

Testy jednostronne i dwustronne

 

Test statystycznej hipotezy, gdzie obszar krytyczny jest tylko po jednej stronie rozkładu próbki, jest nazywany testem jednostronnym. Na przykład, załóżmy, że hipoteza zerowa stanowi, że średnia jest mniejsza albo równa 10. Alternatywna hipoteza byłaby taka, że średnia jest większa od 10. Obszar krytyczny składałby się z zakresu numerów znajdujących się na prawo od rozkładu próbki, czyli z zestawu numerów większych od 10.

Metodologia badań naukowych

Analiza statystyczna w marketingu – Analiza CONJOINT.

meto

 

Czym jest Analiza Conjoint?

 Analiza conjoint (łączona) jest jedną z najszerzej stosowanych metod ilościowych w badaniach marketingowych. Używa się jej by zmierzyć preferencje cech produktów, nauczyć się jak zmiany cen wpływają na chęć posiadania produktu albo usługi, i aby przewidzieć prawdopodobne przyjęcie produktu na rynek.

Zamiast pytać respondentów wprost co im się podoba w produkcie, albo jakie cechy uważają za najważniejsze, analiza conjoint stosuje bardziej realistyczny model odpowiedzi badanych, oceniających profile produktu. Każdy profil zawiera wielorakie, połączone cechy produktu (conjoint znaczy połączyć), takie jak:

analiza conjoint 1

Z jakim prawdopodobieństwem kupiłbyś taki komputer?

(użyj skali od 0 do 100, gdzie 0 = „na pewno nie” a 100 znaczy „zdecydowanie tak”)

 

Są rożne sposoby aby pokazać profile produktu. Oryginalna wersja analizy conjoint, rozwijana we wczesnych latach 70. pokazywała jeden produkt na raz, jak na powyższym przykładzie. System CVA może być wykorzystany w tej, tradycyjnej formie analizy conjoint. Późniejsze formy analizy conjoint pokazywały produkty w parach (system CVA albo ACA System), albo całe zestawy na raz (system CBC), jak na poniższym przykładzie:

Analiza Conjoint 2

Gdybyś był dziś w sklepie by kupić komputer, i to byłby dostępne opcje, który byś wybrał?

Żaden: gdybym miał tylko taki wybór, odłożyłbym mój zakup.

 

Respondenci zwykle odpowiadają na 12-30 połączonych pytań. Pytania są zaprojektowane uważnie, wykorzystują eksperymentalnie zaprojektowane zasady niezależności i bilansu cech. Przez niezależne rozróżnienie cech, które są pokazane respondentom i obserwację ich odpowiedzi na profile produktów, analiza może statystycznie wywnioskować, które cechy produktu są najbardziej pożądane i jakie atrybuty mają największy wpływ na wybór. W porównaniu do prostszych ankietowych metod badawczych, które pytają badanych wprost o to co wolą, albo o ważność każdego atrybutu, te preferencje pochodzą z w miarę realistycznych sytuacji handlowych.

Wynik całościowy jest zwykle całym zestawem wyników preferencji (często zwanych częściowo-wartościowym narzędziem) dla każdego atrybutu zawartego w badaniu.

Czasami może być trudno zdecydować, która metoda conjoint jest najbardziej adekwatna do twojej szczególnej sytuacji badawczej. Rozwinęliśmy interaktywny poradnik by pomóc ci wybrać odpowiednią metodę conjoint dla twojej konkretnej sytuacji. Także stworzyliśmy dokument zatytułowany „Której metody conjoint powinienem użyć”  by się do niego później odnieść.

Połączone symulatory rynku pozwalają badaczowi zdefiniować konkretne aspekty porównawcze (konkretne produkty rywalizujące z innymi) i zaprojektować części wyborów (preferencji), dając oszacowane częściowo-wartościowe wyniki. Te symulatory pozwalają badaczom i menedżerom testować różne potencjalne scenariusze.

Z symulatorami rynku można także pójść o krok dalej. Oprócz użycia ich do odpowiedzi na pytanie: „jak dobry jest ten produkt?” mogą zostać wykorzystane żeby odkryć „jaki produkt jest najlepszy?”. Komputerowe procedury badawcze (takie jak Zaawansowany Model Symulacyjny) potrafią efektywnie wynajdywać optymalne produkty, bazując na kryteriach użyteczności, podziału, dochodu i zysku. Optymalizacja zysku jest prawdopodobnie najbardziej eksploatowaną i przydatną z punktu widzenia menedżerów aplikacją połączonej analizy danych, ale wymaga by koszt różnych komponentów produktu był podany w miarę precyzyjnie.

Dzisiaj, tysiące badań conjoint są przeprowadzane każdego roku, przez internet, z pomocą komputerów nie podłączonych do sieci, w ramach wywiadów twarzą w twarz albo ankietami wysyłanymi pocztą. Czołowe organizacje oszczędzają mnóstwo pieniędzy na badaniach i kosztach rozwoju, skutecznie wykorzystując wyniki do projektowania nowych produktów albo poszerzania linii produkcyjnych, repozycjonowania istniejących produktów i podejmowania bardziej zyskownych decyzji cenowych.

Z 30 letnim doświadczeniem i tysiącami użytkowników na całym świecie, Sawtooth Software jest czołowym dostarczycielem oprogramowania do analiz conjoint. Firmy takie jak  Procter & Gamble, Google, General Motors, General Electric i Microsoft korzystają z tego oprogramowania i prezentowały analizy przypadków i zakończone sukcesem historie popularnych konferencjach badawczych.

Czym jest Analiza Conjoint

Wyciskanie sensu z Alfy Cronbacha – analiza rzetelności.

meto

 

Wyciskanie sensu z Alfy Cronbacha 

Edukatorzy medyczni próbują stworzyć rzetelne i wiążące testy i kwestionariusze by zwiększyć trafność swoich szacunków i ocen. Trafność i rzetelność są dwoma fundamentalnymi elementami w ocenie narzędzi pomiaru. Narzędzia mogą być konwencjonalną wiedzą, umiejętnością lub stosunkiem testów, symulacji klinicznych albo ankiet kwestionariuszowych. Narzędzia mogą mierzyć pojęcia, zdolności psychomotoryczne albo wartości afektywne. Trafność rozumie się jako stopień w jakim narzędzie pomiaru mierzy to co miało zmierzyć. Rzetelność natomiast traktuje się jako zdolność narzędzia do wykonywania spójnych pomiarów. Powinno się zaznaczyć, że rzetelność narzędzia jest silnie powiązana z jego trafnością. Narzędzie nie może być trafne jeśli nie jest rzetelne. Jednakże, rzetelność narzędzia nie zależy od jego trafności. Jest możliwe by obiektywnie zmierzyć rzetelność narzędzia i w tym tekście wytłumaczymy znaczenie Alfy Cronbacha , najszerzej używanej obiektywnej miary rzetelności.

Liczenie alfy stało się powszechną praktyką w medycznej nauce badawczej kiedy w użyciu są złożone miary pojęcia albo konstruktu.

Dzieje się tak dlatego, że łatwiej jest użyć porównania z innymi szacunkami (np. retest rzetelności szacunków) ponieważ wymaga to zastosowania tylko jednego testu. Jednak pomimo powszechnego używania alfy w literaturze, jej znaczenie, właściwy sposób użycia i interpretacje nie są łatwo zrozumiałe. Dlatego uważamy, że ważnym jest aby wytłumaczyć zasadnicze założenia alfy aby promować efektywne jej używanie. Trzeba podkreślić, że celem tego tekstu jest skupienie się na Alfie Cronbacha jako wskaźniku rzetelności. Alternatywne metody mierzenia rzetelności opierające się na metodach psychometrycznych, takie jak teoria czynnika G albo teoria reagowania na pozycje testowe mogą zostać użyte by monitorować i poprawiać jakość badań OSCE, ale o nich nie będzie tutaj mowy.

Co to jest alfa Cronbacha?

 

Alfa została rozwinięta przez Lee Cronbacha w 1951 by zapewnić miarę wewnętrznej spójności dla testu albo skali; jest to wyrażone liczbą między 0 i 1. Wewnętrzna spójność opisuje stopień w jakim wszystkie pozycje w teście mierzą to samo pojęcie albo konstrukt i stąd jest to połączone ze wzajemnym powiązaniem ze sobą pozycji wewnątrz testu. Wewnętrzna spójność powinna być ustalona, by zapewnić trafność, zanim test zostanie użyty do badań albo celi badawczych. Dodatkowo, rzetelność szacuje pokazaną ilość błędów pomiarowych w teście. Mówiąc prosto, ta interpretacja rzetelności jest korelacją testu samego ze sobą. Podniesienie do kwadratu tej korelacji i odjęcie od 1.00 sprawi, że powstanie wskaźnik błędów pomiaru. Na przykład, jeżeli test ma rzetelność na poziome 0.80, występuje 0.36 zmienności błędu (błąd losowości) w wyniku (0.80×0.80=0.64; 1.00-0.64=0.36). Jeżeli oszacowana rzetelność rośnie, fragment wyniku testu przypadający na błąd będzie malał. Oczywiście rzetelność testu ujawnia efekt błędu pomiarowego dla obserwowalnego wyniku raczej dla grupy badanych niż pojedynczego badanego. By obliczyć efekt błędu pomiaru na obserwowalnym wyniku pojedynczego badanego, musi zostać wyliczone standardowy błąd pomiaru (SEM).

Jeżeli pozycje w teście są ze sobą skorelowane, wartość alfy wzrasta. Jednakże, wysoki współczynnik alfa nie zawsze oznacza wysoki stopień spójności wewnętrznej. To dlatego, że alfa jest również kształtowana przez długość testu. Jeżeli długość testu jest niewystarczająca, wartość alfy spada. Zatem, żeby zwiększyć alfę, więcej pozycji sprawdzających tę samą rzecz powinno zostać dodane do testu. Warto też pamiętać, że alfa jest właściwością dla wyniku testu ze specyficznej próbki badanych. Dlatego badacze nie powinni polegać na wydanych przez alfę oszacowaniach tylko mierzyć ją za każdym razem gdy test jest przeprowadzany.

Użycie alfy Cronbacha

 

Niewłaściwe zastosowanie alfy może doprowadzić do sytuacji, w której test albo skala zostaną błędnie odrzucone lub test zostanie skrytykowany za wygenerowanie niewiarygodnych wyników. By uniknąć takiej sytuacji, zrozumienie powiązanych ze sobą pojęć wewnętrznej spójności, jednorodności lub jednowymiarowości może być pomocne przy używaniu alfy. Wewnętrzna spójność dotyczy wzajemnie powiązanych próbek pozycji testu, podczas gdy jednorodność odnosi się do jednowymiarowości. Mówi się, że miara jest jednowymiarowa jeśli jej pozycje mierzą pojedynczą, ukrytą cechę albo konstrukt. Wewnętrzna spójność jest potrzebnym, ale nie jedynym warunkiem zmierzenia jednorodności czy jednowymiarowości w próbce pozycji testu. Zasadniczo, pojęcie rzetelności zakłada, że jednowymiarowość występuje w próbce pozycji testu, a jeśli to założenie nie jest spełnione, to powoduje duże niedoszacowanie rzetelności. Zostało solidnie udowodnione, że wielowymiarowy test nie koniecznie musi mieć mniejszą alfę niż jednowymiarowy test. Zatem bardziej rygorystyczna wartość alfy nie może być po prostu zinterpretowana jako wskaźnik wewnętrznej spójności.

Analiza czynnikowa może być użyta do określenia wymiarów testu. Inna technika, na której można polegać bywała również używana i zachęcamy czytelnika do zapoznania się z tekstem „Applied Dimensionality and Test Structure Assesment with START-M Mathematics Test” i porównania metod do oceniania wymiarowości i zasadniczej struktury testu.

Dlatego alfa nie tylko mierzy jednowymiarowość zestawu pozycji, ale może być użyta do potwierdzenia czy próbki pozycji są faktycznie jednowymiarowe. Z drugiej strony, jeśli test ma więcej niż jedno pojęcie lub konstrukt, może nie mieć sensu liczenie alfy dla testu jako całości jako że większa liczba pytań będzie niechybnie nadmuchiwała wartość alfy. Zasadniczo dlatego alfa powinna być liczona dla każdego pojęcia, a nie dla każdego testu albo skali. Implikacja podsumowującego badania zawierającego niejednorodne, oparte na case’ie pytania jest taka, że alfa powinna być liczona dla każdego z osobna.

Co ważniejsze, alfa jest osadzona w modelu równoważności co zakłada, że każda pozycja testu mierzy taką samą utajoną cechę na tej samej skali. Dlatego jeżeli wielokrotne czynniki/cechy są podstawą pozycji na skali, jak pokazała analiza czynnikowa, to założenie jest łamane i alfa zaniża rzetelność testu. Jeżeli liczba pozycji testu jest za mała to także złamie założenie o równoważności i zaniży rzetelność. Kiedy pozycje testu spełniają założenie o równoważności modelu, alfa lepiej szacuje rzetelność. W praktyce alfa Cronbacha jest dolną granicą szacunku rzetelności ponieważ niejednorodne pozycje testu mogą łamać założenia równoważności modelu. Jeżeli wyliczenie „wystandaryzowanej pozycji alfa” w SPSS jest wyższe niż „alfa Cronbacha”, dalsze badanie równoważności pomiaru może być niezbędne.

Numeryczne wartości alfy

 

Jak wcześniej wspomniano, liczba pozycji testu, wzajemnych powiązań testu i wymiarowości oddziaływania nad wartością alfy. Są różne doniesienia na temat dopuszczalnej wartości alfy, poczynając od 0.70 aż do 0.95. Niska wartość alfy może być powodowana małą liczbą pytań, słabą wzajemnością powiązań pomiędzy pozycjami albo niejednorodnymi konstruktami. Np. jeżeli niska alfa wychodzi na skutek słabej korelacji pomiędzy pozycjami wtedy niektóre powinny być powtórzone lub usunięte. Najłatwiejszym sposobem by je znaleźć jest przeliczenie korelacji dla każdej pozycji testu z całkowitym wynikiem testu; pozycje z niską korelacją (w okolicach zera) są usuwane. Jeśli alfa jest zbyt wysoka, może to sugerować, że niektóre pozycje są zbędne jako że testują to samo pytanie ale nieco inaczej wyglądają. Rekomendowana jest alfa o maksymalnej wartości 0.90.

Streszczenie

 

Wysokiej jakości testy są potrzebne aby ocenić rzetelność danych zawartych w badaniach naukowych. Na alfę wpływa długość i wymiarowość testu.  Alfa jako wskaźnik rzetelności powinna spełnić założenia o istotnej równoważności. Niska alfa pojawia się gdy te założenia nie są spełnione. Alfa nie mierzy po prostu jednorodności i jednowymiarowości testu, jako że na rzetelność testu działa także jego długość. Dłuższy test zwiększa rzetelność niezależnie od tego czy test jest jednorodny czy nie. Wysoka wartość alfy (>90) może sugerować pewien nadmiar i pokazuje, że test powinno się skrócić.

Wnioski

 

Alfa jest ważnym pojęciem w ocenie diagnozy i kwestionariuszy. Jest ważne by oceniający i badacze oszacowali jej stan by dodać trafności i precyzji w interpretacji danych. Tym niemniej jednak alfa często stosowana jest bezrefleksyjnie i bez odpowiedniego zrozumienia i interpretacji. W tym poradniku spróbowaliśmy wyjaśnić zasadnicze założenia wyliczania alfy, czynniki wpływające na jej wielkość i sposoby na jakie można interpretować jej wartość. Mamy nadzieję, że przyszli badacze będą bardziej krytyczni analizując wartości alfy w swoich badaniach.

 

Bibliografia:

Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297–334. https://doi.org/10.1007/BF02310555

Kock, N. (2020). WarpPLS User Manual: Version 7.0 (7th ed.). ScriptWarp Systems.

 

czerwony alarm pogotowie statystyczne

Metaanaliza – Statystyczne podsumowanie wyników wielu badań.

meto

 

Finałem metaanalizy jest powiązanie danych z tych badań, złączenie ich i charaktersytyka ogólnej tendencji lub kierunku wyników tych badań.

Metaanaliza polega na zbiorze informacji o wynikach przeprowadzonych badań mających ze  sobą zbieżną narrację. Często weryfikuje się w ten sposób wiedzę na temat badań klinicznych (w których mała liczność obserwacji zmusza do ostrożniejszego wyciągania wniosków z danych).

Metaanaliza jako metodologia ma w sobie pewną logikę. Oto kroki tej logiki.

– postawiene pytania/problemu badawczego

– wykrycie odpowiednich badań na określony temat

– krytyczna selekcja odpowiednich badań

– ewaluacja i podsumowanie wyników Metaanalizy.

Przed metanalizą należy oszacować poziom i źródła heterogeniczności (braku jednorodności wyników) wyników badań ujętych w metaanalizie.

Do badania jednorodności stosuje się wiele procedur; takich jak metody ocen wzrokowych ( wykres leśny, wykres Galbraitha) lub metod ocen formalnych takich jak test Hartleya, Corhana, Indexu I2).

Najczęściej pojawiającymi się źródłami hetoregoniczności wariancji badań w metaanalizie są:

odmienne metodologie badań

– zróżnicowane próby badawcze

– różnorodne okresy trwania badania

– zróżnicowane wskaźniki i sposoby estymacji wyników

W celu usunięcia tych czynników stosuje się analizę wrażliwości, metaregresję lub analizuje się wyniki w różnorodnych populacjach badań.

Do meta-analiz wykorzystujemy oprogramowanie Comprehensive Meta Analysis CMA, Jasp, Jamovi oraz R.