statystyka medyczna, biostatystyka

Analiza danych w medycynie – czyli jaką rolę odgrywa Big Data w badaniach nad Parkinsonem.

Analiza danych w medycynie – czyli jaką rolę odgrywa Big Data

Analiza danych w medycynie – czyli jaką rolę odgrywa Big Data w badaniach nad Parkinsonem.

W ostatnich latach, coraz większą popularnością cieszą się urządzenia monitorujące nasze zdrowie. Smartwatche i smartbandy zyskują kolejnych użytkowników, którzy wykorzystują je w celu zbierania informacji na temat stanu swojego zdrowia. Przy ich pomocy możemy zebrać dane np. na temat snu, bądź jeżeli uprawiamy sport, to małe urządzenie na nadgarstku pomoże usystematyzować dane o osiągnięciach i dostarczyć nowych cennych informacji.


Nie trzeba było długo czekać, by znaleźć poważniejsze zastosowanie dla tych technologii. Intel we współpracy z Fundacją Michaela J. Foxa, podjął się badań nad chorobą Parkinsona przy pomocy urządzeń typu „wearables”. Odzież technologiczna jest w stanie dyskretnie zbierać i przekazywać obiektywne dane empiryczne w czasie rzeczywistym, 24 godziny na dobę, siedem dni w tygodniu. Jest to duży postęp w diagnozowaniu i leczeniu Parkinsona. Dzięki zastosowaniu sensorów badacze pozyskają ogrom danych do analizy Big Daty. Nie trudno się domyślić, że w porównaniu z dotychczas stosowanymi metodami monitorowania przebiegu choroby u pacjenta, przeskok w ilości danych będzie ogromny. Jednakże dopiero taka masa danych dostarczy badaczom materiał, na podstawie którego będą w stanie zgłębić istotę problemu choroby Parkinsona i wykryć wzorce. Big Data odgrywa w tym kluczową rolę.


Ze względu na obszerność danych Intel opracował platformę analityczną do big data, która wykorzystuje różne rodzaje oprogramowania, w tym Cloudera CDH — platformę open source, która gromadzi i przechowuje dane oraz nimi zarządza.  Platforma big data obsługuje aplikację analityczną do przetwarzania oraz wykrywania zmian w danych w czasie rzeczywistym. Poprzez wykrywanie anomalii i zmiany w czujniku, może dostarczyć naukowcom obiektywną metodę pomiaru progresji choroby. Zaawansowane możliwości analizy danych udostępnione przez Big data Intel z pewnością okażą się pomocne w dalszych badaniach nad chorobą.


statystyczna analiza przeżycia kaplana mayera krzywe życia analiza danych medycznych

Informacje o statystycznej analizie przeżycia. Techniki obliczeniowe w biostatystyce.

meto

Analiza przeżycia

Informacje ogólne

Te techniki były pierwotnie rozwijane w medycznych i biologicznych badaniach (biostatystyka), ale mają też szerokie zastosowanie w naukach społecznych i ekonomicznych, tak samo jak w inżynierii (rzetelność i analiza przeżycia).

Wyobraź sobie, że jesteś badaczem w szpitalu, który sprawdza efektywność nowego leku na nieuleczalną chorobę. Główną interesującą nas zmienną jest liczba dni, którą przeżyją poszczególni pacjenci. Zasadniczo, można użyć standardowej parametrycznej i nieparametrycznej statystyki by opisać przeciętną długość przetrwania, i aby porównać nowy lek z poprzednimi metodami. Jednakże, na koniec badania, znajdą się pacjenci którzy przetrwali przez cały okres, szczególnie pośród tych, których przyjęto do szpitala (i projektu badawczego) w późnym momencie badania; będą też pacjenci z którymi stracimy kontakt. Zapewne nikt nie będzie chciał ich wykluczyć z badania uznając ich za brak danych (jako, że większość z nich przetrwała i dlatego są odzwierciedleniem sukcesu nowej metody badawczej). Te obserwacje, które zawierają jedynie częściowe informacje nazywa się obserwacjami uciętymi (np. „pacjent A przetrwał przynajmniej 4 miesiące zanim go przeniesiono i straciliśmy z nim kontakt”, określenie ucinania zostało po raz pierwszy użyte przez Halda w 1949).

Obserwacje ucięte

Generalnie, obserwacje ucięte pojawiają się gdy nasza zmienna zależna reprezentuje czas do śmierci klinicznej, i kiedy czas trwania badania jest ograniczony. Obserwacje ucięte mogą w różnych obszarach badania. Na przykład, w badaniach społecznych można sprawdzać „przeżywalność” małżeństw, oceny w momencie bycia wyrzucanym ze szkoły, zwolnienia w korporacjach itd. W każdym przypadku, pod koniec badania, niektóre pary pozostaną małżeństwem, niektórzy nie zostaną wyrzuceni ze szkoły, albo będą ciągle pracować w korporacji; zatem te przypadki są reprezentowane przez obserwacje ucięte.

W ekonomii można zbadać „przeżywalność” nowych biznesów albo okres używalności produktów takich jak pojazdy. W badaniu kontroli jakości, częstą praktyką jest sprawdzanie żywotności części pod obciążeniami (analiza żywotności)

Techniki analityczne

Głównie, metody oferowane przez Analizę przetrwania dotykają tych samych pytań badawczych co wiele innych procedur; jednakże, wszystkie metody a Analizie przetrwania poradzą sobie z obserwacjami uciętymi. Tablice trwania życia, rozkład przeżycia, estymacja funkcji przeżycia to wszystko opisowe metody by oszacować rozkład przeżycia czasów z próbki. Niektóre techniki są zdolne do porównywania przeżywalności w dwóch lub więcej grupach. W końcu, analiza przeżycia oferuje kilka modeli regresji by oszacować związek zmiennych ciągłych z czasami przeżycia.

Tablice trwania życia

Najbardziej bezpośrednim sposobem by opisać przeżywalność w próbce jest obliczenie tablic trwania życia. Jest to jedna ze starszych metod służących do analizy przeżywalności danych. Ta tablica może być uważana za „poszerzony” rozkład częstości. Rozkład czasów przeżycia jest podzielony na pewną liczbę przedziałów. Na każdy przedział możemy obliczyć liczbę i proporcję przypadków albo obiektów, które weszły w poszczególny przedział „żywe”, liczbę i proporcje przypadków, które zniszczyły się w poszczególnym przedziale (np. liczba zdarzeń krańcowych, albo przypadków, które „zmarły”), i liczbę przypadków, które zaginęły albo zostały ucięte w poszczególnym interwale.

Bazując na tych liczbach i proporcjach, można obliczyć kilka dodatkowych statystyk:

Liczba przypadków ryzyka – jest to liczba przypadków, które mieszczą się w poszczególnym przedziale żywych, odjąć połowę przypadków straconych lub uciętych w poszczególnym przedziale.

Proporcja porażek – ta proporcja jest wyliczana jako stosunek liczby przypadków zniszczonych w poszczególnym przedziale, dzielonych przez liczbę przypadków ryzyka w tym przedziale.

Proporcja przeżyć – ta proporcja jest liczona jako 1 odjąć proporcję porażek

Łączna proporcja przetrwania (funkcja przeżycia) – jest to łączna proporcja przypadków potrafiących przeżyć aż do odpowiedniego przedziału. Jako że prawdopodobieństwa przetrwania są przypuszczalnie niezależne pomiędzy przedziałami, to prawdopodobieństwo jest wyliczane przez dzielenie prawdopodobieństw pomiędzy wszystkimi poprzednimi przedziałami. Powstająca funkcja jest także zwana przeżywalnością lub funkcją przeżycia.

Prawdopodobieństwo zawartości – jest to oszacowane prawdopodobieństwo porażki w poszczególnym przedziale, obliczone w jednostce czasu, czyli:

Fi = (Pi-Pi+1) /hi

W tym wzorze, Fi jest danym prawdopodobieństwem zawartości w przedziale i, Pi jest oszacowaną łączną proporcją przeżycia na początku przedziału i (na końcu przedziału i-1), Pi+1 jest łączną proporcją przeżycia na końcu przedziału i, a hi jest szerokością danego przedziału.

Stawka ryzyka – stawka ryzyka jest definiowana prawdopodobieństwo w jednostce czasu, że przypadek, który przeżył do początku danego przedziału zginą w tym przedziale. Dokładniej rzecz biorąc, jest wyliczane jako liczba zniszczonych w jednostkach czasu w danym przedziale, podzielona przez średnią liczbę żyjących przypadków w środku przedziału.

Średni czas przeżycia – jest to czas przeżycia, w którym łączna funkcja przeżycia wynosi 0,5. Inne percentyle (25, 75) z łącznej funkcji przeżycia mogą być obliczane równolegle. Zauważ, że percentyl 50 (średni) dla łącznej funkcji przeżycia zwykle nie jest taki sam jak punkt w czasie gdzie przeżywa 50% próbki (tak byłoby tylko w przypadku gdzie nie wystąpiłyby obserwacje ucięte).

Wymagana wielkość próbki – aby polegać na wiarygodnych oszacowaniach z tych 3 najważniejszych funkcji (przeżywalność, prawdopodobieństwo zawartości i ryzyko) i ich typowe błędy za każdym razem minimalna rekomendowana wielkość próbki wynosi 30.

statystyka medyczna, biostatystyka

Statystyczne metody lokalizacji genów.

meto

Metodolog.pl – Analiza Statystyczna w nauce

Firma statystyczna METODOLOG

Lokalizacja genów wpływających na pewne ilościowe fenotypowe cechy osobników (w skrócie mapowanie QTL’i) polega na wskazaniu tych loci (miejsc) na chromosomie, na których znajdują się geny istotnie sprzężone z badaną cechą ilościową.

Rozwiązanie tego problemu jest szczególnie istotne w takich dziedzinach nauki jak medycyna (geny odpowiedzialne za choroby dziedziczne, uzależnienia), hodowla roślin i zwierząt (np. polepszenie jakość upraw, zwiększenie wydajności mlecznej krów) i psychologia (wpływ genów na cechy osobowości). Genetycy na podstawie wieloletnich badań sporządzają tzw. mapy markerów genetycznych, czyli zbiory genotypów znajdujących się na określonych loci. Dzięki nim, przy użyciu różnych metod statystycznych, estymuje się m. in. położenia i efekty szukanych QTL’i.

Pierwsze prace nad metodami lokalizacji QTL’i zapoczątkował Soller. Wykorzystywał on podstawowe metody statystyczne (analiza ANOVA, test t-Studenta) do wskazania zmiennych, które istotnie wpływają na badaną cechę. Nowych zmiennych poszukiwał on tylko na pozycjach, na których znajdowały się markery. Dopiero w 1989 Lander i Botstain wprowadzili metodę interwałową, która umożliwiała lokalizację QTL’i między markerami. Początkowo badano modele z jednym QTL’em. W ostatnich latach zaczęto rozpatrywać modele z większą liczbą QTL’i.

Powstają nowe metody statystyczne, których celem jest nie tylko estymacja położenia i efektów QTL’i, ale również ich ilości. W wielu przypadkach bada się również, czy między znalezionymi QTL’ami występują interakcje.

Metody ogólnie podzielić możemy na te, które służą do porównywania modeli – kryteria wyboru modelu AIC, BIC i ich modyfikacje, kryterium Bayesa. Drugą grupą są kryteria służące do dopasowania modelu czyli np. metoda największej wiarogodności, metoda Haley’a-Knott’a, algorytm Expectation-Maximization, metody Monte Carlo łańcucha Markowa (MCMC). Są również metody służące do szukania najlepszego modelu takie jak metody krokowe.

Przypuśćmy, że znamy mapę markerów genetycznych. Wiemy ponadto, że szukane QTL’e znajdują się pomiędzy markerami, zatem oprócz tego, że nie znamy ich położeń, efektów i ilości, dodatkową niewiadomą stają się ich genotypy. W takim przypadku całkiem dobrze sprawdza się interwałowa metoda lokalizacji genów.

Wielowymiarowa metoda interwałowa może być zaimplementowana na kilka różnych sposobów. W wersji deterministycznej tej metody można się posłużyć algorytmem EM (do wyestymowania brakujących danych) oraz kryteriami informacyjnymi, takimi jak mBIC przy wyborze modelu. Można też użyć metody bayesowskiej – algorytmu reversible jump MCMC.

Rozważmy model liniowy dla cechy fenotypowej na którą oddziałuje p QTL’i. Wartości genotypowe zarówno markerów jak i szukanych genów będziemy oznaczać jak w (1). Zaobserwowany fenotyp yi i-tego osobnika w próbce wielkości n możemy przedstawić za pomocą następującego modelu liniowego:

yi = β0 +  ∑    βj Qij + i, (1)

gdzie i jest zmienną losową o średniej zero i wariancji σ^2, β = {β_j }, j = 1, …, p to współczynniki regresji – efekty QTL’i, natomiast Qij , i = 1, …, n, j = 1, …, p oznaczają genotypy QTL’i. Niech dodatkowo λ_j oznacza odległość j-tego QTL’a od początku chromosomu. Wtedy parametrami genetycznymi są położenia QTL’i λ oraz wektor parametrów θ = (β_0, β, σ^2). Oprócz wartości fenotypowych y_i badanych osobników dysponujemy również wiedzą na temat genotypów m markerów – M_i = {M_i_k}_m_k=1 dla i-tego osobnika oraz znamy odległości D = {D_k}_m_k=1, gdzie D_k oznacza odległość między 1 i k-tym markerem.

Autorem tekstu jest Marta Mrozek.

Więcej info na:

Statystyczna analiza danych 

Zalety statystyki Bayesowskiej

Naiwny klasyfikator Bayesa
Najczesciej wykonywane analizy statystyczne w pracach magisterskich i doktorskich

Analiza statystyczna danych warszawa wroclaw krakow poznan gdansk

problemy klasyfikacyjne

Analiza regresji logistycznej.

meto1

 

Analiza regresji logistycznej

Analiza dyskryminacyjna i regresji liniowej, przy odpowiednich założeniach wyjściowych mogą dać podobne rezultaty, jednak częściej stosowana jest metoda regresji. Przemawia za tym m.in. jej lepsza znajomość, mniejsza ilość problemów z jej zastosowaniem, większa dostępność i jasność oraz większa ilość możliwych do zastosowania informacji. Metoda ta bada wpływ zmiennych niezależnych (X) na zmienną zależną (Y ). Jest wyrazem przyporządkowania średnich wartości zmiennej zależnej wartościom zmiennych niezależnych. Chociaż regresja liniowa stanowi dobrą technikę scoringową to mimo wszystko częściej wykorzystywana jest regresja logistyczna. Wynika to głównie z możliwości zastosowania jej w sytuacjach, kiedy posiadane dane nie spełniają założeń regresji liniowej. Regresja logistyczna może dotyczyć zarówno prawdopodobieństwa spłaty kredytu, jak i określenia przynależności badanego podmiotu do jednej z dwóch grup – ’dobrych’ lub ’złych’ klientów.

Tutaj skupimy się na regresji logistycznej, ponieważ w przypadku klasyfikacji zmiennych do dwóch grup analiza logitowa jest równoważna analizie regresji logistycznej. Korzystną cechą tego rodzaju modeli jest:

brak założenia o normalności rozkładu poszczególnych zmiennych

brak założenia o równości macierzy kowariancji poszczególnych grup

W przypadku regresji logistycznej, wynik każdej z obserwacji Y1, …, Yn może być interpretowany jako sukces lub porażka. Wtedy Y1, …, Yn nazywamy obserwacjami binarnymi. Przyjmuje się więc, że Yi (i = 1, 2, …, n) ma rozkład Bernoulliego B(1, pi). Parametr pi tego rozkładu można interpretować jako prawdopodobieństwo niespłacenia kredytu dla i-tego klienta. Rozkład obserwacji Yi określony jest przez funkcję prawdopodobieństwa

f(yi; pi) = piyi (1 − pi)1−yi (6)

Przy danym wektorze zmiennych objaśniających x, prawdopodobieństwo niespłacenia kredytu pi jest powiązane z wektorem x w następujący sposób:

logit[θ_i (x)]= log p_i/(1-p_i )= a_0+∑_(j=1)^N▒〖a_j log⁡〖x_j 〗 〗

Po przekształceniach otrzymujemy wzór na prawdopodobieństwo niespłacenia kredytu:

p_i=e^(a_0+∑_(j=1)^N▒〖a_j logx_j 〗)/(1+e^(a_0+∑_(j=1)^N▒〖a_j logx_j 〗) )=1/(1+e^(-(a_0+∑_(j=1)^N▒〖a_j logx_j)〗) )

W przypadku gdy mamy do czynienia z regresją liniową estymacji wektora a w równaniu:

Y= a_0+ ∑_(i=1)^N▒〖a_i x_i 〗

dokonujemy oczywiście za pomocą metody najmniejszych kwadratów. Niestety w przypadku regresji logistycznej nie możemy zastosować tej metody ze względu na to, że zmienne niezależne posiadają różne wariancje. Zamiast niej używa się wówczas metody największej wiarogodności. Metoda ta polega na maksymalizacji funkcji wiarogodności (częściej aby uprościć rachunki minimalizuje się ujemny algorytm funkcji wiarogodności). Funkcja wiarogodności dla modelu logistycznego przyjmuje następującą postać:

L= ∏_(y_i=1)▒〖p_i 〗 ∏_(y_i=0)▒〖〖(1-p〗_i) 〗

gdzie: yi – wartości obserwowane dla i-tego przypadku, pi – oczekiwane prawdopodobieństwo dla i-tego przypadku.

Logarytm funkcji wiarogodności przyjmuje postać:

ln⁡(L)= ∑_(i=1)^N▒〖[y_i ln⁡(p_i )+(1-y_i ) ln⁡(1-p_i )]〗

Oznaczmy dodatkowo:

DEV = -2 ln(L)

Wielkość tę nazywamy dewiancją i jest ona tym mniejsza im lepsze dopasowanie modelu.

Dla modelu zerowego (L0) czyli takiego, który zawiera tylko wyraz wolny (stosunek liczby sukcesów do liczby porażek jest stały), logarytm wiarogodności oblicza się jako:

ln(L0) = ni ln n1 + n0 ln n0 (13)
n n

gdzie n0 jest liczbą obserwacji o wartości 0, n1 jest liczbą obserwacji o wartości 1, n jest całkowitą liczbą obserwacji. W celu określenia statystycznej istotności zaobserwowanej różnicy pomiędzy dwoma modelami wykorzystać można statystykę χ2. Typowym podejściem w tym przypadku jest wykonanie testu statystycznego. Niech hipoteza zerowa będzie postaci:

H_o: logit[θ_0 (x)]= a_0+∑_(j=1)^m▒〖a_j logx_j 〗

Hipoteza alternatywna ma wtedy postać:

H_1: logit[θ_1 (x)]= a_0+∑_(j=1)^m▒〖a_j logx_j 〗+a_(m+1) x_(m+1)+ …+a_k x_k

Statystyką testową jest test ilorazu wiarogodności:

Λ= (L(H_0))/(L(H_1))

Statystyka ta może być zmodyfikowana w ten sposób, aby miała rozkład χ2:

-2 ln⁡(Λ)= -2[ln⁡L(H_0 )-ln⁡〖L(H_1 )= -2 ln⁡L(H_0 )- (-2 ln⁡L(H_1 ))〗

We wzorze tym wyraz -2 ln⁡L(H_0 ) oznacza dewiancję dla hipotezy zerowej, a -2 ln⁡L(H_1 ) dewiancję dla hipotezy alternatywnej. Statystyka taka ma rozkład χ2 z k-m stopniami swobody. Używając tego testu można określić istotność statystyczną spadku dewiancji spowodowanego dodaniem parametrów xm+1, …, xk, na wybranym poziomie istotności.

http://www.statsoft.pl/textbook

Vojtek M., Kocenda E. (2006) Credit Scoring Methods. Czech Journal of Economics and Finance 56: 3-4.
Magiera R. (2007) Modele i metody statystyki matematycznej. Wnioskowanie statystyczne – Część II, 395-396, 422. GIS, Wrocław.

Autorem tekstu jest Marta Mrozek.

Więcej na:

Analiza statystyczna danych Warszawa Wrocław Kraków Poznań Gdańsk

Logika modeli przewidujących

Czym jest analiza ryzyka kredytowego?

Regresja logistyczna jako analiza klasyfikacyjna

statystyka medyczna, biostatystyka

Statystyka medyczna

Wykonanie obliczeń w badaniach medycznych.

Statystyka medyczna

Odnosi się do testów statystycznych i technik obliczeniowych wykonywanych w różnych dziedzinach, ale mających też zastosowanie w medycynie jako statystyki medyczne. Statystyka medyczna są to głównie między innymi podejścia do testowania hipotez i modeli statystycznych oraz procedury analityczne z zakresu technik specyficznych dla obszaru medycyny oraz z innych obszarów nauki (ale z powodzeniem stosowanych w biostatystyce przy weryfikacji wyników badań medycznych). W swojej długoletniej praktyce analitycznej i tym czym jest statystyka medyczna dla naszych klientów, nauczyliśmy się współpracować z naukowcami-akademikami oraz wykorzystywać w odpowiedni sposób metody statystyczne do danych klinicznych i labolatoryjnych.

Statystyka medyczna. Najczęściej przetwarzanymi przez nas danymi są informacje dotyczące:

  • pacjentów szpitali, którzy są poddawani różnym interwencjom przez lekarzy
  • danych z eksperymentów nad zwierzętami
  • próbkami materiałów biologicznych
  • danych z ministerstwa lub zbiorów z zewnętrznych baz danych
  • ilościowymi danymi ankietowymi
  • stanu zdrowia populacji Polski (statystyki medyczne oparte o reprezentatywne dane)

Metodolog.pl ma do zaoferowania cały zbiór metod statystycznych i metodologii postępowania w statystyce medycznej. Praktycznie do tych celów wykorzystujemy poniższe metody, a teoretycznie możemy nauczyć się nowych i z powodzeniem zaaplikować je do realizowanego projektu. Poniżej przedstawiamy metody statystycznej obróbki danych których używamy najczęściej w rozwiązywaniu naukowych problemów medycznych.

Używane przez nas w statystyce medycznej procedury przetwarzania danych  to między innymi:

  1. Analiza przeżycia pacjentów i chorych metodami : Regresja COXa, Wykresy Kaplana Mayera, Tablice trwania życia, regresja logistyczna
  2. Weryfikacja skuteczności leków, zabiegów, operacji i różnych typów leczenia (wieloczynnikowe modele analizy wariancji)
  3. Modelowanie równań strukturalnych (SEM) metodą PLS (variance based approach) oraz ML, ADF, GLF, ULS i SLS (covariance based)
  4. Analiza skuteczności procedur fizjoterapeutycznych (testowanie pomiarów w modelach wieloczynnikowych analizy kowariancji dla układów zależnych)
  5. Analiza statystyczna różnic pomiędzy grupą eksperymentalną a kontrolną w testowaniu leków (testowanie hipotez o równości średnich oraz ocena siły efektu tych manipulacji)
  6. Zaawansowane modele wieloczynnikowe i wielowymiarowe (analiza dyskryminacyjna oraz wielozmiennowe modele regresyjne)
  7. Badanie zależności (korelacje, korelacje kanoniczne, analizy korespondencji)
  8. Statystyczna weryfikacja i ocena zmiennych życiowych i parametrów związanych z życiem ludzkim (analizy regresji logistycznej, wyliczanie ilorazów szans (OR)
  9. Ocena skuteczności terapii
  10. Obliczenia statystyczne do artykułów medycznych (wykorzystywanie zaawansowanych technik obliczeniowych i raportowanie ich w ergonomiczny i przejrzysty sposób)
  11. Biostatyka i obliczenia statystyczne w fizjoterapii (metody polegające na ocenie istotności źródeł wariancji )
  12. Statystyczna weryfikacja ilościowych badań podłużnych (wykorzystanie metod modelowania równań strukturalknych)
  13. Biostatystyka i statystyka medyczna w każdym obszarze działalności naukowej lekarza
  14. Metody statystyczne w ocenie skuteczności podejmowanych czynności diagnostycznych (drzewa decyzyjne, regresja logistyczna)
  15. Diagnoza algorytmiczna/statystyczna w klinice (metody regresyjne, losowe lasy)

Wykonywanie obliczeń statystycznych jest bardzo często spotykane w kontekście akademickim. Dlatego Metodolog podpowiada jak wykonać odpowiednie kroki by pomóc sobie wykonać dobrą pracę.

Jak wygląda modelowa praca przy takich projektach?

Z jakich obszarów się ona składa?

  1. Rozpoznanie potrzeb i ustalenie problemów badawczych
  2. Ustalenie kierunku weryfikacji badania medycznego i wykorzystania odpowiednich statystyk medycznych
  3. Wybór metod statystycznych w badaniach wśród nauk o życiu i zdrowiu
  4. Wykonanie obliczeń statystycznych i wizualizacji danych medycznych
  5. Analiza mocy testów i oszacowanie siły efektów zależności i wpływów czynników badanych w medycynie
  6. *Konsultacje, korepetycje, wsparcie i pomoc statystyczna w medycynie i biostatystyce oraz pomoc naukowa
  • Oczywiście są odchylenia i sytuacje wyjątkowe więc około 20% projektów realizowanych przez nas przyjmuje inny charakter pracy, zazwyczaj bardzo indywidualny.

Przykładowe profity.

  1. Poradzenie sobie z dosyć trudną rzeczą jaką jest statystyka w naukach o życiu
  2. Oszczędność czasu przy badaniach medycznych
  3. Posiadanie profesjonalnie wykonanych obliczeń i opisu statystycznego w pracy magisterskiej/doktorskiej lub projekcie naukowym
  4. Realizacja zawsze wykonana w terminie
  5. Rekomendacje i wyjaśnienia dotyczące statystyki i biostatystyki

Zalety takiej pacy.

  1. Pomoc specjalisty i interdycyplinarnego zespołu
  2. Podejście ma zawsze zindywidualizowany charakter
  3. Ceny ustalane są pod projekt.

Zachęcamy do współpracy, lekarzy, dentystów, weterynarzy, pielęgniarki oraz wszystkich tych, którzy mają problemy ze statystyką w badaniach medycznych lub chcą mieć prawidłowo wykonaną biostatystykę. Nasza firma statystyczna znajduje się w Sopocie, ale mamy ogromne doświadczenie wykonywania projektów statystycznych online. W momencie kiedy czujemy, że realizacja online nie ma sensu (zagadnienie jest zbyt skomplikowane) to podejmuje się organizacji delegacji i dojazdu do klienta lub wykorzystujemy telekonferencje.

Statystyka medyczna z racji tego, że jest podstawą do wnioskowania o ludziach i podejmowaniu decyzji w kontekście ich życia oraz zdrowia, musi być wykonywana na najwyższym poziomie. Metodolog.pl dzięki swojemu ogromnemu doświadczeniu z klientami i naukowcami dostarcza wysokiej jakości statystyki medyczne, normy medyczne, systemy klasyfikacji, predykcji i estymacje modeli teoretycznych.

Dzięki naszym realizacjom można pewnie podejmować strategiczne decyzje dotyczące ochrony zdrowia.