Tag: analiza statystyczna

Trafność testu oraz narzędzia

 

Podstawowym w statystyce zagadnieniem trafności treściowej jest zdefiniowanie badanej sfery zachowań oraz wskazanie, iż pozycje włączone do testu stanowią faktycznie próbę reprezentatywną. Trafność teoretyczna natomiast pokazuje związki narzędzia pomiarowego z konstruktem teoretycznym, zaczerpniętym z danej teorii. Badania trafności teoretycznej testu wymagają licznych analiz.

 

Metody ustalania trafności

 

Meehl oraz Cronbach zaproponowali pięć procedur ustalania trafności teoretycznej: analiza różnic międzygrupowych, analiza macierzy korelacji i analiza czynnikowa, analiza struktury wewnętrznej testu, analiza procesu rozwiązywania testu, analiza zmian nieprzypadkowych wyników testu. [1] W związku ze znacznym rozbudowaniem zagadnień poruszanych w ramach  analizy trafności, poniżej skupiono się szerzej na jednym aspekcie, mianowicie na trafności czynnikowej.

 

Analizując trafność narzędzia badawczego jakim jest kwestionariusz należy mieć na uwadze cztery aspekty trafności:

  • Trafność kryterialna, dzieli się ona na trafność diagnostyczną (concurent validity)  i prognostyczną (predictive validity)
  • Trafność treściowa (content validity)
  • Trafność teoretyczna (construct validity)
  • Trafność fasadowa (face validity)[2]

Najmniejsze znaczenie z punktu widzenia własności psychometrycznych ma trafność fasadowa.

 

Czy istnieje „złoty standard”?

 

Diagnostyczną trafność kryterialną możemy ocenić porównując wyniki testu do tak zwanego „złotego standardu”. Jest to zagadnienie o tyle skomplikowane, że w niektórych dziedzinach, szczególnie tych do tej pory nie zbadanych, trudno o wskazanie tak zwanego „złotego standardu” czyli testu sprawdzonego i wzorcowego.

 

Kiedy zasadne jest wdrożenie nowego narzędzia?

 

W przypadku natomiast gdy taki test już istnieje, należy poważnie rozważyć sens wprowadzania nowego narzędzia, gdyż powinno ono w pewnie sposób być lepsze od stosowanego do tej pory. Nowy test powinien być zarazem tańszy lub szybszy do przeprowadzenia od wyznaczonego testu wzorcowego.

 

Analiza korelacji

 

W literaturze zagadnienie trafności kryterialnej jest rozpatrywane (szczególnie przez psychologów) za pomocą analizy korelacji pomiędzy testem wzorcowym a nowym narzędziem. W przypadku poszukiwania testu bardziej trafnego od „złotego standardu” poszukuje się umiarkowanej istotnej korelacji. Jest to kryterium nieformalne, w trakcie analizy literaturowej nie znaleziono bowiem sztywnego kryterium wskazującego dokładną regułę decyzyjną.

 

[1] Tomasz Szafrański Skala Calgary do oceny depresji w schizofrenii. w Postępy Psychiatrii i Neurologii. Tom 6. 1996. Zeszyt 3. Instytut Psychiatrii I Neurologii.str. 337.

[2] Brzeziński Jerzy Metodologia badań psychologicznych. PWN Warszawa 1999. str.516

Analiza statystyczna w życiu codziennym

Ktoś nieobeznany z matematyką mógłby bez wątpienia stwierdzić, że analiza statystyczna to narzędzie przeznaczone wyłącznie dla poważnych naukowców i zupełnie oderwane od codziennego życia. Tymczasem mnogość zastosowań tej gałęzi nauki powoduje, że każdego dnia dziesiątki razy napotykamy (mniej lub bardziej świadomie) na efekty zastosowania statystyki.

 

Co żelki mają wspólnego ze statystyką?

 

Aby zilustrować ogromne znaczenie statystyki w życiu codziennym, weźmy na przykład paczkę żelek, którą kupiłeś dziś rano w supermarkecie. Ich składniki zostały dobrane przy użyciu metod statystycznych, dzięki czemu nadają się do spożycia. Ich smak stanowi z kolei odpowiedź na oczekiwania konsumentów, zbadane przy użyciu... statystyki. Podobnie zresztą jak kształt żelek, ich cena czy projekt opakowań, w których są sprzedawane.

 

Produkcja tych słodyczy przebiegła pod znakiem licznych procesów kontroli jakości, silnie wspomaganych statystyką. Dzięki temu każdy żelkowy miś wygląda dokładnie tak samo jak wszystkie inne, pochodzące z tej samej linii produkcyjnej.

 

To oczywiście tylko wierzchołek góry lodowej, nawet pozostając w temacie zakupu żelek: ich położenie na półce w supermarkecie zostało statystyczne określone jako najbardziej optymalne dla tego typu produktów, a dane o ich sprzedaży będą stanowiły przedmiot późniejszej analizy statystycznej.

 

Inne przykłady zastosowań

 

Rzecz jasna zastosowanie statystyki nie kończy się na towarach ze sklepowych półek czy stereotypowych analizach rynku. Udział tej dziedziny nauki jest nieoceniony w wielu innych branżach, często powszechnie słabo z nią kojarzonych. Może to być na przykład:

 

- medycyna: zarówno w kwestii testowania i wprowadzania na rynek nowych leków, jak i analizy danych pozyskanych z badań pacjentów, co umożliwia między innymi trafne przewidywanie rozprzestrzeniania się chorób zakaźnych;

 

- ubezpieczenia: za pomocą statystyki korporacje z tej branży mogą dokładnie określić wysokość opłaty za ubezpieczenie - zarówno mając na uwadze swój zysk, jak i atrakcyjność oferty dla klienta;

 

- prognozowanie pogody: dzięki modelom statystycznym zoptymalizowanym pod kątem obliczeń komputerowych jesteśmy w stanie trafnie przewidzieć zjawiska pogodowe w kolejnych dniach;

 

- polityka: dzięki prawidłowej analizie danych sondażowych można z dużym prawdopodobieństwem oszacować przyszłe wyniki wyborów.

 

Podsumowując, statystyka pojawia się w naszym życiu codziennym wszędzie tam, gdzie możliwe jest jej zastosowanie, czyli analiza zbioru danych i wyszukiwanie w nim prawidłowości.

Statystyka... czyli... weryfikujemy hipotezy

Hipotetyczne założenia, a także różnego rodzaju tezy towarzyszą nam na co dzień. One same jednak w swym teoretycznym aspekcie nie stanowią tak naprawdę rzetelnego źródła informacji. Pewnych rzeczy się domyślamy. Jeszcze inne są tylko mglistą wizją. Dlatego tak ważne miejsce w naszej codzienności zajmuje statystyka. Nic nie weryfikuje hipotez tak skutecznie, jak ona.

 

Hipotezy nie tylko w pracach naukowych

 

Słysząc słowo hipoteza najczęściej myślimy o pracy naukowej. Przecież to przyszli magistrzy czy doktoranci zawierają ją w swojej pracy. Tymczasem hipoteza towarzyszy nam na każdej płaszczyźnie, która w swojej dynamice ulega ciągłemu rozwojowi. To właśnie hipotezy, a wraz z nimi kolejne pytania sprawiają, że człowiek szuka odpowiedzi – rozwija się i tworzy nowe perspektywy. Hipotezy stanowią ważny czynnik rozwoju gospodarki, psychologii, medycyny, socjologii czy nawet demografii.

 

Jak zbadać hipotezę?

 

Hipoteza to nie choroba, którą bada się w gabinecie lekarskim i leczy za pomocą odpowiednich terapii. Hipoteza to stwierdzenie, które wymaga dogłębnej analizy danych. Aby jej jednak dokonać, dane te trzeba wcześniej zebrać. A do tego służą odpowiednie metody statystyczne. Oczywiście na metodach tych doskonale znają się pracownicy firm badawczych, którzy potrafią zawsze dobrać optymalne narzędzia.

 

Analiza zebranych danych

 

Analizy statystyczne to kolejny, po zbieraniu danych, etap badania. Gdy zbiór danych jest już gotowy, można przejść do wyciągnięcia z niego konkretnej wiedzy. A to staje się możliwe właśnie dzięki analizom statystycznym. Ich zadaniem jest wyciągnięcie wniosków i zweryfikowanie faktów oraz hipotez. Tym samym stają się one odpowiedzią na pytania odnośnie naszych założeń i stawianych na co dzień tez.

 

Statystyka a biznes

 

Mówiąc o statystyce i jej wpływie na różne dziedziny naszego życia, nie możemy udawać, że nie dostrzegamy możliwości, jakie otwiera przed biznesem. Tutaj wykorzystywana jest ona do osiągania celów biznesowych, głównie zwiększania obrotu i maksymalizacji zysku. Dzięki analizom danych zebranych w trakcie badania firmy weryfikują rynek, poznają nastawienie klientów, a także ich potrzeby. Tym samym zdobywają odpowiedź na pytanie odnośnie zmian, jakie należy wprowadzić w koncepcji sprzedaży, czy kierunków, jakie należy obrać, by ostatecznie odnieść sukces.

 

Hipotezy są po to, by je weryfikować. Tylko wtedy istnieje sens ich tworzenia. A prawdziwym mistrzem w weryfikowaniu jest statystyka. Ta nauka nie pozostawia wątpliwości, ani pytań bez odpowiedzi.

Analiza statystyczna (cz. 2) - obliczanie ryzyka względnego za pomocą R

W poprzednim artykule omawialiśmy ryzyko względne, które jest wygodną wielkością stosowaną w statystyce medycznej informującą w jaki sposób czynnik ryzyka wpływa na szeroko pojmowane wystąpienie zmian patologicznych. W sieci znajdziemy bogate oprogramowanie online pozwalające liczyć interesujące relacje np.  relativeriskcalculatordostępny pod adresem:

https://www.medcalc.org/calc/relative_risk.php.

 

Jednak najczęściej istnieje potrzeba obliczenia szeregu wielkości stosowanych w badaniach klinicznych, czy medycznej analizie statystycznej - wtedy z pomocą przychodzi środowisko programistyczno-obliczeniowe R. Sam program R nie dysponuje wbudowanymi funkcjami pozwalającymi na przeprowadzanie różnorakich klinicznych testów statystycznych: należy ściągnąć odpowiedni pakiet, w tym przypadku najlepszym wyborem jest epitools dostępny między innymi na stronie https://cran.r-project.org/web/packages/epitools/index.html warto zaznaczyć, że epitools znajdziemy również w wersji mobilnej (android):

https://play.google.com/store/apps/details?id=com.epi.function

 

I. Szacowanie ryzyka względnego bez użycia pakietów.

 

1. Należy utworzyć macierz danych. W przypadku szpiczaka mnogiego i promieniowania kod będzie następujący:

 

Proba<- matrix(c(130, 1870, 70, 8000), nrow = 2)	

 

2. Aby kod był przejrzysty- warto nadać nazwy wierszom i kolumnom:

 

	
dimnames(Proba) <- list("Grupa" = c("Myelomamultiplex","Kontrolna"), "MI" = c("Nar.naprom.","Nie nar. na prom."))

 

Grupa               Nar.na prom. Nie nar. na prom.
Myelomamultiplex          130                70
Kontrolna                 1870              8000

 

3. Kolejnym krokiem jest utworzenie tabeli procentowej (np. 130 przypadków szpiczaka dla 200 obserwcji ogółem stanowi 65% -> 0,65):

 

prob.nazw<- prop.table(Proba, margin = 1)

Grupa Nar.na prom. Nie nar. na prom.
Myelomamultiplex 0.650000 0.350000
Kontrolna 0.189463 0.810537

 

4. Ostatnim z kroków pozwalających ocenić ryzykow względne jest zastosowanie poniższej procedury:

 

ryzyko.wg<- prob.nazw[1,1]/prob.nazw[2,1]
3.430749

II. Ocena ryzyka względnego za pomocą pakietu epitools:

 

1. Instalacja i uruchomienie pakietu epitools

>install.packages("epitools")
>library("epitools")	

 

W tym przypadku rozważane będą inne dane

 

2. Utworzenie macierzy danych:

dane <- matrix(c(4,16,40,168),byrow=TRUE,nrow=2)	

 

3. Wywołanie instrukcji epitab(dane_badane,metoda):

epitab (dane,method="riskratio")

 

4. Wynik:

## $dane
## Outcome
## Predictor Disease1 p0 Disease2 p1 riskratio lower upper
## Exposed1 4 0.2000000 16 0.8000000 1.000000 NA NA
## Exposed2 40 0.1923077 168 0.8076923 1.009615 0.8030206 1.269361
## Outcome
## Predictor p.value
## Exposed1 NA
## Exposed2 1

 

RR odczytujemy z kolumny riskratio (1.009615).

 

Dodatkowo można oliczyć logarytm z RR:

 

RR <- prob.nazw[1,1]/prob.nazw[2,1]
log(RR)
1.232779

 

 

III. Obliczenie ryzyka względnego w programie MS Excel 2010

Mając tabelę:

 

Narażony na promieniowanie jonizujące

Nie narażony na promieniowanie

jonizujące

Ogółem

Wystąpienie szpiczaka mnogiego (Myelomamultiplex)

130

70

200

Grupa kontrolna

1870

7930

9800

 

2000

8000

1000

 

Należy najpierw przekonwertować ją do postaci procentowej - pytamy np. ile procent zachorowań jest zależne od promieniowania.

 

Obliczenia przeprowadza się wg następującego wzorca:

 

X=130*1/200, oraz Y=1870*1/9800

 

Następnie dzieląc X/Y otrzymujemy ryzyko względne = 3,406.

 

Autor opracowania: Jeremiasz Pilarz (BioStat)

Analiza statystyczna (cz. 1) - ryzyko względne

Wielkością, która określa stosunek prawdopodobieństwa zajścia danego zdarzenia (w tym przypadku wystąpienia choroby, śmierci, lub innego przypadku patologicznego) w grupie badanej względem grupy odniesienia (grupa kontrolna) jest ryzyko względne. Ryzyko względne (RR – relativerisk) jest wielkością, która pozwala na ocenę o ile prawdopodobieństwo wystąpienia zdarzenia w grupie pacjentów ze zmianami chorobowymi jest różne (większe/mniejsze) w porównaniu z grupą kontrolną. Warto zaznaczyć, że RR należy do grupy metod biostatystycznych EBM (evidenced- basedmedicine), czyli medycyny opartej na faktach. Ocena ryzyka wystąpienia choroby w metodzie RR jest dokonywana za pomocą tzw. Tabeli czteropolowej w której dzieli się wszystkie osoby objęte obserwacją: ilość chorych, którzy byli poddani działaniu czynnika wywołującego zmiany patologiczne, ilość chorych, którzy nie mieli do czynienia z czynnikiem chorobotwórczym, narażona grupa kontrolna i nienarażona grupa kontrolna.

Należy zaznaczyć, iż ryzyko względne należy do względnych miar zależności statystycznych (obok min. Ilorazu szans, ilorazu współczynników, czy częstości).

W przypadku RR rozróżniamy trzy zasadnicze możliwości:

  • RR > 1 – dodatnia zależność- czynnik badany wywołuje dane schorzenie (bardzo często podaje się tu przykład zależności zachorowań na raka płuc względem palaczy)

- 1,1 - 1,6 - mała szkodliwość;

-1,7 - 2,5 - średnia szkodliwość;

>2,7 - duża szkodliwość;

  • RR=1 –brak zależności;
  • RR <1 –ujemna zależność- czynnik badany nie wywołuje schorzenia (w danym przypadku), co więcej powoduje jego redukcję (np. występowanie nadwagi względem zdrowego trybu życia)

- 0 - 0,3 - duży efekt ochronny;

- 0,4 - 0,5 - średni efekt ochronny;

- 0,6 - 0,9 - mały efekt ochronny;

 

W zastosowaniach analizy statystycznej w medycynie ryzyko względne jest użyteczną metodą oceny wpływu danego czynnika (np. promieniowania) na ryzyko wystąpienia choroby (tutaj: szpiczak mnogi). Jako przykład niech posłuży hipotetyczne badanie: Czy istnieje relacja pomiędzy występowaniem szpiczaka mnogiego, a wykonywaniem zawodu związanego z narażeniem pacjenta na ekspozycję promieniowania jonizującego (technicy RTG, fizycy, radiolodzy).

 

  Narażony na promieniowanie jonizujące

Nie narażony na promieniowanie

jonizujące

Ogółem
Wystąpienie szpiczaka mnogiego (Myelomamultiplex) 130 70 200
Grupa kontrolna 1870 7930 9800
  2000 8000 10000

 

Ryzyko względne obliczamy ze wzoru:

Wartość 3,4 oznacza, że ryzyko wystąpienia szpiczaka u osób narażonych na promieniowanie jest 3,4 razy większe niż u osób, które nie mają styczności z promieniowaniem.

Z tabeli można wyliczyć nie tylko ryzyko względne, ale i iloraz szans- stosunek szans wystąpienia danego zdarzenia w jednej grupie do szansy jego wystąpienia w innej:

Błąd standardowy (przybliżony) liczy się w następujący sposób:

Wzory ogólne opisujemy następująco:

 

1. Tabela wyników:

  Czynnik ryzyka Brak czynnika chorobotwórczego Ogółem
Choroba/ przypadłość A B alfa
Grupa kontrolna C D beta
SUMA: A + C B + D alfa + beta

2. Ryzyko względne:

3. Iloraz szans:

4. Błąd standardowy:

Autor opracowania: Jeremiasz Pilarz (BioStat)

Analizy statystyczne a psychometria (cz. 1)

Testy psychologiczne muszą odznaczać się swoistego rodzaju rzetelnością, odpowiadać ściśle określonym procedurom. Dział psychologii, który wykorzystuje w badaniach metodologię statystyki oraz matematyki to Psychometria. Psychometria pozwala w sposób ilościowy i obiektywny zmierzyć pewne cechy w danej populacji lub dotyczące danej jednostki. Warto zaznaczyć, iż część badaczy uważa psychometrię za dziedzinę niebezpieczną twierdząc, że nie można standaryzować zachowania ludzkiego względem pewnego wzorca.

 

Psychometria opiera się jak wspomniano na jasno zdefiniowanych procedurach, które opierają się na analizie statystycznej i matematycznej. Dlatego też w psychometrii znajduje się szereg narzędzi, które pozwalają odpowiedzieć min na pytanie Czy badanie przeprowadzono w sposób rzetelny.

 

Rzetelność jest w psychometrii cechą, która oznacza powtarzalność pomiaru i determinuje jakość badania i wymaga aby test był ze sobą spójny w czasie.  Ogólnie możemy powiedzieć, że rzetelność mówi nam na ile dane badanie zostało dobrze przeprowadzone. W celu oszacowania czy użyta w badaniu skala jest rzetelna stosujemy alfę Cronbacha. Alfa Cronbacha jest miarą spójności danych, które wchodzą w skład danej skali. Inaczej mówiąc: odpowiada na pytanie - Na ile badane czynniki są do siebie podobne, czy opisują ten sam problem?

 

 

Istota Alfy Cronbacha

Alfa Cronbacha jest definiowana następująco:

 

Gdzie:

jest wariancją dla poszczególnych obserwacji;

 

N oznacza ilość elementów w teście.

 

Bardzo często w testach psychologicznych odpowiedzi na pytania mają przypisane wartości binarne (0,1), w tym przypadku należy posłużyć się wariantem Alfy Cronbacha, czyli Wzorem KR-20 (Kudler- Richardson 20):

 

W powyższej notacji p oznacza proporcję właściwych (w założeniu dla testu) odpowiedzi w stosunku do całkowitej ilości odpowiedzi, z kolei q oznacza stosunek niewłaściwych odpowiedzi w stosunku do całkowitej ilości odpowiedzi (fakt ten można łatwo poddać weryfikacji- tj. czy p + q =1).

W jakich przypadkach sprawdzana jest alfa Cronbacha?

 

Niech za ilustrację posłuży przykład:

 

Badacz zapytał respondentów zmagających się z zakupoholizmem następujący cykl pytań:

-Czy czujesz się lepiej, gdy kupujesz coś nowego?

-Czy masz kaca moralnego po paru godzinach od zakupu?

-Czy rzeczy, które kupujesz są tak naprawdę niepotrzebne?

-Czy kupujesz słodycze podczas zakupów?

Badacz otrzymał wynik alfy Cronbacha równy 0,66 oznacza to, że pytania można zakwestionować. Badacz stwierdził, że usunięcie pytania dotyczącego słodyczy podniosło wartość alfy Cronbacha do wartości 0,89. Oznacza to, że podobieństwo pomiędzy pytaniami jest bardzo duże - tj. występuje silna korelacja pomiędzy dobrym nastrojem, kacem moralnym, oraz stwierdzeniem, że rzeczy zakupione kompulsywnie są w istocie niepotrzebne.

 

Mankamentry Alfy Cronbacha

Alfa Cronbacha pozwala określić, czy badany zespół zjawisk jest do siebie podobny. Zaletą Alfy Cronbacha jest fakt, że dzięki niej można wyrugować ze skali pozycję, która wpływa negatywnie na ogólny wynik.

 

Posługując się Alfą Cronbacha należy pamiętać o paru „pułapkach”:

- liczba pozycji na sakli ma znaczący wpływ na Alfę Cronbacha, dlatego usuwając dany element należy mieć ten fakt na uwadze;

- wartość alfy może być bardzo wysoka, ale może okazać się, że osiągnięto ten wynik poprzez powtórzenie tego samego pytania, ale ubranego w nieco inne słowa;

- testy powinny mieć odpowiednią długość- Alfa Cronbacha jest zależna od wielkości testu;

- część badaczy uważa, że gdy wartość Alfy-Cronbacha przekroczy wartość 0.9 to nie świadczy to o bardzo silnej korelacji, ale o fakcie, że gdzieś popełniono błąd (łączenie dwóch różnych skal, powtarzanie tego samego pytania);

- nie powinno się łączyć skal, które mierzą inne zagadnienia - formalnie takie połączenie może dać w wyniku dużą wartość Alfy Cronbacha. Niestety pomiar będzie błędny.

- należy sprawdzić, czy alfa nie zaniża rzetelności testu (stosujemy analizę czynnikową - min. Korelację r Pearsona).

 

Interpretacja Alfy Cronbacha

Poniższa tabela ukazuje jak interpretować otrzymane wartości alfy Cronbacha:

Wartość alfy Cronbacha Wewnętrzna spójność Interpretacja
α ≥ 0,9 Perfekcyjna Bardzo silna korelacja pomiędzy badanymi przypadkami (np. Czy pracujesz? -> Czy zarabiasz pieniądze?)
0,9>α ≥ 0,8 Bardzo dobra / dobra Silna korelacja pomiędzy badanymi przypadkami (Czy jesteś alergikiem? Czy masz wysypkę po zjedzeniu orzechów arachidowych?)
0,8>α ≥ 0,7 Akceptowalna Średnia korelacja pomiędzy badanymi przypadkami (Czy grasz w gry komputerowe dłużej niż 6 godzin dziennie? Czy bolą Cię oczy?)
0,7>α ≥ 0,6 Kwestionowalna Słaba korelacja pomiędzy badanymi przypadkami (Czy uprawiasz sport? Czy cierpisz na chroniczną chandrę?)
0,6>α ≥ 0,5 Słaba Bardzo słaba korelacja  (Czy jesteś samotny? Czy masz kota?)
0,5>α Nieakceptowalna Praktyczny brak korelacji (Czy lubisz rzepę? Czy znasz równania różniczkowe?)

 

Autor opracowania: Jeremiasz Pilarz (BioStat)

Analizy statystyczne a psychometria (cz. 2)

W poprzednim artykule omówiliśmy Alfę Cronbacha - jej cechy oraz kiedy jest stosowana. Poniższy tekst jest przewodnikiem pozwalającym krok po kroku obliczyć Alfę Cronbacha za pomocą programu Excel.

 

Przykład zastosowania Alfy Cronbacha w arkuszu Excel

Ankietowani odpowiadali na dziesięć pytań. Liczba ankietowanych również wyniosła dziesięć.

Tabela przygotowana na podstawie otrzymanych wyników wygląda następująco:

W następnym kroku obliczamy:

- wartość N (w rozważanym przypadku równą 10);

- sumę wariancji populacji (=SUMA()). Suma ta wynosi 0,66

- wariancję sum ilości odpowiedzi;

- Alfę Cronbacha obliczamy ze wzoru: (=N/(N-1)*((1-SumaWariancji)/ WariancjaSum))

Wartość Alfy w rozważanym przypadku wyniosła 0,674 ≈ 0,67 oznacza to, że pytania wykazują kwestionowalną korelację.

Polecamy przeprowadzenie eksperymentu polegającego na zmianie wartości poszczególnych odpowiedzi - im więcej odpowiedzi pozytywnych tym wartość α większa a tym samym pytania są ze sobą spójne, z kolei większa ilość odpowiedzi negatywnych ma odwrotny wpływ- α staje się coraz mniejsza a tym samym rzetelność testu jest mniejsza.

Autor opracowania: Jeremiasz Pilarz (BioStat)

Testowanie hipotez w statystyce medycznej (cz. 1)

Analityka statystyczna sprzyja weryfikacji, tj. potwierdzaniu lub obalaniu, pewnych przyjętych hipotez. Nie inaczej jest także w zakresie statystyki medycznej - tutaj również proces analiz pozwala odnosić się do brzmienia rozpatrywanych hipotez, a jego ogólny schemat przedstawić można następująco, w postaci 5 kluczowych etapów:

  • formułowanie hipotezy zerowej oraz przeciwnej do niej hipotezy alternatywnej, która podlegać będzie badaniu i weryfikacji;
  • gromadzenie danych do analizy;
  • oszacowanie wartości określonej dla hipotezy zerowej tzw. statystyki testu;
  • porównanie uzyskanej wartości statystyki testu z wartościami wykazanymi w znanych rozkładach prawdopodobieństwa;
  • interpretacja wyników i wyciagnięcie wniosków.

 

Podstawowe kwestie z dziedziny statystyki, z których to czerpie statystyka medyczna w zakresie testowania hipotez omówione zostaną pokrótce w dalszej części opracowania.

 

Definiowanie hipotez

Jak podczas typowych badań statystycznych, tak i analizy o charakterze medycznym sprowadzają się do testu hipotezy zerowej (H0), która zakłada na ogół brak oddziaływania/zachodzenia rozpatrywanego zjawiska w badanej populacji. Gdy hipoteza ta nie jest prawdziwa - siłą rzeczy zachodzi hipoteza alternatywna (H1) - odnosi się one co do zasady bezpośrednio do teorii, która zamierzamy objąć badaniem i jest przeciwieństwem hipotezy H0.

 

Uzyskiwanie statystyki testowej i wartości „p”

Weryfikacja hipotez wymaga uzyskania dla nich tzw. statystyki testu - odbywa się to w oparciu o zgromadzone dane liczbowe i podstawienie ich do wzoru zdefiniowanego dla używanego testu. Odzwierciedla on co do zasady siłę zawartego w zabranych danych dowodu statystycznego przeciwko przyjętej hipotezie zerowej (H0) - większą wartość utożsamia się zwykle z silniejszym dowodem.

 

Co istotne, dostępne statystyki testowe wpisują się w powszechnie stosowane rozkłady częstości. Pole w ogonach rozpatrywanego/rozpatrywanych rozkładów prawdopodobieństwa, łączące w swoisty sposób wartość uzyskanej ze statystyki testu z samym rozkładem, jest tzw. wartość „p”. Definiuje się ją jako prawdopodobieństwo otrzymania wyników w sytuacji, gdy założona hipoteza zerowa jest prawdziwa.

 

Z reguły im  mniejsza wartość „p”, tym silniejszy jest dowód za odrzuceniem hipotezy zerowej - za dowód wystarczający przyjmuje się wartość „p” na poziomie niższym niż 0,05, co daje wyniki o istotności rzędu 5% (wartość „p” większa lub równa 0,05 nie stanowi powodu do odrzucenia hipotezy zerowej - wyniki określamy jednak jako nieistotne na poziomie 5%). Należy jednak mieć na uwadze, że wybór pułapu 5% (0,05) uważa się za arbitralny - w sytuacji groźnych następstw odrzucenia/przyjęcia hipotezy zerowej (mowa wszak o problematyce medyczne i zdrowiu oraz życiu ludzkim), możemy domagać się by statystyka medyczna opierała się o silniejsze dowody, tj. ustalenia wartości „p” na poziomie 0,01 lub 0,001.

 

Testowanie nieparametryczne

Korzystanie z znanych rozkładów prawdopodobieństwa, któremu podlegają zebrane dane,  określa się jako testowanie parametryczne. W sytuacji, gdy zadane dane nie spełniają założeń tego typu testów, odwołać się należy do testów nieparametrycznych, które mają zastosowanie niezależnie od postaci rozkładu. Ten typ testów jest szczególnie ważny w przypadku prób mało licznych lub ujęcia danych w postaci „kategorialnej”.

 

Mając do wyboru nie tylko różne formy test, ale i same testy, warto przemyśleć, który z nich użyć - wybór uzależnia się zasadniczo o od projektu badawczego, typu zadanej me innej i samego rozkładu częstości.

 

Przedział ufności

Kolejnym ważnym zagadnieniem w testowaniu hipotez, jakie uwzględnia statystyka medyczna w procesie analiz, jest kwestia przedziału ufności. Są one nierozerwalnie złączone z testowaniem hipotez, gdyż kwantyfikują interesujące analityka wyniki i pozwalają na uzyskanie ich klinicznych aplikacji. W swoisty sposób przedziały ufności określają wiarygodność uzyskanych wyników - jeżeli hipotetyczna wartość wyniku wykracza poza przyjęty przedział ufności, świadczy to o jego niskiej wiarygodności i prowadzi do odrzucenia hipotezy zerowej H0.

 

Błędy w testowaniu hipotez

Tytułem podsumowania, nawiązując do przedziałów ufności czy przyjęcia wartości „p”, zasygnalizować należy, że przyjęcie lub odrzucenie hipotezy zerowej/alternatywnej może być błędne. Wątek ten omówiony zostanie w odrębnym opracowaniu, warto jednak wskazać, że błędy takie mogą wykazywać kilka rodzajów:

  • błąd pierwszego rodzaju to odrzucenie hipotezy zerowej, gdy w rzeczywistości jest on a prawdziwa;
  • błąd drugiego rodzaju to nieodrzucenie hipotezy zerowej w sytuacji, gdy jest ona nieprawdziwa.

 

Każdy z tych błędów wymaga odpowiedniej procedury postępowania w sytuacji jego wykrycia.

Statystyka jako wsparcie dla skutecznego działania

Sama analiza statystyczna odnosi się do zbierania i przetwarzania dużych ilości danych, co ma za zadanie wskazać występujące zależności i korelacje.

 

Statystyka z widokiem na przyszłość

Przeprowadzenie właściwych obliczeń w głównej mierze pozwoli na wyznaczenie panujących trendów, a co za tym idzie na dopasowanie swoich działań do konkretnych potrzeb i oczekiwań rynku. Ogólnie rzecz ujmując można powiedzieć, że analiza pozwoli na:

  • zwiększenie trafności decyzji;
  • ulepszenie dotychczas podejmowanych działań;
  • wskazywanie powiązań między wyznaczonymi elementami;
  • wskazanie oraz wyeliminowanie dotychczas popełnianych błędów;
  • zwiększenie świadomości mocnych stron.

 

Analiza, która pozwoli działać skutecznie

Tym samym można powiedzieć, że przeprowadzane analizy statystyczne mogą mieć zastosowanie w rozmaitych dziedzinach ludzkiego działania. Są one obecne zarówno w badaniach:

  • przeprowadzanych w sektorze medycyny;
  • satysfakcji i lojalności klientów;
  • marketingowych i rynku;
  • opinii pracowników.

Samo zebranie danych nie pozwoli na podejmowanie słusznych decyzji. Dopiero dzięki analizie tych danych możliwym jest tworzenie kreatywnych rozwiązań uskuteczniających dotychczas podejmowane działania. Jednocześnie badania takie mogą otworzyć szansę na wprowadzenie nowych rozwiązań czy produktów, które przyczyniają się do umocnienia pozycji danej firmy.

 

Statystyka ma służyć ludzkości

Natomiast jeśli o statystyce będzie mówić się w wymiarze sektora medycznego to warto zwrócić uwagę na to, że przeprowadzenie poprawnej analizy statystycznej może zadecydować o czyimś zdrowiu lub nawet zdrowiu. Dlatego też rozmawiając o biostatystyce należy w głównej mierze podkreślić wymiar etyczny realizowanych procesów badawczych.

 

Sytuacja, którą da się opanować

Najważniejsze zadania dla statystyki koncentrują się na właściwym zrozumieniu aktualnej sytuacji, a co za tym idzie na wskazaniu rozwiązań, które będą przyczyniać się do wzrostu i osiągania postawionych celów. Właściwie zrealizowana analiza statystyczna otwiera przede wszystkim nowe możliwości oraz dostarcza skutecznych rozwiązań wpływających na jakość podejmowanych działań i osiągane efekty.

 

Biostat. More than statistics.

ul. Kowalczyka 17
44-206 Rybnik

Tel: (+48) 32 42 21 707
Tel. kom.: (+48) 668 300 664
e-mail: biuro@biostat.com.pl

Sondaże Analizy danych