Tag: analizy statystyczne

Trafność testu oraz narzędzia

 

Podstawowym w statystyce zagadnieniem trafności treściowej jest zdefiniowanie badanej sfery zachowań oraz wskazanie, iż pozycje włączone do testu stanowią faktycznie próbę reprezentatywną. Trafność teoretyczna natomiast pokazuje związki narzędzia pomiarowego z konstruktem teoretycznym, zaczerpniętym z danej teorii. Badania trafności teoretycznej testu wymagają licznych analiz.

 

Metody ustalania trafności

 

Meehl oraz Cronbach zaproponowali pięć procedur ustalania trafności teoretycznej: analiza różnic międzygrupowych, analiza macierzy korelacji i analiza czynnikowa, analiza struktury wewnętrznej testu, analiza procesu rozwiązywania testu, analiza zmian nieprzypadkowych wyników testu. [1] W związku ze znacznym rozbudowaniem zagadnień poruszanych w ramach  analizy trafności, poniżej skupiono się szerzej na jednym aspekcie, mianowicie na trafności czynnikowej.

 

Analizując trafność narzędzia badawczego jakim jest kwestionariusz należy mieć na uwadze cztery aspekty trafności:

  • Trafność kryterialna, dzieli się ona na trafność diagnostyczną (concurent validity)  i prognostyczną (predictive validity)
  • Trafność treściowa (content validity)
  • Trafność teoretyczna (construct validity)
  • Trafność fasadowa (face validity)[2]

Najmniejsze znaczenie z punktu widzenia własności psychometrycznych ma trafność fasadowa.

 

Czy istnieje „złoty standard”?

 

Diagnostyczną trafność kryterialną możemy ocenić porównując wyniki testu do tak zwanego „złotego standardu”. Jest to zagadnienie o tyle skomplikowane, że w niektórych dziedzinach, szczególnie tych do tej pory nie zbadanych, trudno o wskazanie tak zwanego „złotego standardu” czyli testu sprawdzonego i wzorcowego.

 

Kiedy zasadne jest wdrożenie nowego narzędzia?

 

W przypadku natomiast gdy taki test już istnieje, należy poważnie rozważyć sens wprowadzania nowego narzędzia, gdyż powinno ono w pewnie sposób być lepsze od stosowanego do tej pory. Nowy test powinien być zarazem tańszy lub szybszy do przeprowadzenia od wyznaczonego testu wzorcowego.

 

Analiza korelacji

 

W literaturze zagadnienie trafności kryterialnej jest rozpatrywane (szczególnie przez psychologów) za pomocą analizy korelacji pomiędzy testem wzorcowym a nowym narzędziem. W przypadku poszukiwania testu bardziej trafnego od „złotego standardu” poszukuje się umiarkowanej istotnej korelacji. Jest to kryterium nieformalne, w trakcie analizy literaturowej nie znaleziono bowiem sztywnego kryterium wskazującego dokładną regułę decyzyjną.

 

[1] Tomasz Szafrański Skala Calgary do oceny depresji w schizofrenii. w Postępy Psychiatrii i Neurologii. Tom 6. 1996. Zeszyt 3. Instytut Psychiatrii I Neurologii.str. 337.

[2] Brzeziński Jerzy Metodologia badań psychologicznych. PWN Warszawa 1999. str.516

Trafność czynnikowa

 

Zasadniczym zagadnieniem tego typu trafności jest weryfikacja hipotezy o homogenności narzędzia badawczego. Od podstawowej skali (układu zmiennych) oczekuje się rozwiązania jednoczynnikowego. Analizę czynnikowa można podzielić na dwie grupy:

  • Analiza głównych składowych i klasyczna analiza czynnikowa
  • Konfirmacyjna analiza czynnikowa

 

Czym jest czynnikowa analiza danych?

Analiza czynnikowa jest to zbiór metod redukcji liczby zmiennych do kilku niezależnych czynników w oparciu o dekompozycję macierzy współczynników korelacji pomiędzy pierwotnymi pozycjami. Uzyskane w ten sposób czynniki mają merytoryczną interpretację reprezentując zmienne, które nie są obserwowalne bezpośrednio.[1]

 

Zagadnienia analizy głównych składowych oraz klasycznej, czynnikowej analizy statystycznej są opisywane przez wielu autorów. Na uwagę, poza metodami szacowania modelu analizy czynnikowej, zasługują zagadnienia wyboru liczby czynników oraz metody rotacji.

 

Jak dokonuje się wyboru liczby czynników?

 

Wybór liczby czynników następuje zgodnie z jednym z dwóch kryteriów: kryterium osypiska lub kryterium wartości własnej Kaizera. Po zidentyfikowaniu liczby czynników w praktyce badań częstym zjawiskiem jest wstępna przynależność jednej pozycji (zmiennej) do kilku czynników, co utrudnia w dużym stopniu identyfikację ich przynależności, a co za tym idzie interpretację czynników nowopowstałych.

 

Proces rotacji czynników

 

Rozwiązaniem w takiej sytuacji jest wykonanie rotacji czynników. Jej celem jest ustalenie takiego układu, aby każda pozycja miała wysokie ładunki (w praktyce powyżej 0,5 lub 0,6) tylko w zakresie jednego czynnika. Metody rotacji dzielą się na dwie grupy:

  • Rotacje ortogonalne: Varimax, Quatrimax, Equimax. W wyniku tych rotacji zachowana zostaje niezależność czynników.
  • Rotacje ukośne: Oblimin (Quatrimin, Biquatrimin, Covarmin), Oblimax, Promax. W wyniku rotacji ukośnej nie musi być zachowana niezależność czynników [2]

 

Model konfirmacyjnej analizy

 

Alternatywą do modelu klasycznego jest model konfirmacyjnej analizy czynnikowej. W metodzie tej używane są dwie grupy zmiennych: obserwowalne (czyli zmienne lub pozycje obserwowane przez badacza i odpowiednio kodowane) oraz zmienne latentne (czynniki będące konstruktami hipotetycznymi).

 

Podstawową różnicą pomierzy modelem eksploracyjnej (EFA) i konfirmacyjnej analizy czynnikowej (CFA) jest to, że konfirmacyjna analiza czynnikowa to procedura hipotetyczna służąca głównie do testowania hipotez na temat relacji pomiędzy czynnikami wspólnymi. W metodzie tej (w przeciwieństwie do klasycznej analizy czynnikowej) decyzje, co do liczby czynników podejmuje się przed rozpoczęciem ich wyodrębniania.

 

Metoda ta jest powszechnie stosowana właśnie wtedy, gdy istnieją podstawy do formułowania hipotez na temat związków pomiędzy badanymi zmiennymi. Wynik klasycznej analizy czynnikowej stanowi właśnie układ czynnikowy, który nie jest zadany przed przystąpieniem do badania. W przypadku analizy psychometrycznej kluczowa jest hipoteza homogenności (czyli rozwiązanie jednoczynnikowe) podstawowej skali sumarycznej.[3]

 

Test chi-kwadrat

 

Celem zbadania, czy pojedynczy model konfirmacyjnej analizy czynnikowej jest dobrze dopasowany można posłużyć się wskaźnikami dobroci dopasowania. Podstawowym testem dopasowania modelu do danych jest test chi-kwadrat. Test ten jest jednak silnie uzależniony od liczebności próby.

 

Zastosowanie wskaźnika GFI

 

Uzupełniająco stosuje się psychometryczny wskaźnik GFI (goodness of fit index) oraz jego korektrę AGFI (adjusted goodness of fit index). Wskaźniki te przyjmują wartość z przedziału 0-1 oraz nie są zależne od wielkości próby. Trudno w przypadku tych mierników (podobnie jak w przypadku współczynnika determinacji dla funkcji regresji) o jednoznaczne określenie jakie zakresy wartości tych mierników są akceptowalne.

 

Wskaźnik RMR

 

Kolejnym miernikiem jest RMR (root mean square residual). Wysokie wartości tego wskaźnika reszt są niekorzystne dla jakości modelu (analogicznie jak odchylenie standardowe reszt modelu regresji).

 

Miernik RMSEA

 

Jednym z najczęściej podawanych mierników dopasowania modelu konfirmacyjnej analizy czynnikowej jest RMSEA (root mean square error of approximation). Jest to wskaźnik pojawiający się na diagramie ścieżek po dopasowaniu modelu. Miara ta szacuje wielkość popełnianego błędu aproksymacji w populacji. Dobre dopasowanie modelu cechuje się wskaźnikiem RMSEA poniżej 0,05.

 

Indeksy modyfikacyjne

 

Dodatkowymi miernikami pomocnymi w procesie poprawy modelu są indeksy modyfikacyjne (modification indices). Pozwalają one zmierzyć o ile obniży się wartość chi-kwadrat w wyniku uwolnienia konkretnego parametru i ponownego oszacowania modelu.[4]

 

Na zakończenie

 

Podsumowując syntetyczne rozważania nad możliwościami zastosowania oraz podstawowymi zagadnieniami związanymi z modelami analizy czynnikowej należy zauważyć, iż są to metody powszechnie stosowane w naukach społecznych i medycznych oraz doskonale nadają się do badania własności psychometrycznych skal sumarycznych. Nie podają – tak jak powszechnie stosowana metoda alfa Cronbacha – tylko pojedynczego wyniku, ale pozwalają na analizę układu pozycji (zmiennych) wewnątrz skali oraz odrzucenie zbędnych pytań w kwestionariuszu.

 

[1] Gatnar E. Statystyczne modele struktury przyczynowej zjawisk ekonomicznych. AE Katowice 2003. str. 102.

[2] Gatnar E. Statystyczne modele struktury przyczynowej zjawisk ekonomicznych. AE Katowice 2003. str. 116 - 118

[3] Jerzy Brzeziński  Metodologia badań psychologicznych. Wybór tekstów. PWN Warszawa 2004. str. 443

[4] Jerzy Brzeziński  Metodologia badań psychologicznych. Wybór tekstów. PWN Warszawa 2004. str. 460-462

 

Nowoczesna medycyna a statystyka

 

Współcześnie branża medyczna czy farmaceutyczna na wielu polach swojej działalności musi opierać się na badaniach statystycznych. Tendencją jest również fakt, iż z roku na rok poszerzają się obszary w których króluje właśnie statystyka medyczna. To właśnie statystyka daje nam możliwość na odkrycie nieoczywistych zależności, znalezienie odpowiedzi na ważne pytania oraz pozwala poznawać nowe fakty. Jej wielozadaniowość oraz szybki rozwój pozwoliły naukowcom uznać ją za specyficzną i oddzielną dziedzinę nauki.

 

Analiza danych w medycynie

Nie tylko naukowcy lub lekarze prowadzący badania ale również osoby zainteresowane ich wynikami, chętnie je wykorzystują. Dlatego też coraz częściej w różnego rodzaju publikacjach naukowych można spotkać się zarówno z klasycznymi wynikami badań statystycznych, jak i tymi bardziej zaawansowanymi (data mining). Dzieje się tak, ponieważ techniki statystyczne dostarczają wiele korzyści w badaniach rynku medycznego, ale również w optymalizacji funkcjonowania jednostek służby zdrowia. Są również w stanie pozytywnie wpłynąć na jakość oferowanej opieki nad osobami chorymi, w tym wydajność posiadanych zasobów.

 

Biostatystyka

 

Jest typową nauką pogranicza, ponieważ swój rodowód wywodzi zarówno ze statystyki oraz biologii. Najbardziej powszechnym zastosowaniem biostatystyki, to badania rynku medycznego, np. promowanie nowych leków, badania w branży farmaceutycznej, np. potrzeby i opinie pacjentów, badania na potrzeby analiz klinicznych czy biorównoważności. Tak więc, biostatystykę angażuje się w wszelkie badania, analizy czy obserwacje z zakresu medycyny, aby móc w sposób statystyczny, częściowo i opisowy, ukazać badane zjawisko.

 

CRF

 

Formularz CRF to dokument wykorzystywany w obserwacji klinicznej. Zapisuje się w nim wszelkie informacje wymagane w protokole badań klinicznych. Badań, które mają na celu wykazanie zarówno skuteczności jak i bezpieczeństwa stosowanych środków farmakologicznych. Dzięki temu maja one szanse zostać zarejestrowane jako produkt leczniczy, a w związku z tym dopuszczone do obrotu na rynku farmaceutycznym. Ponieważ badania są długotrwałe to wymagają stosowania rozległej dokumentacji. Usprawnieniem jest tutaj zastosowanie ich elektronicznej wersji zwanej ECRF.

 

Badanie satysfakcji pacjentów

 

Zmierzenie i poznanie satysfakcji pacjentów, poprzez wykorzystanie metod statystyki medycznej, z oferowanych im świadczeń zdrowotnych jest bardzo ważnym elementem zarządzania jakością w ośrodkach leczniczych. Jest on w głównej mierze uznawany za wskaźnik jakości usług realizowanych przez tę jednostkę. Wprowadzenie norm kontroli jakością w placówce medycznej, w tym badań satysfakcji pacjentów z usług, wpływa na poprawę jej konkurencyjności na rynku usług medycznych.

 

Analiza statystyczna w życiu codziennym

Ktoś nieobeznany z matematyką mógłby bez wątpienia stwierdzić, że analiza statystyczna to narzędzie przeznaczone wyłącznie dla poważnych naukowców i zupełnie oderwane od codziennego życia. Tymczasem mnogość zastosowań tej gałęzi nauki powoduje, że każdego dnia dziesiątki razy napotykamy (mniej lub bardziej świadomie) na efekty zastosowania statystyki.

 

Co żelki mają wspólnego ze statystyką?

 

Aby zilustrować ogromne znaczenie statystyki w życiu codziennym, weźmy na przykład paczkę żelek, którą kupiłeś dziś rano w supermarkecie. Ich składniki zostały dobrane przy użyciu metod statystycznych, dzięki czemu nadają się do spożycia. Ich smak stanowi z kolei odpowiedź na oczekiwania konsumentów, zbadane przy użyciu... statystyki. Podobnie zresztą jak kształt żelek, ich cena czy projekt opakowań, w których są sprzedawane.

 

Produkcja tych słodyczy przebiegła pod znakiem licznych procesów kontroli jakości, silnie wspomaganych statystyką. Dzięki temu każdy żelkowy miś wygląda dokładnie tak samo jak wszystkie inne, pochodzące z tej samej linii produkcyjnej.

 

To oczywiście tylko wierzchołek góry lodowej, nawet pozostając w temacie zakupu żelek: ich położenie na półce w supermarkecie zostało statystyczne określone jako najbardziej optymalne dla tego typu produktów, a dane o ich sprzedaży będą stanowiły przedmiot późniejszej analizy statystycznej.

 

Inne przykłady zastosowań

 

Rzecz jasna zastosowanie statystyki nie kończy się na towarach ze sklepowych półek czy stereotypowych analizach rynku. Udział tej dziedziny nauki jest nieoceniony w wielu innych branżach, często powszechnie słabo z nią kojarzonych. Może to być na przykład:

 

- medycyna: zarówno w kwestii testowania i wprowadzania na rynek nowych leków, jak i analizy danych pozyskanych z badań pacjentów, co umożliwia między innymi trafne przewidywanie rozprzestrzeniania się chorób zakaźnych;

 

- ubezpieczenia: za pomocą statystyki korporacje z tej branży mogą dokładnie określić wysokość opłaty za ubezpieczenie - zarówno mając na uwadze swój zysk, jak i atrakcyjność oferty dla klienta;

 

- prognozowanie pogody: dzięki modelom statystycznym zoptymalizowanym pod kątem obliczeń komputerowych jesteśmy w stanie trafnie przewidzieć zjawiska pogodowe w kolejnych dniach;

 

- polityka: dzięki prawidłowej analizie danych sondażowych można z dużym prawdopodobieństwem oszacować przyszłe wyniki wyborów.

 

Podsumowując, statystyka pojawia się w naszym życiu codziennym wszędzie tam, gdzie możliwe jest jej zastosowanie, czyli analiza zbioru danych i wyszukiwanie w nim prawidłowości.

Statystyka... czyli... weryfikujemy hipotezy

Hipotetyczne założenia, a także różnego rodzaju tezy towarzyszą nam na co dzień. One same jednak w swym teoretycznym aspekcie nie stanowią tak naprawdę rzetelnego źródła informacji. Pewnych rzeczy się domyślamy. Jeszcze inne są tylko mglistą wizją. Dlatego tak ważne miejsce w naszej codzienności zajmuje statystyka. Nic nie weryfikuje hipotez tak skutecznie, jak ona.

 

Hipotezy nie tylko w pracach naukowych

 

Słysząc słowo hipoteza najczęściej myślimy o pracy naukowej. Przecież to przyszli magistrzy czy doktoranci zawierają ją w swojej pracy. Tymczasem hipoteza towarzyszy nam na każdej płaszczyźnie, która w swojej dynamice ulega ciągłemu rozwojowi. To właśnie hipotezy, a wraz z nimi kolejne pytania sprawiają, że człowiek szuka odpowiedzi – rozwija się i tworzy nowe perspektywy. Hipotezy stanowią ważny czynnik rozwoju gospodarki, psychologii, medycyny, socjologii czy nawet demografii.

 

Jak zbadać hipotezę?

 

Hipoteza to nie choroba, którą bada się w gabinecie lekarskim i leczy za pomocą odpowiednich terapii. Hipoteza to stwierdzenie, które wymaga dogłębnej analizy danych. Aby jej jednak dokonać, dane te trzeba wcześniej zebrać. A do tego służą odpowiednie metody statystyczne. Oczywiście na metodach tych doskonale znają się pracownicy firm badawczych, którzy potrafią zawsze dobrać optymalne narzędzia.

 

Analiza zebranych danych

 

Analizy statystyczne to kolejny, po zbieraniu danych, etap badania. Gdy zbiór danych jest już gotowy, można przejść do wyciągnięcia z niego konkretnej wiedzy. A to staje się możliwe właśnie dzięki analizom statystycznym. Ich zadaniem jest wyciągnięcie wniosków i zweryfikowanie faktów oraz hipotez. Tym samym stają się one odpowiedzią na pytania odnośnie naszych założeń i stawianych na co dzień tez.

 

Statystyka a biznes

 

Mówiąc o statystyce i jej wpływie na różne dziedziny naszego życia, nie możemy udawać, że nie dostrzegamy możliwości, jakie otwiera przed biznesem. Tutaj wykorzystywana jest ona do osiągania celów biznesowych, głównie zwiększania obrotu i maksymalizacji zysku. Dzięki analizom danych zebranych w trakcie badania firmy weryfikują rynek, poznają nastawienie klientów, a także ich potrzeby. Tym samym zdobywają odpowiedź na pytanie odnośnie zmian, jakie należy wprowadzić w koncepcji sprzedaży, czy kierunków, jakie należy obrać, by ostatecznie odnieść sukces.

 

Hipotezy są po to, by je weryfikować. Tylko wtedy istnieje sens ich tworzenia. A prawdziwym mistrzem w weryfikowaniu jest statystyka. Ta nauka nie pozostawia wątpliwości, ani pytań bez odpowiedzi.

Prawidłowa statystyka do habilitacji

Zdobywanie habilitacji za niedługo może się okazać zupełnie niepotrzebne, ponieważ ten stopień naukowy miał być już wielokrotnie znoszony. Mimo to, cały czas istnieje obowiązek jego uzyskiwania na drodze awansu zawodowego, przez co trzeba się zdobyć na ten wysiłek i ukończyć habilitację w danym kierunku. Często obejmuje ona wyjście daleko poza swoją normalną dziedzinę wiedzy.


Nastawienie na matematykę
Współczesny świat naukowy bardzo mocno stawia na narzędzia matematyczne. Od czasu, kiedy matematyka na dobre zadomowiła się nawet w filozofii, co miało miejsce trochę ponad sto lat temu, stała się ona narzędziem wymaganym przy niemalże wszystkich naukowych rozprawach.

Człowiek wykształcony nie może się takiemu stanowi rzeczy dziwić, ponieważ matematyka, w tym przede wszystkim statystyka, pozwala nam na zdobywanie wiedzy, która w przeciwnym razie nie byłaby dla nas dostępna. Mowa tutaj o takich kwestiach, jak na przykład:

  • kwantyfikowanie zjawisk miękkich, trudnych do określenia, zwłaszcza w naukach społecznych;
  • umożliwianie dokonywania porównań pomiędzy dwiema populacjami;
  • sprawdzanie losowości próby badawczej;
  • znajdowanie zależności ukrytych dzięki procedurze data mining;
  • oczyszczanie danych pierwotnych z zaburzeń wywołanych czynnikami zewnętrznymi (tzw. kontrolowanie danych ze względu na czynnik X).

Powyższa lista to tylko kilka prostych przykładów tego, jak bardzo pomocna może być statystyka do habilitacji. Dzięki niej możliwe jest uzyskanie do tej pory niedostępnych informacji, jak również błędnego odczytania danych, które w jakiś sposób są zafałszowane przez najróżniejsze czynniki.


Wsparcie techniczne
Wykorzystanie statystyki dla habilitacji to także zadanie czysto techniczne, czyli polegające nie tyle na wyciąganiu konkretnych wniosków z posiadanych danych, ale na ich odpowiedniej obróbce, czyli prowadzenie konkretnych badań pierwotnych i analiz wtórnych.
Wsparcie z zakresu statystyki dla habilitacji może polegać na:

  • przygotowywaniu badań (np. tworzenie ankiet);
  • digitalizacji wyników badań;
  • prowadzeniu realnych obliczeń statystycznych;
  • tworzeniu baz danych;
  • prezentacji uzyskanych danych.

W ramach wszystkich tych kwestii kandydat do habilitacji może liczyć na wykonanie dla niego konkretnych usług, jak również na wsparcie obejmujące przede wszystkim konsultacje jego metodologii czy sprawdzenie wyników. Ważnym aspektem wsparcia dla naukowców są również kursy prawidłowego korzystania z najpopularniejszych narzędzi statystycznych, takich jak SPSS czy Statistica.

Analiza statystyczna (cz. 2) - obliczanie ryzyka względnego za pomocą R

W poprzednim artykule omawialiśmy ryzyko względne, które jest wygodną wielkością stosowaną w statystyce medycznej informującą w jaki sposób czynnik ryzyka wpływa na szeroko pojmowane wystąpienie zmian patologicznych. W sieci znajdziemy bogate oprogramowanie online pozwalające liczyć interesujące relacje np.  relativeriskcalculatordostępny pod adresem:

https://www.medcalc.org/calc/relative_risk.php.

 

Jednak najczęściej istnieje potrzeba obliczenia szeregu wielkości stosowanych w badaniach klinicznych, czy medycznej analizie statystycznej - wtedy z pomocą przychodzi środowisko programistyczno-obliczeniowe R. Sam program R nie dysponuje wbudowanymi funkcjami pozwalającymi na przeprowadzanie różnorakich klinicznych testów statystycznych: należy ściągnąć odpowiedni pakiet, w tym przypadku najlepszym wyborem jest epitools dostępny między innymi na stronie https://cran.r-project.org/web/packages/epitools/index.html warto zaznaczyć, że epitools znajdziemy również w wersji mobilnej (android):

https://play.google.com/store/apps/details?id=com.epi.function

 

I. Szacowanie ryzyka względnego bez użycia pakietów.

 

1. Należy utworzyć macierz danych. W przypadku szpiczaka mnogiego i promieniowania kod będzie następujący:

 

Proba<- matrix(c(130, 1870, 70, 8000), nrow = 2)	

 

2. Aby kod był przejrzysty- warto nadać nazwy wierszom i kolumnom:

 

	
dimnames(Proba) <- list("Grupa" = c("Myelomamultiplex","Kontrolna"), "MI" = c("Nar.naprom.","Nie nar. na prom."))

 

Grupa               Nar.na prom. Nie nar. na prom.
Myelomamultiplex          130                70
Kontrolna                 1870              8000

 

3. Kolejnym krokiem jest utworzenie tabeli procentowej (np. 130 przypadków szpiczaka dla 200 obserwcji ogółem stanowi 65% -> 0,65):

 

prob.nazw<- prop.table(Proba, margin = 1)

Grupa Nar.na prom. Nie nar. na prom.
Myelomamultiplex 0.650000 0.350000
Kontrolna 0.189463 0.810537

 

4. Ostatnim z kroków pozwalających ocenić ryzykow względne jest zastosowanie poniższej procedury:

 

ryzyko.wg<- prob.nazw[1,1]/prob.nazw[2,1]
3.430749

II. Ocena ryzyka względnego za pomocą pakietu epitools:

 

1. Instalacja i uruchomienie pakietu epitools

>install.packages("epitools")
>library("epitools")	

 

W tym przypadku rozważane będą inne dane

 

2. Utworzenie macierzy danych:

dane <- matrix(c(4,16,40,168),byrow=TRUE,nrow=2)	

 

3. Wywołanie instrukcji epitab(dane_badane,metoda):

epitab (dane,method="riskratio")

 

4. Wynik:

## $dane
## Outcome
## Predictor Disease1 p0 Disease2 p1 riskratio lower upper
## Exposed1 4 0.2000000 16 0.8000000 1.000000 NA NA
## Exposed2 40 0.1923077 168 0.8076923 1.009615 0.8030206 1.269361
## Outcome
## Predictor p.value
## Exposed1 NA
## Exposed2 1

 

RR odczytujemy z kolumny riskratio (1.009615).

 

Dodatkowo można oliczyć logarytm z RR:

 

RR <- prob.nazw[1,1]/prob.nazw[2,1]
log(RR)
1.232779

 

 

III. Obliczenie ryzyka względnego w programie MS Excel 2010

Mając tabelę:

 

Narażony na promieniowanie jonizujące

Nie narażony na promieniowanie

jonizujące

Ogółem

Wystąpienie szpiczaka mnogiego (Myelomamultiplex)

130

70

200

Grupa kontrolna

1870

7930

9800

 

2000

8000

1000

 

Należy najpierw przekonwertować ją do postaci procentowej - pytamy np. ile procent zachorowań jest zależne od promieniowania.

 

Obliczenia przeprowadza się wg następującego wzorca:

 

X=130*1/200, oraz Y=1870*1/9800

 

Następnie dzieląc X/Y otrzymujemy ryzyko względne = 3,406.

 

Autor opracowania: Jeremiasz Pilarz (BioStat)

Analiza statystyczna (cz. 1) - ryzyko względne

Wielkością, która określa stosunek prawdopodobieństwa zajścia danego zdarzenia (w tym przypadku wystąpienia choroby, śmierci, lub innego przypadku patologicznego) w grupie badanej względem grupy odniesienia (grupa kontrolna) jest ryzyko względne. Ryzyko względne (RR – relativerisk) jest wielkością, która pozwala na ocenę o ile prawdopodobieństwo wystąpienia zdarzenia w grupie pacjentów ze zmianami chorobowymi jest różne (większe/mniejsze) w porównaniu z grupą kontrolną. Warto zaznaczyć, że RR należy do grupy metod biostatystycznych EBM (evidenced- basedmedicine), czyli medycyny opartej na faktach. Ocena ryzyka wystąpienia choroby w metodzie RR jest dokonywana za pomocą tzw. Tabeli czteropolowej w której dzieli się wszystkie osoby objęte obserwacją: ilość chorych, którzy byli poddani działaniu czynnika wywołującego zmiany patologiczne, ilość chorych, którzy nie mieli do czynienia z czynnikiem chorobotwórczym, narażona grupa kontrolna i nienarażona grupa kontrolna.

Należy zaznaczyć, iż ryzyko względne należy do względnych miar zależności statystycznych (obok min. Ilorazu szans, ilorazu współczynników, czy częstości).

W przypadku RR rozróżniamy trzy zasadnicze możliwości:

  • RR > 1 – dodatnia zależność- czynnik badany wywołuje dane schorzenie (bardzo często podaje się tu przykład zależności zachorowań na raka płuc względem palaczy)

- 1,1 - 1,6 - mała szkodliwość;

-1,7 - 2,5 - średnia szkodliwość;

>2,7 - duża szkodliwość;

  • RR=1 –brak zależności;
  • RR <1 –ujemna zależność- czynnik badany nie wywołuje schorzenia (w danym przypadku), co więcej powoduje jego redukcję (np. występowanie nadwagi względem zdrowego trybu życia)

- 0 - 0,3 - duży efekt ochronny;

- 0,4 - 0,5 - średni efekt ochronny;

- 0,6 - 0,9 - mały efekt ochronny;

 

W zastosowaniach analizy statystycznej w medycynie ryzyko względne jest użyteczną metodą oceny wpływu danego czynnika (np. promieniowania) na ryzyko wystąpienia choroby (tutaj: szpiczak mnogi). Jako przykład niech posłuży hipotetyczne badanie: Czy istnieje relacja pomiędzy występowaniem szpiczaka mnogiego, a wykonywaniem zawodu związanego z narażeniem pacjenta na ekspozycję promieniowania jonizującego (technicy RTG, fizycy, radiolodzy).

 

  Narażony na promieniowanie jonizujące

Nie narażony na promieniowanie

jonizujące

Ogółem
Wystąpienie szpiczaka mnogiego (Myelomamultiplex) 130 70 200
Grupa kontrolna 1870 7930 9800
  2000 8000 10000

 

Ryzyko względne obliczamy ze wzoru:

Wartość 3,4 oznacza, że ryzyko wystąpienia szpiczaka u osób narażonych na promieniowanie jest 3,4 razy większe niż u osób, które nie mają styczności z promieniowaniem.

Z tabeli można wyliczyć nie tylko ryzyko względne, ale i iloraz szans- stosunek szans wystąpienia danego zdarzenia w jednej grupie do szansy jego wystąpienia w innej:

Błąd standardowy (przybliżony) liczy się w następujący sposób:

Wzory ogólne opisujemy następująco:

 

1. Tabela wyników:

  Czynnik ryzyka Brak czynnika chorobotwórczego Ogółem
Choroba/ przypadłość A B alfa
Grupa kontrolna C D beta
SUMA: A + C B + D alfa + beta

2. Ryzyko względne:

3. Iloraz szans:

4. Błąd standardowy:

Autor opracowania: Jeremiasz Pilarz (BioStat)

Analizy statystyczne a psychometria (cz. 1)

Testy psychologiczne muszą odznaczać się swoistego rodzaju rzetelnością, odpowiadać ściśle określonym procedurom. Dział psychologii, który wykorzystuje w badaniach metodologię statystyki oraz matematyki to Psychometria. Psychometria pozwala w sposób ilościowy i obiektywny zmierzyć pewne cechy w danej populacji lub dotyczące danej jednostki. Warto zaznaczyć, iż część badaczy uważa psychometrię za dziedzinę niebezpieczną twierdząc, że nie można standaryzować zachowania ludzkiego względem pewnego wzorca.

 

Psychometria opiera się jak wspomniano na jasno zdefiniowanych procedurach, które opierają się na analizie statystycznej i matematycznej. Dlatego też w psychometrii znajduje się szereg narzędzi, które pozwalają odpowiedzieć min na pytanie Czy badanie przeprowadzono w sposób rzetelny.

 

Rzetelność jest w psychometrii cechą, która oznacza powtarzalność pomiaru i determinuje jakość badania i wymaga aby test był ze sobą spójny w czasie.  Ogólnie możemy powiedzieć, że rzetelność mówi nam na ile dane badanie zostało dobrze przeprowadzone. W celu oszacowania czy użyta w badaniu skala jest rzetelna stosujemy alfę Cronbacha. Alfa Cronbacha jest miarą spójności danych, które wchodzą w skład danej skali. Inaczej mówiąc: odpowiada na pytanie - Na ile badane czynniki są do siebie podobne, czy opisują ten sam problem?

 

 

Istota Alfy Cronbacha

Alfa Cronbacha jest definiowana następująco:

 

Gdzie:

jest wariancją dla poszczególnych obserwacji;

 

N oznacza ilość elementów w teście.

 

Bardzo często w testach psychologicznych odpowiedzi na pytania mają przypisane wartości binarne (0,1), w tym przypadku należy posłużyć się wariantem Alfy Cronbacha, czyli Wzorem KR-20 (Kudler- Richardson 20):

 

W powyższej notacji p oznacza proporcję właściwych (w założeniu dla testu) odpowiedzi w stosunku do całkowitej ilości odpowiedzi, z kolei q oznacza stosunek niewłaściwych odpowiedzi w stosunku do całkowitej ilości odpowiedzi (fakt ten można łatwo poddać weryfikacji- tj. czy p + q =1).

W jakich przypadkach sprawdzana jest alfa Cronbacha?

 

Niech za ilustrację posłuży przykład:

 

Badacz zapytał respondentów zmagających się z zakupoholizmem następujący cykl pytań:

-Czy czujesz się lepiej, gdy kupujesz coś nowego?

-Czy masz kaca moralnego po paru godzinach od zakupu?

-Czy rzeczy, które kupujesz są tak naprawdę niepotrzebne?

-Czy kupujesz słodycze podczas zakupów?

Badacz otrzymał wynik alfy Cronbacha równy 0,66 oznacza to, że pytania można zakwestionować. Badacz stwierdził, że usunięcie pytania dotyczącego słodyczy podniosło wartość alfy Cronbacha do wartości 0,89. Oznacza to, że podobieństwo pomiędzy pytaniami jest bardzo duże - tj. występuje silna korelacja pomiędzy dobrym nastrojem, kacem moralnym, oraz stwierdzeniem, że rzeczy zakupione kompulsywnie są w istocie niepotrzebne.

 

Mankamentry Alfy Cronbacha

Alfa Cronbacha pozwala określić, czy badany zespół zjawisk jest do siebie podobny. Zaletą Alfy Cronbacha jest fakt, że dzięki niej można wyrugować ze skali pozycję, która wpływa negatywnie na ogólny wynik.

 

Posługując się Alfą Cronbacha należy pamiętać o paru „pułapkach”:

- liczba pozycji na sakli ma znaczący wpływ na Alfę Cronbacha, dlatego usuwając dany element należy mieć ten fakt na uwadze;

- wartość alfy może być bardzo wysoka, ale może okazać się, że osiągnięto ten wynik poprzez powtórzenie tego samego pytania, ale ubranego w nieco inne słowa;

- testy powinny mieć odpowiednią długość- Alfa Cronbacha jest zależna od wielkości testu;

- część badaczy uważa, że gdy wartość Alfy-Cronbacha przekroczy wartość 0.9 to nie świadczy to o bardzo silnej korelacji, ale o fakcie, że gdzieś popełniono błąd (łączenie dwóch różnych skal, powtarzanie tego samego pytania);

- nie powinno się łączyć skal, które mierzą inne zagadnienia - formalnie takie połączenie może dać w wyniku dużą wartość Alfy Cronbacha. Niestety pomiar będzie błędny.

- należy sprawdzić, czy alfa nie zaniża rzetelności testu (stosujemy analizę czynnikową - min. Korelację r Pearsona).

 

Interpretacja Alfy Cronbacha

Poniższa tabela ukazuje jak interpretować otrzymane wartości alfy Cronbacha:

Wartość alfy Cronbacha Wewnętrzna spójność Interpretacja
α ≥ 0,9 Perfekcyjna Bardzo silna korelacja pomiędzy badanymi przypadkami (np. Czy pracujesz? -> Czy zarabiasz pieniądze?)
0,9>α ≥ 0,8 Bardzo dobra / dobra Silna korelacja pomiędzy badanymi przypadkami (Czy jesteś alergikiem? Czy masz wysypkę po zjedzeniu orzechów arachidowych?)
0,8>α ≥ 0,7 Akceptowalna Średnia korelacja pomiędzy badanymi przypadkami (Czy grasz w gry komputerowe dłużej niż 6 godzin dziennie? Czy bolą Cię oczy?)
0,7>α ≥ 0,6 Kwestionowalna Słaba korelacja pomiędzy badanymi przypadkami (Czy uprawiasz sport? Czy cierpisz na chroniczną chandrę?)
0,6>α ≥ 0,5 Słaba Bardzo słaba korelacja  (Czy jesteś samotny? Czy masz kota?)
0,5>α Nieakceptowalna Praktyczny brak korelacji (Czy lubisz rzepę? Czy znasz równania różniczkowe?)

 

Autor opracowania: Jeremiasz Pilarz (BioStat)

Analizy statystyczne a psychometria (cz. 2)

W poprzednim artykule omówiliśmy Alfę Cronbacha - jej cechy oraz kiedy jest stosowana. Poniższy tekst jest przewodnikiem pozwalającym krok po kroku obliczyć Alfę Cronbacha za pomocą programu Excel.

 

Przykład zastosowania Alfy Cronbacha w arkuszu Excel

Ankietowani odpowiadali na dziesięć pytań. Liczba ankietowanych również wyniosła dziesięć.

Tabela przygotowana na podstawie otrzymanych wyników wygląda następująco:

W następnym kroku obliczamy:

- wartość N (w rozważanym przypadku równą 10);

- sumę wariancji populacji (=SUMA()). Suma ta wynosi 0,66

- wariancję sum ilości odpowiedzi;

- Alfę Cronbacha obliczamy ze wzoru: (=N/(N-1)*((1-SumaWariancji)/ WariancjaSum))

Wartość Alfy w rozważanym przypadku wyniosła 0,674 ≈ 0,67 oznacza to, że pytania wykazują kwestionowalną korelację.

Polecamy przeprowadzenie eksperymentu polegającego na zmianie wartości poszczególnych odpowiedzi - im więcej odpowiedzi pozytywnych tym wartość α większa a tym samym pytania są ze sobą spójne, z kolei większa ilość odpowiedzi negatywnych ma odwrotny wpływ- α staje się coraz mniejsza a tym samym rzetelność testu jest mniejsza.

Autor opracowania: Jeremiasz Pilarz (BioStat)

Testowanie hipotez w statystyce medycznej (cz. 1)

Analityka statystyczna sprzyja weryfikacji, tj. potwierdzaniu lub obalaniu, pewnych przyjętych hipotez. Nie inaczej jest także w zakresie statystyki medycznej - tutaj również proces analiz pozwala odnosić się do brzmienia rozpatrywanych hipotez, a jego ogólny schemat przedstawić można następująco, w postaci 5 kluczowych etapów:

  • formułowanie hipotezy zerowej oraz przeciwnej do niej hipotezy alternatywnej, która podlegać będzie badaniu i weryfikacji;
  • gromadzenie danych do analizy;
  • oszacowanie wartości określonej dla hipotezy zerowej tzw. statystyki testu;
  • porównanie uzyskanej wartości statystyki testu z wartościami wykazanymi w znanych rozkładach prawdopodobieństwa;
  • interpretacja wyników i wyciagnięcie wniosków.

 

Podstawowe kwestie z dziedziny statystyki, z których to czerpie statystyka medyczna w zakresie testowania hipotez omówione zostaną pokrótce w dalszej części opracowania.

 

Definiowanie hipotez

Jak podczas typowych badań statystycznych, tak i analizy o charakterze medycznym sprowadzają się do testu hipotezy zerowej (H0), która zakłada na ogół brak oddziaływania/zachodzenia rozpatrywanego zjawiska w badanej populacji. Gdy hipoteza ta nie jest prawdziwa - siłą rzeczy zachodzi hipoteza alternatywna (H1) - odnosi się one co do zasady bezpośrednio do teorii, która zamierzamy objąć badaniem i jest przeciwieństwem hipotezy H0.

 

Uzyskiwanie statystyki testowej i wartości „p”

Weryfikacja hipotez wymaga uzyskania dla nich tzw. statystyki testu - odbywa się to w oparciu o zgromadzone dane liczbowe i podstawienie ich do wzoru zdefiniowanego dla używanego testu. Odzwierciedla on co do zasady siłę zawartego w zabranych danych dowodu statystycznego przeciwko przyjętej hipotezie zerowej (H0) - większą wartość utożsamia się zwykle z silniejszym dowodem.

 

Co istotne, dostępne statystyki testowe wpisują się w powszechnie stosowane rozkłady częstości. Pole w ogonach rozpatrywanego/rozpatrywanych rozkładów prawdopodobieństwa, łączące w swoisty sposób wartość uzyskanej ze statystyki testu z samym rozkładem, jest tzw. wartość „p”. Definiuje się ją jako prawdopodobieństwo otrzymania wyników w sytuacji, gdy założona hipoteza zerowa jest prawdziwa.

 

Z reguły im  mniejsza wartość „p”, tym silniejszy jest dowód za odrzuceniem hipotezy zerowej - za dowód wystarczający przyjmuje się wartość „p” na poziomie niższym niż 0,05, co daje wyniki o istotności rzędu 5% (wartość „p” większa lub równa 0,05 nie stanowi powodu do odrzucenia hipotezy zerowej - wyniki określamy jednak jako nieistotne na poziomie 5%). Należy jednak mieć na uwadze, że wybór pułapu 5% (0,05) uważa się za arbitralny - w sytuacji groźnych następstw odrzucenia/przyjęcia hipotezy zerowej (mowa wszak o problematyce medyczne i zdrowiu oraz życiu ludzkim), możemy domagać się by statystyka medyczna opierała się o silniejsze dowody, tj. ustalenia wartości „p” na poziomie 0,01 lub 0,001.

 

Testowanie nieparametryczne

Korzystanie z znanych rozkładów prawdopodobieństwa, któremu podlegają zebrane dane,  określa się jako testowanie parametryczne. W sytuacji, gdy zadane dane nie spełniają założeń tego typu testów, odwołać się należy do testów nieparametrycznych, które mają zastosowanie niezależnie od postaci rozkładu. Ten typ testów jest szczególnie ważny w przypadku prób mało licznych lub ujęcia danych w postaci „kategorialnej”.

 

Mając do wyboru nie tylko różne formy test, ale i same testy, warto przemyśleć, który z nich użyć - wybór uzależnia się zasadniczo o od projektu badawczego, typu zadanej me innej i samego rozkładu częstości.

 

Przedział ufności

Kolejnym ważnym zagadnieniem w testowaniu hipotez, jakie uwzględnia statystyka medyczna w procesie analiz, jest kwestia przedziału ufności. Są one nierozerwalnie złączone z testowaniem hipotez, gdyż kwantyfikują interesujące analityka wyniki i pozwalają na uzyskanie ich klinicznych aplikacji. W swoisty sposób przedziały ufności określają wiarygodność uzyskanych wyników - jeżeli hipotetyczna wartość wyniku wykracza poza przyjęty przedział ufności, świadczy to o jego niskiej wiarygodności i prowadzi do odrzucenia hipotezy zerowej H0.

 

Błędy w testowaniu hipotez

Tytułem podsumowania, nawiązując do przedziałów ufności czy przyjęcia wartości „p”, zasygnalizować należy, że przyjęcie lub odrzucenie hipotezy zerowej/alternatywnej może być błędne. Wątek ten omówiony zostanie w odrębnym opracowaniu, warto jednak wskazać, że błędy takie mogą wykazywać kilka rodzajów:

  • błąd pierwszego rodzaju to odrzucenie hipotezy zerowej, gdy w rzeczywistości jest on a prawdziwa;
  • błąd drugiego rodzaju to nieodrzucenie hipotezy zerowej w sytuacji, gdy jest ona nieprawdziwa.

 

Każdy z tych błędów wymaga odpowiedniej procedury postępowania w sytuacji jego wykrycia.

Testowanie hipotez w statystyce medycznej (cz. 2)

Z racji na poruszaną problematykę, statystyka medyczna koncentruje się na ogół na testowaniu hipotez skupiających się na porównywaniu zbiorowisk ludzi, które narażone są na różne czynniki chorobotwórcze. Hipotezy nawiązują zatem do efektów czy wyników leczenia - np. hipoteza zerowa H0 stwierdza brak efektów danej terapii, zaś przeciwna do niej hipoteza alternatywna H1 podkreśla wystąpienie pewnych efektów kuracji.

 

Jak wiadomo, testowanie hipotez to podejmowanie decyzji - odrzucimy hipotezę H0 na korzyść H1 lub nie. Każda decyzja niesie ze sobą jednak pewne ryzyko omyłki, nawet mimo zachowania dokładności procedury testowej czy doboru optymalnych parametrów testu. Każdy taki błąd niesie pewne następstwa - analityka statystyki medycznej nawiązuje wszak do, jak akcentowano na wstępie, problematyki zdrowia czy życia ludzkiego.

 

Wyróżnia się dwa rodzaje błędów, jakie popełnić może analityk:

  • błąd pierwszego rodzaju - jest to sytuacja odrzucenia prawdziwej hipotezy H0;
  • błąd drugiego rodzaju - nieodrzucenie nieprawdziwej hipotezy H0.

 

 

Odrzuć  H0

Nie odrzucaj H0

H0 prawdziwa

Błąd I rodzaju

Brak błędu

H0 fałszywa

Brak błędu

Błąd II rodzaju

 

Błąd pierwszego rodzaju

Błąd pierwszego rodzaju to taki, który wiąże się z odrzucenie hipotezy zerowej (H0) w sytuacji, gdy tak naprawdę jest ona prawdziwa - przyjęta zostaje wtedy nieprawdziwa hipoteza alternatywna H1.

Maksymalne prawdopodobieństwo omyłki pierwszego rodzaju określa się symbolem alfa, tj. poziomem istotności testu.

 

Statystyka medyczna, jak każda inno formuła analityki statystycznej, zakłada przyjęcie wielkości alfa jeszcze przed zgromadzeniem danych - z reguły jest to wartość na poziomie 0,05 (bardziej restrykcyjne są wartości niższe, a mniej - niższe).

 

Co istotne, odwołując się do zasad testowania hipotez zauważyć należy, że odrzucenie hipotezy H0 następuje gdy wartość „p” naszego testu jest niższa niż przyjęty poziom istotności ów testu - tylko ta sytuacja stwarza zatem szanse na popełnienie błędu pierwszego rodzaju.

 

Błąd drugiego rodzaju

Błąd drugiego rodzaju to z kolei taki, który wiąże się z nie odrzuceniem hipotezy zerowej (H0) w sytuacji, gdy tak naprawdę jest ona fałszywa - odrzucona zostaje wtedy prawdziwa hipoteza alternatywna H1.

 

Maksymalne prawdopodobieństwo omyłki pierwszego rodzaju określa się symbolem beta, które powiązane jest z tzw. mocą testu. Moc testu, określana jako 1 - beta, stanowi prawdopodobieństwo odrzucenia fałszywej hipotezy H0 i rzadko przyjmuje wartość 100%.

 

Moc testu

Moc testu jest wielkością, którą silnie powiązana jest z problematyką testowania hipotez, a którą można kontrolować - statystyka medyczna wyróżnia bowiem czynniki, które kształtują moc stosowanych w niej testów.

 

Zwiększanie mocy testu warto rozpocząć od ustalenia jej poziomu  już na etapie planowania samej analizy statystycznej - uważa się, ze warto podjąć się, gdy wiemy, ze moc testu jest duża (80%), gdyż za nieodpowiedzialne i nieekonomiczne uznaje się podejmowanie kuracji w sytuacji, gdy sama szansa na wykrycie jego efektów jest nikła.

 

Czynniki warunkujące moc testu, a zatem zasadność samej analizy, to w szczególności:

  • wielkość badanej próby - szacuje się, ze moc testu rośnie wraz z liczebnością próby, tj. dostępnością danych do analizy;
  • zmienność obserwacji - przyjmuje się, że moc testu wzrasta, gdy zmienność obserwacji maleje, tj. gdy obserwacje wykazują stosunkowo stały charakter;
  • wielkość pożądanego efektu - test ma większe szanse wykrycia większych efektów, zatem przyjmuje się,  że im większy jest efekt, którego oczekujemy tym większa jest tez moc testu;
  • poziom istotności - moc testu wzrasta wraz z poziomem jego istotności, przy czym większe szanse na wykrycie poszukiwanego efektu daje przyjęcie w realizowanej statystyce medycznej jako znaczącej wartości „p” na poziomie 0,05 niż 0,01.

 

Ocena czy dana moc testu jest wystarczająca odbywa się poprzez badanie przedziałów ufności dla rozpatrywanych wyników - niewielka wielkość próby i/lub duża zmienność obserwacji sprzyjają poszerzeniu przedziałów ufności, tj. obniżeniu mocy testu.

 

Wielokrotność testów

Niejednokrotnie na jednym zbiorze danych prowadzi się większą liczbę testów istotności. Przyjmuje się, że liczba porównań zwiększa szanse na popełnienie błędu pierwszego stopnia - zaleca się zatem, by skupić się na realizacji niewielkiej liczby testów, odnoszących się do pierwotnych i ustalonych „a priori” celów.

Czym jest i czego dotyczy data mining?

Analizując dane bardzo ważne jest wykrycie zależności oraz schematów, które występują często pomiędzy dużymi zbiorami danych. Z pomocą przychodzi data mining, który skupia się na wykrywaniu wiedzy w posiadanych bazach danych. Inaczej mówiąc jest to eksploracja danych, która skupiona jest na pozyskaniu maksymalnej ilości informacji. Wykorzystując tę technikę można w pozytywny sposób wpłynąć na prowadzoną działalność.

 

Wiedza do zastosowania na wiele sposobów

I tak data mining może być wykorzystane w działalności skoncentrowanej na sprzedaży, co pozwoli na uzyskanie takich informacji jak między innym:

  • charakterystyce klientów;
  • działalności przedsiębiorstwa;
  • strukturze sprzedaży.

 

W dziedzinie sprzedaży można wykorzystać analizę koszyka zakupów. Odnosi się ona do baz danych, które gromadzą informacje na temat zakupów klientów danego sklepu. Istotą przeprowadzenia analizy jest wskazanie tych zbiorów produktów, które kupowane są razem. Tak pozyskana wiedza może zostać zastosowana w praktyce i być przydatna tak w kwestii ekspozycji towarów, jak i tworzenia skutecznych kampanii reklamowych.

 

Pozyskane dane pomogą podjąć dobre decyzje

Powyższy przykład obrazuje, iż eksploracja danych może wpływać na poprawienie jakości dotychczasowych działań oraz w pozytywny sposób pobudzić bodźce odpowiedzialne za sukces. Ma ona na celu:

  • wydobycie wiedzy z baz danych;
  • wsparcie tworzenia planów rozwojowych
  • realną ocenę faktycznej sytuacji.

 

Celem jest zrozumienie tego, co się dzieje

Istotą eksploracji danych jest zautomatyzowanie odkrywania statystycznych zależności oraz schematów pośród bardzo dużych danych. Następnie skupiają się one na reprezentacji pozyskanych danych w formie:

  • reguł logicznych;
  • drzew decyzyjnych;
  • sieci neuronowych.

 

Pozyskane dane w kwestii data mining mogą odnaleźć swoje zastosowanie w podejmowaniu decyzji finansowych oraz marketingowych w przedsiębiorstwach. Podstawą jest właściwe przeprowadzenie procesu badawczego, w którym we właściwy sposób zostaną zastosowane narzędzia badawcze.

 

Pozyskane informacje należy przekuć w decyzje

Obok eksploracji danych należy wspomnieć także o ich selekcji i modelowaniu. Zaś celem tych działań jest odkrycie regularności oraz zależności występujących między danymi. Data mining jest więc procesem, który ma na celu odkrycie cennych informacji, które dotąd nie zostały zauważone. Pozwala to na pozyskiwanie informacji, które będą przydatne w szeroko rozumianym działaniu oraz wyznaczaniu planów rozwojowych.

Statystyka jako wsparcie dla skutecznego działania

Sama analiza statystyczna odnosi się do zbierania i przetwarzania dużych ilości danych, co ma za zadanie wskazać występujące zależności i korelacje.

 

Statystyka z widokiem na przyszłość

Przeprowadzenie właściwych obliczeń w głównej mierze pozwoli na wyznaczenie panujących trendów, a co za tym idzie na dopasowanie swoich działań do konkretnych potrzeb i oczekiwań rynku. Ogólnie rzecz ujmując można powiedzieć, że analiza pozwoli na:

  • zwiększenie trafności decyzji;
  • ulepszenie dotychczas podejmowanych działań;
  • wskazywanie powiązań między wyznaczonymi elementami;
  • wskazanie oraz wyeliminowanie dotychczas popełnianych błędów;
  • zwiększenie świadomości mocnych stron.

 

Analiza, która pozwoli działać skutecznie

Tym samym można powiedzieć, że przeprowadzane analizy statystyczne mogą mieć zastosowanie w rozmaitych dziedzinach ludzkiego działania. Są one obecne zarówno w badaniach:

  • przeprowadzanych w sektorze medycyny;
  • satysfakcji i lojalności klientów;
  • marketingowych i rynku;
  • opinii pracowników.

Samo zebranie danych nie pozwoli na podejmowanie słusznych decyzji. Dopiero dzięki analizie tych danych możliwym jest tworzenie kreatywnych rozwiązań uskuteczniających dotychczas podejmowane działania. Jednocześnie badania takie mogą otworzyć szansę na wprowadzenie nowych rozwiązań czy produktów, które przyczyniają się do umocnienia pozycji danej firmy.

 

Statystyka ma służyć ludzkości

Natomiast jeśli o statystyce będzie mówić się w wymiarze sektora medycznego to warto zwrócić uwagę na to, że przeprowadzenie poprawnej analizy statystycznej może zadecydować o czyimś zdrowiu lub nawet zdrowiu. Dlatego też rozmawiając o biostatystyce należy w głównej mierze podkreślić wymiar etyczny realizowanych procesów badawczych.

 

Sytuacja, którą da się opanować

Najważniejsze zadania dla statystyki koncentrują się na właściwym zrozumieniu aktualnej sytuacji, a co za tym idzie na wskazaniu rozwiązań, które będą przyczyniać się do wzrostu i osiągania postawionych celów. Właściwie zrealizowana analiza statystyczna otwiera przede wszystkim nowe możliwości oraz dostarcza skutecznych rozwiązań wpływających na jakość podejmowanych działań i osiągane efekty.

 

Analizy statystyczne w każdej branży

Dedykowane usługi statystyczne

Każda firma i instytucja, niezależnie od tego czy reprezentująca sektor FMCG, świat nauki, czy też medycynę i farmację walczy o najlepszą pozycję wśród konkurencji. Profesjonalne analizy statystyczne umożliwiają wyciągnięcie wniosków, na podstawie których można wdrażać nowe produkty i usługi na rynek, rozwijać innowacyjność nauki, odpowiadać na zapotrzebowanie klientów, a także zyskiwać pozycję lidera w konkretnej branży.
 

Czy prowadzić badania statystyczne samodzielnie?

Samodzielne prowadzenie wysoko zaawanasowanych statystyk, z uwzględnieniem wszystkich możliwych metod analiz, nie jest rzeczą łatwą. Jeśli nie posiada się doświadczenia i odpowiednich narzędzi badawczych do przeprowadzenia tego typu badań, samodzielne analizy statystyczne mogą zniszczyć dotychczasowy dorobek badawczy, ponieważ nie będą wolne od przypadkowych błędów. Brak znajomości narzędzi i posługiwanie się nieodpowiednim oprogramowaniem badawczym sprawia, że prawidłowość i poziom rzetelności analiz maleje.

Cześć etapu badawczego, której celem jest przeprowadzenie ilościowych analiz statystycznych warto powierzyć profesjonalistom. Posługiwanie się wysokiej jakości pakietami statystycznymi, typu R oraz SPSS, a także dobór odpowiedniej metody analizy statystycznej – adekwatnej do celu badawczego wymaga praktyki oraz orientacji w tym temacie. Centrum statystyki BioStat® posiada 15 lat doświadczenia w prowadzeniu badań dla:

  • Branży medyczno-farmaceutycznej, 
  • Instytucji państwowych,
  • Wiodących ośrodków naukowych,
  • Firm FMCG.
     

Samodzielne analizy statystyczne, poza możliwością popełnienia wielu błędów, pochłoną wiele czasu i energii. Badacz może spożytkować ten etap prac na inne istotne działania. Współpracując z profesjonalistami, można ponadto przygotować się do publikacji badań w renomowanych czasopismach obecnych na liście filadelfijskiej. To kolejny atut powierzenia badań agencji badawczej.
 

Liczby i co dalej?

Zakładając, że badacze prowadzący eksploracje statystyczne nie popełnią błędów, warto wziąć pod uwagę, że w badaniach statystycznych otrzymają wyniki liczbowe, z których należy opracować jasny i zrozumiały raport, często z elementami graficznymi. Nie jest to zadaniem łatwym. Dopiero na podstawie klarownego raportu można przygotować wnioski płynące z badań oraz sporządzić publikacje do naukowych czasopism czy też zmienić strategię działań firmy. Ten etap jest także opracowywany przez specjalistów z BioStat®. Warto powierzyć analizy statystyczne ekspertom, aby móc odnieść sukces, niezależnie od reprezentowanej branży.

 

 

Biostat. More than statistics.

ul. Kowalczyka 17
44-206 Rybnik

Tel: (+48) 32 42 21 707
Tel. kom.: (+48) 668 300 664
e-mail: biuro@biostat.com.pl

Sondaże Analizy danych