Tag: analiza statystyczna

Trafność testu oraz narzędzia

 

Podstawowym w statystyce zagadnieniem trafności treściowej jest zdefiniowanie badanej sfery zachowań oraz wskazanie, iż pozycje włączone do testu stanowią faktycznie próbę reprezentatywną. Trafność teoretyczna natomiast pokazuje związki narzędzia pomiarowego z konstruktem teoretycznym, zaczerpniętym z danej teorii. Badania trafności teoretycznej testu wymagają licznych analiz.

 

Metody ustalania trafności

Meehl oraz Cronbach zaproponowali pięć procedur ustalania trafności teoretycznej: analiza różnic międzygrupowych, analiza macierzy korelacji i analiza czynnikowa, analiza struktury wewnętrznej testu, analiza procesu rozwiązywania testu, analiza zmian nieprzypadkowych wyników testu. [1] W związku ze znacznym rozbudowaniem zagadnień poruszanych w ramach  analizy trafności, poniżej skupiono się szerzej na jednym aspekcie, mianowicie na trafności czynnikowej.

 

Analizując trafność narzędzia badawczego jakim jest kwestionariusz należy mieć na uwadze cztery aspekty trafności:

  • Trafność kryterialna, dzieli się ona na trafność diagnostyczną (concurent validity)  i prognostyczną (predictive validity)
  • Trafność treściowa (content validity)
  • Trafność teoretyczna (construct validity)
  • Trafność fasadowa (face validity)[2]

Najmniejsze znaczenie z punktu widzenia własności psychometrycznych ma trafność fasadowa.

 

Czy istnieje „złoty standard”?

Diagnostyczną trafność kryterialną możemy ocenić porównując wyniki testu do tak zwanego „złotego standardu”. Jest to zagadnienie o tyle skomplikowane, że w niektórych dziedzinach, szczególnie tych do tej pory nie zbadanych, trudno o wskazanie tak zwanego „złotego standardu” czyli testu sprawdzonego i wzorcowego.

 

Kiedy zasadne jest wdrożenie nowego narzędzia?

W przypadku natomiast gdy taki test już istnieje, należy poważnie rozważyć sens wprowadzania nowego narzędzia, gdyż powinno ono w pewnie sposób być lepsze od stosowanego do tej pory. Nowy test powinien być zarazem tańszy lub szybszy do przeprowadzenia od wyznaczonego testu wzorcowego.

 

Analiza korelacji

W literaturze zagadnienie trafności kryterialnej jest rozpatrywane (szczególnie przez psychologów) za pomocą analizy korelacji pomiędzy testem wzorcowym a nowym narzędziem. W przypadku poszukiwania testu bardziej trafnego od „złotego standardu” poszukuje się umiarkowanej istotnej korelacji. Jest to kryterium nieformalne, w trakcie analizy literaturowej nie znaleziono bowiem sztywnego kryterium wskazującego dokładną regułę decyzyjną.

 

[1] Tomasz Szafrański Skala Calgary do oceny depresji w schizofrenii. w Postępy Psychiatrii i Neurologii. Tom 6. 1996. Zeszyt 3. Instytut Psychiatrii I Neurologii.str. 337.

[2] Brzeziński Jerzy Metodologia badań psychologicznych. PWN Warszawa 1999. str.516

Trafność czynnikowa

 

Zasadniczym zagadnieniem tego typu trafności jest weryfikacja hipotezy o homogenności narzędzia badawczego. Od podstawowej skali (układu zmiennych) oczekuje się rozwiązania jednoczynnikowego. Analizę czynnikowa można podzielić na dwie grupy:

  • Analiza głównych składowych i klasyczna analiza czynnikowa
  • Konfirmacyjna analiza czynnikowa

 

Czym jest czynnikowa analiza danych?

Analiza czynnikowa jest to zbiór metod redukcji liczby zmiennych do kilku niezależnych czynników w oparciu o dekompozycję macierzy współczynników korelacji pomiędzy pierwotnymi pozycjami. Uzyskane w ten sposób czynniki mają merytoryczną interpretację reprezentując zmienne, które nie są obserwowalne bezpośrednio.[1]

 

Zagadnienia analizy głównych składowych oraz klasycznej, czynnikowej analizy statystycznej są opisywane przez wielu autorów. Na uwagę, poza metodami szacowania modelu analizy czynnikowej, zasługują zagadnienia wyboru liczby czynników oraz metody rotacji.

 

Jak dokonuje się wyboru liczby czynników?

Wybór liczby czynników następuje zgodnie z jednym z dwóch kryteriów: kryterium osypiska lub kryterium wartości własnej Kaizera. Po zidentyfikowaniu liczby czynników w praktyce badań częstym zjawiskiem jest wstępna przynależność jednej pozycji (zmiennej) do kilku czynników, co utrudnia w dużym stopniu identyfikację ich przynależności, a co za tym idzie interpretację czynników nowopowstałych.

 

Proces rotacji czynników

Rozwiązaniem w takiej sytuacji jest wykonanie rotacji czynników. Jej celem jest ustalenie takiego układu, aby każda pozycja miała wysokie ładunki (w praktyce powyżej 0,5 lub 0,6) tylko w zakresie jednego czynnika. Metody rotacji dzielą się na dwie grupy:

  • Rotacje ortogonalne: Varimax, Quatrimax, Equimax. W wyniku tych rotacji zachowana zostaje niezależność czynników.
  • Rotacje ukośne: Oblimin (Quatrimin, Biquatrimin, Covarmin), Oblimax, Promax. W wyniku rotacji ukośnej nie musi być zachowana niezależność czynników [2]

 

Model konfirmacyjnej analizy

Alternatywą do modelu klasycznego jest model konfirmacyjnej analizy czynnikowej. W metodzie tej używane są dwie grupy zmiennych: obserwowalne (czyli zmienne lub pozycje obserwowane przez badacza i odpowiednio kodowane) oraz zmienne latentne (czynniki będące konstruktami hipotetycznymi).

 

Podstawową różnicą pomierzy modelem eksploracyjnej (EFA) i konfirmacyjnej analizy czynnikowej (CFA) jest to, że konfirmacyjna analiza czynnikowa to procedura hipotetyczna służąca głównie do testowania hipotez na temat relacji pomiędzy czynnikami wspólnymi. W metodzie tej (w przeciwieństwie do klasycznej analizy czynnikowej) decyzje, co do liczby czynników podejmuje się przed rozpoczęciem ich wyodrębniania.

 

Metoda ta jest powszechnie stosowana właśnie wtedy, gdy istnieją podstawy do formułowania hipotez na temat związków pomiędzy badanymi zmiennymi. Wynik klasycznej analizy czynnikowej stanowi właśnie układ czynnikowy, który nie jest zadany przed przystąpieniem do badania. W przypadku analizy psychometrycznej kluczowa jest hipoteza homogenności (czyli rozwiązanie jednoczynnikowe) podstawowej skali sumarycznej.[3]

 

Test chi-kwadrat

Celem zbadania, czy pojedynczy model konfirmacyjnej analizy czynnikowej jest dobrze dopasowany można posłużyć się wskaźnikami dobroci dopasowania. Podstawowym testem dopasowania modelu do danych jest test chi-kwadrat. Test ten jest jednak silnie uzależniony od liczebności próby.

 

Zastosowanie wskaźnika GFI

Uzupełniająco stosuje się psychometryczny wskaźnik GFI (goodness of fit index) oraz jego korektrę AGFI (adjusted goodness of fit index). Wskaźniki te przyjmują wartość z przedziału 0-1 oraz nie są zależne od wielkości próby. Trudno w przypadku tych mierników (podobnie jak w przypadku współczynnika determinacji dla funkcji regresji) o jednoznaczne określenie jakie zakresy wartości tych mierników są akceptowalne.

 

Wskaźnik RMR

Kolejnym miernikiem jest RMR (root mean square residual). Wysokie wartości tego wskaźnika reszt są niekorzystne dla jakości modelu (analogicznie jak odchylenie standardowe reszt modelu regresji).

 

Miernik RMSEA

Jednym z najczęściej podawanych mierników dopasowania modelu konfirmacyjnej analizy czynnikowej jest RMSEA (root mean square error of approximation). Jest to wskaźnik pojawiający się na diagramie ścieżek po dopasowaniu modelu. Miara ta szacuje wielkość popełnianego błędu aproksymacji w populacji. Dobre dopasowanie modelu cechuje się wskaźnikiem RMSEA poniżej 0,05.

 

Indeksy modyfikacyjne

Dodatkowymi miernikami pomocnymi w procesie poprawy modelu są indeksy modyfikacyjne (modification indices). Pozwalają one zmierzyć o ile obniży się wartość chi-kwadrat w wyniku uwolnienia konkretnego parametru i ponownego oszacowania modelu.[4]

 

Na zakończenie

Podsumowując syntetyczne rozważania nad możliwościami zastosowania oraz podstawowymi zagadnieniami związanymi z modelami analizy czynnikowej należy zauważyć, iż są to metody powszechnie stosowane w naukach społecznych i medycznych oraz doskonale nadają się do badania własności psychometrycznych skal sumarycznych. Nie podają – tak jak powszechnie stosowana metoda alfa Cronbacha – tylko pojedynczego wyniku, ale pozwalają na analizę układu pozycji (zmiennych) wewnątrz skali oraz odrzucenie zbędnych pytań w kwestionariuszu.

 

[1] Gatnar E. Statystyczne modele struktury przyczynowej zjawisk ekonomicznych. AE Katowice 2003. str. 102.

[2] Gatnar E. Statystyczne modele struktury przyczynowej zjawisk ekonomicznych. AE Katowice 2003. str. 116 - 118

[3] Jerzy Brzeziński  Metodologia badań psychologicznych. Wybór tekstów. PWN Warszawa 2004. str. 443

[4] Jerzy Brzeziński  Metodologia badań psychologicznych. Wybór tekstów. PWN Warszawa 2004. str. 460-462

 

Nowoczesna medycyna a statystyka

 

Współcześnie branża medyczna czy farmaceutyczna na wielu polach swojej działalności musi opierać się na badaniach statystycznych. Tendencją jest również fakt, iż z roku na rok poszerzają się obszary w których króluje właśnie statystyka medyczna. To właśnie statystyka daje nam możliwość na odkrycie nieoczywistych zależności, znalezienie odpowiedzi na ważne pytania oraz pozwala poznawać nowe fakty. Jej wielozadaniowość oraz szybki rozwój pozwoliły naukowcom uznać ją za specyficzną i oddzielną dziedzinę nauki.

 

Analiza danych w medycynie

Nie tylko naukowcy lub lekarze prowadzący badania ale również osoby zainteresowane ich wynikami, chętnie je wykorzystują. Dlatego też coraz częściej w różnego rodzaju publikacjach naukowych można spotkać się zarówno z klasycznymi wynikami badań statystycznych, jak i tymi bardziej zaawansowanymi (data mining). Dzieje się tak, ponieważ techniki statystyczne dostarczają wiele korzyści w badaniach rynku medycznego, ale również w optymalizacji funkcjonowania jednostek służby zdrowia. Są również w stanie pozytywnie wpłynąć na jakość oferowanej opieki nad osobami chorymi, w tym wydajność posiadanych zasobów.

 

Biostatystyka

Jest typową nauką pogranicza, ponieważ swój rodowód wywodzi zarówno ze statystyki oraz biologii. Najbardziej powszechnym zastosowaniem biostatystyki, to badania rynku medycznego, np. promowanie nowych leków, badania w branży farmaceutycznej, np. potrzeby i opinie pacjentów, badania na potrzeby analiz klinicznych czy biorównoważności. Tak więc, biostatystykę angażuje się w wszelkie badania, analizy czy obserwacje z zakresu medycyny, aby móc w sposób statystyczny, częściowo i opisowy, ukazać badane zjawisko.

 

CRF

Formularz CRF to dokument wykorzystywany w obserwacji klinicznej. Zapisuje się w nim wszelkie informacje wymagane w protokole badań klinicznych. Badań, które mają na celu wykazanie zarówno skuteczności jak i bezpieczeństwa stosowanych środków farmakologicznych. Dzięki temu maja one szanse zostać zarejestrowane jako produkt leczniczy, a w związku z tym dopuszczone do obrotu na rynku farmaceutycznym. Ponieważ badania są długotrwałe to wymagają stosowania rozległej dokumentacji. Usprawnieniem jest tutaj zastosowanie ich elektronicznej wersji zwanej ECRF.

 

Badanie satysfakcji pacjentów

Zmierzenie i poznanie satysfakcji pacjentów, poprzez wykorzystanie metod statystyki medycznej, z oferowanych im świadczeń zdrowotnych jest bardzo ważnym elementem zarządzania jakością w ośrodkach leczniczych. Jest on w głównej mierze uznawany za wskaźnik jakości usług realizowanych przez tę jednostkę. Wprowadzenie norm kontroli jakością w placówce medycznej, w tym badań satysfakcji pacjentów z usług, wpływa na poprawę jej konkurencyjności na rynku usług medycznych.

 

Analizy statystyczne

Oferta specjalistycznych usług z zakresu statystyki, agencji badawczej  BioStat®.
 

Doświadczenie

Wybierając ofertę usług zespołu ekspertów centrum statystyki BioStat®, otrzymujesz pewność wykonania rzetelnych analiz na najwyższym poziomie. Nasi specjaliści zdobywali doświadczenie w pracy badawczej w renomowanych ośrodkach uniwersyteckich w Polsce i w Europie oraz podczas realizacji wielopoziomowych badań statystycznych dla klientów:

  • wiodących placówek naukowych,
  • liderów w dziedzinie medyczno-farmaceutycznej,
  • instytucji państwowych,
  • wielu projektach w zróżnicowanych branżach biznesowych.

 

Rozbudowane analizy

Podejmowane przez ekspertów BioStat® analizy statystyczne otrzymują 12-miesięczną gwarancję. Nasi klienci mogą także skorzystać z usług w dziedzinie statystyki tj.: konsultacji, szkoleń, a także korekt przeprowadzonych badań statystycznych przez inne podmioty lub osoby. Działania podejmowane przez statystyków BioStat® mają rozbudowany charakter. Rozpoczynając od etapu projektowania badania, a kończąc na opracowaniu raportu z badań, współpracujemy z klientem na zasadach partnerskiej kooperacji. Etapy, które wyróżniamy podczas realizacji prac badawczych dzielą się na:

  • Projekt badawczy, w trakcie którego tworzymy plan badań, dobieramy odpowiednią próbę badawczą do przeprowadzenia eksploracji, przeprowadzamy randomizację próby badawczej, opracowujemy formularze badawcze i ankiety CRF, przygotowany zostaje również schemat bazy danych oraz dobrana właściwa metoda analizy statystycznej.
     
  • Gromadzenie danych, jest etapem podczas którego przygotowywana jest baza danych,  badania są prowadzone w nowoczesnym systemie elektronicznym eCRF.biz.™, gdzie  równocześnie przebiega proces ich kontroli oraz zarządzanie procesem badawczym, podczas tego etapu przygotowuje się także dane do przeprowadzenia właściwych analiz oraz graficznie opracowuje wyniki z przeprowadzonych badań.
     
  • Analizy statystyczne, podczas których korzysta się ze sprawdzonych metod analiz różnego rodzaju, stosowane są także testy typu parametrycznego jak i nieparametrycznego:
    1. modele korelacji i regresji,
    2. analizy przeżycia,
    3. analizy koszykowe,
    4. testy istotności i rozkładu statystycznego,
    5. weryfikowanie hipotez statystycznych,
    6. przeprowadzanie statystyk porównawczych i opisowych,
    7. analizy jedno i wieloczynnikowe.

 

Raporty z przeprowadzonych badań są opracowywane w postaci tabel, wykresów, rycin, czy bloxplot’ów. Posługiwanie się profesjonalnym językiem oraz pakietami statystycznymi SPSS, czy R pozwala nam na elastyczne dopasowanie się do wymogów klienta oraz standardów wyznaczonych przez ośrodki akademickie, promotorów badań naukowych czy renomowane czasopisma naukowe.

 

Rozwój polskiej nauki i biznesu  

Jesteśmy agencją działająca na polskim oraz europejskim rynku badawczym od ponad 15 lat. W naszej pracy łączymy wiedzę naukową i doświadczenie biznesowe, aby wspierać rodzime przedsiębiorstwa i projekty badawcze młodych naukowców, a także polskie innowacyjne projekty badawcze. Doktorantom, habilitantom i samodzielnym naukowcom pomagamy w opracowaniu publikacji z badań, do naukowych periodyków obecnych na Master Journal List.
 

Skontaktuj się z Naszymi ekspertami, aby zapoznać się ze szczegółami oferty. Sięgnij po sukces razem z BioStat®!

 

 

Analizy statystyczne dla farmacji

 

Farmacja to rozległa branża, bez której z pewnością dzisiaj trudno byłoby nam utrzymać zdrowie i doskonała kondycję. Rozmaite leki zażywane są przez każdego z nas. Ogromne koncerny farmaceutyczne co pewien czas decydują się wprowadzić na rynek kolejne produkty. Bardzo często niezbędne jest jednak przeprowadzenie analizy danych. Na czym polegają analizy statystyczne dla farmacji? Dlaczego są takie ważne?

 

O co w tym wszystkim chodzi?

Analizy dla farmacji obejmują przede wszystkim dane pozyskane w ramach badania rynku, które pozwalają poznać potrzeby konsumentów, ich zachowania i przyzwyczajenia. Pozwala to firmie farmaceutycznej decydującej się na wprowadzenie nowego środka na rynek na właściwe przygotowanie kampanii promocyjnej. Przekłada się to oczywiście na wyniki sprzedaży, a więc osiągany zysk. Coraz częściej analizy dla farmacji to również badania prowadzone po wprowadzeniu produktu na rynek.

 

Co obejmują analizy dla farmacji?

Analizy statystyczne dla farmacji to badania:

-ilościowe;

-jakościowe.

 

Z uwagi na niemały koszt badań jakościowych niezwykle istotne jest odpowiednie ich zaplanowanie. Wszystko po to, aby uzyskane wyniki mogły zostać uogólnione na całą populację. Dlatego firmy zajmujące się prowadzeniem analizy danych niezwykle precyzyjnie dobierają badanych, biorąc pod uwagę:

 

-cechy psychograficzne;

-zmienne społeczno-demograficzne;

-stan zdrowia;

-posiadane doświadczenia konsumenckie;

-preferencje zakupowe.

 

Dlaczego warto postawić również na badanie ilościowe?

 

Badania marketingowe dla farmacji są obecnie coraz częściej uzupełniane również o badania ilościowe. Jest to jeden ze sposobów na uwiarygodnienie wszystkich kwestii, które dotyczą grupy docelowej danego produktu. Dobrym rozwiązaniem okazuje się być ankieta telefoniczna, w której zawarte mogą być pytania dotyczące między innymi znajomości produktu, korzystania z niego, skojarzeń powiązanych z daną marką czy odczuwania konkretnych dolegliwości, na które dany produkt ma pomóc.

 

Decydując się na analizy statystyczne dla farmacji, należy pamiętać przede wszystkim o tym, aby powierzyć je profesjonalistom. To najlepsze rozwiązanie, które gwarantuje uzyskanie wiarygodnych wyników. A przecież tylko takie okazują się być przydatne. Na szczęście dzisiaj działają na polskim rynku profesjonalne firmy zajmujące się przeprowadzaniem tego rodzaju badań. Osoby odpowiedzialne za ich realizację posiadają rozległą wiedzę na temat analiz statystycznych dla farmacji oraz bogate doświadczenie, które pozwala je przeprowadzić w należyty sposób.

Analiza statystyczna w życiu codziennym

Ktoś nieobeznany z matematyką mógłby bez wątpienia stwierdzić, że analiza statystyczna to narzędzie przeznaczone wyłącznie dla poważnych naukowców i zupełnie oderwane od codziennego życia. Tymczasem mnogość zastosowań tej gałęzi nauki powoduje, że każdego dnia dziesiątki razy napotykamy (mniej lub bardziej świadomie) na efekty zastosowania statystyki.

 

Co żelki mają wspólnego ze statystyką?

Aby zilustrować ogromne znaczenie statystyki w życiu codziennym, weźmy na przykład paczkę żelek, którą kupiłeś dziś rano w supermarkecie. Ich składniki zostały dobrane przy użyciu metod statystycznych, dzięki czemu nadają się do spożycia. Ich smak stanowi z kolei odpowiedź na oczekiwania konsumentów, zbadane przy użyciu... statystyki. Podobnie zresztą jak kształt żelek, ich cena czy projekt opakowań, w których są sprzedawane.

 

Produkcja tych słodyczy przebiegła pod znakiem licznych procesów kontroli jakości, silnie wspomaganych statystyką. Dzięki temu każdy żelkowy miś wygląda dokładnie tak samo jak wszystkie inne, pochodzące z tej samej linii produkcyjnej.

 

To oczywiście tylko wierzchołek góry lodowej, nawet pozostając w temacie zakupu żelek: ich położenie na półce w supermarkecie zostało statystyczne określone jako najbardziej optymalne dla tego typu produktów, a dane o ich sprzedaży będą stanowiły przedmiot późniejszej analizy statystycznej.

 

Inne przykłady zastosowań

Rzecz jasna zastosowanie statystyki nie kończy się na towarach ze sklepowych półek czy stereotypowych analizach rynku. Udział tej dziedziny nauki jest nieoceniony w wielu innych branżach, często powszechnie słabo z nią kojarzonych. Może to być na przykład:

 

- medycyna: zarówno w kwestii testowania i wprowadzania na rynek nowych leków, jak i analizy danych pozyskanych z badań pacjentów, co umożliwia między innymi trafne przewidywanie rozprzestrzeniania się chorób zakaźnych;

 

- ubezpieczenia: za pomocą statystyki korporacje z tej branży mogą dokładnie określić wysokość opłaty za ubezpieczenie - zarówno mając na uwadze swój zysk, jak i atrakcyjność oferty dla klienta;

 

- prognozowanie pogody: dzięki modelom statystycznym zoptymalizowanym pod kątem obliczeń komputerowych jesteśmy w stanie trafnie przewidzieć zjawiska pogodowe w kolejnych dniach;

 

- polityka: dzięki prawidłowej analizie danych sondażowych można z dużym prawdopodobieństwem oszacować przyszłe wyniki wyborów.

 

Podsumowując, statystyka pojawia się w naszym życiu codziennym wszędzie tam, gdzie możliwe jest jej zastosowanie, czyli analiza zbioru danych i wyszukiwanie w nim prawidłowości.

Statystyka... czyli... weryfikujemy hipotezy

Hipotetyczne założenia, a także różnego rodzaju tezy towarzyszą nam na co dzień. One same jednak w swym teoretycznym aspekcie nie stanowią tak naprawdę rzetelnego źródła informacji. Pewnych rzeczy się domyślamy. Jeszcze inne są tylko mglistą wizją. Dlatego tak ważne miejsce w naszej codzienności zajmuje statystyka. Nic nie weryfikuje hipotez tak skutecznie, jak ona.

 

Hipotezy nie tylko w pracach naukowych

Słysząc słowo hipoteza najczęściej myślimy o pracy naukowej. Przecież to przyszli magistrzy czy doktoranci zawierają ją w swojej pracy. Tymczasem hipoteza towarzyszy nam na każdej płaszczyźnie, która w swojej dynamice ulega ciągłemu rozwojowi. To właśnie hipotezy, a wraz z nimi kolejne pytania sprawiają, że człowiek szuka odpowiedzi – rozwija się i tworzy nowe perspektywy. Hipotezy stanowią ważny czynnik rozwoju gospodarki, psychologii, medycyny, socjologii czy nawet demografii.

 

Jak zbadać hipotezę?

Hipoteza to nie choroba, którą bada się w gabinecie lekarskim i leczy za pomocą odpowiednich terapii. Hipoteza to stwierdzenie, które wymaga dogłębnej analizy danych. Aby jej jednak dokonać, dane te trzeba wcześniej zebrać. A do tego służą odpowiednie metody statystyczne. Oczywiście na metodach tych doskonale znają się pracownicy firm badawczych, którzy potrafią zawsze dobrać optymalne narzędzia.

 

Analiza zebranych danych

Analizy statystyczne to kolejny, po zbieraniu danych, etap badania. Gdy zbiór danych jest już gotowy, można przejść do wyciągnięcia z niego konkretnej wiedzy. A to staje się możliwe właśnie dzięki analizom statystycznym. Ich zadaniem jest wyciągnięcie wniosków i zweryfikowanie faktów oraz hipotez. Tym samym stają się one odpowiedzią na pytania odnośnie naszych założeń i stawianych na co dzień tez.

 

Statystyka a biznes

Mówiąc o statystyce i jej wpływie na różne dziedziny naszego życia, nie możemy udawać, że nie dostrzegamy możliwości, jakie otwiera przed biznesem. Tutaj wykorzystywana jest ona do osiągania celów biznesowych, głównie zwiększania obrotu i maksymalizacji zysku. Dzięki analizom danych zebranych w trakcie badania firmy weryfikują rynek, poznają nastawienie klientów, a także ich potrzeby. Tym samym zdobywają odpowiedź na pytanie odnośnie zmian, jakie należy wprowadzić w koncepcji sprzedaży, czy kierunków, jakie należy obrać, by ostatecznie odnieść sukces.

 

Hipotezy są po to, by je weryfikować. Tylko wtedy istnieje sens ich tworzenia. A prawdziwym mistrzem w weryfikowaniu jest statystyka. Ta nauka nie pozostawia wątpliwości, ani pytań bez odpowiedzi.

Biostatystyka w pigułce

Od wielu lat statystyka znajduje szerokie zastosowanie w innych gałęziach nauki. Dostarcza im odpowiedzi na wiele pytań, pozwala udowadniać tezy, tworzyć prawdopodobne scenariusze na przyszłość czy szukać skutecznych rozwiązań. A jedną z tych gałęzi jest medycyna.

 

Statystyka w medycynie

Gdy statystyka na dobre zagościła w medycynie, zaczęto obserwować fuzję tych dwóch nauk, efektem której stało się powstanie statystyki medycznej, a z czasem biostatystyki. Dziś pod pojęciem tym rozumiemy obszar nauk o życiu i zdrowiu w kontekście statystycznym. Obejmują ona projekty naukowe na rzecz medycyny, weterynarii, pielęgniarstwa, genetyki oraz rolnictwa.

 

Obszar analiz

Analizy danych bez względu na to, w jakiej dziedzinie są przeprowadzane, opierają się na tych samych metodach. Nie sposób jednak nie zauważyć, że ze względu na dynamiczny charakter medycyny, statystyka medyczna  wymaga zastosowania niekiedy metod bardzo specyficznych. Przykładem może być singular vector decomposition, czyli metoda oparta na wyszukiwaniu korelacji wektora osobliwego. Istotą tej metody jet przesunięcie wektora w poziomie lub w pionie i wychwycenie elementów, które są zbliżone do elementów poprzednich.

 

Problemy statystyczne w badaniach medycznych

Ogólnie przyjmuje się, że problemy statystyczne w badaniach medycznych można podzielić na trzy główne typy. Pierwszy stanowią tak zwane problemy klasyfikacyjne. Ich istotą jest wyjaśnienie badanego zjawiska bądź poprawne zaklasyfikowanie. Drugi typ dotyczy przewidywania poziomu konkretnych parametrów. Trzeci natomiast koncentruje się na problemach, które podlegają weryfikacji, w tym na przewidywaniach.

 

Konkretne przykłady zastosowania

Dzięki analizom danych w  biostatystyce jesteśmy w stanie odpowiedzieć na wiele niezwykle ważnych pytań. Analizy te pozwalają na przykład szacować czas życia pacjentów zmagających się z konkretnymi chorobami, badać wpływ różnych czynników na występowanie chorób czy przewidywać długość gojenia się ran w sytuacji stosowania konkretnych rodzajów opatrunków.

 

Dobór metody

Trudno jest jednoznacznie powiedzieć, która metoda jest najlepsza, najskuteczniejsza. Wybór metod  to zawsze kwestia indywidualna. Metoda musi odpowiadać celom badawczym i tym samym przynosić odpowiedzi na stawiane pytania. Szczególnie, gdy bada się tak ważną dla ludzkości płaszczyznę, jaką jest medycyna, a wraz z nią życie i ludzkie zdrowie. Dlatego też badania należy zawsze zlecać osobom czy firmom trudniącym się kompleksowym badaniem rynku medycznego - wówczas uzyskane wyniki będą rzeczywiście służyły ludzkości.

Prawidłowa statystyka do habilitacji

Zdobywanie habilitacji za niedługo może się okazać zupełnie niepotrzebne, ponieważ ten stopień naukowy miał być już wielokrotnie znoszony. Mimo to, cały czas istnieje obowiązek jego uzyskiwania na drodze awansu zawodowego, przez co trzeba się zdobyć na ten wysiłek i ukończyć habilitację w danym kierunku. Często obejmuje ona wyjście daleko poza swoją normalną dziedzinę wiedzy.


Nastawienie na matematykę   


Współczesny świat naukowy bardzo mocno stawia na narzędzia matematyczne. Od czasu, kiedy matematyka na dobre zadomowiła się nawet w filozofii, co miało miejsce trochę ponad sto lat temu, stała się ona narzędziem wymaganym przy niemalże wszystkich naukowych rozprawach.

Człowiek wykształcony nie może się takiemu stanowi rzeczy dziwić, ponieważ matematyka, w tym przede wszystkim statystyka, pozwala nam na zdobywanie wiedzy, która w przeciwnym razie nie byłaby dla nas dostępna. Mowa tutaj o takich kwestiach, jak na przykład:

  • kwantyfikowanie zjawisk miękkich, trudnych do określenia, zwłaszcza w naukach społecznych;
  • umożliwianie dokonywania porównań pomiędzy dwiema populacjami;
  • sprawdzanie losowości próby badawczej;
  • znajdowanie zależności ukrytych dzięki procedurze data mining;
  • oczyszczanie danych pierwotnych z zaburzeń wywołanych czynnikami zewnętrznymi (tzw. kontrolowanie danych ze względu na czynnik X).

Powyższa lista to tylko kilka prostych przykładów tego, jak bardzo pomocna może być statystyka do habilitacji. Dzięki niej możliwe jest uzyskanie do tej pory niedostępnych informacji, jak również błędnego odczytania danych, które w jakiś sposób są zafałszowane przez najróżniejsze czynniki.


Wsparcie techniczne


Wykorzystanie statystyki dla habilitacji to także zadanie czysto techniczne, czyli polegające nie tyle na wyciąganiu konkretnych wniosków z posiadanych danych, ale na ich odpowiedniej obróbce, czyli prowadzenie konkretnych badań pierwotnych i analiz wtórnych.
Wsparcie z zakresu statystyki dla habilitacji może polegać na:

  • przygotowywaniu badań (np. tworzenie ankiet);
  • digitalizacji wyników badań;
  • prowadzeniu realnych obliczeń statystycznych;
  • tworzeniu baz danych;
  • prezentacji uzyskanych danych.

W ramach wszystkich tych kwestii kandydat do habilitacji może liczyć na wykonanie dla niego konkretnych usług, jak również na wsparcie obejmujące przede wszystkim konsultacje jego metodologii czy sprawdzenie wyników. Ważnym aspektem wsparcia dla naukowców są również kursy prawidłowego korzystania z najpopularniejszych narzędzi statystycznych, takich jak SPSS czy Statistica.

Testy parametryczne i nieparametryczne

Aby uogólnić na całą populację wyniki badania statystycznego przeprowadzonego na próbie losowej, takiego jak np. badania świadomości marki, należy postawić hipotezę, a następnie ją zweryfikować. Służą do tego testy statystyczne, które dzielimy na parametryczne i nieparametryczne.

 

Ogólnie o testach

Testów parametrycznych używa się do oceny wartości parametrów dla danego rozkładu populacji, z którego losowana jest próba. Parametrami tymi mogą być średnia, wariancja czy odchylenie standardowe.

Testy nieparametryczne nie wymagają założeń dotyczących rozkładu zmiennej losowej populacji. Najczęściej wykorzystywaną w nich metodą jest uporządkowanie danych i zastąpienie ich rangami.

Zazwyczaj testy parametryczne mają swoje odpowiedniki wśród testów nieparametrycznych. Niektóre z nich prezentuje poniższa tabela.

 

test parametryczny

test nieparametryczny

test t-Studenta dla prób zależnych

test Wilcoxona

test t-Studenta dla prób niezależnych

test Manna-Whitney’a

jednoczynnikowa analiza wariancji

test Kruskala-Wallisa

 

Często stosowane są także inne testy nieparametryczne, takie jak test Chi kwadrat oraz test Shapiro-Wilka.

 

Charakterystyka testów parametrycznych

Parametryczne testy pozwalają na dokładniejsze analizy i ich wyniki są łatwiejsze do interpretowania. Wymagają jednak spełnienia większej ilości założeń. Najczęściej wymaga się między innymi, by próba pochodziła z populacji o rozkładzie normalnym. Symulacje pokazały jednak, że niespełnienie tego warunku nie musi dyskwalifikować testu. Co więcej w przypadku wielu badań statystycznych założenie to jest spełnione. Testy parametryczne są także mniej odporne na obserwacje odstające.

 

Charakterystyka testów nieparametrycznych

Dla testów nieparametrycznych nie jest wymagane spełnienie założenia o rozkładzie normalnym. Gdy liczność próby jest niewielka lub grupy nie są równoliczne, to testy nieparametryczne lepiej się sprawdzają. Nie są też tak wrażliwe na obserwacje odstające. Warto z nich korzystać, gdy mediana jest wielkością lepiej reprezentującą środek danych niż średnia. Wśród testów nieparametrycznych znajdziemy takie, które pozwalają analizować cechy niemierzalne. Wygoda ich użycia okupiona jest mniejszą efektywnością.

 

Podsumowanie

Prowadzenie badań statystycznych w medycynie czy naukach społecznych bardzo często sprowadza się do wykonania testu istotności – parametrycznego lub nieparametrycznego. Od prawidłowego wyboru zależeć może poprawność i dokładność wnioskowania. Niestety, decyzja nie zawsze jest łatwa do podjęcia.

Jak zaplanować medyczne badania statystyczne?

Pozyskiwanie i analiza danych jest w statystyce medycznej szczególnie wymagającym zadaniem. Należy bowiem mieć na uwadze nie tylko cele badawcze i względy metodologiczne, ale również dobro pacjenta. O to, by badanie statystyczne dało jak najlepsze rezultaty, możemy zadbać już na etapie planowania.

 

Określenie celu i rodzaju badania

 

Przede wszystkim należy jasno określić cel badania. Może to być na przykład oszacowanie pewnego parametru w populacji lub weryfikacja skutków nowej metody leczenia.

Potrzebnych do analizy danych dostarczyć może eksperyment lub obserwacja. Badania eksperymentalne (np. kliniczne, laboratoryjne) pozwalają badaczowi na większą kontrolę różnych  czynników , przez co wyniki są dokładniejsze i bardziej przekonujące. Mogą jednak wymagać zaangażowania ludzi lub zwierząt, więc nie zawsze są możliwe do przeprowadzenia. Przy badaniach obserwacyjnych (np. epidemiologicznych) badacz nie może w żaden sposób wpłynąć na wynik i chociaż dostarczają one mniej informacji, czasami są jedyną możliwą formą pozyskania danych.

 

Jaka ma być próba?

 

Skuteczność analizy danych medycznych w ogromnym stopniu zależy od doboru pacjentów. Prawdopodobieństwo trafienia do badania powinno być jednakowe dla każdego osobnika w populacji. Równie ważna jest liczność próby. Niestety, odpowiednie jej dobranie może wymagać kompromisu. Zbyt mała liczba pacjentów zwiększa szanse wyciągnięcia nieprawdziwych wniosków, a czasami uniemożliwia poprawne zastosowanie niektórych metod statystycznych. Gdy pacjentów jest za dużo, rosną koszty i wydłuża się czas badania. Ważny staje się też czynnik etyczny, gdyż możliwe jest np. pozbawienie pacjentów  skuteczniejszej metody leczenia.

 

Na co jeszcze zwrócić uwagę?

 

Nie tylko liczność próby wpływa na dokładność analizy statystycznej. Pożyteczne może okazać się również  kilkukrotne powtarzanie pomiarów. Nie są one jednak wtedy niezależne, więc należy albo uwzględnić średnią, albo odpowiednio dostosować metodę statystyczną. W niektórych przypadkach warto zgrupować badanych w bloki, np. ze względu na wiek. Czasami możliwe jest zbadanie kilku czynników w jednym badaniu, co skraca czas jego trwania i obniża koszty. Wyniki mogą być bardziej wiarygodne także wtedy, gdy pacjenci i badacze nie wiedzą, czy przyjmują placebo, czy nowy środek.

 

 

Podsumowanie

 

Przeprowadzenie badania statystycznego jest skomplikowanym i złożonym procesem. W analizie danych medycznych niejednokrotnie biorą udział wyspecjalizowane firmy. Warto rozpocząć z nimi współpracę już na etapie planowania.

Analiza statystyczna (cz. 2) - obliczanie ryzyka względnego za pomocą R

W poprzednim artykule omawialiśmy ryzyko względne, które jest wygodną wielkością stosowaną w statystyce medycznej informującą w jaki sposób czynnik ryzyka wpływa na szeroko pojmowane wystąpienie zmian patologicznych. W sieci znajdziemy bogate oprogramowanie online pozwalające liczyć interesujące relacje np.  relativeriskcalculatordostępny pod adresem:

https://www.medcalc.org/calc/relative_risk.php.

 

Jednak najczęściej istnieje potrzeba obliczenia szeregu wielkości stosowanych w badaniach klinicznych, czy medycznej analizie statystycznej - wtedy z pomocą przychodzi środowisko programistyczno-obliczeniowe R. Sam program R nie dysponuje wbudowanymi funkcjami pozwalającymi na przeprowadzanie różnorakich klinicznych testów statystycznych: należy ściągnąć odpowiedni pakiet, w tym przypadku najlepszym wyborem jest epitools.

 

I. Szacowanie ryzyka względnego bez użycia pakietów.

 

1. Należy utworzyć macierz danych. W przypadku szpiczaka mnogiego i promieniowania kod będzie następujący:

 

Proba<- matrix(c(130, 1870, 70, 8000), nrow = 2)	

 

2. Aby kod był przejrzysty- warto nadać nazwy wierszom i kolumnom:

 

	
dimnames(Proba) <- list("Grupa" = c("Myelomamultiplex","Kontrolna"), "MI" = c("Nar.naprom.","Nie nar. na prom."))

 

Grupa               Nar.na prom. Nie nar. na prom.
Myelomamultiplex          130                70
Kontrolna                 1870              8000

 

3. Kolejnym krokiem jest utworzenie tabeli procentowej (np. 130 przypadków szpiczaka dla 200 obserwcji ogółem stanowi 65% -> 0,65):

 

prob.nazw<- prop.table(Proba, margin = 1)

Grupa Nar.na prom. Nie nar. na prom.
Myelomamultiplex 0.650000 0.350000
Kontrolna 0.189463 0.810537

 

4. Ostatnim z kroków pozwalających ocenić ryzykow względne jest zastosowanie poniższej procedury:

 

ryzyko.wg<- prob.nazw[1,1]/prob.nazw[2,1]
3.430749

II. Ocena ryzyka względnego za pomocą pakietu epitools:

 

1. Instalacja i uruchomienie pakietu epitools

>install.packages("epitools")
>library("epitools")	

 

W tym przypadku rozważane będą inne dane

 

2. Utworzenie macierzy danych:

dane <- matrix(c(4,16,40,168),byrow=TRUE,nrow=2)	

 

3. Wywołanie instrukcji epitab(dane_badane,metoda):

epitab (dane,method="riskratio")

 

4. Wynik:

## $dane
## Outcome
## Predictor Disease1 p0 Disease2 p1 riskratio lower upper
## Exposed1 4 0.2000000 16 0.8000000 1.000000 NA NA
## Exposed2 40 0.1923077 168 0.8076923 1.009615 0.8030206 1.269361
## Outcome
## Predictor p.value
## Exposed1 NA
## Exposed2 1

 

RR odczytujemy z kolumny riskratio (1.009615).

 

Dodatkowo można oliczyć logarytm z RR:

 

RR <- prob.nazw[1,1]/prob.nazw[2,1]
log(RR)
1.232779

 

 

III. Obliczenie ryzyka względnego w programie MS Excel 2010

Mając tabelę:

 

Narażony na promieniowanie jonizujące

Nie narażony na promieniowanie

jonizujące

Ogółem

Wystąpienie szpiczaka mnogiego (Myelomamultiplex)

130

70

200

Grupa kontrolna

1870

7930

9800

 

2000

8000

1000

 

Należy najpierw przekonwertować ją do postaci procentowej - pytamy np. ile procent zachorowań jest zależne od promieniowania.

 

Obliczenia przeprowadza się wg następującego wzorca:

 

X=130*1/200, oraz Y=1870*1/9800

 

Następnie dzieląc X/Y otrzymujemy ryzyko względne = 3,406.

 

Czytaj część pierwszą artykułu

Autor opracowania: Jeremiasz Pilarz (BioStat)

Analiza statystyczna (cz. 1) - ryzyko względne

Wielkością, która określa stosunek prawdopodobieństwa zajścia danego zdarzenia (w tym przypadku wystąpienia choroby, śmierci, lub innego przypadku patologicznego) w grupie badanej względem grupy odniesienia (grupa kontrolna) jest ryzyko względne. Ryzyko względne (RR – relativerisk) jest wielkością, która pozwala na ocenę o ile prawdopodobieństwo wystąpienia zdarzenia w grupie pacjentów ze zmianami chorobowymi jest różne (większe/mniejsze) w porównaniu z grupą kontrolną. Warto zaznaczyć, że RR należy do grupy metod biostatystycznych EBM (evidenced- basedmedicine), czyli medycyny opartej na faktach. Ocena ryzyka wystąpienia choroby w metodzie RR jest dokonywana za pomocą tzw. Tabeli czteropolowej w której dzieli się wszystkie osoby objęte obserwacją: ilość chorych, którzy byli poddani działaniu czynnika wywołującego zmiany patologiczne, ilość chorych, którzy nie mieli do czynienia z czynnikiem chorobotwórczym, narażona grupa kontrolna i nienarażona grupa kontrolna.

Należy zaznaczyć, iż ryzyko względne należy do względnych miar zależności statystycznych (obok min. Ilorazu szans, ilorazu współczynników, czy częstości).

W przypadku RR rozróżniamy trzy zasadnicze możliwości:

  • RR > 1 – dodatnia zależność- czynnik badany wywołuje dane schorzenie (bardzo często podaje się tu przykład zależności zachorowań na raka płuc względem palaczy)

- 1,1 - 1,6 - mała szkodliwość;

-1,7 - 2,5 - średnia szkodliwość;

>2,7 - duża szkodliwość;

  • RR=1 –brak zależności;
  • RR <1 –ujemna zależność- czynnik badany nie wywołuje schorzenia (w danym przypadku), co więcej powoduje jego redukcję (np. występowanie nadwagi względem zdrowego trybu życia)

- 0 - 0,3 - duży efekt ochronny;

- 0,4 - 0,5 - średni efekt ochronny;

- 0,6 - 0,9 - mały efekt ochronny;

 

W zastosowaniach analizy statystycznej w medycynie ryzyko względne jest użyteczną metodą oceny wpływu danego czynnika (np. promieniowania) na ryzyko wystąpienia choroby (tutaj: szpiczak mnogi). Jako przykład niech posłuży hipotetyczne badanie: Czy istnieje relacja pomiędzy występowaniem szpiczaka mnogiego, a wykonywaniem zawodu związanego z narażeniem pacjenta na ekspozycję promieniowania jonizującego (technicy RTG, fizycy, radiolodzy).

 

  Narażony na promieniowanie jonizujące

Nie narażony na promieniowanie

jonizujące

Ogółem
Wystąpienie szpiczaka mnogiego (Myelomamultiplex) 130 70 200
Grupa kontrolna 1870 7930 9800
  2000 8000 10000

 

Ryzyko względne obliczamy ze wzoru:

Wartość 3,4 oznacza, że ryzyko wystąpienia szpiczaka u osób narażonych na promieniowanie jest 3,4 razy większe niż u osób, które nie mają styczności z promieniowaniem.

Z tabeli można wyliczyć nie tylko ryzyko względne, ale i iloraz szans- stosunek szans wystąpienia danego zdarzenia w jednej grupie do szansy jego wystąpienia w innej:

Błąd standardowy (przybliżony) liczy się w następujący sposób:

Wzory ogólne opisujemy następująco:

 

1. Tabela wyników:

  Czynnik ryzyka Brak czynnika chorobotwórczego Ogółem
Choroba/ przypadłość A B alfa
Grupa kontrolna C D beta
SUMA: A + C B + D alfa + beta

2. Ryzyko względne:

3. Iloraz szans:

4. Błąd standardowy:

Czytaj część drugą artykułu

Autor opracowania: Jeremiasz Pilarz (BioStat)

Analizy statystyczne a psychometria (cz. 1)

Testy psychologiczne muszą odznaczać się swoistego rodzaju rzetelnością, odpowiadać ściśle określonym procedurom. Dział psychologii, który wykorzystuje w badaniach metodologię statystyki oraz matematyki to Psychometria. Psychometria pozwala w sposób ilościowy i obiektywny zmierzyć pewne cechy w danej populacji lub dotyczące danej jednostki. Warto zaznaczyć, iż część badaczy uważa psychometrię za dziedzinę niebezpieczną twierdząc, że nie można standaryzować zachowania ludzkiego względem pewnego wzorca.

 

Psychometria opiera się jak wspomniano na jasno zdefiniowanych procedurach, które opierają się na analizie statystycznej i matematycznej. Dlatego też w psychometrii znajduje się szereg narzędzi, które pozwalają odpowiedzieć min na pytanie Czy badanie przeprowadzono w sposób rzetelny.

 

Rzetelność jest w psychometrii cechą, która oznacza powtarzalność pomiaru i determinuje jakość badania i wymaga aby test był ze sobą spójny w czasie.  Ogólnie możemy powiedzieć, że rzetelność mówi nam na ile dane badanie zostało dobrze przeprowadzone. W celu oszacowania czy użyta w badaniu skala jest rzetelna stosujemy alfę Cronbacha. Alfa Cronbacha jest miarą spójności danych, które wchodzą w skład danej skali. Inaczej mówiąc: odpowiada na pytanie - Na ile badane czynniki są do siebie podobne, czy opisują ten sam problem?

 

 

Istota Alfy Cronbacha

Alfa Cronbacha jest definiowana następująco:

 

Gdzie:

jest wariancją dla poszczególnych obserwacji;

 

N oznacza ilość elementów w teście.

 

Bardzo często w testach psychologicznych odpowiedzi na pytania mają przypisane wartości binarne (0,1), w tym przypadku należy posłużyć się wariantem Alfy Cronbacha, czyli Wzorem KR-20 (Kudler- Richardson 20):

 

W powyższej notacji p oznacza proporcję właściwych (w założeniu dla testu) odpowiedzi w stosunku do całkowitej ilości odpowiedzi, z kolei q oznacza stosunek niewłaściwych odpowiedzi w stosunku do całkowitej ilości odpowiedzi (fakt ten można łatwo poddać weryfikacji- tj. czy p + q =1).

W jakich przypadkach sprawdzana jest alfa Cronbacha?

 

Niech za ilustrację posłuży przykład:

 

Badacz zapytał respondentów zmagających się z zakupoholizmem następujący cykl pytań:

-Czy czujesz się lepiej, gdy kupujesz coś nowego?

-Czy masz kaca moralnego po paru godzinach od zakupu?

-Czy rzeczy, które kupujesz są tak naprawdę niepotrzebne?

-Czy kupujesz słodycze podczas zakupów?

Badacz otrzymał wynik alfy Cronbacha równy 0,66 oznacza to, że pytania można zakwestionować. Badacz stwierdził, że usunięcie pytania dotyczącego słodyczy podniosło wartość alfy Cronbacha do wartości 0,89. Oznacza to, że podobieństwo pomiędzy pytaniami jest bardzo duże - tj. występuje silna korelacja pomiędzy dobrym nastrojem, kacem moralnym, oraz stwierdzeniem, że rzeczy zakupione kompulsywnie są w istocie niepotrzebne.

 

Mankamentry Alfy Cronbacha

Alfa Cronbacha pozwala określić, czy badany zespół zjawisk jest do siebie podobny. Zaletą Alfy Cronbacha jest fakt, że dzięki niej można wyrugować ze skali pozycję, która wpływa negatywnie na ogólny wynik.

 

Posługując się Alfą Cronbacha należy pamiętać o paru „pułapkach”:

- liczba pozycji na sakli ma znaczący wpływ na Alfę Cronbacha, dlatego usuwając dany element należy mieć ten fakt na uwadze;

- wartość alfy może być bardzo wysoka, ale może okazać się, że osiągnięto ten wynik poprzez powtórzenie tego samego pytania, ale ubranego w nieco inne słowa;

- testy powinny mieć odpowiednią długość- Alfa Cronbacha jest zależna od wielkości testu;

- część badaczy uważa, że gdy wartość Alfy-Cronbacha przekroczy wartość 0.9 to nie świadczy to o bardzo silnej korelacji, ale o fakcie, że gdzieś popełniono błąd (łączenie dwóch różnych skal, powtarzanie tego samego pytania);

- nie powinno się łączyć skal, które mierzą inne zagadnienia - formalnie takie połączenie może dać w wyniku dużą wartość Alfy Cronbacha. Niestety pomiar będzie błędny.

- należy sprawdzić, czy alfa nie zaniża rzetelności testu (stosujemy analizę czynnikową - min. Korelację r Pearsona).

 

Interpretacja Alfy Cronbacha

Poniższa tabela ukazuje jak interpretować otrzymane wartości alfy Cronbacha:

Wartość alfy Cronbacha Wewnętrzna spójność Interpretacja
α ≥ 0,9 Perfekcyjna Bardzo silna korelacja pomiędzy badanymi przypadkami (np. Czy pracujesz? -> Czy zarabiasz pieniądze?)
0,9>α ≥ 0,8 Bardzo dobra / dobra Silna korelacja pomiędzy badanymi przypadkami (Czy jesteś alergikiem? Czy masz wysypkę po zjedzeniu orzechów arachidowych?)
0,8>α ≥ 0,7 Akceptowalna Średnia korelacja pomiędzy badanymi przypadkami (Czy grasz w gry komputerowe dłużej niż 6 godzin dziennie? Czy bolą Cię oczy?)
0,7>α ≥ 0,6 Kwestionowalna Słaba korelacja pomiędzy badanymi przypadkami (Czy uprawiasz sport? Czy cierpisz na chroniczną chandrę?)
0,6>α ≥ 0,5 Słaba Bardzo słaba korelacja  (Czy jesteś samotny? Czy masz kota?)
0,5>α Nieakceptowalna Praktyczny brak korelacji (Czy lubisz rzepę? Czy znasz równania różniczkowe?)

Czytaj część drugą artykułu 

Autor opracowania: Jeremiasz Pilarz (BioStat)

Analizy statystyczne a psychometria (cz. 2)

W poprzednim artykule omówiliśmy Alfę Cronbacha - jej cechy oraz kiedy jest stosowana. Poniższy tekst jest przewodnikiem pozwalającym krok po kroku obliczyć Alfę Cronbacha za pomocą programu Excel.

 

Przykład zastosowania Alfy Cronbacha w arkuszu Excel

Ankietowani odpowiadali na dziesięć pytań. Liczba ankietowanych również wyniosła dziesięć.

Tabela przygotowana na podstawie otrzymanych wyników wygląda następująco:

W następnym kroku obliczamy:

- wartość N (w rozważanym przypadku równą 10);

- sumę wariancji populacji (=SUMA()). Suma ta wynosi 0,66

- wariancję sum ilości odpowiedzi;

- Alfę Cronbacha obliczamy ze wzoru: (=N/(N-1)*((1-SumaWariancji)/ WariancjaSum))

Wartość Alfy w rozważanym przypadku wyniosła 0,674 ≈ 0,67 oznacza to, że pytania wykazują kwestionowalną korelację.

Polecamy przeprowadzenie eksperymentu polegającego na zmianie wartości poszczególnych odpowiedzi - im więcej odpowiedzi pozytywnych tym wartość α większa a tym samym pytania są ze sobą spójne, z kolei większa ilość odpowiedzi negatywnych ma odwrotny wpływ- α staje się coraz mniejsza a tym samym rzetelność testu jest mniejsza.

Czytaj część pierwszą artykułu

Autor opracowania: Jeremiasz Pilarz (BioStat)

Testowanie hipotez w statystyce medycznej (cz. 1)

Analityka statystyczna sprzyja weryfikacji, tj. potwierdzaniu lub obalaniu, pewnych przyjętych hipotez. Nie inaczej jest także w zakresie statystyki medycznej - tutaj również proces analiz pozwala odnosić się do brzmienia rozpatrywanych hipotez, a jego ogólny schemat przedstawić można następująco, w postaci 5 kluczowych etapów:

  • formułowanie hipotezy zerowej oraz przeciwnej do niej hipotezy alternatywnej, która podlegać będzie badaniu i weryfikacji;
  • gromadzenie danych do analizy;
  • oszacowanie wartości określonej dla hipotezy zerowej tzw. statystyki testu;
  • porównanie uzyskanej wartości statystyki testu z wartościami wykazanymi w znanych rozkładach prawdopodobieństwa;
  • interpretacja wyników i wyciagnięcie wniosków.

 

Podstawowe kwestie z dziedziny statystyki, z których to czerpie statystyka medyczna w zakresie testowania hipotez omówione zostaną pokrótce w dalszej części opracowania.

 

Definiowanie hipotez

Jak podczas typowych badań statystycznych, tak i analizy o charakterze medycznym sprowadzają się do testu hipotezy zerowej (H0), która zakłada na ogół brak oddziaływania/zachodzenia rozpatrywanego zjawiska w badanej populacji. Gdy hipoteza ta nie jest prawdziwa - siłą rzeczy zachodzi hipoteza alternatywna (H1) - odnosi się one co do zasady bezpośrednio do teorii, która zamierzamy objąć badaniem i jest przeciwieństwem hipotezy H0.

 

Uzyskiwanie statystyki testowej i wartości „p”

Weryfikacja hipotez wymaga uzyskania dla nich tzw. statystyki testu - odbywa się to w oparciu o zgromadzone dane liczbowe i podstawienie ich do wzoru zdefiniowanego dla używanego testu. Odzwierciedla on co do zasady siłę zawartego w zabranych danych dowodu statystycznego przeciwko przyjętej hipotezie zerowej (H0) - większą wartość utożsamia się zwykle z silniejszym dowodem.

 

Co istotne, dostępne statystyki testowe wpisują się w powszechnie stosowane rozkłady częstości. Pole w ogonach rozpatrywanego/rozpatrywanych rozkładów prawdopodobieństwa, łączące w swoisty sposób wartość uzyskanej ze statystyki testu z samym rozkładem, jest tzw. wartość „p”. Definiuje się ją jako prawdopodobieństwo otrzymania wyników w sytuacji, gdy założona hipoteza zerowa jest prawdziwa.

 

Z reguły im  mniejsza wartość „p”, tym silniejszy jest dowód za odrzuceniem hipotezy zerowej - za dowód wystarczający przyjmuje się wartość „p” na poziomie niższym niż 0,05, co daje wyniki o istotności rzędu 5% (wartość „p” większa lub równa 0,05 nie stanowi powodu do odrzucenia hipotezy zerowej - wyniki określamy jednak jako nieistotne na poziomie 5%). Należy jednak mieć na uwadze, że wybór pułapu 5% (0,05) uważa się za arbitralny - w sytuacji groźnych następstw odrzucenia/przyjęcia hipotezy zerowej (mowa wszak o problematyce medyczne i zdrowiu oraz życiu ludzkim), możemy domagać się by statystyka medyczna opierała się o silniejsze dowody, tj. ustalenia wartości „p” na poziomie 0,01 lub 0,001.

 

Testowanie nieparametryczne

Korzystanie z znanych rozkładów prawdopodobieństwa, któremu podlegają zebrane dane,  określa się jako testowanie parametryczne. W sytuacji, gdy zadane dane nie spełniają założeń tego typu testów, odwołać się należy do testów nieparametrycznych, które mają zastosowanie niezależnie od postaci rozkładu. Ten typ testów jest szczególnie ważny w przypadku prób mało licznych lub ujęcia danych w postaci „kategorialnej”.

 

Mając do wyboru nie tylko różne formy test, ale i same testy, warto przemyśleć, który z nich użyć - wybór uzależnia się zasadniczo o od projektu badawczego, typu zadanej me innej i samego rozkładu częstości.

 

Przedział ufności

Kolejnym ważnym zagadnieniem w testowaniu hipotez, jakie uwzględnia statystyka medyczna w procesie analiz, jest kwestia przedziału ufności. Są one nierozerwalnie złączone z testowaniem hipotez, gdyż kwantyfikują interesujące analityka wyniki i pozwalają na uzyskanie ich klinicznych aplikacji. W swoisty sposób przedziały ufności określają wiarygodność uzyskanych wyników - jeżeli hipotetyczna wartość wyniku wykracza poza przyjęty przedział ufności, świadczy to o jego niskiej wiarygodności i prowadzi do odrzucenia hipotezy zerowej H0.

 

Błędy w testowaniu hipotez

Tytułem podsumowania, nawiązując do przedziałów ufności czy przyjęcia wartości „p”, zasygnalizować należy, że przyjęcie lub odrzucenie hipotezy zerowej/alternatywnej może być błędne. Wątek ten omówiony zostanie w odrębnym opracowaniu, warto jednak wskazać, że błędy takie mogą wykazywać kilka rodzajów:

  • błąd pierwszego rodzaju to odrzucenie hipotezy zerowej, gdy w rzeczywistości jest on a prawdziwa;
  • błąd drugiego rodzaju to nieodrzucenie hipotezy zerowej w sytuacji, gdy jest ona nieprawdziwa.

 

Każdy z tych błędów wymaga odpowiedniej procedury postępowania w sytuacji jego wykrycia.

Czytaj część drugą artykułu

Testowanie hipotez w statystyce medycznej (cz. 2)

Z racji na poruszaną problematykę, statystyka medyczna koncentruje się na ogół na testowaniu hipotez skupiających się na porównywaniu zbiorowisk ludzi, które narażone są na różne czynniki chorobotwórcze. Hipotezy nawiązują zatem do efektów czy wyników leczenia - np. hipoteza zerowa H0 stwierdza brak efektów danej terapii, zaś przeciwna do niej hipoteza alternatywna H1 podkreśla wystąpienie pewnych efektów kuracji.

 

Jak wiadomo, testowanie hipotez to podejmowanie decyzji - odrzucimy hipotezę H0 na korzyść H1 lub nie. Każda decyzja niesie ze sobą jednak pewne ryzyko omyłki, nawet mimo zachowania dokładności procedury testowej czy doboru optymalnych parametrów testu. Każdy taki błąd niesie pewne następstwa - analityka statystyki medycznej nawiązuje wszak do, jak akcentowano na wstępie, problematyki zdrowia czy życia ludzkiego.

 

Wyróżnia się dwa rodzaje błędów, jakie popełnić może analityk:

  • błąd pierwszego rodzaju - jest to sytuacja odrzucenia prawdziwej hipotezy H0;
  • błąd drugiego rodzaju - nieodrzucenie nieprawdziwej hipotezy H0.

 

 

Odrzuć  H0

Nie odrzucaj H0

H0 prawdziwa

Błąd I rodzaju

Brak błędu

H0 fałszywa

Brak błędu

Błąd II rodzaju

 

Błąd pierwszego rodzaju

Błąd pierwszego rodzaju to taki, który wiąże się z odrzucenie hipotezy zerowej (H0) w sytuacji, gdy tak naprawdę jest ona prawdziwa - przyjęta zostaje wtedy nieprawdziwa hipoteza alternatywna H1.

Maksymalne prawdopodobieństwo omyłki pierwszego rodzaju określa się symbolem alfa, tj. poziomem istotności testu.

 

Statystyka medyczna, jak każda inno formuła analityki statystycznej, zakłada przyjęcie wielkości alfa jeszcze przed zgromadzeniem danych - z reguły jest to wartość na poziomie 0,05 (bardziej restrykcyjne są wartości niższe, a mniej - niższe).

 

Co istotne, odwołując się do zasad testowania hipotez zauważyć należy, że odrzucenie hipotezy H0 następuje gdy wartość „p” naszego testu jest niższa niż przyjęty poziom istotności ów testu - tylko ta sytuacja stwarza zatem szanse na popełnienie błędu pierwszego rodzaju.

 

Błąd drugiego rodzaju

Błąd drugiego rodzaju to z kolei taki, który wiąże się z nie odrzuceniem hipotezy zerowej (H0) w sytuacji, gdy tak naprawdę jest ona fałszywa - odrzucona zostaje wtedy prawdziwa hipoteza alternatywna H1.

 

Maksymalne prawdopodobieństwo omyłki pierwszego rodzaju określa się symbolem beta, które powiązane jest z tzw. mocą testu. Moc testu, określana jako 1 - beta, stanowi prawdopodobieństwo odrzucenia fałszywej hipotezy H0 i rzadko przyjmuje wartość 100%.

 

Moc testu

Moc testu jest wielkością, którą silnie powiązana jest z problematyką testowania hipotez, a którą można kontrolować - statystyka medyczna wyróżnia bowiem czynniki, które kształtują moc stosowanych w niej testów.

 

Zwiększanie mocy testu warto rozpocząć od ustalenia jej poziomu  już na etapie planowania samej analizy statystycznej - uważa się, ze warto podjąć się, gdy wiemy, ze moc testu jest duża (80%), gdyż za nieodpowiedzialne i nieekonomiczne uznaje się podejmowanie kuracji w sytuacji, gdy sama szansa na wykrycie jego efektów jest nikła.

 

Czynniki warunkujące moc testu, a zatem zasadność samej analizy, to w szczególności:

  • wielkość badanej próby - szacuje się, ze moc testu rośnie wraz z liczebnością próby, tj. dostępnością danych do analizy;
  • zmienność obserwacji - przyjmuje się, że moc testu wzrasta, gdy zmienność obserwacji maleje, tj. gdy obserwacje wykazują stosunkowo stały charakter;
  • wielkość pożądanego efektu - test ma większe szanse wykrycia większych efektów, zatem przyjmuje się,  że im większy jest efekt, którego oczekujemy tym większa jest tez moc testu;
  • poziom istotności - moc testu wzrasta wraz z poziomem jego istotności, przy czym większe szanse na wykrycie poszukiwanego efektu daje przyjęcie w realizowanej statystyce medycznej jako znaczącej wartości „p” na poziomie 0,05 niż 0,01.

 

Ocena czy dana moc testu jest wystarczająca odbywa się poprzez badanie przedziałów ufności dla rozpatrywanych wyników - niewielka wielkość próby i/lub duża zmienność obserwacji sprzyjają poszerzeniu przedziałów ufności, tj. obniżeniu mocy testu.

 

Wielokrotność testów

Niejednokrotnie na jednym zbiorze danych prowadzi się większą liczbę testów istotności. Przyjmuje się, że liczba porównań zwiększa szanse na popełnienie błędu pierwszego stopnia - zaleca się zatem, by skupić się na realizacji niewielkiej liczby testów, odnoszących się do pierwotnych i ustalonych „a priori” celów.

Czytaj część pierwszą artykułu

Statystyka sposobem na sukces - statystyka w pracach naukowych

Można powiedzieć, że obliczenia statystyczne stanowią podstawę wszelkich prac z zakresu różnorakich dziedzin nauki. Dlatego też statystyka do prac naukowych powinna być realizowana z dużą uważnością, gdyż to ona pozwala na zrozumiałe przedstawienie zjawiska oraz wyciągnięcie poprawnych wniosków. Stąd też o statystyce można mówić jako o tej, która stanowi punkt wyjściowy dla przeprowadzanych działań naukowych.

 

Statystyka pomaga widzieć świat

Zrealizowane projekty naukowe mogą mieć znaczenie dla podejmowania trafnych decyzji z uwzględnieniem różnorakich działań. Na przykład przeprowadzając proces badawczy nakierowany na zadowolenie konsumentów można dowiedzieć się czego ta grupa potrzebuje, a następnie dostarczyć im to. Jest to możliwe między innymi dzięki przeprowadzeniu obliczeń wskazujących zachodzące korelacje. Stąd też warto zaznaczyć, że statystyka:

  • może być opisowa, więc opierająca się na metodach gromadzenia, opracowywania oraz prezentacji z uwzględnieniem sumarycznego opisu;
  • może dotyczyć wnioskowania statystycznego – to metody wnioskowania dotyczące całej populacji, ale przy uwzględnieniu w badaniu tylko konkretnej próby.

 

Badanie, które powie jak jest

Realizacja obliczeń statystycznych opiera się na pozyskiwaniu informacji potrzebnych z punktu widzenia realizowanego badania. Poprzez przeprowadzanie procesu można wykryć pewne treści lub je potwierdzić. Stąd też badania statystyczne traktujemy jako te, które pozwalają na wydobycie wiedzy o badanej społeczności.

 

Przebieg badania ma znaczenie

Biorąc pod uwagę przebieg badania statystycznego należy odnieść się do takich jego etapów jak:

  • przygotowanie konkretnego badania;
  • przeprowadzenie obserwacji statystycznej;
  • opracowanie oraz prezentacja zebranego materiału;
  • analiza statystyczna.

Realizując proces badawczy warto uwzględniać konkretny plan, który pozwoli na uzyskanie rzetelnych informacji. To natomiast przełoży się na wysoką jakość przeprowadzanego badania.

 

Liczby nakierowane na działanie

Starając się zrozumieć zachodzące zdarzenia warto odnieść się do procesów badawczych, które nakierowane są na pozyskiwanie i analizowanie informacji. Tym samym statystyka do prac naukowych może okazać się czymś więcej niż tylko teorią. Pozyskane informacje można wykorzystać w konkretnych działaniach, które pozwolą na osiągnięcie sukcesu w danej dziedzinie – czy to przez wprowadzenie odpowiednich zmian czy podjęcie trafnych decyzji.

 

 

Statystyka jako wsparcie dla skutecznego działania

Sama analiza statystyczna odnosi się do zbierania i przetwarzania dużych ilości danych, co ma za zadanie wskazać występujące zależności i korelacje.

 

Statystyka z widokiem na przyszłość

Przeprowadzenie właściwych obliczeń w głównej mierze pozwoli na wyznaczenie panujących trendów, a co za tym idzie na dopasowanie swoich działań do konkretnych potrzeb i oczekiwań rynku. Ogólnie rzecz ujmując można powiedzieć, że analiza pozwoli na:

  • zwiększenie trafności decyzji;
  • ulepszenie dotychczas podejmowanych działań;
  • wskazywanie powiązań między wyznaczonymi elementami;
  • wskazanie oraz wyeliminowanie dotychczas popełnianych błędów;
  • zwiększenie świadomości mocnych stron.

 

Analiza, która pozwoli działać skutecznie

Tym samym można powiedzieć, że przeprowadzane analizy statystyczne mogą mieć zastosowanie w rozmaitych dziedzinach ludzkiego działania. Są one obecne zarówno w badaniach:

  • przeprowadzanych w sektorze medycyny;
  • satysfakcji i lojalności klientów;
  • marketingowych i rynku;
  • opinii pracowników.

Samo zebranie danych nie pozwoli na podejmowanie słusznych decyzji. Dopiero dzięki analizie tych danych możliwym jest tworzenie kreatywnych rozwiązań uskuteczniających dotychczas podejmowane działania. Jednocześnie badania takie mogą otworzyć szansę na wprowadzenie nowych rozwiązań czy produktów, które przyczyniają się do umocnienia pozycji danej firmy.

 

Statystyka ma służyć ludzkości

Natomiast jeśli o statystyce będzie mówić się w wymiarze sektora medycznego to warto zwrócić uwagę na to, że przeprowadzenie poprawnej analizy statystycznej może zadecydować o czyimś zdrowiu lub nawet zdrowiu. Dlatego też rozmawiając o biostatystyce należy w głównej mierze podkreślić wymiar etyczny realizowanych procesów badawczych.

 

Sytuacja, którą da się opanować

Najważniejsze zadania dla statystyki koncentrują się na właściwym zrozumieniu aktualnej sytuacji, a co za tym idzie na wskazaniu rozwiązań, które będą przyczyniać się do wzrostu i osiągania postawionych celów. Właściwie zrealizowana analiza statystyczna otwiera przede wszystkim nowe możliwości oraz dostarcza skutecznych rozwiązań wpływających na jakość podejmowanych działań i osiągane efekty.

 

Analizy statystyczne w każdej branży

Dedykowane usługi statystyczne

Każda firma i instytucja, niezależnie od tego czy reprezentująca sektor FMCG, świat nauki, czy też medycynę i farmację walczy o najlepszą pozycję wśród konkurencji. Profesjonalne analizy statystyczne umożliwiają wyciągnięcie wniosków, na podstawie których można wdrażać nowe produkty i usługi na rynek, rozwijać innowacyjność nauki, odpowiadać na zapotrzebowanie klientów, a także zyskiwać pozycję lidera w konkretnej branży.
 

Czy prowadzić badania statystyczne samodzielnie?

Samodzielne prowadzenie wysoko zaawanasowanych statystyk, z uwzględnieniem wszystkich możliwych metod analiz, nie jest rzeczą łatwą. Jeśli nie posiada się doświadczenia i odpowiednich narzędzi badawczych do przeprowadzenia tego typu badań, samodzielne analizy statystyczne mogą zniszczyć dotychczasowy dorobek badawczy, ponieważ nie będą wolne od przypadkowych błędów. Brak znajomości narzędzi i posługiwanie się nieodpowiednim oprogramowaniem badawczym sprawia, że prawidłowość i poziom rzetelności analiz maleje.

Cześć etapu badawczego, której celem jest przeprowadzenie ilościowych analiz statystycznych warto powierzyć profesjonalistom. Posługiwanie się wysokiej jakości pakietami statystycznymi, typu R oraz SPSS, a także dobór odpowiedniej metody analizy statystycznej – adekwatnej do celu badawczego wymaga praktyki oraz orientacji w tym temacie. Centrum statystyki BioStat® posiada 15 lat doświadczenia w prowadzeniu badań dla:

  • Branży medyczno-farmaceutycznej, 
  • Instytucji państwowych,
  • Wiodących ośrodków naukowych,
  • Firm FMCG.
     

Samodzielne analizy statystyczne, poza możliwością popełnienia wielu błędów, pochłoną wiele czasu i energii. Badacz może spożytkować ten etap prac na inne istotne działania. Współpracując z profesjonalistami, można ponadto przygotować się do publikacji badań w renomowanych czasopismach obecnych na liście filadelfijskiej. To kolejny atut powierzenia badań agencji badawczej.
 

Liczby i co dalej?

Zakładając, że badacze prowadzący eksploracje statystyczne nie popełnią błędów, warto wziąć pod uwagę, że w badaniach statystycznych otrzymają wyniki liczbowe, z których należy opracować jasny i zrozumiały raport, często z elementami graficznymi. Nie jest to zadaniem łatwym. Dopiero na podstawie klarownego raportu można przygotować wnioski płynące z badań oraz sporządzić publikacje do naukowych czasopism czy też zmienić strategię działań firmy. Ten etap jest także opracowywany przez specjalistów z BioStat®. Warto powierzyć analizy statystyczne ekspertom, aby móc odnieść sukces, niezależnie od reprezentowanej branży.

 

 

Analiza danych - zysk, ryzyko i prognozy biznesowe

Informacje z wielu poziomów

Gromadząc informacje na określony temat, zazwyczaj korzystamy z kilku źródeł – chcąc być jak najlepiej poinformowanym. Gdyby korzystać tylko z jednego miejsca czerpania informacji, otrzymalibyśmy zniekształcony obraz danych. Podobnie jest z danymi dotyczącymi naszego biznesu. Najbardziej wartościowe informacje to te, które czerpie się z wielu poziomów oraz odnosi się do zróżnicowanych zjawisk społecznych i ekonomicznych.


Jałowość danych, zysk i ryzyko

Analiza danych to klarowne dane liczbowe, opracowane dzięki sprawdzalnym metodom matematycznym oraz statystycznym to doskonały początek do dalszych eksploracji. Dzięki zaangażowaniu specjalistów z dziedzin takich jak: statystyka, matematyka stosowana, ekonomia, biostatystyka, marketing, biostatystyka, bioinformatyka, statystyka medyczna; agencja badawcza BioStat® prowadzi projekty, w których buduje modele statystyczne oraz symulacje odnoszące się do aktualnych zjawisk:

  • społecznych,
  • gospodarczych,
  • kondycji firmy,
  • koniunktury rynku.


Modelowanie statystyczne i matematyczne w zakresie:

  • analiz ryzyka odejścia klientów od marki lub firmy,
  • modelowania lojalności klientów,
  • prognoz sprzedażowych,
  • analiz ryzyka niewypłacalności klientów,
  • analiz ryzyka kredytowego,
  • modelowania ryzyka nadużyć ze strony klientów,
  • modelowania ryzyka umieralności klientów.


Na podstawie przeprowadzonych analiz, specjaliści formułują sądy i wyciągają wnioski
o potencjalnym ryzyku, które niosą ze sobą nowe projekty. Możliwość unikania kryzysów, czy też podejmowania najlepszych decyzji i tworzenia najbardziej zyskownych planów oraz podejmowania korzystnych decyzji także przynosi skuteczna analiza danych.


Tylko powierzenie zlecenia analizy danych doświadczonym specjalistom, którzy prowadzili podobne projekty daje pewność solidnie prowadzonego projektu.

 

Eksperci dla biznesu i nauki

Eksperci BioStat® prowadzili już projekty dla małych i dużych firm oraz instytucji – liderów zróżnicowanych branż biznesowych oraz sektorów publicznych i naukowych. Ich zaangażowanie i praca zostały docenione, dzięki czemu każdy kolejny zleceniodawca projektu analiz danych w swojej firmie, otrzymuje pewność kompetentnych praktyk, wykorzystania sprawdzonych narzędzi, a także 12-miesięcznej gwarancji na przeprowadzone badania.

 

Zobacz co może zyskać Twoja firma, dzięki analizie danych!

 

Analiza statystyczna dla biznesu

Analiza statystyczna jest nieodłączną częścią świata nauki i biznesu. Dzięki analizie, która jest wykonywana przez wyspecjalizowane osoby można uzyskać obraz na interesujący temat. Wyniki analiz znacząco wpływają na to, co dzieje się na rynku biznesowym każdej kategorii. Szeroka oferta analiz pozwala na skorzystanie z optymalnego pakietu usług oferowanych przez specjalistów. Analiza statystyczna jest otwarta na biznes, a biznes widzi w nich ogromny potencjał, z którego wiele firm chce skorzystać. Konieczność zbierania przez biznesy danych sprzedażowych, informacyjnych o klientach czy danych o przychodach zmusza wręcz do skorzystania z narzędzi analizy, co skutkuje jasnymi wnioskami wyciągniętymi na podstawie przeprowadzonych analiz.
 

Monitorowanie procesów w firmie

Rękę na pulsie trzeba trzymać cały czas, w szczególności, gdy jesteśmy mocno ukierunkowani na rozwój przedsiębiorstwa. Analiza statystyczna doskonale sprawdza się do systematycznego monitorowania procesów w firmie. Prawidłowo przeprowadzona analiza statystyczna może nakreślić, na jakim aspekcie należy się bardziej skupić, a co można odpuścić, ponieważ przynosi to odpowiednie skutki. Analiza statystyczna ma potężny wpływ na przedsiębiorstwa, o czym niewiele osób jest o tym przekonanym. W firmach analizuje się m.in.:

  • Badania satysfakcji pracowników,
  • Badania lojalności pracowników,
  • Ankiety marketingowe,
  • Preferencje klientów,
  • Skuteczność metod wprowadzania nowości na rynek.
     

Duże pole do rozwoju

Aby firma działała i przynosiła zyski musi się rozwijać, nie ma innej drogi do sukcesu w swojej dziedzinie. Aby osiągnąć sukces należy pokładać siły i możliwości tam, gdzie są perspektywy. Aby odnaleźć te perspektywy, należy skorzystać z odpowiednich narzędzi, które są ukierunkowane na sukces i potrafią dać rzetelny obraz sytuacji. Takie są właśnie analizy statystyczne – są doskonałym narzędziem do rozwoju firmy czy własnych kompetencji. Tak, własnych. Istnieją firmy, które oferują szkolenie ze statystyki online, dzięki takiemu szkoleniu, można samodzielnie przeprowadzić analizę na interesujący temat.

Kalkulator wielkości próby

W badaniu o charakterze częściowym dane odnośnie rozkładu jakiejś cechy statystycznej w populacji uzyskuje się przez wyznaczenie rozkładu tej cechy dla pewnej grupy elementów populacji.

 

Metoda reprezentacyjna jest najbardziej prawidłową formą badania częściowego, dlatego też cieszy się dużą popularnością w kontekście różnego rodzaju badań statystycznych, w tym w badaniach społeczno-ekonomicznych. Jej istotą jest wnioskowanie o właściwościach i cechach całej populacji za pomocą badań przeprowadzonych na losowo wybranej podgrupie, zwanej próbą. Przy doborze próby istotną rolę grają pewne założenia. Są ona niezbędne, ponieważ wybrana próba powinna stanowić dobrą reprezentację populacji generalnej. Jednym z tych założeń jest założenie o dostatecznej wielkości obranej próby. Za sprawą rachunku prawdopodobieństwa mamy możliwość wyznaczenia minimalnej liczebności próby. W tym celu niezbędne jest podanie parametrów dotyczących otrzymanych wyników badania. Do tych parametrów należą:

 

  • poziom istotności - jest to największe dopuszczalne prawdopodobieństwo, z jakim popełniony zostanie błąd oszacowania o wskazanej wielkości,
  • maksymalny błąd oszacowania,
  • szacowana wielkość frakcji (jest to odsetek elementów populacji, które odznaczają się jakąś określoną cechą; np. szacowany procent uszkodzonych żarówek w całej partii),
  • w przypadku populacji skończonej należy również podać wielkość populacji generalnej.

 

Dzięki kalkulatorowi wielkości próby można w łatwy sposób wyznaczyć minimalną liczebności próby. Kalkulator wielkości próby ma dwa warianty: dla populacji nieskończonej i skończonej.

Z populacją skończoną mamy do czynienia wtedy, kiedy możemy oszacować jej faktyczną liczebność. Populacja nieskończona to taka, w której jest nieskończenie wiele jednostek. W rzeczywistości występuje ona rzadko. Czasem jednak, mimo, że populacja ma skończoną liczbę elementów, wygodniej jest założyć, że jest ona nieskończona. Taką sytuacją jest np. przypadek, w którym nie da się oszacować wielkości populacji, ale mamy pewność co do tego, że jest ona bardzo duża.

Statystyka - Mediana, moda, średnia, kwartyle. Które wybrać?

Statystyka

Dane statystyczne otaczają nas w dzisiejszym świecie jak powietrze. Spotykamy się z nimi niemal wszędzie, w rozmaitych sytuacjach i przy różnych okazjach. Jednocześnie, kiedy pojawia się hasło „statystyka”, najczęściej do głowy przychodzi nam popularna anegdota o psie i jego właścicielu, którzy statystycznie posiadają po trzy nogi. A przecież prawdziwa statystyka to tak dużo więcej, niż umiejętność obliczenia średniej.

 

Najważniejsze jest wyczucie

Mediana, moda, średnia, kwartyle… nie w każdym przypadku skuteczna będzie ta sama metoda. Wszystko zależy od tego, jaki jest charakter pytań stawianych przez badacza. Zbiór danych stanowi znakomite źródło odpowiedzi, których interpretacja pozwoli skonstruować wskazówki, dzięki którym rzeczywistość stanie się lepsza. Tylko wykwalifikowani, rozumiejący intencję swojej pracy specjaliści są w stanie efektywnie pozyskiwać kluczowe informacje.

 

Spotkania w prawdziwym świecie

Każde dobrze poprowadzone szkolenie ze statystyki zmierza w kierunku wskazania i wyjaśnienia powiązań analiz wielkich zbiorów danych ze światem rzeczywistym. Celem statystyki jest operowanie na ogromnych ilościach informacji, aby uchwycić prawidła rządzące światem w liczbach – niestety po takim przetworzeniu bywają one dla większości z nas niezrozumiałe. Prawidłowo przeprowadzona analiza statystyczna jest pomostem między abstrakcją liczb, a praktyką życia w społeczeństwie.

 

Praktyka pod okiem akademika

Umiejętności związane z badaniami statystycznymi są kwestią poznania sprawdzonych metod, które umożliwiają operowanie na dużych zbiorach danych, a następnie praktyki w ich stosowaniu. Wystarczy kilka godzin odpowiednio prowadzonego szkolenia, aby zyskać umiejętność podążania za tokiem analizy. Podobnie jak w przypadku obsługi specjalistycznego oprogramowania, kluczem do sukcesu jest kombinacja profesjonalnego a za razem przystępnego instruktażu oraz praktyki. Szkolenia ze statystyki to dająca wymierne efekty intelektualna przygoda, jeżeli na przewodnika po świecie liczb wybierzemy prawdziwego akademickiego specjalistę.

 

Korzystanie z umiejętności

Statystyka jest bardzo istotnym narzędziem pozwalającym w szybki i przystępny sposób rozpoznać i opisać prawidłowości otaczającego nas świata. Staje się niezbędna przy pracach nad dedykowanymi strategiami marketingowymi czy rozpoznaniem rynku – wszędzie tam, gdzie kluczowe jest uzyskanie maksymalnie szerokiego obrazu, w oparciu o duże ilości danych. Szkolenia ze statystyki mogą zawierać wiedzę dotyczącą ściśle określonych metod i ich zastosowania w konkretnych przypadkach lub w sposób bardziej ogólny prezentować możliwości poszczególnych sposobów działania – wiele zależy od oczekiwań uczestników i ustaleń z prowadzącym kurs.

 

Czego oczekiwać?

Biorąc udział w fachowym szkoleniu z statystyki powinniśmy zadać sobie podstawowe pytania: czego chcemy się dowiedzieć o otaczającym nas świecie? Jak planujemy wykorzystywać uzyskaną wiedzę? Poza nauką rozmaitych metod i wiedzą dotyczącą trendów z dziedziny badań społecznych, warto skupić się na umiejętności tworzenia raportów z prowadzonych badań. W końcu sukces badania statystycznego to nie tylko sprawne jego przeprowadzenie, ale również pozyskanie wyników, które będzie można wykorzystać w praktyce. A żeby to było możliwe, niezbędna jest umiejętność prawidłowej interpretacji wyników i prezentowania ich w przystępnej postaci.

 

Czytanie z korzyścią

Statystyka to nie tylko umiejętność gromadzenia i przetwarzania, ale również zdolność odczytywania danych. W firmowej codzienności posługiwanie się statystyką jest absolutnie niezbędne. Potoczne, nieprawidłowe jej użycia dają rezultaty równie komiczne, jak w przypadku wspomnianej anegdoty o właścicielu z czworonogiem: pies kuleje, a pan się potyka o własne nogi. Znacznie mniej do śmiechu robi się jednak, kiedy sami popełnimy omyłkę i wskutek złej interpretacji danych napytamy sobie sprzedażowych kłopotów.  Dobre szkolenie ze statystki pozwoli tego uniknąć, dając okazję opanowania sposobów działania na dużych zbiorach danych oraz praktycznego wykorzystania ich w analizie, tak by w naszych działaniach nie powinęła się nam noga.

 

 

Analiza Statystyczna - doktorat

Statystyk | Analiza danych
Doktorat i prace naukowe. BioStat.


Analiza statystyczna


Jeśli planujesz lub już pracujesz nad swoją pracą doktorską, propozycją lub jakimkolwiek zadaniem badawczym, istnieje duża szansa, że pojawił się termin "analiza statystyczna". Spotkania z tym często zastraszającym terminem nie są nieuzasadnione, ponieważ statystyki stanowią jeden z elementów niezbędnych do zakończenia projektu badawczego. W każdej inicjatywie badawczej napotkasz dane, a statystyka daje Ci siłę do wyciągnięcia znaczących wniosków z tych danych. Analiza statystyczna, jeśli jest wykonywana prawidłowo, może pomóc w zbieraniu, kategoryzacji, podsumowaniu, prezentacji i interpretacji danych w celu uzyskania wiarygodnych i dokładnych wyników, pozwalając Ci pewnie zakończyć badania.  Jesteśmy ekspertami w zakresie narzędzi do analizy danych, takich jak ANOVA, korelacja, regresja, testy ważności i wiarygodności, SEM, wieloczynnikowa praca magisterska itp.


Co Państwu oferuje?


Wiarygodna analiza statystyczna rozpoczyna się od zebranych danych, dlatego też zapewniamy wsparcie od obliczenia wielkości próby do interpretacji wyników. Pomagamy analizować zebrane dane, przedstawiamy wyniki w atrakcyjnym formacie z wykorzystaniem tabel i liczb oraz pomagamy zrozumieć, jak interpretować wyniki.
Stosujemy się do dwukierunkowego procesu uczenia się, w którym nie tylko rozumiesz narzędzia, które zostały użyte do analizy, ale także rozumowanie ich wyboru. Wierzymy, że analiza danych jest czymś więcej niż tylko środkiem do ukończenia studiów doktoranckich, jest to ważne doświadczenie edukacyjne, które daje możliwość zostania ekspertem w dziedzinie statystyki.
Dlaczego warto wybrać nasze usługi?
- Gwarantowana wysoka jakość wyników, 15 lat doświadczenia

- 12 miesięcy GWARANCJI
- Terminowe dostarczanie wyników i interpretacja
- Tylko analizy wewnętrzne, zapewniające bezpieczeństwo danych
- Zapewniona oryginalność produktu końcowego
Z jakich testów statystycznych i narzędzi korzysta,my.
Nasi wyszkoleni statystycy biegle posługują się niezliczoną ilością narzędzi statystycznych, aby zaoferować Państwu najlepszą możliwą interpretację wyników. Oto tylko kilka opcji, które oferujemy:
Statystyki opisowe T-Tests
Mann-Whitney U Test
Analizy korelacji
Analizy regresji (liniowe i wielokrotne)
Testowanie niezawodności (Alfa Cronbacha, Połowa podziału Guttmana)
Dane Normalność

Analiza czynnika poszukiwawczego (EFA) Analiza czynnika potwierdzającego (CFA)
Analiza dyskryminacyjna Konwergencja Ważność
Analiza głównych elementów składowych (PCA) Modelowanie równań strukturalnych (SEM)
Analiza ścieżki Analiza tematyczna
Tabele krzyżowe I wiele, dużo więcej....


Szukasz pomocy z konkretnym narzędziem statystycznym i nie możesz go znaleźć w powyższej tabeli? Skontaktuj się z nami i daj nam znać czego szukasz. Jesteśmy po to, aby pomóc.
Z jakiego oprogramowania korzystamy?
Nasi statystycy są szkoleni w MS Excel, SPSS, R.
Masz pytania lub potrzebujesz wyjaśnień? Aby uzyskać dalszą pomoc, prosimy o kontakt z nami:

www.biostat.com.pl

Biostat. More than statistics.

ul. Kowalczyka 17
44-206 Rybnik

Tel: (+48) 32 42 21 707
Tel. kom.: (+48) 668 300 664
e-mail: biuro@biostat.com.pl

Sondaże Analizy danych