Piotr J.

Piotr J. Młodszy analityk

Temat: Wykres słupkowy i wąsy SD, SE i CI. Co wybrać?

Witam. Mam za zadanie wykonać analizę wariancji ANOVA. Chciałbym użyć wykresów słupkowych do pokazania czy różnice między kolejnymi średnimi są istotnie różne czy nie. Czego powinienem użyć do określenia długości wąsów? Odchylenia standardowego, przedziału ufności czy błędu standardowego? Googlałem, ale ludzie w internecie stosują różne warianty i krytykują się wzajemnie kłócąc że wąsy są raz za duże a raz za małe. Skąd się to bierze i jakie one powinny być? Prosiłbym o łopatologiczne wyjaśnienie, bo będę mieć z tego egzamin niebawem i chciałbym to zrozumieć.
Wojciech Sobala

Wojciech Sobala Redaktor
statystyczny,
biostatystyk,
Instytut Medycyny
Pr...

Temat: Wykres słupkowy i wąsy SD, SE i CI. Co wybrać?

Jeżeli słupki przedstawiają wartości średnie to nie ma idealnego rozwiązania ale najlepszym rozwiązaniem jest użycie se.
Jeżeli kolejne słupki przedstawiają różnicę pomiędzy wartością średnią w danej grupie a średnią w grupie odniesienia to lepszym rozwiązaniem jest użycie ci dla różnic pomiędzy średnimi.Wojciech Sobala edytował(a) ten post dnia 30.09.11 o godzinie 17:02

Temat: Wykres słupkowy i wąsy SD, SE i CI. Co wybrać?

Cześć,

Odpowiedź krótka: jeśli kluczem jest nieodrzucanie H0, to SE, jeśli odrzucanie H0, to 95%CI. Jeśli jedno i drugie - inna miara, LSD.

Odpowiedź długa.

* Odchylenie standardowe - Do wnioskowania o różnicy między średnimi potrzebujesz odchylenia std. dla średniej, nie dla surowych danych. Odpada.

* Błąd standardowy - te wąsy są "za krótkie" by pozwolić na pełną ocenę "istotne/nieistotne".

Uwaga wstępna: ponieważ dyskutujemy o wielu próbach, mamy na myśli jednoczynnikową ANOVA dla prób niezależnych. Jednak dla dalszych rozważań wygodnie jest przyjąć ANOVA dla 2 prób, czyli zwyczajny test t-Studenta dla prób niezależnych.

Zakładam także statystyczną równość (homogeniczność) wariancji w próbach. Jest to jedno z głównych założeń ANOVA.

Znasz/pamiętasz "regułę kciuka" dla testu t dla prób niezależnych? Różnica jest istotna statystycznie, jeśli jest większa niż 2 błędy standardowe różnicy. A dokładniej - niż wartość kwantyla rozkładu t-Studenta dla prawdopodobieństwa 0.975 (obszar dwustronny, więc 1 - 0.05/2) i <15-30> stopni swobody (dla mniejszej liczby qt>>2, dla większej - asymptotycznie -> 1.96).


diff
------- > qt(0.975, df) ==> diff> ~2*SE_diff
SE_diff


I tu jest pies pogrzebany, bo ludzie chcą rysować i zwykle rysują wąsy dla SE próby, zamiast SE różnicy, która występuje we wzorze statystyki t. W efekcie dostajesz te wąsy zbyt krótkie. Przypomnij sobie wzór na SE różnicy w teście t dla równych wariancji:


---------------------------------------
\ | (Na-1)Sa^2 + (Nb-1)Sb^2 / 1 1 \
SE_diff = \ | ----------------------- | -- + -- |
\| Na + Nb - 2 \ Na Nb /


Zakładając, że mamy układ zrównoważony (tj. próby są równoliczne), czyli Na = Nb = N, można to zapisać prościej jako:


----------------------------------------
\ | (N-1)(Sa^2+Sb^2) 2 (Sa^2+Sb^2) 2
SE_diff = \ | ---------------- * - = ----------- * -
\| 2(N-1) N 2 N


W tym momencie, nim cokolwiek uprościmy, mała dygresja. Ponieważ obie wariancje są stochastycznie (na danym poziomie istotności) równe, to:

Sa^2
F = ---- ->> 1
Sb^2

(gdyby były równe arytmetycznie, to F=1).

A to znaczy, że z małym błędem, pozostając na przyjętym poziomie istotności, mogę przyjąć, że Sa^2 = Sb^2 = S^2. Nie muszę się bać, że różnica będzie zbyt duża, bo przecież wtedy wyszedłbym poza obszar krytyczny F. Wtedy mogę uprościć obie dwójki, a wariancje dodać do siebie: 2S^2/N

Mogę także nic nie upraszczać, tylko potraktować występującą we wzorze średnią z obu wariancji jako tzw. "pooled variance", czyli wariancję wspólną Sp^2. Wiadomo jednak, że im stosunek obu wariancji bliższy 1, tym obie wariancje są bliższe ich średniej, więc mamy ten sam efekt co poprzednio: Sp^2 = Sa^2 = Sb^2 = S

Tak czy siak - możemy operować jedną wariancją S czy to w kontekście miar z próby czy z kilku prób.


------- ----
\ | 2*S^2 \ | 2 --- S
SE_diff = \ | ----- = S * \ | --- = \/ 2 * --- = 1.41 * SE_sample
\| N \| N \/N


A więc dla zrównoważonej ANOVA mamy SE_diff = 1.41 * SE_sample. Widzisz więc, że wąsy SE_próby są c.a. półtora raza za krótkie.

Jeśli na siebie zachodzą, to różnica < 2*SE_próby < 2*SE_różnicy = 2.82*SE_próby i nie ma podstaw do odrzucenia H0.

Ale jeśli na siebie nie nachodzą, to wiesz jedynie, że różnica > 2*SE_próby, natomiast trudno się "graficznie" zorientować, czy ten odstęp jest > od prawie 3 błędów std. próby.

Czyli SE z próby odpada, lecz jednocześnie ze wzoru natychmiast wynika, że powinieneś zastosować SE różnicy = 1.41*SE_proby i będzie OK. To jest podejście metody LSD, czyli least significant diffrence. I wystarczy znać ten prosty wzór, by narysować wąsy właściwej długości, a nie "walić" z automatu "+-1SE".

Pamiętaj jednak, że LSD nie kontroluje błędu pierwszego rodzaju, dlatego podziel alfę (poziom istotności) przez liczbę prób i na tym oprzej długość wąsów. Pamiętaj jednak, że poprawka Bonferroniego (a' = a/N) jest bardzo konserwatywna i możesz wypaść nie lepiej, niż w następnym punkcie :)

Tak czy siak, upewnij się, że odbiorca Twojego wykresu będzie rozumiał, co te wąsy oznaczają.

* Przedział ufności na zadanym poziomie istotności - te wąsy są z kolei za długie. Otrzymujesz dość konserwatywny test.

CI_próby = qt(prawdop., df) * SE_próby

Modyfikujemy statystykę testową:


diff
----------- > qt ==> diff > qt^2 * SE_sample
qt*SE_sample


Reguła kciuka dla t: qt(0.975, > 15) ~ 2, więc dostaniemy, że różnica > (~2)^2 * SE_proby = ~4*SE_proby. A to oznacza, że jeśli wąsy nie zachodzą na siebie, to różnica między próbami > 4*SE_proby, blisko półtora raza tyle, co potrzeba.

Co to oznacza? Coś dokładnie przeciwnego do przypadku z błędem standardowym próby: że jeśli wąsy nie zachodzą na siebie, bez problemu masz statystycznie istotą różnicę, ale jeśli zachodzą na siebie - to możesz ją mieć, bądź nie mieć.

PS: wybacz ten "ascii art", ale nie chciało mi się tworzyć formuł graf.Ten post został edytowany przez Autora dnia 26.06.18 o godzinie 22:48
Piotr J.

Piotr J. Młodszy analityk

Temat: Wykres słupkowy i wąsy SD, SE i CI. Co wybrać?

Dzięki za pomoc. Bardzo wyczerpujące opracowanie a ja rozumiem teraz co i jak. Niestety promotorka mojej koleżanki kompletnie nic z tego nie zrozumiała i kazała jej wstawić słupki odchylenia standardowego, bo cytuję, tak wszyscy robią a to jest przecież analiza wariancji. W każdym razie ja się czegoś przy okazji nauczyłem. Dzięki jeszcze raz. Pozdrawiam.

Temat: Wykres słupkowy i wąsy SD, SE i CI. Co wybrać?

Piotr J.:
Dzięki za pomoc. Bardzo wyczerpujące opracowanie a ja rozumiem teraz co i jak.

Nie ma sprawy :)
Niestety promotorka mojej koleżanki kompletnie nic z tego nie zrozumiała i kazała jej wstawić słupki odchylenia standardowego, bo cytuję, tak wszyscy robią a to jest przecież analiza wariancji.

Pani promotor mylą się kwantyfikatory szczególne z ogólnymi - nie "wszyscy", tylko "grupa bezrefleksyjnych ignorantów". Koleżanka musi sama podjąć decyzję, czy narazić się pani Promotor-Wszyscy-Tak-Robią.

PS: idąc tym tokiem rozumowania "analiza koszykowa" zapewne zajmuje się badaniem właściwości koszyków, zaś "analiza kanoniczna" to jakieś badania... teologiczne.

PS: to Twój egzamin w końcu, czy koleżanki? ;)Adrian Olszewski edytował(a) ten post dnia 30.09.11 o godzinie 02:32



Wyślij zaproszenie do