Anna Kowalska

Anna Kowalska Student, Szkoła
Wyższa Psychologii
Społecznej w
Warszawie

Temat: założenie o homogeniczności wariancji - proszę o pomoc

czy ktos moze mi objasnic na czym to zalozenie konkretnie polega? tzn. konkretnie na testowaniu podobienstwa ktorych wariancji (wewnatrz- czy miedzygrupowej) bazuje?
dzieki za ew. pomoc

Temat: założenie o homogeniczności wariancji - proszę o pomoc

Anna Kowalska:
czy ktos moze mi objasnic na czym to zalozenie konkretnie polega? tzn. konkretnie na testowaniu podobienstwa ktorych wariancji (wewnatrz- czy miedzygrupowej) bazuje?
dzieki za ew. pomoc

Zakładam, że chodzi Ci o test w rodzaju ANOVA?

Teoria (i niektóre przykłady z życia wzięte) mówi tyle:

Aby porównywać wartości oczekiwane (dla ANOVA, gdzie rozkłady powinny być normalne, estymatorem w.o. są średnie arytmetyczne), musisz mieć podobne rozproszenia wokół średniej w każdej grupie. Innymi słowy, "rozkłady muszą być podobnie szerokie".

A to dlatego, że w teście ANOVA badasz stosunek różnic międzygrupowych do sumarycznej wariancji wewnątrzgrupowej.

Na tę ostatnią "pracuje" każda z grup i każda powinna mieć jednakowy "wkład". Wtedy wiesz, że jeśli są jakieś różnice, to wynikają rzeczywiście z różnic między grupami, a nie dodatkowo z różnic w samych grupach ("w środku, w Czesiu" :) )

Skąd te odchylenia wewnątrzgrupowe? Powodów większego błędu może być wiele: niższa liczebność (ANOVA nie zakłada równolicznych prób), punkty odstające w grupie (tzw. outliers), albo po prostu ta grupa wyraźnie wyróżnia się na tle innych i porównywanie jej z innymi może nie mieć ma większego sensu. Zdarza się także skorelowanie średniej z wariancją.

Podsumowując, odchylenia od średniej mogą powstać przypadkowo (stąd nazwa: SS error), np. poprzez punkty odstające, a także wskutek faktycznych różnic między grupami. To jest ta "właściwa" różnica (stąd nazwa SS effect).

Jeśli błędy wewnątrzgrupowe są równe, to dodając je obliczasz "globalną" wariancję wewnątrzgrupową tak, że każdy błąd wnosi tutaj jednakowy wkład. Gdyby jeden z błędów wewn.grup. wnosił większy wkład, wariancja wewnątrzgrupowa poszłaby w górę, a iloraz obu wariancji (miedzy. do wewn) zmalałby.

A to oznacza, że dla danego poziomu istotności coraz trudniej będzie odrzucić hipotezę zerową o równości średnich! I może się wtedy okazać, że wyższa wariancja jednej z grup "zamaskuje" wyższą średnią innej grupy.

Jeśli badasz na przykład, którym pacjentom (z jakiej grupy rozpoznań) potrzeba podać lek, to grupa z dodatkowymi "zakłocaczami" może zamaskować grupę, która na prawdę tego leku potrzebuje.

Badanie występowania punktów odstających, porównywanie różnych rodzajów średnich (np. uciętej i arytmetycznej), badanie homogeniczności wariancji może pomóc uchronić się przed takimi problemami.

Wygląda nieciekawie, ale na szczęście rzeczywistość jest bardziej różowa. Wykazano, że że statystyka F jest w znacznym stopniu odporna na naruszenia założenia homogeniczności wariancji.

Z jednej strony to fajnie. W razie niedotrzymania tego założenia nie musisz przerzucać się od razu na test nieparametryczny (Kruskala-Wallisa albo Friedmana, zależnie od rodzaju porównań). Pewnie, że fajniej mieć wyniki testu parametrycznego :)

Z drugiej - zaleca się, aby w takiej sytuacji jednak WYKONAĆ analizę nieparametryczną - "dla spokojności". Jeśli ona (a jest słabsza) wykaże różnice (odrzuci H0), a o to właśnie chodziło, to tym lepiej i możesz wrócić do ANOVA (podać jej wyniki).

Niestety, zdarzyło mi się, że K-W nie odrzucił H0, a ANOVA tak. I było to właśnie wtedy, gdy założenie o hom. war. nie było spełnione. Niestety, ponieważ chodziło właśnie o odrzucenie H0, nie mogłem przyjąć jej wyników. Bezpieczniej było założyć, że statystycznie istotnie różnic brak.

No i jeszcze jest kwestia recenzenta Twojej pracy :)
Czy potraktuje doniesienia pana Lindego jako wiążące, czy też nie - i zapyta o analizę homog. war.

Pozdrawiam.Adrian Olszewski edytował(a) ten post dnia 04.01.09 o godzinie 12:31
Rafał R.

Rafał R. Java Developer

Temat: założenie o homogeniczności wariancji - proszę o pomoc

ANOVA nie zakłada równolicznych prób

Wygląda nieciekawie, ale na szczęście rzeczywistość jest bardziej
różowa. Wykazano, że że statystyka F jest w znacznym stopniu
odporna na naruszenia założenia homogeniczności wariancji.

No, nie przesadzajmy, aż tak różowo to nie jest:). Statystyka F jest odporna na "średnie" naruszenie założenia o równości wariancji, ale pod dwoma warunkami:
1. Wszystkie grupy są równoliczne i owa liczebność jest większa od 10,
2. Średnie w grupach nie są skorelowane z wariancjami, o co bardzo łatwo przy obserwacjach odstających (o czym wspomniałeś).

Ponad to, przy równej (lub bardzo niewielkich różnicach) liczności grup, ANOVA jest odporna na niewielkie naruszenie założenia o rozkładzie normalnym.
Reasumując, ANOVA nic nie zakłada o liczności grup, ale ich równoliczność często bardzo ułatwia życie.:)Rafał R. edytował(a) ten post dnia 04.02.09 o godzinie 03:53
Rafał Rendak

Rafał Rendak Badacz Analityk
Psycholog

Temat: założenie o homogeniczności wariancji - proszę o pomoc

Trochę bardziej zrozumiale - przekładając na język polski.

W ANOVIE porównujemy ze sobą klika grup. Jednym z założeń tego testu jest homogeniczność wariancji. W praktyce test homogeniczności wariancji sprawdza, czy wariancje w poszczególnych grupach są podobne do siebie, czy jakaś grupa nie ma zawyżonej wariancji z powodu odstających wyników. Jeżeli są podobne to jest ok, jezeli nie to:
- gdy tylko to założenie jest złamane to ANOVA sobie z tym radzi (jest na złamanie tego założenia odporna)
- gdy dochodzi do tego złamanie innych założeń (np. równolicznośc grup) to wtedy powinno się już wykonać nieparametryczne testy.

Temat: założenie o homogeniczności wariancji - proszę o pomoc

Lub dokonać odpowiednich transformacji zmiennych.

@Rafał
No i właśnie dlatego pisałem o tym, że - niezależnie od optymistycznych uwag wielkich tej nauki - w takiej sytuacji lepiej posiłkować się metodami nieparametrycznymi :)Adrian Olszewski edytował(a) ten post dnia 09.11.11 o godzinie 11:38
Rafał Rendak

Rafał Rendak Badacz Analityk
Psycholog

Temat: założenie o homogeniczności wariancji - proszę o pomoc

Z tym, że jeżeli mamy do czynienia z MANOVA to nieparametryczne testy mogą wiecej szkód zdziałać. Nie dają wogóle żadnych możliwości, więc czasem warto wziąć większą poprawkę na wyniki MANOVY (oczywiscie jeżeli założenia nie są łamane "drastycznie") niż posiłkować się nieprametrycznymi, bo możemy wtedy popełnić błąd jak przy porównaniach wielokrotnych metodą NIR

Temat: założenie o homogeniczności wariancji - proszę o pomoc

A właśnie :)
Jak sobie radzić w przypadku MANOVA w przypadku owych "drastycznych załamań", kiedy testy istotności dla procedury parametrycznej i tak będą mało warte?

Co do porównań wielokrotnych - ostatecznie poprawka Bonferroniego na test t czy Wilcoxona utrzymuje bład w ryzach i widzę, że jest stosowana równie często jak test Tukeya czy Scheffego. Ale nie wiem, jak się to przekłada na "multivariate analysis".

Pamiętam, że w Sheskinie ("Parametric and nonparametric statistical procedures") i Andersonie ("A new method for non-parametric multivariate analysis of variance ") była opisana metoda "analogiczna" do MANOVA tylko "w wydaniu" nieparametrycznym.

EDIT: Znalazłem. To się nazywa "Permutational MANOVA".
Procedura w R: http://hosho.ees.hokudai.ac.jp/~kubo/Rdoc/library/vega...

Literatura:
McArdle, B.H. & M.J. Anderson(2001), Fitting multivariate models to semi-metric distances: a comment on distance-based redundancy analysis
M.J. Anderson(2001), A new method for non-parametric multivariate analysis of variance

Jest też trochę teorii w internecie:
http://works.bepress.com/cgi/viewcontent.cgi?article=1...

Niestety, nie znam tej metody, nie znam jej "kruczków". Stosował ją Pan może?

PS: jak cudownie by było, gdyby powstały jakieś tablice ze wszystkimi odpowiednikami danej metody: zależne/niezależne (o ile ma sens), parametryczne/nieparametryczne...Adrian Olszewski edytował(a) ten post dnia 26.12.09 o godzinie 12:54
Rafał Rendak

Rafał Rendak Badacz Analityk
Psycholog

Temat: założenie o homogeniczności wariancji - proszę o pomoc

Ta metoda wygląda mi jak implementacja optimal scaling (mądrzejszy brat analizy korespondencji) na manove. Hmm, być może jest to dobry pomysł, aby dystansami i centroidami patrzeć na róźnice pomiędzy grupami. Bardzo podobne do MINNISY i PINDIS (tego używam).
Jest to faktycznie inne spojrzenie na porównania. Tyle, że te metody są bardzo redukcyjne, tzn. faktycznie pokazują jakieś zależności, ale należy brać na nie też spore poprawki. Muszę się temu przyjrzeć bardziej

PomocStatystyczna.pl

Następna dyskusja:

Pomoc - SPSS!!!




Wyślij zaproszenie do