Variantieanalyse

Variantieanalyse, een begrip uit de statistiek, vaak aangeduid als ANOVA (van het Engelse Analysis of variance), is een toetsingsprocedure om na te gaan of de populatiegemiddelden van meer dan 2 groepen van elkaar verschillen. Het is in die zin een generalisatie van de t-toets voor twee steekproeven. De term variantieanalyse verwijst naar de uiteenlegging (analyse) van de totale variantie van de gemeten grootheid in twee delen, de variantie binnen de groepen (binnenvariantie) en de variantie tussen de groepen (tussenvariantie) die met elkaar vergeleken worden. De analysetechniek is bedacht door de Britse statisticus en geneticus Ronald Aylmer Fisher in de jaren 1920 - 1930.

Voorbeeld

Een eenvoudig voorbeeld, met drie groepen, zal de gedachtegang verduidelijken.

De vraag is of er tussen drie verschillende groepen wat de lichaamslengte van de personen uit die groepen betreft, systematische verschillen zijn, of dat eventuele verschillen zuiver op toeval berusten. Om dat te onderzoeken worden Friezen, Hollanders en Limburgers met elkaar vergeleken. Is de lichaamslengte in deze groepen gemiddeld genomen dezelfde, of zijn er systematische verschillen? Duidelijk is dat binnen elke groep al verschillen in lengte zijn. Niet alle Hollanders zijn even lang en ook niet alle Friezen en Limburgers. De vraag is of er ook tussen de groepen verschillen zijn. Of bijvoorbeeld de gemiddelde lengte van Friezen anders is dan de gemiddelde lengte van Limburgers. Of de verschillende groepen een bron van variatie zijn. Natuurlijk zullen de gemiddelden van de drie groepen niet precies aan elkaar gelijk zijn. Het gaat erom of deze verschillen tussen de groepen vergelijkbaar zijn met, of veel groter zijn dan de verschillen binnen de groepen. Daartoe worden steekproeven genomen en de totale "variantie", die een maat is voor de variatie, uiteengelegd, geanalyseerd, in twee componenten, de variantie binnen de groepen en de variantie tussen de groepen. Door vergelijken van deze twee componenten kan beslist worden of de groepsgemiddelden als verschillend beschouwd mogen worden of niet.

Het bovenstaande is een voorbeeld van een eenweg-variantieanalyse. Er is sprake van één factor (afkomst), en drie niveaus (de drie groepen, Friezen, Hollanders en Limburgers). Er wordt gekeken naar of de gemiddelde waarden voor de variabele (in dit geval lengte) significant meer verschillen tussen de individuele niveaus van de factor dan dat ze verschillen binnen de individuele niveaus.

Formules

Als model wordt aangenomen dat de lichaamslengte in elk van de I = 3 {\displaystyle I=3} groepen een normale verdeling heeft, met verwachtingswaarden respectievelijk μ 1 ,   μ 2 {\displaystyle \mu _{1},\ \mu _{2}} en μ 3 {\displaystyle \mu _{3}} en voor elke groep dezelfde variantie σ 2 {\displaystyle \sigma ^{2}} .

Het is gebruikelijk om het gemiddelde niveau van de I {\displaystyle I} groepen met μ {\displaystyle \mu } aan te duiden en de afwijkingen daarvan met α i , {\displaystyle \alpha _{i},} dus:

μ i = μ + α i {\displaystyle \mu _{i}=\mu +\alpha _{i}} ,

zodat:

α i = 0 {\displaystyle \sum \alpha _{i}=0}

De systematische verschillen komen dan tot uiting in de α i {\displaystyle \alpha _{i}} 's.

Uit de groepen worden (onafhankelijke, aselecte) steekproeven genomen, voor het gemak alle van dezelfde omvang K {\displaystyle K} :

X 11 , , X 1 K , X 21 , , X 2 K , X 31 , , X 3 K {\displaystyle X_{11},\ldots ,X_{1K},X_{21},\ldots ,X_{2K},X_{31},\ldots ,X_{3K}}

Voor een zo'n element kan men schrijven:

X i k = μ + α i + U i k {\displaystyle X_{ik}=\mu +\alpha _{i}+U_{ik}}

Zo is de lengte van de eerste gemeten Fries:

X 11 = μ + α 1 + U 11 {\displaystyle X_{11}=\mu +\alpha _{1}+U_{11}} ,

dus de som van het algemeen gemiddelde μ {\displaystyle \mu } , de afwijking α 1 {\displaystyle \alpha _{1}} daarvan voor Friezen in het algemeen, en een persoonlijke bijdrage U 11 {\displaystyle U_{11}} . De persoonlijke bijdragen (storingstermen) ( U i j {\displaystyle U_{ij}} ) zijn onderling onafhankelijk en alle N ( 0 , σ 2 ) {\displaystyle N(0,\sigma ^{2})} -verdeeld.

Als voorbeeld worden de volgende eenvoudige, fictieve getallen als uitkomst van de steekproef genomen:

Friezen: 171,181,191
Hollanders: 169,179,189
Limburgers: 161,171,181

De totale kwadratensom S S T {\displaystyle SST} van afwijkingen t.o.v. het algemeen gemiddelde X . . {\displaystyle X..} (het is gebruikelijk om gemiddelden aan te geven door de index waarover gemiddeld is, te vervangen door een stip) kan als volgt uiteengelegd worden:

S S T = ( X i k X . . ) 2 = {\displaystyle SST=\sum (X_{ik}-X..)^{2}=}
= i , k ( X i k X i . + X i . X . . ) 2 = {\displaystyle =\sum _{i,k}(X_{ik}-X_{i}.+X_{i}.-X..)^{2}=}
= i , k ( X i k X i . ) 2 + K i ( X i . X . . ) 2 {\displaystyle =\sum _{i,k}(X_{ik}-X_{i}.)^{2}+K\sum _{i}(X_{i}.-X..)^{2}}

In de steekproef is X . . = 177 {\displaystyle X..=177} , zodat

S S T = 36 + 16 + 196 + 64 + 4 + 144 + 256 + 36 + 16 = 768 {\displaystyle SST=36+16+196+64+4+144+256+36+16=768}

De eerste component,

S S R = i , k ( X i k X i . ) 2 {\displaystyle SSR=\sum _{i,k}(X_{ik}-X_{i}.)^{2}} ,

beschrijft de resterende variatie binnen de groepen als gevolg van de afwijkingen binnen elke groep ten opzichte van het groepsgemiddelde.

De tweede component,

S S A = K i ( X i . X . . ) 2 {\displaystyle SSA=K\sum _{i}(X_{i}.-X..)^{2}} ,

beschrijft de variatie tussen de groepen als gevolg van de afwijkingen van de groepsgemiddelden ten opzichte van het algemeen gemiddelde.

In de steekproef is:

X 1 . = 181 ,   X 2 . = 179 {\displaystyle X_{1}.=181,\ X_{2}.=179} en X 3 . = 171 {\displaystyle X_{3}.=171} ,

zodat

S S R = 600 {\displaystyle SSR=600} en S S A = 168 {\displaystyle SSA=168}

Onder de nulhypothese van geen verschillen geldt voor de verdelingen:

S S R / σ 2 {\displaystyle SSR/\sigma ^{2}}

is chi-kwadraatverdeeld met I ( K 1 ) {\displaystyle I(K-1)} vrijheidsgraden, en

S S A / σ 2 {\displaystyle SSA/\sigma ^{2}}

is chi-kwadraatverdeeld met I 1 {\displaystyle I-1} vrijheidsgraden.

Onder de gemiddelde kwadratensom verstaat men de kwadratensom gedeeld door de bijbehorende vrijheidsgraden:

M S R = S S R / ( I ( K 1 ) ) {\displaystyle MSR=SSR/(I(K-1))}

en

M S A = S S A / ( I 1 ) {\displaystyle MSA=SSA/(I-1)}

In de steekproef: M S A = 168 / 2 = 84 {\displaystyle MSA=168/2=84} en M S E = 600 / 6 = 100 {\displaystyle MSE=600/6=100} .

Als toetsingsgrootheid F {\displaystyle F} neemt men het quotiënt van deze gemiddelde kwadratensommen:

F = M S A / M S R {\displaystyle F=MSA/MSR}

Als de nulhypothese waar is, heeft F {\displaystyle F} een F-verdeling met I 1 {\displaystyle I-1} vrijheidsgraden in de teller en I ( K 1 ) {\displaystyle I(K-1)} in de noemer. Merk op dat de onbekende parameter σ 2 {\displaystyle \sigma ^{2}} bij het delen is weggevallen. Is de nulhypothese niet waar, dan kan men vrij eenvoudig inzien dat F {\displaystyle F} statistisch grotere waarden zal aannemen. De nulhypothese wordt dus verworpen voor grote waarden van F {\displaystyle F} .

In het voorbeeld is dus: F = 84 / 100 = 0 , 84 {\displaystyle F=84/100=0{,}84} . Aangezien F < 1 {\displaystyle F<1} , is de overschrijdingskans p > 0 , 5 {\displaystyle p>0{,}5} ; dus is er geen reden om de nulhypothese te verwerpen.

Tabel

De resultaten van de berekeningen worden meestal weergegeven in een variantieanalysetabel:

factor vrijheidsgraden kwadr.som gem.kwadr.som F {\displaystyle F} p-waarde

groep 2 168 84 0,84 > 0,5
error 6 600 100

totaal 8 768

Dat de steekproef niet significant is, hadden we vrij direct kunnen zien, aangezien binnen de groepen afwijkingen van 10 tov. het groepsgemiddelde voorkomen en de verschillen tussen de groepsgemiddelden niet groter dan 10 zijn.

Als de variatie binnen de groepen als volgt verkleind wordt:

Friezen: 180,181,182
Hollanders: 178,179,180
Limburgers: 170,171,172

blijven de groepsgemiddelden gelijk, en dus is weer:

S S A = 3 ( 16 + 4 + 36 ) = 168 {\displaystyle SSA=3\cdot (16+4+36)=168}

Maar nu is:

S S T = 9 + 16 + 25 + 1 + 4 + 9 + 49 + 36 + 25 = 174 {\displaystyle SST=9+16+25+1+4+9+49+36+25=174}

en

S S E = 6 {\displaystyle SSE=6}

De verschillen tussen de groepen zijn nu veel groter dan binnen de groepen.

De variantieanalysetabel wordt nu:

factor vrijheidsgraden kwadr.som gem.kwadr.som F {\displaystyle F} p-waarde

groep 2 168 84 84 ≈ 0
error 6 6 1

totaal 8 174

Er is dus alle reden om aan te nemen dat de groepsgemiddelden onderling verschillen.

Meerweg-variantieanalyse

Een soortgelijke analyse kan ook gedaan worden met meer factoren. Men spreekt dan van meerweg-variantieanalyse, of naar het aantal beschouwde factoren van bijvoorbeeld drieweg-, vierweg-variantieanalyse. Een complicatie daarbij is dat de factoren elkaar kunnen beïnvloeden, wat aangeduid wordt als interactie. Ook worden met toenemend aantal factoren de formules ingewikkelder en minder overzichtelijk. Een belangrijk praktisch nadeel van veel factoren is de noodzakelijk grote steekproefomvang voor een betrouwbare analyse.

Voorbeeld

Als voorbeeld een tweeweg-variantieanalyse.

In een onderzoek naar de opbrengst van tarwesoorten in relatie met de bodemgesteldheid, worden 4 soorten tarwe vergeleken elk groeiend op 3 grondsoorten. Er zijn dus twee factoren: soort op 4 niveaus en grond op 3 niveaus. De opbrengst X {\displaystyle X} van een tarwe-aar wordt gemodelleerd als:

X i j k = μ + α i + β j + α β i j + U i j k {\displaystyle X_{ijk}=\mu +\alpha _{i}+\beta _{j}+\alpha \beta _{ij}+U_{ijk}}

Daarin is:

X i j k {\displaystyle X_{ijk}} de opbrengst van aar nummer k = 1 , , K {\displaystyle k=1,\ldots ,K} van soort i = 1 , , I {\displaystyle i=1,\ldots ,I} op grond j = 1 , , J {\displaystyle j=1,\ldots ,J}
μ {\displaystyle \mu } de verwachte opbrengst gemiddeld over alle soorten en gronden
α i {\displaystyle \alpha _{i}} de bijdrage aan de opbrengst van soort i {\displaystyle i}
β j {\displaystyle \beta _{j}} de bijdrage aan de opbrengst van grond j {\displaystyle j}
U i j k {\displaystyle U_{ijk}} de eigen specifieke bijdrage van aar k {\displaystyle k} van soort i {\displaystyle i} op grond j {\displaystyle j} ; onderling onafhankelijk en N ( 0 , σ 2 ) {\displaystyle N(0,\sigma ^{2})-} verdeeld verondersteld.

De term

α β i j {\displaystyle \alpha \beta _{ij}}

de zogenaamde interactieterm behoeft nog wat nadere verklaring. Niet altijd neemt men deze op in het model. Als er reden is om aan te nemen dat een bepaalde soort tarwe het beter doet op de ene grondsoort en een andere soort weer beter groeit op een andere grondsoort, is er sprake van interactie tussen de tarwesoort en de grondsoort. Om het effect daarvan in het model te beschrijven, neemt men de bovengenoemde interactieterm op. Het is gebruikelijk deze weer te geven met de symbolen van de interagerende factoren, hier dus α {\displaystyle \alpha } en β {\displaystyle \beta } (dus niet te lezen als het product van beide!)

De analyse van de variantie houdt nu in dat de totale kwadratensom als volgt uiteengelegd wordt (ook hier wordt weer door een · aangegeven dat over de betrokken index gemiddeld is):

S S T = S S A + S S B + S S A B + S S R {\displaystyle SST=SSA+SSB+SSAB+SSR} ,

waarin:

S S T = i j k ( X i j k X . . . ) 2 {\displaystyle SST=\sum _{ijk}(X_{ijk}-X...)^{2}} de totale kwadratensom is
S S R = i j k ( X i j k X i j . ) 2 {\displaystyle SSR=\sum _{ijk}(X_{ijk}-X_{ij}.)^{2}} de kwadratensom van de residuen
S S A B = i j k ( X i j . X i . . X . j . + X . . . ) 2 {\displaystyle SSAB=\sum _{ijk}(X_{ij}.-X_{i}..-X._{j}.+X...)^{2}} de kwadratensom van de interactie
S S A = i j k ( X i . . X . . . ) 2 {\displaystyle SSA=\sum _{ijk}(X_{i}..-X...)^{2}} de kwadratensom van de factor A, "soort"
S S B = i j k ( X . j . X . . . ) 2 {\displaystyle SSB=\sum _{ijk}(X._{j}.-X...)^{2}} de kwadratensom van de factor B, "grond".

Het kan worden bewezen dat de vier verschillende kwadraatsommen waaruit de totale kwadratensom bestaat, onderling onafhankelijk zijn. Elk van de kwadratensommen is, gedeeld door de variantie σ 2 {\displaystyle \sigma ^{2}} van de storingsterm, onder de veronderstelling dat het betreffende effect niet bestaat, χ {\displaystyle \chi } -kwadraatverdeeld, en wel:

S S R / σ 2 χ 2 ( I J ( K 1 ) ) {\displaystyle SSR/\sigma ^{2}\sim \chi ^{2}(IJ(K-1))}
S S A B / σ 2 χ 2 ( ( I 1 ) ( J 1 ) ) {\displaystyle SSAB/\sigma ^{2}\sim \chi ^{2}((I-1)(J-1))}
S S A / σ 2 χ 2 ( I 1 ) {\displaystyle SSA/\sigma ^{2}\sim \chi ^{2}(I-1)}
S S B / σ 2 χ 2 ( J 1 ) {\displaystyle SSB/\sigma ^{2}\sim \chi ^{2}(J-1)}
S S T / σ 2 χ 2 ( I J K 1 ) {\displaystyle SST/\sigma ^{2}\sim \chi ^{2}(IJK-1)}