Spelar skalnivåerna i SPSS någon roll?

En viktig sak att tänka på när man gör statistiska analyser är vilken skalnivå variablerna man använder sig av befinner sig på.

Frukt

Nominalskalor är kategoriseringar. Variabeln ”Frukt” är till exempel en nominalskala – det finns bananer, päron, äpplen och så vidare. De är olika, men ingen är mer ”frukt” än någon annan. De går inte att rangordna.

Ordinalskalor är kategoriseringar som dessutom har en inbyggd rangordning. En skala som har alternativen ”Mycket bra” ”Ganska bra” ”Varken bra eller dåligt” och så vidare är till exempel en ordinalskala. ”Mycket bra” är bättre än ”Ganska bra”, men det går inte att avgöra om avståndet mellan ”Mycket bra” och ”Ganska bra” är lika stort som avståndet mellan ”Ganska bra” och ”Varken bra eller dåligt”. Det kallas att skalan inte har ”ekvidistans”.

Intervallskalor är kategoriseringar, har rangordning, och ekvidistans. Centimeter är en sådan skala. 5 cm är mer än 4 cm, och avståndet mellan 5 och 4 cm är lika stort som avståndet mellan 4 och 3 cm.

Vilka analystekniker man kan använda sig av beror på vilken skalnivå variabeln befinner sig på. Man kan till exempel egentligen bara räkna medelvärden på intervallskalor. Det är ju befängt att försöka räkna fram ett medelvärde på två bananer, ett päron och en apelsin. Väldigt många analystekniker bygger på att man räknar medelvärden (till exempel t-test, ANOVA, regressionsanalyser), vilket gör att den beroende variabeln måste vara på intervallskalenivå. Det är dock inte helt ovanligt att man av bekvämlighetsskäl gör sådana analyser på ordinalskalor ibland också, men det är alltså inte statistiskt korrekt.

I SPSS kan man ställa in vilken skalnivå variablerna befinner sig på. Alternativet ”Scale” motsvarar intervallskala. De inställningarna påverkar däremot inte analyserna. SPSS protesterar inte om du använder en nominalskala som beroende variabel i en regressionsanalys. Det måste man hålla koll på själv.

Det enda fallet där det spelar roll, vad jag vet, är när man gör grafer. Då är det viktigt att inställningarna är de rätta.

Guide: Regressionsdiagnostik – heteroskedasticitet, del 1

I detta inlägg ska vi gå igenom problem med heteroskedasticitet (och inte bara hur svårt det är att stava och uttala). Heteroskedasticitet är ett av de vanligare problemen som kan uppstå i, och försvåra tolkningen av, en regressionsanalys. Heteroskedasticitet innebär i korthet att variansen hos feltermerna inte är konstant; det vill säga att, när värdet på oberoende variabel (x) ökar, så minskar eller /ökar den oförklarade variationen i beroende variabel (y). Är spridningen jämn råder motsatsen homoskedasticitet.

Fortsätt läsa ”Guide: Regressionsdiagnostik – heteroskedasticitet, del 1”