I den här guiden ska vi:
- Gå igenom vilka delar som kan finnas med i en redovisning av statistiska resultat
- Se exempel på olika redovisningstekniker
Fortsätt läsa ”Guide: En (i mitt tycke) bra resultatredovisning”
I den här guiden ska vi:
Fortsätt läsa ”Guide: En (i mitt tycke) bra resultatredovisning”
I det här inlägget ska vi:
• Gå igenom när det kan vara bra att göra ett index
• Vända variabler som ska ingå i indexet
• Normera variabler som ska ingå i indexet
• Testa indexets reliabilitet med hjälp av Cronbach’s Alpha
Fortsätt läsa ”Guide: Konstruera ett index från flera variabler”
Q: Jag har data på temperaturen i två grupper som jag vill se om de är signifikant skilda från varandra. Jag har beräknat ett konfidensintervall (95%) och det överlappar. När jag gör ett t-test ger det dock att p<0,05 dvs att medelvärdena är signifikant skilda från varandra. Bör det inte ge samma sak, dvs att de ej överlappar och t-test ger p<0,05?
A: Mätningar av två saker kan ha överlappande konfidensintervall och ändå vara signifikant skilda. Tänk dig att det bara är ändarna som överlappar, som på bilden. Vi kan inte med 95% säkerhet säga att det röda värdet inte är är noll, och vi kan inte heller vara 95% säkra på att det gröna värdet inte är noll.
Däremot är det ganska sannolikt att det röda värdet faktiskt är större än det gröna. Anledningen är att det finns en viss osäkerhet i skattningen av båda värdena. För att det röda värdet inte ska vara större än det gröna så måste det alltså vara i den absoluta botten på konfidensintervallet, medan det gröna värdet samtidigt ska vara i den absoluta toppen på sitt konfidensintervall.
Det kanske kan hjälpa att tänka sig att man singlar två mynt. Sannolikheten för att det ska bli krona är 50% för båda mynten, men bara 25% för att båda ska bli det samtidigt.
Alltså: det är inte konstigt. Det är själva testet av skillnaden man framförallt ska lita på, inte konfidensintervallen, eftersom det inte är perfekt precision i TVÅ mätningar. Om du istället vill se om ett värde är signifikant skilt från noll så kommer det passa perfekt med konfidensintervallet – om konfidensintervallet överlappar noll är inte värdet signifikant skilt från noll, eftersom vi så att säga mäter värdet noll med perfekt precision.
I den här guiden ska vi gå igenom:
Fortsätt läsa ”Guide: Regressionsanalys med kurvlinjära effekter”
I den här guiden ska vi gå igenom hur man:
X Skapar bivariata korstabeller
X Skiljer på rad- och kolumnprocent
X Signifikanstestar ett samband i en korstabell
X Tar fram ett mått på sambandets styrka
X Kontrollerar sambandet för ytterligare en variabel i en trivariat korstabell
X Konstruerar en effektparametertabell för den trivariata tabellen
I den här guiden ska vi gå igenom:
I den här guiden ska vi gå igenom:
Q: Jag skulle vilja jämföra om två variabler (scale-nivå) är signifikant olika från varandra, det handlar om en grupp, ett tillfälle, två variabler. Jag undrar dels hur man gör detta med normalfördelade variabler och dels med icke normalfördelade variabler.
A: För normalfördelade variabler ska du då använda dig av ett så kallat ”Paired samples t-test”. Du hittar det under ”Analyze->Compare means->Paired samples t-test”. Du klickar där bara i de två variabler du vill jämföra. SPSS tar sedan fram medelvärdet på dessa båda variabler och undersöker om skillnaden i medelvärde är signifikant skilt från 0, det vill säga om vi kan säga att det finns en signifikant skillnad mellan grupperna.
Det intressanta att titta på är alltså medelvärdena i den första tabellen du får ut ”Paired samples statistics”, kolumnen ”Mean”. För att se om de är signifikant åtskilda kollar du i tabellen ”Paired samples test”, kolumnen ”Sig. (2-tailed)”. Om signifikansvärdet understiger .05 så är medelvärdena olika på 95 procents säkerhetsnivå.
Variablerna måste dock vara normalfördelade, och bör ju rimligtvis också vara mätta på samma skala. Om du jämför en variabel som kan ha värdena 0-5 och en annan som kan ha värdena 0-50 så är det inte så konstigt om medelvärdena är olika.
Om data inte är normalfördelade behöver du använda dig av något icke-parametriskt test. Icke-parametrisk statistik, måste jag erkänna, är inte min starka sida. Men vad jag förstår så skulle ”Wilcoxon Signed-Rank test” vara lämpligt. Du hittar det, och andra alternativ, under ”Analyze->Nonparametric tests->Related samples”.
I det här inlägget ska vi:
Q: Jag undrar hur det här med instrument variabler fungerar?
A: Instrumentvariabler använder man när det finns risk för omvänd kausalitet. Ett klassiskt exempel är ekonomisk tillväxt och inbördeskrig. Man vill undersöka om ekonomisk tillväxt minskar risken för inbördeskrig, men det är också rimligt att tro att inbördeskrig minskar den ekonomiska tillväxten. Om vi då undersöker korrelationen mellan de två kommer vi inte veta vad som orsakar vad.
Genom att hitta en variabel som kan tänkas orsaka ekonomisk tillväxt men inte inbördeskrig kan vi komma runt problemet. I länder där ekonomin bygger på jordbruk borde rimligtvis mängden regn påverka den ekonomiska tillväxten. Samtidigt så borde inte regn påverka risken för inbördeskrig, och inbördeskrig påverkar definitivt inte hur mycket det regnar.
Om vi då hittar ett samband mellan hur mycket det regnar i ett land och risken för inbördeskrig så kan man då dra slutsatsen att det måste vara så att regnet har gjort att den ekonomiska tillväxten ökat, vilket minskat risken för inbördeskrig. Det kan ju inet ha gått åt andra hållet.
Det här exemplet kan man läsa om i en berömd artikel av Miguel, Satyanath & Sergenti (2004) i tidskriften Journal of Political Economy: Economic Shocks and Civil Conflict: An Instrumental Variables Approach.
Statistiskt gör man det här I två steg. Först undersöker man effekten av regn på ekonomisk tillväxt. Därefter använder man regnnivån för att predicera värden av ekonomisk tillväxt. Därefter använder man de predicerade värdena av ekonomisk tillväxt som oberoende variabel i en ny regression där inbördeskrig är den beroende variabeln. Detta kallas Two Stage Least Squares. I SPSS hittar du det under ”Analyze->Regression->2-Stage Least Squares”. Du skriver där in din beroende variabel, din oberoende variabel och din instrumentvariabel (motsvarande regn).