Statistik och tolkande av studier

Hur du tolkar enklare statistik i vetenskapliga studier

Jag håller just nu på att läsa in en master i sport science nere i Lund och i samband med den utbildningen så är det mycket läsande av studier. En stor del i att kunna läsa och förstå studier på ett bra sätt ligger i att kunna statistik. Man behöver inte vara någon mästare för att förstå det mesta men grunderna inom statistik och till viss del sannolikhetslära är väldigt bra att ha.

Med tanke på att det är väldigt många i Sverige som endast har kanske matte A och matte B från gymnasiet så är det dock något som brister hos väldigt många. Även inom hälsa, medicin och idrott där det finns många som inte har läst mer matte än så. Till exempel så kan du börja läsa till både fysioterapeut/sjukgymnast och dietist utan mer än matte B som förkunskap.

Jag är inte direkt ovan vid att läsa studier och jag har ju även massor av extra matematikstudier från min civilingenjörsutbildning men det är andra på utbildningen som inte har samma grund eller som arbetat praktiskt i ett par år och då glömt bort lite av baskunskaperna så på senare tid har jag fått hjälpa till att förklara en hel del av begreppen och termerna som används i de enklare formerna av studierna. Då jag har det färskt i minnet och även fått arbeta lite på det pedagogiska att få andra att förstå så tänkte jag att det kunde vara läge att även skriva ett inlägg kring det med.

När Nicklas läste igenom det här inlägget innan publicering så adderade han också ett eget stycke kring absolut och relativ risk. Så den delen är skriven av honom. Det kan nog bli lite förvirrande när vi båda använder jag men men… 🙂

Syftet med statistik

Innan jag börjar med själva innehållet tänkte jag snabbt bara berätta varför statistik är nödvändigt. Det enda sättet att med 100 procent säkerhet veta något om en hel population är att verkligen testa en hel population. Så om du skulle vilja veta hur många skalliga människor det finns i Sverige så måste du verkligen titta på hårväxten på precis alla svenskar.

Det samma gäller om du skulle vilja veta hur bra ett visst träningsprogram fungerar i snitt för en slumpmässig svensk. Vill du istället med 100 procent säkerhet veta hur en viss medicin påverkar diabetiker så hade du behövt testa medicinen på precis alla diabetiker i hela världen. Det här faller givetvist på sin egna orimlighet. Om du till exempel vill testa en nyframtagen medicin så kan du ju inte bara låta alla människor som eventuellt skulle kunna få nytta av medicinen testa den.

Det här här som statistik kommer in i bilden. Med hjälp av statistik så kan vi använda oss av mindre studier på några personer och göra generella antaganden för hur det vi studerat skulle påverka alla liknande personer. Du hade till exempel kunnat studera hårväxten hos 1000 personer och fått ett medelvärde som troligen varit väldigt nära det faktiska värdet för alla svenskar. Du skulle också kunna utföra en en studie på ditt träningsprogram på kanske 100 personer och fått en ganska bra bild av hur träningsprogrammet skulle fungera för alla svenskar.

En konsekvens av att vi använder oss av statistik för att dra slutsatser om en hel befolkning från en mindre del av befolkningen är att vi alltid kommer prata om sannolikheter. Studier kommer fram till resultat som med en viss procents säkerhet stämmer för hela befolkningen om du skulle gjort precis samma sak med alla dem.

Statistik hjälper oss alltså att räkna ut sannolikheten att det vi visat fungerar för en viss grupp också gäller för alla andra. Utan statistik hade med andra ord i vi människor varit mer eller mindre körda.

Men statistik kan också missbrukas, både medvetet och omedvetet. Om du inte kan tolka statistik på rätt sätt ökar risken markant att du drar felaktiga slutsatser från en studie och det du tror kommer fungera för resten av samma population kan istället vara totalt verkningslöst, eller till och med göra skada.

Så låt oss därför titta lite på de allra vanligaste termerna som dyker upp kring statistik.

Medelvärde och varians

De allra vanligaste värdena som anges i studier är medelvärde och varians. Tillsammans ger dessa värden information om vilka förändringar som skett samt hur stor skillnaden är i resultat mellan olika försökspersoner eller försökstillfällen.

Medelvärdet är nog det som de allra flesta känner till. Det berättar hur en grupp är i snitt. Om du har 10 personer där 5 stycken är 20 år gamla och 5 stycken är 30 år gamla så blir medelvärdet 25 år. Medelvärdet räknas enkelt ut genom att du adderar ihop alla värden för alla försök eller mätningar och sen delar du det värdet med antalet försök/mätningar.

Om det är en studie som pågår över tid så får du oftast veta medelvärdet både före och efter studietiden. Om till exempel du tittar på människors vikt så kan du få veta att BMI var 22 när studien började och sen 10 år senare var BMI 25 istället.

Medelvärden är dock just det, medelvärden. Ett medelvärde berättar däremot ingenting alls om hur stor skillnaden är mellan de olika försöken/mätningarna. Om vi återgår till exemplet med ålder så hade du också kunnat få 25 år som medelålder om du tagit 5 stycken 10 åringar och 5 stycken 40 åringar. Fast den gruppen hade sett väldigt annorlunda ut än den tidigare gruppen om du faktiskt tittat på dem.

Så även om medelvärde oftast är intressant så är det långt ifrån komplett information. Det är här som varians kommer in i bilden. Variansen är ett mått på hur stor spridningen är inom en grupp. I grupperna med ålder här ovanför så hade alltså gruppen med 10 och 40 åringar haft en större varians än gruppen med 20 och 30 åringar.

Standardavvikelse och konfidensintervall

Väldigt närbesläktat med variansen är standardavvikelsen och konfidensintervall. Rent matematiskt så räknar man ut standardavvikelsen genom att ta roten ur variansen. Så även om varians och standardavvikelse inte är samma sak så ger de dig egentligen samma information. Ett högt värde innebär att spridningen mellan de olika testvärdena är större.

Här under har du ett exempel på hur variansen/standardavvikelsen påverkar utseendet på en normalfördelning. Medelvärdet är det samma i alla de här kurvorna men variansen skiljer sig olika mycket mycket.

Trots samma medelvärde kan olika kurvor se väldigt olika ut
Kurvorna i de tre diagrammen har alla samma medelvärden men variansen/standardavvikelsen är väldigt olika.

Konfidensintervall är också en vanlig term som du kan stöta på. Den berättar helt enkelt med vilken säkerhet som du kan säga att det ”verkliga” medelvärdet ligger inom en viss intervall. Om du säger att konfidensintervallet är mellan 5-8 så säger du att du med en viss bestämd procents säkerhet kan säga att värdet alltid kommer att ligga mellan dessa värden även om du skulle utföra en oändlig massa fler test/försök.

Det allra vanligaste är att man använder sig av konfidensintervallen 95 procent. Det man då säger är att man med 95 procent säkerhet kan säga att det verkliga medelvärdet ligger någonstans inom det uttryckta spannet.

Konfidensintervallet anges ofta i studier där man räknat på relativ risk mellan två olika saker. Om du till exempel tittar på hur stor mortalitetsrisken är för människor som motionerar jämfört med människor som inte gör det så anges risken för gruppen som inte motionerar ofta som 1 och den andra gruppen får då en relativ risk, typ 0,7. I det här fallet får du också många gånger ett konfidensintervall på följande vis 0,7 (0,43-0,89). Det är värdena i parentesen som är konfidensintervallet och om det värdet inte ”täcker in” värdet 1 så innebär det att skillnaden är statistiskt signifikant.

Konfidensintervallet för en uträknad standardavvikelse förändras med antalet försökspersoner
Konfidensintervallet för en uträknad standardavvikelse förändras med antalet försökspersoner

Konfidensintervall är något som måste räknas ut i de flesta studier. Om du verkligen vet att du tittar på en normalfördelning och du har väldigt många försökspersoner så kan du dock uppskatta konfidensintervallet med 95 procent säkerhet genom att ta plus minus två standardavvikelser.

Den här uppskattningen fungerar dock inte alls om du har en mindre studie eftersom den standardavvikelse som räknas ut i studien inte behöver representera den verkliga standardavvikelsen om du testat alla människor. Tabellen här till höger visar konfidensintervallet för en uträknad standardavvikelse beroende på antalet försökspersoner. Som du kan se är en uträknad standardavvikelse först riktigt tillförlitlig när du kommer upp till kanske 500 försökspersoner.

Antagandet om normalfördelning

Inom kost, träning och nutrition och de flesta andra studier jag har läst antar man oftast att de utfall man kommer få kommer att kunna liknas vid en normalfördelning. Med normalfördelning menas just att du får ett bestämt medelvärde där de flesta värdena hamnar och efter det så får du en spridning åt båda hållen. Om du ritar upp en kurva med de här värdena så får du ett resultat som ser ut som en kulle (mer korrekta namnet är bellkurva).

En bellkurva som visar på en normalfördelning
En kurva som representerar en normalfördelning. Även kallad bellkurva

Det mesta som har med oss människor att göra följer en kurva av den här typen. Allt ifrån IQ där toppen ligger omkring 100 till längd där toppen för män ligger omkring 180 cm nuförtiden. Även när människor börjar träna så följer deras resultat den här typen av distribution. Här har du ett exempel från en studie jag skrivit om här tidigare, Gener och styrketräning – Hur mycket styr generna dina resultat.

Skillnad i resultat på muskelvolymen efter 12 veckors bicepsträning
Skillnad i resultat på muskelvolymen efter 12 veckors bicepsträning. De blå staplarna representerar män och de röda kvinnor. Fördelningen är normalfördelad och ser ut som en bellkurva

Att alltid anta en normalfördelning är inte 100 procent korrekt men felen som kan uppstå är vanligen ganska små och även när en fördelning egentligen inte är enligt en normalfördelning så fungerar ändå en uppskattning enligt en normalfördelning vanligen bra.

Sätta in standardavvikelsen i en bellkurva

Bellkurvorna är ett väldigt bra verktyg för att synliggöra även flera andra vanliga viktiga termer inom statistik. Jag berättade aldrig hur man räknar ut variansen och därmed inte heller hur du får fram standardavvikelsen om du inte vet variansen men det gör inte så mycket. Vill du veta hur själva uträkningen går till så hittar du det utan problem via google.

Det som är intressant är dock att själva uträkningen innebär att du kan sätta in standardavvikelsen i en bellkurva på ett bestämt sätt. Hur det går till ser du i grafen här under.

Normalfördelning med standardavvikelser
Normalfördelning med standardavvikelser

I det här diagrammet kan du se en bellkurva med ett medelvärde markerat ut med tecknet µ. Åt båda hållen kan du sen med jämna mellan rum se en siffra med tecknet ? efter. Det här tecknet, ?, står för en standardavvikelse. Standardavvikelse förkortas också ofta med SD.

Så när du ser en studie där det står något i stil med 10±3 så innebär det att µ=10 och ?=3. Du har alltså ett medelvärde på 10 och en standardavvikelse på 3. Inom en standardavvikelse åt båda hållen kommer 68 procent av alla resultat att hamna rent statistiskt.

Att bara fånga in 68 procent är dock oftast inget som är särskilt intressant utan det värde som används mycket oftare är två standardavvikelser. Inom detta värde hamnar nämligen hela 95,45 procent. Detta är väldigt nära relaterat till p<0,05 som du också hittar väldigt ofta i studier vilket vi nu ska titta vidare på.

Statistisk signifikans, p<0,05

Det är extremt vanligt att höra uttryck så som ”signifikant bättre”, ”signifikant sämre” eller liknande när man läser om en studie. Dessa uttryck kommer från en statistisk uträkning som ofta är väldigt missförstådd av både lekmän och de som egentligen verkligen borde veta bättre.

Det som statistisk signifikans, p<0,05, egentligen säger är bara en sak. Den säger att bellkurvan för en försöksgrupp skiljer sig så mycket åt från bellkurvan för en annan grupp så att de rent statistiskt inte är sannolika att komma från samma grupp. För att få svaret på denna frågan så måste du i princip alltid faktiskt räkna på det. Det finns tyvärr inget enkelt sett att se detta bara från medelvärde och standarddeviation. Undantaget är om de två värdena skiljer sig helt från varandra. Alltså om medelvärdet plus två standarddeviationer för det enda testet är mindre än medelvärdet minus två standarddeviationer för det andra testet. I det här fallet har du nämligen två kurvor som i princip inte överlappar varandra alls.

I andra fall där kurvorna faktiskt överlappar varandra så måste det dock till uträkningar för att kunna säga något kring om värdena sannolikt verkligen skiljer sig åt. Med många försökspersoner kan kurvorna överlappar varandra väldigt mycket .

Det som svaret säger dig är att sannolikheten är 95 procent eller högre att de två värdena faktiskt skiljer sig åt och att en uppmätt skillnad inte beror på slumpen. Eller med andra ord, att kurvorna verkligen skulle skilja sig åt om du hade gjort om försöken igen.

Betydelsen av många försökspersoner

Det är vid signifikanstesterna som betydelsen av många försökspersoner kommer in i bilden. Ju fler försökspersoner du har i en studie desto lättare är det att se små skillnader mellan olika grupper.

Om du har för få försökspersoner i en studie så ökar risken att du ska missa en skillnad som faktiskt finns där. Den här risken ökar ytterligare om variansen mellan grupperna är stor. Samma bild som jag använde tidigare för att visa på hur variansen påverkar utseendet på en normalfördelning kan användas även för att visa på detta. Utan att kunna någon matte och utan att räkna på det så är det inte svårt att förstå att det är omöjligt att avgöra om ett test eller en försöksperson kommer från den röda eller blå kurvan i det översta diagrammet i bilden här under. Dessa kurvor överlappar varandra så mycket så om du får 5 slumpmässig värden från en av de två grupperna så är det väldigt svårt att bara genom att titta på siffrorna att avgöra vilken testgrupp/försök värdena kom ifrån.

Om variansen istället är väldigt liten och du får 5 resultat från en grupp där fördelningarna är som grafen längst nere så kan du med ganska stor säkerhet säga från vilken av testgrupperna som värdet kommer ifrån. Där är ett litet överlapp men det är väldigt litet och sannolikt kommer de allra flesta av de värden du få att tydligt tillhöra antingen den blå eller den röda fördelningen.

Trots samma medelvärde kan olika kurvor se väldigt olika ut
Kurvorna i de tre diagrammen har alla samma medelvärden men variansen/standardavvikelsen är väldigt olika. En stor varians gör det svårare att få en statistisk skillnad mellan grupperna.

När kurvorna inte skiljer sig väldigt tydligt åt utan överlappar varandra lite så kommer du alltså behöva använda dig av statistiska uträkningar för att avgöra om det finns en säker skillnad. Och hur bra dessa uträkningar fungerar är väldigt beroende av hur många försökspersoner du har i din studie.

Relativa och absoluta riskmått – vad betyder egentligen ”ökad/minskad risk”?

När det gäller att tolka studiers resultat kan jag (Nicklas) tycka att den här delen är viktigast: att tolka resultaten som avser risk.

Först har vi absolut risk och absolut riskskillnad. Detta betyder kort och gott sannolikheten för ett utfall för en person i en given population. En absolut risk på 0.3 i en population på 1000 personer innebär att utfallet drabbar 300 av 1000. Detta är givetvis inte 100-procentigt vilket du nu vet med avseende på variansen och den statistiska signifikansens trubbighet men det duger som arbetshypotes. Om vi dessutom skulle ha en till kontrollgrupp på 1000 personer, exempelvis som en del i ett läkemedelsexperiment, så beräknas absolut riskskillnad genom att ta risken i A minus risken i B kort och gott.

Ett vanligt mått som du dock oftare stöter på i både interventionsstudier och inom epidemiologi är något som kallas relativ risk , även kallat riskratio eller incidensratio. På engelska är det relative risk, risk ration och incidense ration med förkortningarna RR, RR och IR som du kan komma att stöta på. Detta räknas ut genom att ta incidensen i en grupp dividerat med incidensen i en annan.

Ett annat mått, som jag också behandlar här, är så kallad oddskvot. På engelska heter detta Odds ratio och du ser det förkortat som OR. Du kan även stöta på hazard ratio förkortat som HR. I dessa kalkylerar man istället oddsen för ett givet utfall i en så kallad exponerad grupp och jämför med oddsen en oexponerad.

Exponerad och oexponerad är fackspråk i det här fallet och kan exempelvis åsyfta rökare/icke rökare eller läkemedel/placebo men det kan också bestå av grupper som helt enkelt delats in i kategorier baserat på dos, typ proteinintag på >20 procent mot <20 procent. Skall man vara petig är ju förstås båda grupperna ”exponerade för proteinintag” men terminologin är ändå sådan.

I tabellen här här lite längre ner har jag tagit en fiktiv arbetsplats som exempel. Det är ett yrke där man kan jobba mycket hemma om man vill och vi är därför intresserade av hur insjuknandet i förkylning skiljer sig mellan de som jobbar mycket hemma och de som jobbar mycket på plats.

Vi skapar tre kategorier: 1) de som är på plats fysiskt >30 timmar per vecka, 2) de som är på plats fysiskt 21-29 timmar per vecka och 3) de som  är på plats fysiskt <20 timmar per vecka. I just denna analys jämför vi grupp 1) och 3) där 1) får rollen som exponerad och 3) som oexponerad.

Denna tabell illustrerar ett fiktivt dataset med antal förkylda arbetare på en arbetsplats där exponerad i sammanhanget gäller det som är på plats fysiskt 30 timmar eller mer i veckan jämfört med 20 timmar eller mindre i veckan.
Denna tabell illustrerar ett fiktivt dataset med antal förkylda arbetare på en arbetsplats där exponerad i sammanhanget gäller det som är på plats fysiskt 30 timmar eller mer i veckan jämfört med 20 timmar eller mindre i veckan.

Den absoluta risken i den exponerade gruppen för att bli förkyld är här cirka 0.45 (39/86), alltså 45 procent.  För den oexponerade gruppen är samma siffra cirka 0.29 (18/63), alltså 29 procent. Tar vi och subtraherar 29 från 45 får vi alltså 16. Vi kan då dra slutsatsen att det är 16 procents högre absolut risk att bli förkyld om man är på plats fysiskt vid vår fiktiva arbetsplats >30 timmar per vecka jämfört med <20 timmar per vecka.

Vi antar att detta är en prospektiv kohortstudie över hela vinterhalvåret. Om vi tittar på RR så beräknar vi istället 0.45/0.29 = cirka 1.55. Detta betyder att den relativa riskökningen är 55 procent för den ”exponerade” gruppen (på plats fysiskt >30 timmar per vecka). Allt över 1 innebär alltså en överrisk och allting under 1 ger en motsvarande underrisk. Dock är det så, och detta gäller även för de mått som beräknar odds, att riskökningssiffran går från 1 till det oändliga men riskminskningssiffran bara från 1 till 0. Jag ska inte gå in mer på hur man löser det här men det kan vara värt att veta. Ska du någon gång kalkylera relativa riskmått eller oddskvoter så räkna åt ”båda hållen” för att se om siffrorna blir mycket större för riskökning än riskminskning.

Låt oss nu anta att detta är en tvärsnittsstudie där vi kollar förkylningsfrekvensen just nu (siffrorna känns plötsligt lite osannolika men jag orkar inte göra två tabeller. :)). För oddskvoter beräknar vi istället  följande: Först 0.45/(1-0.45) samt 0.29/(1-0.29) och får då oddsen 0.89 respektive 0.41. Vi har alltså räknat ut respektive odds för insjuknande hos Exponerad respektive Oexponerad. Nu dividerar vi de två separata oddsen med varandra: 0.89/0.41 = cirka 2.2. OR/HR är därmed 2.2 för den ”exponerade” gruppen jämfört med den ”oexponerade.

Nu har jag gjort ett dataset som kanske inte är helt sannolikt i praktiken som sagt. Men två saker bör du ha med dig: 1) RR/IR, OR/HR och absolut riskskillnad kommer alltid visa resultat i samma riktning, alltså kommer aldrig ett relativt riskmått visa på en riskökning samtidigt som de absoluta talen visar på en riskminskning och vice versa. 2) Siffrorna kan dock skilja markant i storlek och hur detta presenteras i den givna studien måste därför tolkas med försiktighet.

Så läser du om att en livsstilsfaktor ”ökar risken för hjärtinfarkt med 40 procent” exempelvis så bör du titta efter vad de har haft för resultatredovisning. Sannolikheten är mycket stor att det då är relativa mått, det är det nästan alltid. Då bör du titta närmare på absolut incidens/prevalens i de jämförda grupperna och se mer noggrant hur det fördelar sig där. Det kan ställa resultatet i ett helt nytt ljus. Dessutom är det ju naturligtvis så att du även bör kolla konfidensintervall och signifikansen. Men det har du ju redan lärt dig. 🙂

Statistiskt signifikant vs praktiskt intressant

Att ha väldigt många försökspersoner innebär alltså att dina chanser ökar för att du ska kunna finna faktiska skillnader. Det här är dock inte bara av godo. För ju mer försökspersoner du har och desto fler mindre skillnader du kan hitta desto större blir risken att du hittar resultat som i praktiken inte spelar någon roll.

Det kan ju låta imponerande när något säger ”statiskt bättre resultat i x antal studier” men om den faktiskt skillnaden bara är någon enstaka procent så spelar det inte någon större roll. Om du till exempel jämför någon enkel behandling mot en fotledsskada mot en väldigt dyr och avancerad behandling och finner att den dyra och mer avancerade förbättrar rehabiliteringstiden med 10 procent så är det inte praktiskt intressant för 99,9 procent av befolkningen. Det är helt enkelt inte värt de extra resurserna för att få någon fullt frisk på 45 dagar istället 50.

Många saker som alltså inte kanske egentligen är bäst kan ändå vara fullt tillräckliga och fungera alldeles ypperligt även om det finns något annat som visat sig vara statistiskt signifikant bättre. Rent praktiskt så är alltså den statistiska skillnaden ointressant.

Det här är viktigt att tänka på för många då det är lätt att förväxla ett ”signifikant resultat” med ”praktiskt viktigt resultat”.

Summering

Det här var en kort och ganska ordentligt förenklad förklaring av några av de vanliga termerna kring statistik som du stöter på i studier kring träning, kost och hälsa. I själva verket är det hela mer komplicerat men med kunskapen jag tagit upp här så kommer du att få en liten bättre inblick i vad resultaten från en studie verkligen säger.

Det viktigaste för dig att ta med tycker jag är:

  • Att ordet statistiskt signifikant inte säger någonting om hur praktiskt intressant studiens resultat faktiskt är. Det enda som  termen säger är att du fått två resultat som med en viss säkerhet skiljer sig åt på något sätt. Viss säkerhet är vanligt 95 procent vilket representeras med p<0,05
  • Ett sätt för dig att titta på hur intressant ett resultat faktiskt är är genom att titta på förändringen i medelvärde från före och efter för att helt enkelt avgöra om det är intressant rent praktiskt.
  • Varians eller standardavvikelse är också väldigt intressant att titta på då det berättar om hur stor skillnaden är i resultat för olika personer. Om en studie visat på bra resultat i medeltal för en viss intervention men variansen är väldigt hög så innebär det att vissa personer svarar väldigt bra medan andra inte alls får samma resultat. Detta är viktigt då det berättar för dig att om du testar det som undersökts själv eller testar det på någon annan så kan dina resultat skilja sig en hel del från person till person.
  • Tänk på skillnaderna mellan absolut risk och relativ risk. Om risken att du ska åka ut för något är 0,005 procent så spelar det inte särskilt stor roll om risken dubblas till 0,01 procent. Den är fortfarande väldigt låg och det finns troligen mycket annat som du bör fokusera på att förändra i din vardag om du vill minimera risker.

21 thoughts on “Statistik och tolkande av studier

  1. Bra! Din koppling till vetenskapliga rön, tydliga referenser, logiska och underbyggda resonemang, och en fin känsla för ”rätt och fel”/”sant och falskt” gör att traningslara.se för mig är klart bäst.

    Pluspoäng för att belysa vikten av praktisk signifikans. Lätt att bli ”för mekanisk” och bara titta på siffror och signifikansnivåer.

    Viktigt är också användningen av hypoteser (+ type 1 och type 2 errors: http://en.wikipedia.org/wiki/Type_I_and_type_II_errors), samt vetskapen om att bara leta efter signifikanta skillnader i ett datamaterial kan vara riskfyllt. Beroende på signifikansnivå kommer man förr eller senare hitta en signifikant skillnad om man utför tillräckligt många tester (se Bonferroni: http://en.wikipedia.org/wiki/Bonferroni_correction)

  2. Några reflektioner kring inlägget (även om ni själva säger att det är en ”ganska ordentligt förenklad förklaring”):

    Jag och andra diskuterade, precis som Anders ovan, tolkningen av p-värden i kommentarerna till Tränastyrka-inlägget som länkar hit. Det är samma med konfidensintervall: beräknar man 95-procentigt KI med ett stort antal stickprov kommer man att få med populationsmedelvärdet i 95 procent av fallen, men man behöver inte vara berättigad att vara 95 procent säker på att ett intervall man fått innehåller detta.

    Incidens syftar i alla fall ofta på ”incidence rate”, och det är ett frekvensmått, antalet fall i relation till exponeringstid, inte en risk/sannolikhet, även om risk över tid kan beräknas utifrån incidensen. Hazardkvot brukar väl innebära kvot mellan två ”hazard rates”, och det hör då mer ihop med incidens än odds; hazard rate är den ”ögonblickliga frekvensen”, som kan variera över tid när man t.ex. studerar överlevnad (Wikipedia).

    Det kan hända att t.ex. relativ risk och hazardkvot pekar i olika riktning; om man t.ex. skulle jämföra dödsfall i cirkulationssjukdom mellan kvinnor och män över en hel livstid kommer hazardkvoten för män kanske vid alla tidpunkter att vara över 1, men den relativa risken för män kan vara något under 1 sett över hela uppföljningstiden, eftersom män har högre konkurrerande dödlighet (i olyckor, alkohol etc.).

  3. Bra inlägg, som vanligt!

    Även om poängen kvarstår, tänkte jag bara påpeka att 45-29 i alla fall blir 16 och inte 19? 🙂

  4. Hej Jacob! Jag gillar verkligen denna vetenskapligt grundade blogg, väldigt proffsigt och roligt för oss som gillar träning att kunna läsa om hur det faktiskt förhåller sig utifrån det som är bevisat och inte ”gissat”. En utveckling av bloggen som jag faktiskt skulle gilla mycket är en videoblogg med jämna mellanrum. Att ha en frågestund eller göra inlägg som rena videoinlägg, vad tror du om det?

    Tack för allt

  5. Bra inlägg, tycker ni lyckats förklarat det på ett enkelt sätt. För en återkoppling till gårdagens inlägg på tränastyrka så är det precis dessa ”baskunskaper”, inom vetenskaplig metodik, som den självutnämnda experten Axon saknar!

  6. Mforsell:
    Bra inlägg, som vanligt!

    Även om poängen kvarstår, tänkte jag bara påpeka att 45-29 i alla fall blir 16 och inte 19? :)

    Bra där. 🙂 Det blev ett litet missförstånd mellan mig och Jacob så korrekturproceduren blev inte som den brukar. Då kan en slint på tangentbordet slinka igenom. 😉

    /Nicklas

  7. Karl: Det är samma med konfidensintervall: beräknar man 95-procentigt KI med ett stort antal stickprov kommer man att få med populationsmedelvärdet i 95 procent av fallen, men man behöver inte vara berättigad att vara 95 procent säker på att ett intervall man fått innehåller detta.

    Hej Karl. Du har rätt. Tack för att du bidrar och korrigerar 🙂

  8. erik: Hej Jacob! Jag gillar verkligen denna vetenskapligt grundade blogg, väldigt proffsigt och roligt för oss som gillar träning att kunna läsa om hur det faktiskt förhåller sig utifrån det som är bevisat och inte ”gissat”. En utveckling av bloggen som jag faktiskt skulle gilla mycket är en videoblogg med jämna mellanrum. Att ha en frågestund eller göra inlägg som rena videoinlägg, vad tror du om det?

    Tack Erik!
    Jag får då och då lite tankar om att göra saker av den typen. Även podcast och liknande hade varit kul. Men det finns helt enkelt inte tid till det som jag har det just nu. Vi får ser hur allting utvecklar sig i framtiden. Får jag tid så är det möjligt att jag tar tag i något sådant. Tills vidare är text väldigt bekvämt då jag kan skriva en text uppdelat på många olika korta tillfällen om jag skulle vilja.

  9. Jag förstår. Vi får hoppas att det kommer i framtiden då! Jag fortsätter att läsa under tiden, detta gör du riktigt bra!

  10. Det här borde vara obligatorisk läsning för kvällspress och TV. 🙂

  11. Hej, en väldigt bra genomgång vetenskaplig metodlära kopplad till statiska begrepp.

    Jag har haft en del tankar senare år mellan skillnad på samvarians och kausalitet , och hur olika samband tolkas.
    I studien ovan som redovisade samband mellan sjukdom i det fall jag jobbar hemifrån eller om jag åker till mitt arbete. Studien kom fram till att jag blir mindre sjuk om jag stannar hemma och jobbar istället för att åka till jobbet, vilket inte synes så konstigt med tanke på att man sannolikt exponeras mer mot fler personer när man arbetar på sin arbetsplats. Men är resultatet helt säkert ur alla aspekter.
    Vi definierar ej exakt vad sjukdom är för något,kanske definierar vi det som om vi har sjukanmält oss och då kanske det är så att jobbar jag hemifrån så sjukskriver jag mig vid färre tillfällen vid samma sjukdomsnivå. Det kan ju även vara så att jag jobbar ensam på mitt jobb och exponeringen mot andra är större om jag jobbar hemifrån.

    Många undersökningar är ju av typen,vi undersöker medelinkomsten i område 1 (Tensta) med område 2 (Djursholm ) och finner då att medelinkomsten är mycket högre i område 2. Rådet blir då att flytta till Djursholm,för då förbättrar du din ekonomi avsevärt.

  12. Kalle:

    Jag har haft en del tankar senare år mellan skillnad på samvarians och kausalitet , och hur olika samband tolkas.
    I studien ovan som redovisade samband mellan sjukdom i det fall jag jobbar hemifrån eller om jag åker till mitt arbete. Studien kom fram till att jag blir mindre sjuk om jag stannar hemma och jobbar istället för att åka till jobbet, vilket inte synes så konstigt med tanke på att man sannolikt exponeras mer mot fler personer när man arbetar på sin arbetsplats. Men är resultatet helt säkert ur alla aspekter.
    Vi definierar ej exakt vad sjukdom är för något,kanske definierar vi det som om vi har sjukanmält oss och då kanske det är så att jobbar jag hemifrån så sjukskriver jag mig vid färre tillfällen vid samma sjukdomsnivå. Det kan ju även vara så att jag jobbar ensam på mitt jobb och exponeringen mot andra är större om jag jobbar hemifrån.

    Många undersökningar är ju av typen,vi undersöker medelinkomsten i område 1 (Tensta) med område 2 (Djursholm ) och finner då att medelinkomsten är mycket högre i område 2. Rådet blir då att flytta till Djursholm,för då förbättrar du din ekonomi avsevärt.

    Läste du ens inlägget?

    /Nicklas

  13. ”En konsekvens av att vi använder oss av statistik för att dra slutsatser om en hel befolkning från en mindre del av befolkningen är att vi alltid kommer prata om sannolikheter. Studier kommer fram till resultat som med en viss procents säkerhet stämmer för hela befolkningen om du skulle gjort precis samma sak med alla dem.

    Statistik hjälper oss alltså att räkna ut sannolikheten att det vi visat fungerar för en viss grupp också gäller för alla andra. Utan statistik hade med andra ord i vi människor varit mer eller mindre körda.

    NHST (Neyman-Pearsons kriteria) kan tyvärr inte säga någonting om sannolikheten för noll- eller alternativhypotesen. Det enda du kan säga efter ett signifikanstest är: givet att nollhypotesen är sann (inga gruppskillnader), hur stor är sannolikheten att vi får resultat lika stora som eller större än de uppmätta skillnadrna. Om man vill göra interssanta inferenser så är väl det bästa att vända sig till Bayes.

  14. 3b: NHST (Neyman-Pearsons kriteria) kan tyvärr inte säga någonting om sannolikheten för noll- eller alternativhypotesen. Det enda du kan säga efter ett signifikanstest är: givet att nollhypotesen är sann (inga gruppskillnader), hur stor är sannolikheten att vi får resultat lika stora som eller större än de uppmätta skillnadrna. Om man vill göra interssanta inferenser så är väl det bästa att vända sig till Bayes.

    Det är inget omnämnande om signifikanstest i den delen du citerar. Bayes är fortfarande ett sätt att räkna på sannolikhet 🙂 När man gör studier och får resultat så kommer man med större och större sannolikhet fram emot en bild som på ett bra sätt återspeglar verkligheten.

  15. Jacob Gudiol: Det är inget omnämnande om signifikanstest i den delen du citerar. Bayes är fortfarande ett sätt att räkna på sannolikhet När man gör studier och får resultat så kommer man med större och större sannolikhet fram emot en bild som på ett bra sätt återspeglar verkligheten.

    Jag håller givetvis med dig i stort och tycker det är bra att någon på ett bra sätt förklarar grundläggande statistik för människor som annars inte hade haft något intresse av att lära sig det, men det betyder inte att jag inte vill nitpick lite 🙂

    Du har rätt i att det inte nämns om det är bayesian eller frequentist stats som avses i de stycken jag citerade. Dock är det så att det enda som det talas om i texten är frequentism och det är varför jag tyckte min kommentar passade.

    Oavsett om inferens sker genom NHST eller CI så gäller ju samma sak, den enda inferens man kan göra är att tala om hur framtida data kommer se ut, under antagandet att nollhypotesen är sann. Risk/odds ratio kan ju tyckas annorlunda, men det handlar ju fortfarande om inferens via NHST eller CI även där.

    Tycker du verkligen att följande inferens känns givande?: ”Med antagandet/givet att det inte finns några skillnader i styrka i stockpressen mellan stronmen och maratonlöpare så kan vi säga att sannolikheten att få en lika stor, eller större, gruppskillnad (mellan de två tidigare nämnda grupperna) än de uppmätta 100kg i stockpressen vid upprepade mätningar, är x%”.

    Det hade väl varit roligare att t.ex. kunna svara på frågan: ”hur sannolikt är det att strongmen och maratonlöpare är lika starka i stockpress, med tanke på de data vi samlat?”

  16. Risk/odds ratio kan ju tyckas annorlunda, men det handlar ju fortfarande om inferens via NHST eller CI även där.

    Det är väl bara effektmått, som kan kombineras med olika typer av inferens/intervallskattning, både med frekventistiska och bayesianska metoder (även om det är det förra som diskuteras i inlägget)?

  17. Karl: Det är väl bara effektmått, som kan kombineras med olika typer av inferens/intervallskattning, både med frekventistiska och bayesianska metoder (även om det är det förra som diskuteras i inlägget)?

    Jo, det är ju bara en descriptive, som du säger. Ville bara nämna det för att undvika att någon skulle säga: ”men ratios då! det måste ju vara något annat, för det handlar ju om skillnader i sannolikhet”. Fast nu blev det ju en annan invändning, från dig, istället, det är svårt att gardera sig 🙂

  18. 3b: Fast nu blev det ju en annan invändning, från dig,istället, det är svårt att gardera sig

    Så mycket invändning var det väl inte; snarare bad jag om ett klargörande om hur det hängde ihop (vilket jag fick).

    I övrigt är väl skälet till att bayesianska metoder inte är så populära inom t.ex. publikationer inom medicin till stor del just svårigheten att ställa upp vettiga priors, som metoderna bygger på. Ronald Fisher ställde för närmare 100 år sedan upp modeller för NHST i opposition till bayeisanism, som, vad jag förstått, var det dominerande inom vetenskaplig publikation då (fast de hade primitiva metoder för att skatta priors, och det har förstås hänt en del sedan dess, Fienberg).

  19. KarlRonald Fisher ställde för närmare 100 år sedan upp modeller för NHST i opposition till bayeisanism,

    Självkorrektion: han ställde inte upp modeller för NHST som det uppfattas idag, däremot var det så att han från 20-talet och framåt propagerade för frekeventistiskt tolkade p-värden, som ingår som en del i detta.

Lämna ett svar

E-postadressen publiceras inte. Obligatoriska fält är märkta *