BCAA före och efter styrketräning

BCAA.sopornaFör några dagar sen tipsades jag om en studie som påstods visa att grenade aminosyror (BCAA: leucin, isoleucin och valin) praktiskt taget skulle vara bortkastade pengar. Ifall om man använder det för att försöka höja den anabola effekten av ett styrketräningspass.

Jag kan redan nu berätta att det här inlägget kommer bli mer av en genomgång av vetenskapsmetodik och statistik än ett inlägg om BCAA. Som komplement till den statistik jag tar upp här har Jacob också idag publicerat ett inlägg på Traningslara.se med mycket mer ingående information kring statistik i studier, Statistik och tolkande av studier.

Innan jag går in på själva studien så vill jag snabbt nämna ett några faktorer som vi sedan tidigare redan visste höjer muskelproteinsyntesen (MPS: uppbyggnaden av muskelprotein). Jag ska tillägga att jag för enkelhetens skull kommer skriva att ”MPS ökar” även om vissa av resultaten syftar på enskilda signaler i muskelcellerna. Dessa signaler anses senare leda till en ökad MPS.

  1. Styrketräning ökar muskelproteinsyntesen (MPS)
  2. BCAA i vila ökar MPS, och i samband med träning ökar BCAA MPS utöver den nivån som styrketräning leder till (1, 2, 3)
  3. Kolhydrater, främst via insulin, stimulerar MPS till viss grad i samband med styrketräning. Främst så minskar kolhydraterna muskelnedbrytningen som sker samtidigt som MPS och leder därmed till en bättre proteinbalans.

Vidare till studien:

Nutr Res. 2014 Mar;34(3):191-8.
Periexercise coingestion of branched-chain amino acids and carbohydrate in men does not preferentially augment resistance exercise-induced increases in phosphatidylinositol 3 kinase/protein kinase B-mammalian target of rapamycin pathway markers indicative of muscle protein synthesis.
Ferreira MP, Li R, Cooke M, Kreider RB, Willoughby DS.

The effects of a single bout of resistance exercise (RE) in conjunction with periexercise branched-chain amino acid (BCAA) and carbohydrate (CHO) ingestion on skeletal muscle signaling markers indicative of muscle protein synthesis were determined. It was hypothesized that CHO + BCAA would elicit a more profound effect on these signaling markers compared with CHO. Twenty-seven males were randomly assigned to CHO, CHO + BCAA, or placebo (PLC) groups. Four sets of leg presses and leg extensions were performed at 80% 1 repetition maximum. Supplements were ingested 30 minutes and immediately before and after RE. Venous blood and muscle biopsy samples were obtained immediately before supplement ingestion and 0.5, 2, and 6 hours after RE. Serum insulin and glucose and phosphorylated levels of muscle insulin receptor substrate 1 (IRS-1), protein kinase B, mammalian target of rapamycin, phosphorylated 70S6 kinase, and 4E binding protein 1 were assessed. Data were analyzed by 2-way repeated-measures analysis of variance. Significant group × time interactions were observed for glucose and insulin (P < .05) showing that CHO and CHO + BCAA were significantly greater than PLC. Significant time main effects were observed for IRS-1 (P = .001), protein kinase B (P = .031), mammalian target of rapamycin (P = .003), and phosphorylated 70S6 kinase (P = .001). Carbohydrate and CHO + BCAA supplementation significantly increased IRS-1 compared with PLC (P = .002). However, periexercise coingestion of CHO and BCAA did not augment RE-induced increases in skeletal muscle signaling markers indicative of muscle protein synthesis when compared with CHO.

Genom att mäta halten av diverse markörer för MPS ville forskarna ta reda på till vilken grad man kan addera de tre ovannämnda faktorerna; styrketräning, bcaa och kolhydrater.

De delade in 27 testpersoner i tre olika grupper. En fick placebo, en fick endast kolhydrater (CHO) och en fick kolhydrater + grenade aminosyror (CHO + BCAA). Testpersonerna drack sina respektive lösningar före och efter ett styrketräningspass.

Vid tidpunkterna 0,5, 2 och 6 timmar efter passet så mätte forskarna halterna av de olika markörerna för MPS hos testpersonerna. Jag valde att klippa ut den delen av tabellen som visar de två vanligaste markörerna för initieringen av MPS, nämligen mTOR och p70S6K.

bcaa.mtor.p70s6k.tabellI tabellen ser vi en hel del intressanta saker. Först har vi ett värde för mTOR som nästan är tre gånger så högt för CHO + BCAA i jämförelse med CHO vid mätningen en halvtimme efter passet. Nedanför det ser vi att värdet för p70S6K sex timmar efter passet är mer än fyra gånger större för CHO + BCAA jämfört med endast CHO. Just vid det värdet ser vi även att standardavvikelsen väldigt stor, men mer om detta senare. Slutligen så ser vi ett P-värde för gruppskillnaden för p70S6K på 0,059.

P-värde är ett statistiskt värde som anger sannolikheten att skillnaden mellan grupperna skulle kunna bero på slumpen. Här har vi alltså en sannolikhet på 5,9% att skillnaden mellan grupperna beror på slumpen. I studier som denna så sätter forskarna gränsen för att man skulle anse att ett värde är signifikant, alltså med störst sannolikhet inte beroende av slumpen till just 0,05. Det betyder alltså att vi här var 0,9-procentenheter ifrån att ha fått ett signifikant värde.

Innan vi går vidare till problematiken med standardavvikelsen så kanske du undrar varför mTOR var högre just 0,5h efter passet och p70S6K så mycket större 6h efter passet. Kan det ha varit en slump? Varför stack värdena ut just vid dessa tidpunkter? Följande bild kanske kan ge lite mer klarhet över det hela:

pathway.insulin.leucin.mtor.p70s6kJust aminosyran leucin (markerat i brunt) är nämligen sedan tidigare känd att aktivera mTOR. Därefter aktiverar mTOR i sin del p70S6K. Så tidsramen verkar passa ganska bra här.

Statistik

Innan jag kan gå in på forskarnas missar i den här studien så måste jag ta en liten grundgenomgång i vilka variabler som inverkar på huruvida vi får en statistisk signifikant skillnad mellan två grupper. Ännu mer information hittar du som sagt här, Statistik och tolkande av studier.

Statistisk signifikans

  1. Skillnaden mellan gruppernas medelvärden
  2. Antalet deltagare
  3. Spridningen av värdena i vardera grupp (standardavvikelse)

Jag vill försöka att illustrera detta med lite diagram och en tabell. Jag hittat på tre olika scenarion där P-värdet för skillnaden mellan grupperna hamnar på 0,01.diagram.statistisk.signifikans

I diagram A är det en stor skillnad mellan gruppernas medelvärden. Då kommer man undan med att värdena överlappar varandra en del.

I diagram B är medelvärdena lite tätare intill varandra och värdena överlappar varandra en del, men eftersom deltagarantalet är högt så blir skillnaden fortfarande signifikant.

I diagram C är det endast sex deltagare per grupp och skillnaden mellan medelvärdena är liten, men här är även spridningen och därmed standardavvikelsen låg.

Beroende på vad du undersöker så kan du kontrollera de olika variablerna i varierad utsträckning.

Kontentan av allt det här är att om det är stor variation mellan olika mätvärden så behöver du antingen många försökspersoner eller en stor skillnad mellan grupper för att kunna räkna ut att grupperna skiljer sig. I den här studien var variationen stor vilket du kan se av standardavvikelsen och antalet deltagare var ganska få.

Statistisk power

När du som forskare planerar en studie så vill du veta hur många testpersoner du behöver för att kunna få statistiska signifikanta värden. För att kunna räkna ut det så behöver du göra ett antagande för de andra variablerna. Har det inte utförts studier på samma sätt tidigare så blir det mer av en gissning.

I det här fallet gjorde forskarna en analys av värdena efteråt och kunde då se att studien hade behövt fler deltagare för att nå upp i rätt power. För få deltagare brukar i sin del resultera i att risken för en ”type 2 error” ökar. Type 2 error innebär att man inte lyckas att hitta en signifikant skillnad någonstans där det egentligen existerar en skillnad.

Vad var missarna i studien?

Utifrån studiens metoddel kunde jag inte urskilja hur matintaget timmarna innan testtillfällena såg ut. Det verkar alltså som att forskarna tillät testpersonerna att äta vad de ville. Om så var fallet så är det en enorm miss i en studie som denna då proteinet från tidigare måltider kan bidra med olika mycket aminosyror beroende på hur tätt inpå passet det intogs. Dessutom kan en fylld magsäck sakta ner upptaget av dryckerna avsevärt och även på det viset förvränga resultaten.

Något som verkligen förvånade mig när jag läste diskussionsdelen var att forskarna inte ens nämnde den tydliga trenden för en gruppskillnad för p70S6K. De var ju trotts allt medvetna om att studien var underpowered och att de då hade ett P-värde som precis missade signifikans. Då tycker jag att de åtminstone borde ha diskuterat kring de resultaten lite mer.

Istället verkar de ha låst fast sig vid att P-värdet var över 0,05. Den där överdrivna fixeringen på siffran 0,05 när det gäller signifikans i vetenskapliga artiklar är faktiskt något som vi har diskuterat en hel del på magisterprogrammet. Visst, man måste dra gränsen någonstans, men spelar det verkligen så stor roll om jag säger att mina resultat med 95% säkerhet inte beror på slumpen istället för 94% säkerhet?

När en ny, inte allt för väl genomförd, studie bidrar med motsägande data till ett forskningsområde där vi redan har en mindre konsensus så tycker jag att forskarna borde visa lite mer ödmjukhet till sina resultat. Framförallt när de mycket väl är medvetna om bristerna.

Vilka variabler hade forskarna kunnat kontrollera bättre här?

  1. Med tanke på att vi har forskning som tyder på att mer BCAA än vad som användes i studien inte stimulerar MPS i större grad så kan vi anta att forskarna inte hade kunnat få särskillt mycket större skillnad i medelvärden, även om de hade valt att använda en högre dos BCAA.
  2. Forskarna hade kunnat rekrytera fler testpersoner, alternativt kunnat låta testpersonerna testa alla tre drycker i ett så kallat crossover-upplägg.
  3. Eftersom alla individer reagerar olika på ett träningspass så hade ett crossoverupplägg antagligen även resulterat i en lägre spridning. Exempelvis så hade en deltagare som får en relativ hög respons från ett träningspass lämnat ett högt värde i alla tre grupper.
  4. En kontrollerad kost och fasteperiod inför testtillfällena hade också säkerställt att matintaget inte påverkade mätvärdena.

 Slutsats

Det huvudsakliga budskapet av det här inlägget är vad Jacob redan har predikat så många gånger: Dra inga slutsatser utifrån ett abstrakt, utan skumma åtminstone igenom fulltexten, framförallt om studien motsäger en befintlig konsensus i litteraturen!

Vad gäller BCAA’s vara eller icke vara: Lägger vi värdena av den här studien till resultaten från tidigare studier inom området så vill jag påstå att det sammanlagda forskningsläget tyder på att ett intag av BCAA i samband med styrketräning har en stimulerande effekt på MPS. Sen återstår ju fortfarande frågan kring om det här har någon betydelsefull inverkan i längden jämfört med ett högt proteinintag överlag.

9 thoughts on “BCAA före och efter styrketräning

  1. När man diskuterar statistisk signifikans så finns det en hel del som väldigt många missförstår. Jag har också gjort det väldigt länge. Här finns en enormt intressant bloggpost om p-värden:

    http://www.dcscience.net/?p=6518

    Ett par utdrag:
    If we are trying to interpret the result of a single test that comes out with a P value of, say, P = 0.047, then we should not be looking at all significant results (those with P < 0.05), but only at those tests that come out with P = 0.047. This can be done quite easily by simulating a long series of t tests, and then restricting attention to those that come out with P values between, say, 0.045 and 0.05. When this is done we find that the false discovery rate is at least 26%. That’s for the best possible case where the sample size is good (power of the test is 0.8) and the prevalence of real effects is 0.5.

    Om underpowered studies:
    And furthermore, when you do find a "significant" result, the size of the effect will be over-estimated by a factor of nearly 2. This "inflation effect" happens because only those experiments that happen, by chance, to have a larger-than-average effect size will be deemed to be "significant".

    Nu var det ju väldigt få testpersoner i den här studien, och andra brister som du påpekat. Man får ju hoppas att de andra studierna som gjorts har varit bättre upplagda. Men det är ändå stor risk att men med dessa effekter av för små studier i kombination med publication bias gör att man sannolikt överskattar effekterna av det mesta när man tittar på det samlade forskningsläget.

    Därför tycker jag att det är bra att forskarna ändå publicerar ett sådant här resultat utan att försöka tolka in en massa i värden som mycket väl kan bero på slumpen. Det innebär ju inte att denna studie visar att alla tidigare gjorda är fel, men det kan kanske bidra till att man får en mer realistisk bild om hur stor effekten är.

  2. If we are trying to interpret the result of a single test that comes out with a P value of, say, P = 0.047, then we should not be looking at all significant results (those with P < 0.05), but only at those tests that come out with P = 0.047. This can be done quite easily by simulating a long series of t tests, and then restricting attention to those that come out with P values between, say, 0.045 and 0.05. When this is done we find that the false discovery rate is at least 26%. That’s for the best possible case where the sample size is good (power of the test is 0.8) and the prevalence of real effects is 0.5.

    Det innebär alltså att man inte automatiskt kan dra slutsatsen att p-värdet anger sannolikheten att några observerade skillnader beror på slumpen, men det är vissa formuleringar i inlägget som inbjuder till det missförståndet, t.ex. ”[h]är har vi alltså en sannolikhet på 5,9% att skillnaden mellan grupperna beror på slumpen” (vilket syftar på ett p-värde på ,059). Statistikern Olle Häggström diskuterar också denna problematik på s. 5 i denna uppsats.

  3. Karl: Statistikern Olle Häggström diskuterar också denna problematik på s. 5 i denna uppsats.

    Bra skrivet på svenska. Exakt, jag har också blandat ihop det tidigare:
    ”begår vi det fel som på engelska kallas förfallacy of the transposed conditional: att förväxla sannolikheten för nollhypotesen givet data med sannolikheten för data givet nollhypotesen”

  4. A F – ursprungsliv.nu:
    När man diskuterar statistisk signifikans så finns det en hel del som väldigt många missförstår. Jag har också gjort det väldigt länge. Här finns en enormt intressant bloggpost om p-värden:

    http://www.dcscience.net/?p=6518
    […]
    Nu var det ju väldigt få testpersoner i den här studien, och andra brister som du påpekat. Man får ju hoppas att de andra studierna som gjorts har varit bättre upplagda. Men det är ändå stor risk att men med dessa effekter av för små studier i kombination med publication bias gör att man sannolikt överskattar effekterna av det mesta när man tittar på det samlade forskningsläget.

    Därför tycker jag att det är bra att forskarna ändå publicerar ett sådant här resultat utan att försöka tolka in en massa i värden som mycket väl kan bero på slumpen. Det innebär ju inte att denna studie visar att alla tidigare gjorda är fel, men det kan kanske bidra till att man får en mer realistisk bild om hur stor effekten är.

    Karl: Det innebär alltså att man inte automatiskt kan dra slutsatsen att p-värdet anger sannolikheten att några observerade skillnader beror på slumpen…

    Tack för er input! Ni båda lägger fram jättebra poäng här och jag är medveten om att mina förklaringar är grovt förenklade. Och även om vi fortfarande har en stor felmarginal vid P = 0,05 så får man i de här fallen tänka på den praktiska genomförbarheten i den här typen av studier. Det är både kostsamt och logistiskt svårt att kontrollera många (gärna homogena) testpersoner i studier som dessa. Just i det här fallet tycker jag dock att forskarna hade kunnat satsa på att använda en cross-over design och på så vis fått tre gånger så mycket data med möjligtvis mindre spridning men med samma antal testpersoner.

    Min främsta poäng med P-värdet här var vad Häggström nämner i följande stycke:
    ”Men även osannolikha händelser inträffar emellanåt. Dessutom bör vi ha klart för oss att det inte är något magiskt med just talet 0,05. Orsaken till att 0,05 så ofta används som signifikansnivå
    står främst att finna i tradition och historiska tillfälligheter.”
    Huruvida P = 0,05 är ett användbart värde går verkligen att diskutera, men vi kan vara säkra på att om värdet nu hade varit under 0,05 så hade forskarna pratat om det. Därför tycker jag att de kunde ha diskuterat ett värde på 0,059 när de ändå var medvetna om att deras studie var underpowered.

  5. Om jag inte är helt ute och cyklar så är GROUP (p=0.059) i princip skillnaden mellan grupperna vid baseline. Det är GROUPxTIME man skall titta på i de flesta fall. Men visst, numeriskt är det ganska stora skillnader, även om det inte blir signifikant.

  6. Det vore intressant med en välutförd studie som visar effekten på intag av BCAA under ett styrketräningspass.

  7. Förmodligen är inte BCAA bättre än rent leucin eller ett intakt protein som tex mjölkprotein och mest sannolikt sämre än dessa alternativ med avseende på MPS/muskelproteinbalansen. Vad gäller att använda BCAA som energikälla eller påverka neurotransmittorer kan det vara en annan sak, men även där är det tveksamt om det är bättre än tex glukos.

  8. Om jag använder EAA-tillskott, skulle du alltså säga att det kan ersätta ”vanligt” proteintillskott? Jag får lite problem med magen av Whey så jag undviker helst det.

    Försökt söka mig till det allmänna kunskapsläget om BCAA/EAA vs Whey men det finns för mycket joxx där ute helst enkelt.

  9. EAA ersätter inte helt ett ”vanligt” proteintillskott men kan användas i stället. I kombination med tillräckligt med protein från ”vanlig” mat så är det förmodligen likvärdigt med vassle. I vissa situationer kan EAA eventuellt vara bättre än vassle, men det är osäkert.

Lämna ett svar

E-postadressen publiceras inte. Obligatoriska fält är märkta *