Revue d'Evidence-Based Medicine



Qu’entend-on par le « poids » d’une étude dans une méta-analyse ?



Minerva 2016 Volume 15 Numéro 10 Page 266 - 267

Professions de santé


Il ressort de la méta-analyse de Bangalore (1,2), discutée dans Minerva, que l’étude COMMIT, menée chez 45852 patients chinois ayant fait un infarctus du myocarde, a plus de poids dans l’évaluation de l’effet des bêta-bloquants. La méta-analyse portait sur 12 études comptant un total de 48806 participants. L’étude COMMIT représente donc 93% des participants.

 

Les méta-analyses ont pour but de déterminer un effet moyen à partir des études qui ont été retenues dans le cadre d’une synthèse méthodique. Les études doivent idéalement différer le moins possible les unes des autres quant à leur population, leur conception, l’intervention, l’intervention témoin, l’évaluation des résultats et la période de suivi. Elles doivent aussi être d’une qualité suffisante, et il ne peut pas y avoir de risque de biais. Dans la réalité, les études diffèrent sur bon nombre de ces points, ce qui entraîne une hétérogénéité statistique et clinique (3).

 

Les études diffèrent aussi le plus souvent quant au nombre de participants inclus. Plus le nombre de participants d’une étude est élevé, plus l’effet d’une intervention peut être déterminé de manière précise. Un grand nombre de participants se traduit par un intervalle de confiance étroit, une erreur-type plus petite et une plus faible variance (carré de l’erreur-type). L’erreur-type est donc inversement proportionnelle à la racine du nombre de participants.

 

Logiquement, une étude incluant beaucoup de participants doit avoir plus de poids dans une méta-analyse. Chaque étude se voit donc attribuer un certain poids, calculé en faisant intervenir la variance selon la formule suivante (4) : poids de l’étude i = Wi = 1/variancei

 

L’effet moyen pondéré est donc : ∑(effet individuel de l’étude i*Wi)/∑(1/Wi)

 

On opte pour la variance et non pour le nombre total de participants parce que la variance tient également compte de la dispersion des résultats, inhérente aux instruments de mesure utilisés, et d’une répartition inégale des participants entre les groupes (par exemple une répartition des participants selon un rapport de 2 sur 1 entre le groupe intervention et la groupe contrôle).

 

Le poids de l’étude est différemment évalué selon que, pour l’analyse, on utilise un modèle à effets fixes ou un modèle à effets aléatoires (5).

 

Pour la sommation, il est permis d’utiliser un modèle à effets fixes si les différences entre les études quant à l’ampleur de l’effet sont attribuables au hasard et non, par exemple, à des caractéristiques de la population. L’effet « réel » est supposé être de même importance dans toutes les études. Le poids de chaque étude est directement corrélé à la variance individuelle de cette étude. Lors de la sommation, les études dont le nombre de participants est élevé vont dominer sur le résultat final.

 

Si les différences quant à l’ampleur de l’effet entre les différentes études sont attribuables au nombre de participants, mais aussi à une variation intrinsèque de l’ampleur de l’effet, il est plus indiqué d’utiliser un modèle à effets aléatoires lors de la sommation. On suppose que l’effet « réel » est différent d’une étude à l’autre, en fonction, par exemple, de différences dans la population de l’étude (autres comorbidités, autres médicaments concomitants). Le but de ce modèle est de déterminer un effet moyen dans un ensemble d’effets qui diffèrent par leur ampleur. Le poids d’une étude dans la méta-analyse est donc déterminé par deux sortes de variance : la variance liée au nombre de participants et la variance déterminée par les différents effets de l’intervention. Plus le deuxième type de variance est déterminant, moins la taille de l’étude (= premier type de variance) pèsera sur le résultat final. Mais si le deuxième type de variance est presque inexistant, le résultat final sera le même qu’avec une analyse à effets fixes. Certains statisticiens avancent qu’il faut toujours opter pour un modèle à effets aléatoires, tandis que d’autres estiment qu’il faut toujours donner du poids à la taille de l’étude.

 

Les auteurs de l’étude COMMIT ont tenté d’exclure une part de l’hétérogénéité en ayant recours à la stratification (période de reperfusion contre période post-reperfusion), mais, en réalité, comme cela a été indiqué dans la discussion de Minerva, une grande hétérogénéité clinique persiste encore après cette stratification. Une analyse selon le modèle à effets aléatoires est indiquée dans ce cas. L’article donne peu de détails sur le modèle utilisé, mais il est probable que le modèle à effets aléatoires a été utilisé et comparé à un modèle sophistiqué, comme un modèle à effets fixes, dans lequel une vaste étude a un poids important. On n’a pas trouvé de différence entre les deux méthodes d’analyse.

 

Si le résultat final d’une méta-analyse est presque complètement déterminé par une seule vaste étude, il est utile de l’examiner plus en détail pour pouvoir effectuer correctement des extrapolations à notre contexte clinique. L’étude COMMIT a été menée en Chine, et nous pouvons nous demander si, sous tous leurs aspects (métabolisme, contexte génétique, alimentation et mode de vie), les participants de cette étude sont suffisamment semblables à nos patients.

 

Conclusion

Le poids des études dans une méta-analyse est basé sur deux types de variance : la variance du nombre des participants et la variance de l’ampleur de l’effet de l’intervention entre les différentes études. Quand une étude prédomine dans la méta-analyse, un contrôle de la configuration et des caractéristiques de la population étudiée est nécessaire afin de permettre une extrapolation correcte.

 

 

Références 

  1. Christiaens T, Poelman T. Que penser de l’administration de bêta-bloquants après un infarctus du myocarde ? MinervaF 2016;15(10):246-9.
  2. Bangalore S, Makani H, Radford M, et al. Clinical outcomes with beta-blockers for myocardial infarction a meta-analysis of randomized trials. Am J Med 2014;127:939-53. DOI: 10.1016/j.amjmed.2014.05.032
  3. Chevalier P, van Driel M, Vermeire E. Hétérogénéité dans les synthèses méthodiques et méta-analyses. MinervaF 2007;6(10):160.
  4. Higgins JP, Green S (editors). Cochrane handbook for systematic reviews of interventions. Version 5.1.0 [updated March 2011]. The Cochrane Collaboration, 2011. Chapter 9.4.2 Principles of meta-analysis. Available from www.handbook.cochrane.org
  5. Borenstein M, Hedges L, Rothstein H. Meta-analysis fixed effect vs. random effects. 2007. Available from https://www.meta-analysis.com/downloads/Meta-analysis%20fixed%20effect%20vs%20random%20effects.pdf

 


Auteurs

Michiels B.
Vakgroep Eerstelijns- en Interdisciplinaire Zorg, Centrum voor Huisartsgeneeskunde, Universiteit Antwerpen
COI :

Code





Ajoutez un commentaire

Commentaires