L'évaluation des médicaments fait appel aux études comparatives randomisées. Lorsque ces études montrent une supériorité significative du médicament par rapport à un placebo, elles sont dites "positives", mais dans le cas contraire, quelles informations peut-on retirer d'une étude négative ?

Le principe des études randomisées  est simple : on répartit par tirage au sort des sujets dans deux groupes, une moitié reçoit le médicament à étudier, l’autre un placebo inactif. Si une différence d'effet est observée entre les deux groupes, elle est soumise à une analyse statistique pour calculer le risque que le hasard en soit seul responsable ( par exemple, si l'on tire trois fois à pile ou face, on a une chance sur huit d'obtenir trois fois face !). Si ce risque est inférieur à 5%, on dit que l’étude est positive, le médicament est alors reconnu comme efficace. En revanche si la différence d'effet observée à plus de 5% de chances d’être explicable par le seul hasard, l’étude est dite négative. Mais alors que peut-on en conclure !

La réponse générale est : rien ! Et surtout pas que le médicament est inefficace ! Ce n’est pas parce que l'étude n'a pas trouvé de différence d’efficacité statistiquement significative que cette différence n’existe pas dans la réalité. 

Si vous n'avez pas vu Sophie, ça ne veut pas dire qu'elle n'est pas là !

Pour que ça soit plus clair, allons au cinéma ! Imaginez que vous alliez voir un film avec des amis. Vous êtes tous au premier rang, sauf votre amie Sophie qui est en retard. Vous scrutez la salle à sa recherche. De deux choses l’une :
- Soit il vous semble bien l’apercevoir, et vous pouvez donc conclure qu’elle est là avec un faible risque d’erreur. Votre recherche est positive ! C’est l’équivalent d’une étude positive sur un médicament.
- Soit vous ne voyez pas Sophie. Votre étude est négative. Pouvez-vous alors en conclure que Sophie n’est pas là ? Certainement pas !

Vous ne pouvez pas affirmer que Sophie est absente, car soit elle n’est vraiment  pas là, soit elle est là mais vous ne l’avez pas vue !  Le problème est le même pour une étude négative  : soit le médicament n’est  pas supérieur à un placebo, soit il l’est quand même, mais votre étude n’a pas permis de le démontrer, parce que vous n’avez pas inclus assez de sujets dans vos groupes pour avoir un niveau de certitude suffisant. C’est  l’équivalent de “vous n’avez pas vu Sophie alors qu’elle est quand même là”. 

Pour conclure avec une quasi certitude que Sophie n’est pas là, il faudrait attendre la fin du film et placer un de vos amis à chaque sortie pour scruter les spectateurs. C’est bien plus compliqué que de jeter un coup d’oeil dans la salle. Le principe est le même pour affirmer qu’un médicament n'est pas efficace : cela nécessite un protocole de recherche bien plus lourd que pour montrer qu’il l'est. Et donc, quand une étude contre placebo est négative, la seule conclusion valide est qu’elle n’a pas permis de démontrer l’efficacité du médicament, et surtout pas que le médicament n’est pas efficace. D'une façon générale, démontrer scientifiquement qu'une chose n'existe pas est bien plus compliqué que de montrer qu'elle existe, et ce n'est quasiment jamais avec une certitude absolue.

Mais alors, que penser des études négatives sur le vitamine D et le calcium ?

Dans ses deux chroniques précédentes (1 - 2) Dominique Dupagne affirmait à partir d'une synthèse d'études négatives que la supplémentation en calcium et en vitamine D était inefficace pour prévenir les fractures osseuses. Cette affirmation paraît en contradiction avec ce qu'il explique aujourd'hui !

En fait, la méta-analyse qu'il a commenté porte sur des dizaines de milliers de sujets. Ces effectifs très importants apportent une "puissance" suffisante pour commencer à envisager avec une forte probabilité l'inefficacité de cette supplémentation à partir d'un résultat négatif : on se retrouve dans un cas de figure qui ressemble à l'option "scruter tous les spectateurs à la sortie du cinéma". Mais surtout, la tendance observée dans ces études est à l'augmentation du risque de fracture chez les patients traités par rapport à ceux qui recevaient un placebo. La conjonction de cette différence en défaveur du traitement, et du nombre important de sujets soumis à l'expérience, permet donc d'affirmer que cette supplémentation est quasi certainement inutile, qu'elle pourrait être délétère, et que la probabilité pour qu'elle soit quand même utile dans la réalité malgré ces résultats négatifs est infime.

L'équipe
Mots-clés :
Ce contenu n'est pas ouvert aux commentaires.