NE LAISSER PAS LE 5G DETRUIRE VOTRE ADN Protéger toute votre famille avec les appareils Quantiques Orgo-Life® Publicité par Adpathway
Par France Soir, publié le 24 juin 2025
Comment les statistiques trompent la médecine : des erreurs simples expliquées avec des exemples concrets et une plongée dans les critiques du Pr Greenland
Imaginez que vous voulez savoir s’il fait soleil aujourd’hui ce 24 juin 2025, mais que vous décidez de ne pas regarder par la fenêtre. À la place, vous consultez des données sur internet qui disent : « En moyenne, il fait soleil 60 % du temps en juin à cet endroit. » Vous concluez donc que c’est probablement ensoleillé, sans vérifier la météo réelle ou tenir compte d’un nuage qui pourrait passer juste maintenant. C’est un peu comme ça que les statistiques sont parfois utilisées en médecine : on se fie à des chiffres moyens ou à des outils compliqués sans regarder la réalité de près, et ça peut mener à des décisions absurdes.
Cet article, inspiré des articles du Pr Sander Greenland illustrés dans une série de tweets de Fred Stalder va vous expliquer ces erreurs avec des exemples simples, et montrer pourquoi elles posent problème, surtout quand on décide de la santé de millions de personnes.

Pourquoi les statistiques peuvent nous tromper
En médecine, les chercheurs utilisent des outils comme la p-values, une mesure utilisée pour évaluer la force des preuves dans les tests statistiques et les « intervalles de confiance » pour dire si un traitement marche ou si une maladie est dangereuse. Mais ces outils ne sont pas magiques. Ils reposent sur des suppositions, comme l’idée que les données sont parfaites et que personne ne triche. Le Pr Sander Greenland, épidémiologiste et statisticien à l’Université de Californie à Los Angeles, un expert en statistiques, dit que ces suppositions sont souvent fausses.
Comme Greenland l’écrit :
« Les méthodes statistiques sont remplies d’hypothèses implicites dont la violation peut avoir des conséquences mortelles lorsqu’elles sont utilisées pour établir des politiques ». Ces hypothèses incluent l’idée que les données sont générées, gérées, analysées et rapportées avec une impartialité, une compétence et une intégrité absolues – des conditions rarement réunies dans la réalité. Par exemple, il raconte l’histoire de 21 études sur des médicaments qui n’existaient même pas, mais qui ont été publiées et utilisées pendant des années (Rubinstein, 2009).
Ça montre que les chiffres peuvent mentir si les données sont mal collectées ou manipulées.
Fred Stalder, dans ses tweets, critique aussi les scientifiques qui demandent d’« avoir confiance » en la science, comme le physicien Étienne Klein dans une vidéo. Mais si les outils qu’ils utilisent sont biaisés, cette confiance peut être dangereuse. Par exemple, pendant le Covid-19, certaines études ont conclus que des traitements comme l’hydroxychloroquine ne marchaient pas, juste parce que leurs p-values n’étaient pas significatives, mais ces études ignoraient des erreurs dans les données, comme des dosages inappropriés, voire toxiques dans Recovery, des patients mal choisis ou des moments d’administrations contraire aux recommandations.

Efficacité des vaccins : tout est une question de présentation !
Des exemples concrets pour comprendre
L’histoire du soleil et des moyennes : reprenons l’exemple du soleil. Si vous vous fiez à la moyenne de 60 % de soleil en juin, vous pourriez sortir sans parapluie, même s’il pleut aujourd’hui. En médecine, c’est pareil : une étude peut dire qu’un vaccin réduit le risque de maladie de 50 % en moyenne, mais si les données viennent de groupes très différents (jeunes et vieux, sains et malades), cette moyenne cache la vérité. Peut-être que le vaccin marche bien pour les vieux, mais pas du tout pour les jeunes. Ou encore on regarde les risques relatifs qui donnent des ratios élevés (90-95%) qui ont un effet psychologiques positifs d’efficacité, alors que le risque absolu est faible. Sans regarder les détails, on prend une décision qui ne convient à personne.
Noyer les bons élèves dans la masse : imaginez une classe où il y a des élèves brillants, mais aussi beaucoup d’élèves moyens. Si on calcule la moyenne des notes, les excellents résultats des meilleurs sont « noyés » et on ne les remarque pas. En médecine, c’est comme ça qu’on peut rater des traitements qui marchent pour un petit groupe de patients. Par exemple, une étude sur un médicament pourrait montrer qu’il n’a « pas d’effet » en moyenne, parce qu’il ne marche que pour 10 % des gens. Si on s’arrête à la moyenne, on jette un traitement utile et on ne voit pas les « excellents élèves » qui en bénéficient.
Décider sans regarder dehors : pendant le Covid-19, des décisions comme les confinements ont été basées sur des modèles statistiques qui prédisaient des morts massives. Mais ces modèles ignoraient des faits simples, comme le fait que beaucoup de gens guérissaient naturellement ou que les hôpitaux avaient des capacités hétérogènes. C’est comme décider qu’il pleut partout en France parce qu’il pleut à Paris, sans vérifier Bordeaux ou Marseille. Résultat : des mesures trop dures pour certains, inutiles pour d’autres. Cela a pu aussi être observé dans l’étude frauduleuse Pradelle Lega, aujourd’hui rétractée, qui prétendait que 17000 personnes seraient décédées de la prise d’hydroxychloroquine sans pouvoir montrer le début d’un décès sur les pays pris en considération. Ou encore en utilisant un facteur de risque issu du Royaume Uni sans regarder si ce facteur de risque s’appliquait au pays !

Les aberrations des décisions basées sur de mauvaises statistiques
Ces erreurs mènent à des choix absurdes qui peuvent coûter des vies ou de l’argent : Traitement forcé qui ne marche pas : Si une étude dit qu’un médicament est « efficace » parce que son p-value est bas, mais que les données sont truquées (par exemple, en cachant les effets secondaires), des milliers de patients peuvent le prendre sans bénéfice, voire avec des risques. Pendant le Covid-19, certains traitements comme les vaccins ont été poussés alors que les essais sur les traitements précoces étaient mal faits ou par des tests de non infériorité plutôt que sur des valeurs absolues de reduction des risques.
Ignorer les exceptions : en se basant sur des moyennes, on peut ignorer des cas où un traitement sauve des vies. Par exemple, une étude sur un cancer pourrait dire qu’un médicament « n’a pas d’effet » en moyenne, mais il pourrait guérir 5 % des patients les plus graves. Sans creuser, on prive ces patients d’une chance.
Confinements inutiles : les modèles statistiques ont prédit des morts massives sans tenir compte des différences locales. Résultat : des villes où il y avait peu de cas ont été confinées, perturbant des vies pour rien, pendant que d’autres régions manquaient de soutien.

Illusion d’optique -Pixabay
Pourquoi on fait ces erreurs : un problème d’apprentissage
Le vrai problème, c’est que beaucoup de chercheurs ne comprennent pas vraiment les statistiques. Ils apprennent à appuyer sur des boutons dans des logiciels comme Excel ou R, qui crachent des p-values ou des intervalles de confiance, sans savoir ce que ça veut dire. Greenland dit que même avec une bonne formation, les gens tombent dans des pièges comme penser qu’un p-value petit prouve quelque chose de sûr. Mais si les données sont mauvaises ou les suppositions fausses, ces chiffres ne valent rien.
Comme Greenland l’écrit : « Les malentendus sur les p-values, les niveaux alpha et les intervalles de confiance proviennent de biais cognitifs humains innés, que même la formation mathématique la plus avancée semble incapable de corriger ». Cette observation pointe un problème systémique : une éducation statistique souvent superficielle, axée sur l’application mécanique plutôt que sur une compréhension critique.
- Une formation inadéquate – dans de nombreux programmes universitaires, les cours de statistiques pour les non-statisticiens se concentrent sur l’application de tests standards (t-tests, ANOVA, régressions) sans insister sur les hypothèses qui les sous-tendent, comme l’indépendance des observations ou l’absence de biais dans la collecte des données. Par exemple, un p-value < 0,05 est souvent enseigné comme une preuve de « significativité », sans expliquer qu’il ne mesure qu’une divergence sous des conditions spécifiques. Cette approche produit des utilisateurs qui appliquent des méthodes sans en saisir les limites.
- La culture du « prêt-à-l’emploi » – l’avènement des logiciels statistiques modernes a amplifié ce problème. Ces outils, bien qu’utiles, favorisent une approche « boîte noire » où les chercheurs génèrent des p-values et des intervalles de confiance sans réfléchir aux modèles sous-jacents. Par exemple, un chercheur peut sélectionner des covariables dans une régression en fonction des résultats statistiques (une pratique appelée data dredging), sans documenter ce processus, ce qui fausse les interprétations. Cette mécanisation de l’analyse statistique, encouragée par un manque de formation critique, contribue à la crise de la reproductibilité.
- Un manque de formation continue– même les chercheurs expérimentés manquent souvent d’opportunités pour mettre à jour leurs compétences statistiques. Les approches plus nuancées, comme les analyses de sensibilité ou les méthodes bayésiennes, sont rarement enseignées dans les formations continues. Cela laisse les chercheurs dépendants de paradigmes dépassés, comme le seuil de p < 0,05, qui, comme Greenland le note, a été regretté par Fisher lui-même pour son usage abusif.
- Conséquences sur la recherche et les politiques – cette compréhension limitée des statistiques ne se limite pas aux chercheurs. Les décideurs politiques, les journalistes et le public, souvent dépourvus de formation statistique, s’appuient sur des conclusions mal interprétées. En 2020, l’article « Covid-19 : la médecine biaisée par les statistiques » illustrait ce problème dans le contexte du Covid-19, où des études avec des p-values faibles étaient utilisées pour justifier des politiques publiques, sans considérer les incertitudes contextuelles, comme les biais dans la sélection des participants ou les conflits d’intérêts.

Les statistiques peuvent être comme des illusions d’optiques si elles ne sont pas calibrées au réel – Pixabay
Comment éviter ces pièges
Pour arrêter de se tromper avec les statistiques, voici des idées simples :
- Regarder la réalité, pas juste les chiffres : comme pour le soleil, vérifiez les détails. Une étude doit montrer qui a été testé et dans quelles conditions, pas juste une moyenne.
- Ne pas noyer les exceptions : si un traitement marche pour quelques patients, il faut le remarquer, même si la moyenne est faible. Par exemple, tester séparément les groupes (jeunes, vieux) pour voir qui bénéficie vraiment.
- Apprendre à douter : les chercheurs doivent être formés pour questionner leurs outils. Des cours simples pourraient leur apprendre que p < 0,05 ne veut pas dire « c’est vrai », mais « ça mérite un deuxième regard ».
- Travailler avec des experts : ajouter des statisticiens ou des scientifiques de d’autres domaines dans les équipes médicales pour éviter les erreurs.
- Partage des données : publier toutes les données brutes pour que d’autres puissent vérifier, comme une météo ouverte à tous.
- Réformer l’éducation statistique : dans les curricula universitaires, il faut intégrer des cours sur l’épistémologie des statistiques, en insistant sur les limites des p-values et des intervalles de confiance, ainsi que sur l’importance du contexte causal. Par exemple, enseigner comment les hypothèses implicites (comme l’absence de biais de sélection) conditionnent les résultats.
Afin de réduire ou de sensibiliser au biais cognitifs, il est nécessaire d’inclure des modules sur la dichotomania, le nullisme et la réification statistique pour sensibiliser les étudiants aux pièges de l’interprétation statistique.
L’approche interdisciplinaire devient clé et doit être encouragée en favorisant la collaboration entre statisticiens et chercheurs en médecine pour garantir des analyses bien conçues et interprétées.
La codification d’études de cas afin de bien comprendre la différence entre modélisation, analyse et l’observation du réel en utilisant des exemples réels, comme les études biaisées pendant la crise du Covid-19, pour illustrer les conséquences d’une mauvaise utilisation des statistiques.
Il devient donc clé d’offrir des ateliers pour les chercheurs expérimentés, axés sur des méthodes modernes comme les analyses de sensibilité ou les approches bayésiennes, pour combler les lacunes de leur formation initiale.
*** Conclusion ***
Les critiques de Sander Greenland et les préoccupations soulevées dans l’article de FranceSoir de 2020 convergent vers une conclusion alarmante : les outils statistiques, bien qu’indispensables, sont souvent mal compris et mal utilisés, ce qui biaise la recherche médicale et ses applications. Ce problème est aggravé par une éducation statistique inadéquate, qui produit des utilisateurs mécaniques se cachant derrière des termes comme « significativité » ou « confiance » sans en saisir les limites. En adoptant une terminologie plus prudente, en mettant l’accent sur le contexte causal, en reconnaissant les limites des statistiques et en réformant leur enseignement, la communauté scientifique peut renforcer la fiabilité de ses conclusions.
Comme Greenland le souligne, il est temps de « déglamouriser » les statistiques et de les ramener à leur rôle véritable : des résumés imparfaits de l’évidence, qui ne prennent sens qu’à la lumière d’une compréhension approfondie du contexte réel et d’une formation rigoureuse. Ces erreurs ont conduit à des décisions absurdes, surtout pendant des crises comme le Covid-19.
En apprenant à mieux comprendre ces outils et en regardant les faits de près, on peut éviter de prendre des chemins dangereux. Alors, la prochaine fois qu’on vous parle d’une étude « significative », demandez : « Qui a été testé ? Comment ? »
Et peut-être, jetez un œil par la fenêtre avant de sortir !
Auteur(s): Le Collectif Citoyen, France-Soir
Tous les articles, la tribune libre et les commentaires sont sous la responsabilité de leurs auteurs. Les Moutons Enragés ne sauraient être tenus responsables de leur contenu ou orientation.