Une équipe de Floride rapporte dans le <b>British Journal of Clinical Pharmacology </b>des résultats très intéressants. En bref, les investigateurs ont eu la curiosité de comparer dans <b>plus de 10.000 essais cliniques de phase III,</b> le nombre de patients initialement requis par les statisticiens et le nombre de patients ayant terminé l'étude. Les calculs effectués sur les médianes, indiquent une <b>population requise</b> de 302 patients, une <b>population finale</b> de 228 patients et un taux médian de <b>sortie d'études</b> de 11%. Conséquence de cette situation, une majorité des études analysées n'a pas la puissance statistique suffisante (80%) pour détecter des effets de faible ampleur et environ la moitié ne détecte pas des effets de moyenne ampleur (respectivement <b>small/medium effects sizes</b>). A noter que cette situation n'a <b>pas évolué au cours des quelque 20 années couvertes</b> dans le cadre de cette recherche, ce qui amène les investigateurs à recommander de tenir compte plus systématiquement dans les calculs de taille d'échantillons à recruter, de l'ampleur de l'effet recherché, de la <a href="https://bpspubs.onlinelibrary.wiley.com/doi/abs/10.1002/bcp.70023" target="_blank" rel="noopener">variabilité selon les sponsors des études</a> et des taux d'abandon. En attendant que ce vœu soit exaucé, profitons de ce travail pour rappeler, s'il en est besoin, qu'<b>une très petite valeur de « p » n'est nullement synonyme d'un effet de grande ampleur</b>. La valeur de « p » indique que l'effet observé est statistiquement significatif mais ne préjuge en rien de l'ampleur de l'effet observé. De larges échantillons peuvent générer des valeurs de p dites "hautement significatives" pour des différences entre les groupes de faible ampleur.