Een team uit Florida rapporteert in het enkele resultaten zeer interessante <b>British Journal of Clinical Pharmacology</b>. Kortom de onderzoekers hadden de nieuwsgierigheid om in <b>meer dan 10.000 fase klinische studies III het</b> aantal patiënten te vergelijken dat aanvankelijk vereist was door de statistieken en het aantal patiënten dat de studie voltooide. De berekeningen, gebaseerd op medianen, wijzen op een <b>vereiste populatie </b>van 302 patiënten, een <b>uiteindelijke populatie </b>van 228 patiënten en een gemiddeld <b>uitvalpercentage </b>van 11%. Als gevolg hiervan een meerderheid van de geanalyseerde onderzoeken had niet voldoende statistische power (80%) om kleine effecten te detecteren en slaagde ongeveer de helft er niet in om middelgrote te detecteren effecten(<b>kleine/middelgrote effect omvang). </b>Er moet worden opgemerkt dat deze situatie niet is <b>veranderd in de ongeveer 20 jaar die </b>dit onderzoek bestrijkt, wat de onderzoekers ertoe brengt aan te bevelen om systematischer rekening te houden met de grootte van de te werven steekproeven bij de berekening van grootte van degezochte effect, de <a href="https://bpspubs.onlinelibrary.wiley.com/doi/abs/10.1002/bcp.70023" target="_blank" rel="noopener">variabiliteit tussen sponsors van studies</a> en uitvalpercentages. Terwijl we wachten tot deze wens wordt vervuld, laten we dit werk aangrijpen om onszelf eraan te herinneren , indien nodig dat, <b>een zeer kleine "p"-waarde op geen enkele manier synoniem is met een groot effect</b>. De waarde "p"-geeft aan dat het waargenomen effect statistisch significant is, maar loopt op geen enkele manier vooruit op de grootte van het waargenomen effect. Grote steekproeven kunnen "zeer significante" p-waarden genereren voor kleine verschillen tussen groepen.