Abrir sesión | Regístrese | ¿Olvidó su contraseña? | Contacto | English |
Email: Clave:

Medwave se preocupa por su privacidad y la seguridad de sus datos personales.
Para poder enviarle a su dirección de correo electrónico su contraseña, es necesario que ingrese su e-mail.


Editorial
Medwave 2011 Jun;11(06):e5060 doi: 10.5867/medwave.2011.06.5060
Estudios “pequeños”: ¿cuál es la importancia del tamaño en los estudios clínicos?
“Small studies” – does size matter in clinical trials?
Miguel Araujo Alonso
Referencias | Descargar PDF |
Para Descargar PDF debe Abrir sesión.
Imprimir | A(+) A(-) | Lectura fácil

Los estudios con bajo número de pacientes suelen ser tratados con desdén por los médicos clínicos. Muchas veces son los propios investigadores los que adoptan esta actitud, y se desisten de enviarlos a publicación, por considerar que su escaso tamaño muestral les resta importancia e interés. En Medwave hemos sostenido que daremos cabida a estudios pequeños, y para fundamentarlo proponemos aquí a los lectores una mirada más integral del tema, que responda a la pregunta que sirve de título a la editorial.

El cálculo del tamaño muestral constituye una de las materias de estudio clásicas en epidemiología clínica y es considerado un requisito básico del diseño de cualquier estudio epidemiológico. Esto tiene su fundamento principal en minimizar el riesgo de error Tipo II, es decir, no detectar una diferencia estadísticamente significativa cuando ella realmente existe1 2. La conocida máxima de Altman “la ausencia de evidencia no es evidencia de ausencia”1 ha sido utilizada por años para ilustrar cómo la correcta interpretación de resultados supuestamente “negativos” -cuando no se demuestra asociación o efecto- debe hacerse teniendo presente si el tamaño muestral de tales estudios es suficiente o no.

La mayoría de los estándares internacionales de publicación, tales como el CONSORT Statement (Consolidated Standards of Reporting Trials)4, establecen que los autores deben especificar en sus manuscritos cómo fue determinado el tamaño muestral de la investigación. No obstante, un estudio reciente de 165 revistas con alto factor de impacto, reveló que sólo un 37% de ellas tienen incorporadas estas recomendaciones entre sus "instrucciones a los autores", que en apenas un 14% es de cumplimiento obligatorio, y que menos de la mitad reconoce aplicarlas en su proceso de revisión por pares5. Ello explica en parte que un porcentaje importante de los estudios clínicos publicados omitan la descripción del procedimiento de cálculo del tamaño muestral, aún en revistas internacionales de alto prestigio revisadas por pares6. En nuestro medio, muchos de los estudios publicados son realizados por investigadores sin capacitación formal en métodos epidemiológicos y en bioestadísticas, lo que se traduce en debilidades metodológicas de los estudios, incluyendo un tamaño de muestra insuficiente.

Una revisión de este autor (datos no publicados) sobre una muestra representativa de los ensayos clínicos publicados en Chile entre 1980 y 2005, encontró que el tamaño muestral promedio de los ensayos fue de 78, con un rango entre 11 y 262; y que un 40% de los estudios tenía 40 sujetos o menos. Lo preocupante de esta revisión, sin embargo, no fue directamente el tamaño de los estudios, sino el hecho de que casi un 70% de ellos arrojó resultados negativos -estadísticamente no significativos-, pese a que más de la mitad mostraba un efecto de la intervención estudiada que era potencialmente relevante desde el punto de vista clínico. En términos globales, sólo un 20% de los estudios tenía un tamaño muestral que pudiera calificarse como adecuado. El fenómeno afecta casi por igual a los estudios publicados en versiones a texto completo como a los resúmenes de congresos, y tampoco ha mejorado con los años. A esto se suma que, en la muestra estudiada, ninguno de los ensayos evaluados hizo mención alguna a la metodología de cálculo del tamaño muestral en la publicación. Internacionalmente la situación no es muy distinta, y afecta también a las revistas calificadas como de “alto impacto”7.

Podemos entonces concluir que existe en la literatura científica un problema generalizado con el tamaño muestral de los estudios, que determina que muchas investigaciones no logren demostrar asociaciones o efectos estadísticamente significativos, simplemente porque el número de sujetos reclutados fue muy bajo. Pero el problema tiene otras facetas. Chile, como la mayoría de los países de Latinoamérica, tiene una población relativamente pequeña, y para un investigador que no pertenezca a alguno de los grandes centros de las urbes principales, hacer una investigación con el tamaño muestral ideal es virtualmente imposible.

Conceptualmente, un tamaño de muestra pequeño no implica necesariamente baja calidad o resultados menos confiables. En muchos casos simplemente no es necesaria una muestra grande. Esto porque el tamaño muestral se calcula para las necesidades de cada estudio, es decir, no hay números fijos. Si el evento que se mide es frecuente, y la magnitud de la asociación es relativamente grande, la muestra necesaria puede ser baja. Para demostrar que una terapia reduce cierto evento de 50% a 25% bastan alrededor de 60 sujetos por grupo. Para estudiar un factor pronóstico que disminuye la sobrevida, por ejemplo, desde 80% a 50%, bastan 40 por grupo. Y un estudio de casos y controles con un Odds Ratio de 7 -valor bastante frecuente de encontrar-, puede requerir menos de 20 pacientes por grupo. La evidencia empírica lo reafirma: cuando se han comparado los resultados de estudios pequeños con los de grandes ensayos, los resultados suelen ser consistentes, y cuando se detectan inconsistencias, éstas parecen estar relacionadas con el “sesgo de publicación” que afecta a los estudios negativos8 9. Este fenómeno, ampliamente conocido -no lo abordaremos aquí en detalle-, se refiere a la tendencia a no publicar los estudios con resultados estadísticamente no significativos, aunque sean de buena calidad, y se traduce en que observamos comúnmente los estudios con resultados más llamativos, mientras quedan ocultos y sin publicarse muchos estudios con resultados negativos pero igualmente válidos. Saber que un determinado factor aumenta el riesgo de cáncer es tan importante como enterarse que hay estudios que dicen lo contrario. Y frente a estudios publicados que nos dicen que una terapia funciona, es importante conocer los estudios que han encontrado que no lo hace. No publicar estudios pequeños, contribuye sin duda a ese sesgo.

Con frecuencia, se aduce que el problema de las muestras pequeñas es que no son representativas. En rigor esto tampoco es así. La representatividad, que se refiere finalmente a qué tan parecidos son los pacientes del estudio a los de la población que se desea investigar, depende más de la forma en que se reclutan los pacientes -por ejemplo si se utilizó o no un método de muestreo aleatorio- y de los criterios de inclusión aplicados, que del tamaño de la muestra. Una “gran” muestra puede no ser representativa, si al reclutar los pacientes éstos se seleccionan de manera sesgada.

Existen otros argumentos, algo más indirectos pero dignos de considerar, en reconocimiento del aporte que pueden realizar los estudios “pequeños”. Con el advenimiento de las revisiones sistemáticas algunos autores han llegado incluso a cuestionar la necesidad de estimar el tamaño muestral con demasiado énfasis, considerando que los metaanálisis permiten en muchos casos resolver la falta de poder de los estudios individuales, lo que de hecho es referido como una de las principales virtudes del método10. Es más, insistir en el diseño de estudios que individualmente provean resultados “definitivos” sería contraproducente, porque su tamaño muestral termina restando incentivo a los investigadores o financiadores, y con ello se pierde oportunidad de realizar estudios potencialmente relevantes. También se ha planteado que una postura más flexible al respecto favorecería la investigación de tratamientos para enfermedades raras, en las que reclutar un número alto de pacientes suele ser muy difícil.

En resumen, podemos concluir que:

  • Un tamaño muestral pequeño no es sinónimo de baja calidad ni de resultados menos confiables.
  • Los estudios de tamaño pequeño pueden ser un aporte, aún cuando carezcan de poder suficiente, para ampliar la base de conocimiento frente a patologías o desenlaces de baja ocurrencia.
  • Los estudios pequeños permiten la formación de investigadores en contextos donde un estudio mayor no es factible, y sus hallazgos pueden ser aprovechados al momento de realizar una revisión sistemática del tema.
  • Sin perjuicio de ello, los autores deben realizar una adecuada estimación del tamaño de muestra en sus investigaciones, reportar los métodos de cálculo, y las revistas deben velar por ello en sus normas de publicación y en sus procesos de revisión por pares.
Licencia Creative Commons Esta obra de Medwave está bajo una licencia Creative Commons Atribución-NoComercial 3.0 Unported. Esta licencia permite el uso, distribución y reproducción del artículo en cualquier medio, siempre y cuando se otorgue el crédito correspondiente al autor del artículo y al medio en que se publica, en este caso, Medwave.

 

Autor: Miguel Araujo Alonso[1]

Filiación:
[1] Hospital de Los Andes, Medwave

E-mail: miguel.araujo@medwave.cl

Citación: Araujo M. “Small studies” – does size matter in clinical trials?. Medwave 2011 Jun;11(06):e5060 doi: 10.5867/medwave.2011.06.5060

Fecha de envío: 25/5/2011

Fecha de aceptación: 25/5/2011

Fecha de publicación: 1/6/2011


 

Citaciones asociadas

1. Este editorial tiene una Carta al Editor asociada, Sobre Estudios con Muestras Pequeñas, de Patricio Herrera, publicada en la Edición Julio 2011. | Link |

Comentarios (2)

Nos complace que usted tenga interés en comentar uno de nuestros artículos. Su comentario será publicado inmediatamente. No obstante, Medwave se reserva el derecho a eliminarlo posteriormente si la dirección editorial considera que su comentario es: ofensivo en algún sentido, irrelevante, trivial, contiene errores de lenguaje, contiene arengas políticas, obedece a fines comerciales, contiene datos de alguna persona en particular, o sugiere cambios en el manejo de pacientes que no hayan sido publicados previamente en alguna revista con revisión por pares.

Nombre/name: Cuauhtemoc Gilbón
Fecha/date: 2011-06-11 11:19:22
Comentario/comment:
Me pareció excelente esta aportación, pues, definitivamente, mucha de la Investigación que se realiza a nivel mundial, se queda ahí, en lo que realizó el investigador, pero que, por sus dimensiones, resultó no publicable. Felicidades por tan enriquecedor y sobre todo, motivador artículo.

Nombre/name: Miriam Karina Mayta
Fecha/date: 2014-04-21 09:27:22
Comentario/comment:
excelente!!! Al parecer todos no preocupamos por tener el mayor número de muestra, o pensamos que si no alcanzamos ese tamaño muestral, nuestro estudio no es válido. Ver la homogeneidad de la población también es importante. La validez interna depende de varios factores y no sólo del tamaño de la muestra!
Muchas gracias


Para comentar debe iniciar sesión

Medwave publica las vistas HTML y descargas PDF por artículo, junto con otras métricas de redes sociales.

Se puede producir un retraso de 48 horas en la actualización de las estadísticas.

  1. Biau DJ, Kernéis S, Porcher R. Statistics in brief: the importance of sample size in the planning and interpretation of medical research. Clin Orthop Relat Res 2008 Sep;466(9):2282-8. Epub 2008 Jun 20. | CrossRef | PubMed | PMC |
  2. Case LD, Ambrosius WT. Power and sample size. Methods Mol Biol. 2007;404:377-408. | CrossRef |
  3. Douglas G Altman and J Martin Bland. Statistics notes: Absence of evidence is not evidence of absence. BMJ 1995;311;485 | CrossRef | PubMed |
  4. Moher D, Schulz KF, Altman D; CONSORT Group. The CONSORT Statement: revised recommendations for improving the quality of reports of parallel-group randomized trials 2001. Explore (NY). 2005 Jan;1(1):40-5. | CrossRef |
  5. Hopewell S, Altman DG, Moher D, Schulz KF. Endorsement of the CONSORT Statement by high impact factor medical journals: a survey of journal editors and journal 'Instructions to Authors'. Trials. 2008 Apr 18;9:20. | CrossRef | PubMed | PMC |
  6. Charles P, Giraudeau B, Dechartres A, Baron G, Ravaud P. Reporting of sample size calculation in randomised controlled trials: review. BMJ. 2009 May 12;338:b1732. doi: 10.1136/bmj.b1732. | CrossRef |
  7. Vickers AJ. Underpowering in randomized trials reporting a sample size calculation. J Clin Epidemiol. 2003 Aug;56(8):717-20. | CrossRef |
  8. Cappelleri JC, Ioannidis JP, Schmid CH, de Ferranti SD, Aubert M, Chalmers TC, Lau J. Large trials vs meta-analysis of smaller trials: how do their results compare? JAMA. 1996 Oct 23-30;276(16):1332-8. | CrossRef |
  9. Kjaergard LL, Villumsen J, Gluud C. Reported methodologic quality and discrepancies between large and small randomized trials in meta-analyses. Ann Intern Med. 2001 Dec 4;135(11):982-9. | PubMed |
  10. Sackett DL, Cook DJ.Can we learn anything from small trials? Ann N Y Acad Sci. 1993 Dec 31;703:25-31; discussion 31-2. | CrossRef | PubMed |
Biau DJ, Kernéis S, Porcher R. Statistics in brief: the importance of sample size in the planning and interpretation of medical research. Clin Orthop Relat Res 2008 Sep;466(9):2282-8. Epub 2008 Jun 20. | CrossRef | PubMed | PMC |

Case LD, Ambrosius WT. Power and sample size. Methods Mol Biol. 2007;404:377-408. | CrossRef |

Douglas G Altman and J Martin Bland. Statistics notes: Absence of evidence is not evidence of absence. BMJ 1995;311;485 | CrossRef | PubMed |

Moher D, Schulz KF, Altman D; CONSORT Group. The CONSORT Statement: revised recommendations for improving the quality of reports of parallel-group randomized trials 2001. Explore (NY). 2005 Jan;1(1):40-5. | CrossRef |

Hopewell S, Altman DG, Moher D, Schulz KF. Endorsement of the CONSORT Statement by high impact factor medical journals: a survey of journal editors and journal 'Instructions to Authors'. Trials. 2008 Apr 18;9:20. | CrossRef | PubMed | PMC |

Charles P, Giraudeau B, Dechartres A, Baron G, Ravaud P. Reporting of sample size calculation in randomised controlled trials: review. BMJ. 2009 May 12;338:b1732. doi: 10.1136/bmj.b1732. | CrossRef |

Vickers AJ. Underpowering in randomized trials reporting a sample size calculation. J Clin Epidemiol. 2003 Aug;56(8):717-20. | CrossRef |

Cappelleri JC, Ioannidis JP, Schmid CH, de Ferranti SD, Aubert M, Chalmers TC, Lau J. Large trials vs meta-analysis of smaller trials: how do their results compare? JAMA. 1996 Oct 23-30;276(16):1332-8. | CrossRef |

Kjaergard LL, Villumsen J, Gluud C. Reported methodologic quality and discrepancies between large and small randomized trials in meta-analyses. Ann Intern Med. 2001 Dec 4;135(11):982-9. | PubMed |

Sackett DL, Cook DJ.Can we learn anything from small trials? Ann N Y Acad Sci. 1993 Dec 31;703:25-31; discussion 31-2. | CrossRef | PubMed |