Carta a la editora

← vista completa

Sobre estudios con muestras pequeñas

On small sample studies

Señor editor: 

En la muy interesante editorial del Dr. Miguel Araujo1 se analiza el significado de los trabajos clínico epidemiológicos con grupos pequeños y su eventual aporte a la comunidad (de pares). Muy de acuerdo con sus apreciaciones, quisiera agregar algunos conceptos que pueden contribuir a resolver la deficiencia crónica que afecta a la mayoría de las fuentes de publicación de nuestra América Latina aunque, como veremos, no es exclusiva de nuestra región y suele afectar a otras que tomamos como referente confiable.

Nos referiremos esta vez sólo a los estudios que utilizan diseños analíticos para, en una segunda instancia, abordar los que llamaremos “descriptivos”. Allí daremos algunos ejemplos ilustrativos, mayoritariamente pediátricos y relacionados con la infectología, campo de trabajo preferente de quien subscribe.

La principal causa de resultados de asociaciones disparatadas con o sin significación estadística es debida por lo menos a dos causas, de las cuales sólo una es evidente. La primera, no visible, es el agotamiento de fondos o pacientes (dados los tiempos en que se pueden llevar a cabo los estudios) como para alcanzar un determinado tamaño de muestra. En tal caso, el envío o no para la publicación de los resultados es decisión de sus autores y eventualmente escapan a la detección de los métodos para estimar el sesgo de publicación.

La segunda causa de este tipo de publicaciones estriba en que rara vez aparecen en ellas, clara y nítidamente, las dos etapas de la hipótesis a probar: la hipótesis conceptual (que, en términos muy generales, propone que A es mayor/menor que B) y, más adelante y con los inconvenientes que analizaremos, la hipótesis operacional, que establece cuánto se supone que A es mayor/menor que B.

En el supuesto de que la primera –hipótesis conceptual- pueda encontrarse explícita o implícita en la introducción –preferible allí que en “métodos”- el no ir seguida de la hipótesis operacional deja al lector (incluido el investigador dedicado a meta-análisis en el tema) en la obligación de suponer varios elementos críticos para la evaluación del estudio publicado. Y claramente, de lo publicado no es lícito suponer nada sino, más bien, poder comprobar todos los elementos necesarios para analizar los hechos presentados.

La hipótesis operacional, que se inicia en el marco de una hipótesis previa -la conceptual-, propone una diferencia entre A y B que puede ser de cualquier tamaño pero que la práctica epidemiológico-clínica ha enseñado a suponerla de forma conservadora, es decir, lo más pequeña posible (aunque, obviamente, con alguna significación clínica que le dé sentido). La razón para ello, así como el consejo del espíritu conservador también para la proposición del tamaño de la presunta medida de asociación, los niveles de error tipo I y II; tiene base en la naturaleza de los problemas biológico-clínicos que estudiamos con diseños analíticos y la necesidad de no incurrir en resultados invalidados por no haber respetado el criterio conservador. Esto último puede llevar a dos situaciones poco convenientes: a) resultados sin significación estadística o b) con ella, pero objetables desde el punto de vista clínico-epidemiológico. Esto último no es sólo un inconveniente desde la mirada académica, sino también desde la mirada ética (asunto que se aborda aparte).

Es curioso que se omita con tanta frecuencia la hipótesis operacional -y frecuentemente también la conceptual- pues quien maneja las herramientas necesarias para emprender investigación científica en esta área debiera saber que el “fantasma” que se intuye sobre estos cálculos no es tal, sino un leal amigo. De hecho, el investigador, en la etapa de construir su método –dependiente del diseño elegido o posible-, tiene la oportunidad de explorar, modificando valores de los componentes del cálculo de tamaño muestral que le ayuda a saber, por ejemplo, cuál es la factibilidad real de su idea (el resultado de esto es lo que suele llamarse tradeoff).

El tamaño de la muestra puede resultar o bien muy grande para emprender el estudio, o bien pequeño; pero por el eventual bajo flujo de pacientes incidentes en un plazo muy corto para la ejecución, ambas situaciones pueden hacer imposible el desarrollo de ciertos diseños.

Con las ideas anteriormente expuestas pensamos que el sesgo de publicación -sobre todo el no detectable- puede estar más asociado a la existencia, en alguna parte del texto propuesto a los comités editoriales, de un “p” significativo -típicamente el codiciado ≤0,05-, que al tamaño de las muestras o poblaciones en estudio. La calidad de la muestra (representatividad) no es, demasiado frecuentemente, un factor tomado en cuenta (a menudo se echa de menos el esfuerzo de los autores por probar la representatividad). Esto es más importante aún si entendemos que una muestra supone un universo o población de la que fue extraída, en cuyo caso es imprescindible demostrar que sí es representativa de tal universo o población. Esto no aparece en las publicaciones con suficiente frecuencia, aún cuando los autores esperan que los resultados habrán de ser considerados por los lectores para la conceptualización de sus decisiones clínicas, lo que también contiene consideraciones éticas.

En algún grado de discrepancia con el Dr. Araujo, puedo sostener que las estadísticas de asociación “grandes” (OR=7) son sospechosas y, muy probablemente, serán motivo de rechazo de un proyecto de investigación clínico-epidemiológico que propone tal cosa a una comisión de revisores expertos. Agrego que son, además, fortuitas y peligrosas. Lo mismo vale para las utilizables en estudios de cohortes de todo tipo (incluidos los ensayos clínicos, controlados, aleatorios). Las bases de lo antedicho son de dos tipos: aritméticas (pues en los cálculos de tamaño de muestra cada componente es factor de variación –directa o inversa- sobre el tamaño de la muestra resultante); y también biológicas en el sentido clínico, según lo muestra la experiencia y, sobre todo, la literatura médica en nuestro campo.

A estas alturas, parece imprescindible dejar en claro que los resultados de estudios “truncos” o con muestras de tamaño insuficiente, no son objetables en cuanto son un hecho no discutible: es lo que resultó. El problema estriba en cómo se interpretan y a qué decisiones dan lugar. En este sentido es oportuno también mencionar que el uso de tablas para reemplazar los cálculos aludidos no resuelve el asunto, como tampoco el uso de programas computacionales tales como el Epi-Info y otros –hoy al alcance de cualquier persona- ni con las tablas de tamaños de muestra de textos prestigiosos2 3 si no se sabe bien qué y cómo hacer esta tarea.

Pero hay más: hay trabajos con grupos relativamente pequeños –o grandes- con medidas de asociación respaldadas por pruebas de significación estadística que arrojan valores de “p” iguales o menores que 0,05 que, por no tener hipótesis, se convierten en trabajos descriptivos cuyos resultados, sobre todo cuando se recurre a manipulaciones estadísticas (“modelando” los resultados) son candidatos seguros a información no válida. ¿Por qué? Tal vez valga la pena esperar otro espacio en el futuro para abordar este tema que resulta ser de mayor importancia que el anterior.

Mientras, hagamos una proposición a discutir con participación amplia: quien publica lo hace, intencional o inadvertidamente y suponiendo que se leerá lo suyo, para modificar el paradigma (o “estado de las cosas”) del tema abordado. Si la información es inválida –y hay numerosas maneras de serlo- las consecuencias recaerán en los pacientes que son atendidos por quienes modifiquen sus criterios en uso, a raíz de tal información. Esto encierra una seria responsabilidad ética, tanto para el que publica, como para el Comité Editorial y quienes se nutrieron de esa información.