Artículos

1.6.6.1: ¿Qué es una prueba estadística?


Suponga que comparamos dos conjuntos de números, medidas que provienen de dos muestras. A partir de la comparación, encontramos que son diferentes. Pero, ¿cómo saber si esta diferencia no surgió por casualidad? En otras palabras, ¿cómo decidir que nuestras dos muestras son realmente diferentes, es decir, que no provienen de la única población?

Estas muestras podrían ser, por ejemplo, medidas de presión arterial sistólica. Si estudiamos el fármaco que potencialmente reduce la presión arterial, es sensato mezclarlo al azar con un placebo y luego pedir a los miembros del grupo que informen su presión arterial el primer día del ensayo y, dicho, el décimo día. Entonces la diferencia entre dos medidas permitirá decidir si hay algún efecto:

Código ( PageIndex {1} ) (R):

Ahora, hay un efecto prometedor, suficiente diferencia entre las diferencias de presión arterial con el fármaco y con el placebo. Esto también es bien visible con diagramas de caja (cheque usted mismo). ¿Cómo probarlo? Ya sabemos cómo usar el valor p, pero es el final de la cadena lógica. Empecemos por el principio.

Hipótesis estadísticas

Los filósofos postularon que la ciencia nunca puede probar una teoría, sino sólo refutar eso. Si recopilamos 1000 hechos que apoyan una teoría, no significa que la hayamos probado; es posible que la prueba número 1001 la refute. Es por eso que en las pruebas estadísticas usamos comúnmente dos hipótesis. La que estamos tratando de probar se llama hipótesis alternativa ( (H_1 )). El otro, el predeterminado, se llama hipótesis nula ( (H_0 )). La hipótesis nula es una proposición de ausencia de algo (por ejemplo, diferencia entre dos muestras o relación entre dos variables). No podemos probar la hipótesis alternativa, pero podemos rechazar la hipótesis nula y, por lo tanto, cambiar a la alternativa. Si no podemos rechazar la hipótesis nula, entonces debemos quedarnos con ella.

Errores estadísticos

Con dos hipótesis, hay cuatro resultados posibles (Tabla ( PageIndex {1} )).

El primer (a) y el último (d) resultado son casos ideales: o aceptamos la hipótesis nula que es correcta para la población estudiada, o rechazamos (H_0 ) cuando es incorrecta.

Si hemos aceptado la hipótesis alternativa, cuando no es cierta, hemos cometido una Error estadístico tipo I—Hemos encontrado un patrón que no existe. Esta situación a menudo se denomina "falso positivo" o "falsa alarma". La probabilidad de cometer un error de Tipo I está relacionada con un valor p que siempre se informa como uno de los resultados de una prueba estadística. De echo, El valor p es una probabilidad de tener el mismo o mayor efecto si la hipótesis nula es verdadera.

Imagínese al oficial de seguridad de guardia nocturna que escucha algo extraño. Hay dos opciones: saltar y comprobar si este ruido es un indicio de algo importante o continuar relajándose. Si el ruido exterior no es importante o incluso no es real, pero el oficial saltó, este es el error Tipo I. La probabilidad de escuchar el ruido sospechoso cuando en realidad no sucede nada en un valor p.

muestra poblaciónNulo es verdadLa alternativa es verdadera
Aceptar nulo
Aceptar alternativa

Tabla ( PageIndex {1} ) Hipótesis estadísticas, incluidas ilustraciones de errores (b) Tipo I y (c) Tipo II. Los puntos más grandes son muestras, todos los puntos son poblaciones.

Para el oficial de seguridad, probablemente sea mejor cometer un error de Tipo I que omitir algo importante. Sin embargo, en ciencia la situación es contraria: siempre nos quedamos con (H_0 ) cuando la probabilidad de cometer un error Tipo I es demasiado alto. Filosóficamente, esta es una variante de La navaja de Occam: los científicos siempre prefieren no introducir nada (es decir, cambiar a una alternativa) sin necesidad.

el hombre que por sí solo salvó al mundo de la guerra nuclear

Este enfoque podría encontrarse también en otros ámbitos de nuestra vida. Lea el artículo de Wikipedia sobre Stanislav Petrov (https://en.Wikipedia.org/wiki/Stanislav_Petrov); este es otro ejemplo cuando la falsa alarma es demasiado costosa.

La pregunta obvia es ¿qué probabilidad es "demasiado alta"? La respuesta convencional coloca ese umbral en 0.05; la hipótesis alternativa se acepta si el valor p es menor al 5% (nivel de confianza superior al 95%). En medicina, con vidas humanas en juego, los umbrales se establecen aún más estrictamente, en el 1% o incluso en el 0,1%. Por el contrario, en las ciencias sociales es frecuente aceptar el 10% como umbral. Sea lo que sea lo que se eligió como umbral, debe establecerse a priori, antes de cualquier prueba. No está permitido modificar el umbral para encontrar una excusa para tomar una decisión estadística.

Figura ( PageIndex {1} ) Esquema de decisión estadística (para prueba de una cola). ( alpha ) es la probabilidad de error de tipo I, ( beta ) - de error de tipo II. Antes de la prueba, debemos establecer ( alpha ), generalmente en 0.05. Luego usamos los datos originales para calcular la estadística (adivinar la ubicación de la línea vertical negra). A continuación, usamos la estadística para calcular el valor p. Finalmente, si el valor p es menor que ( alpha ), rechazamos la hipótesis nula.

Aceptar la hipótesis nula cuando en realidad la alternativa es verdadera es una Error estadístico tipo II—Falla en detectar un patrón que realmente existe. Esto se llama "falso negativo", "descuido". Si el oficial de seguridad descuidado no saltó cuando el ruido exterior es realmente importante, esto es Error de tipo II. La probabilidad de cometer un error de tipo II se expresa como energía de la prueba estadística (Figura ( PageIndex {1} )). Cuanto menor es esta probabilidad, más poderosa es la prueba.