robot de la enciclopedia para niños

Desviación típica para niños

Enciclopedia para niños
Archivo:Standard deviation diagram
Una gráfica de la distribución normal (o curva en forma de campana, o curva de Gauss), donde cada banda tiene un ancho de una vez la desviación estándar (véase también: regla 68-95-99.7)

En estadística, la desviación típica (también conocida como desviación estándar y desvío típico y representada de manera abreviada por la letra griega minúscula sigma σ o la letra latina s, así como por las siglas SD (de standard deviation, en algunos textos traducidos del inglés)) es una medida que se utiliza para cuantificar la variación o la dispersión de un conjunto de datos numéricos.

Una desviación estándar baja indica que la mayor parte de los datos de una muestra tienden a estar agrupados cerca de su media (también denominada el valor esperado), mientras que una desviación estándar alta indica que los datos se extienden sobre un rango de valores más amplio.

Consideraciones generales

Fórmulas fundamentales

Variable aleatoria discreta:

\mu = \frac{1}{N} \sum_{i=1}^N x_i (Media aritmética)
\sigma = \sqrt{\frac{1}{N} \sum_{i=1}^N (x_i - \mu)^2} (Población completa)
s = \sqrt{\frac{1}{N-1} \sum_{i=1}^N (x_i - \mu)^2} (Muestra de una población)

Expresiones equivalentes:

\sigma = \sqrt{\frac{1}{N} \left((\sum_{i=1}^N x_i^2) - N \mu^2\right)} (Población completa)
s = \sqrt{\frac{1}{N-1} \left((\sum_{i=1}^N x_i^2) - N \mu^2\right)} (Muestra de una población)

Variable aleatoria continua:

\sigma = \sqrt{\int_\mathbf{X} (x-\mu)^2 \, p(x) \, {\rm d} x}, {\rm \ \ donde\ \ } \mu = \int_\mathbf{X} x \, p(x) \, {\rm d} x,

La desviación estándar de una variable aleatoria, población estadística, conjunto de datos o distribución de probabilidad es la raíz cuadrada de su varianza. Es algebraicamente más simple, aunque en la práctica menos robusta, que la desviación media. Una propiedad útil de la desviación estándar es que, a diferencia de la varianza, se expresa en las mismas unidades que los datos a partir de los que se calcula.

Además de expresar la variabilidad de una población, la desviación estándar se usa comúnmente para medir la fiabilidad de las conclusiones estadísticas. Por ejemplo, el margen de error en los datos de los sondeos de opinión se determina calculando la desviación estándar esperada en los resultados si la misma encuesta se llevara a cabo varias veces. Esta interpretación de la desviación estándar a menudo se denomina "error estándar" de la estimación o "error estándar de la media" (cuando se refiere a una media). Se calcula como la desviación estándar de todas las medias que se calcularían a partir de esa población si se extrajera un número infinito de muestras y se calculase la media para cada muestra.

Es muy importante tener en cuenta que la desviación estándar de una población y el error estándar de una estadística obtenida a partir de esa población (como la media) son bastante diferentes, pero están relacionados (relacionados por la inversa de la raíz cuadrada del número de observaciones). El margen de error de una encuesta se calcula a partir del error estándar de la media (o, alternativamente, del producto de la desviación estándar de la población y la inversa de la raíz cuadrada del tamaño de la muestra, que es lo mismo) y es por lo general, aproximadamente el doble de la desviación estándar: la mitad del ancho de un intervalo de confianza del 95 por ciento.

En ciencia, muchos investigadores analizan la desviación estándar de los datos experimentales, y solo los efectos que se alejan hasta dos desviaciones estándar de la media, se consideran estadísticamente significativos: el error aleatorio normal o la variación en las mediciones se distinguen de esta manera de los efectos genuinos o asociaciones probables. En finanzas también es un indicador importante, puesto que la desviación estándar de la tasa de retorno de una inversión da una medida de su volatilidad.

Cuando solo está disponible una muestra de datos de una población, el término desviación estándar de la muestra o desviación estándar muestral, puede referirse a la cantidad mencionada anteriormente aplicada a esos datos, o también a una cantidad sobre la que se realiza un ajuste que sirve de estimación no sesgada de la desviación estándar de la población (es decir, de la desviación estándar de toda la población).

Ejemplos básicos

Desviación estándar muestral de la tasa metabólica de los petreles

El libro de Murray Logan "Biostatistical Design and Analysis Using R" da el ejemplo siguiente:


Los naturalistas Furness y Bryant midieron la tasa metabólica en reposo de 8 petreles reproductivos y de 6 hembras. La tabla muestra el conjunto de datos obtenidos por Furness.

Datos obtenidos por Furness de la tasa metabólica de los petreles del norte
Sexo Tasa metabólica Sexo Tasa metabólica
Macho 525.8 Hembra 727.7
Macho 605.7 Hembra 1086.5
Macho 843.3 Hembra 1091.0
Macho 1195.5 Hembra 1361.3
Macho 1945.6 Hembra 1490.5
Macho 2135.6 Hembra 1956.1
Macho 2308.7
Macho 2950.0
La gráfica muestra la tasa metabólica para machos y hembras. Por simple inspección visual, parece que la variabilidad de la tasa metabólica es mayor para los machos que para las hembras.

Gráfico de las tasas metabólicas de los petreles

La desviación estándar de la muestra de la tasa metabólica para las hembras de petrel se calcula como se explica a continuación. La fórmula para calcular la desviación estándar de la muestra es

s = \sqrt{\frac{\sum_{i=1}^N (x_i - \overline{x})^2}{N-1} }.

donde \textstyle\{x_1,\,x_2,\,\ldots,\,x_N\} son los valores observados de los elementos de la muestra, \textstyle\overline{x} es el valor medio de estas observaciones, y N es el número de observaciones de la muestra.

En la fórmula de la desviación estándar de la muestra, para este ejemplo, el numerador es la suma de las desviaciones al cuadrado de la tasa metabólica de cada animal respecto a la tasa metabólica media. La siguiente tabla muestra el cálculo de esta suma de desviaciones al cuadrado para los petreles hembra, cuya suma es de 886047.09, como se muestra en la tabla.

Cálculo de la suma de cuadrados para las hembras de petrel
Animal Sexo Tasa metabólica Media Diferencia con la media Diferencia con la media al cuadrado
1 Hembra 727.7 1285.5 -557.8 311140.84
2 Hembra 1086.5 1285.5 -199.0 39601.00
3 Hembra 1091.0 1285.5 -194.5 37830.25
4 Hembra 1361.3 1285.5 75.8 5745.64
5 Hembra 1490.5 1285.5 205.0 42025.00
6 Hembra 1956.1 1285.5 670.6 449704.36
Media de las tasas metabólicas: 1285.5 Suma de las diferencias al cuadrado: 886047.09

El denominador en la fórmula de la desviación estándar de la muestra es N-1, donde N es el número de hembras. En este ejemplo, hay N = 6 hembras, por lo que el denominador es 6-1 = 5. Por lo tanto, la desviación estándar de la muestra para los petreles hembra, es

s = \sqrt{\frac{\sum_{i=1}^N (x_i - \overline{x})^2}{N-1} } = \sqrt{\frac{886047.09}{5}} = 420.96.

Para los petreles macho, un cálculo similar proporciona una muestra de desviación estándar de 894.37, aproximadamente el doble que la desviación estándar para las hembras. La gráfica muestra los datos de la tasa metabólica, las medias (puntos rojos) y las desviaciones estándar (líneas rojas) para machos y hembras.

Gráfica de desviación estándar de la tasa metabólica de los petreles

El uso de la desviación estándar de la muestra implica que estos 14 petreles son una muestra de una población mayor. Si estos 14 petreles comprendieran toda la población (si fueran los últimos 14 petreles sobrevivientes), entonces se podría hablar de la desviación estándar de la población, en lugar de la desviación estándar de la muestra. En la fórmula de la desviación estándar de la población, el denominador es N en lugar de N-1. No siempre es posible tomar medidas de una población completa, por lo que de manera predeterminada, las aplicaciones informáticas de estadística suelen calcular la desviación estándar de la muestra (es decir, dividiendo por N-1). De manera similar, los artículos de revistas se refieren a la desviación estándar de la muestra, a menos que se especifique lo contrario.

Desviación estándar poblacional de las calificaciones de ocho alumnos

Supóngase que toda la población estudiada son ocho alumnos determinados de una clase en particular. Para un conjunto discreto de datos, la desviación estándar de la población se determina calculando la raíz cuadrada de la media de las desviaciones de los valores restados de su valor promedio, elevadas al cuadrado. Las calificaciones de la clase de ocho estudiantes (es decir, de la población estadística completa) son los siguientes ocho valores:

2,\  4,\  4,\  4,\  5,\  5,\  7,\  9.

Estos ocho datos tienen una media (promedio) de 5:

 \mu = \frac{2 + 4 + 4 + 4 + 5 + 5 + 7 + 9}{8} = 5.

En primer lugar, se calculan las desviaciones de cada dato respecto a la media, y se eleva al cuadrado el resultado de cada una:


    \begin{array}{lll}
    (2-5)^2 = (-3)^2 = 9  &&  (5-5)^2 = 0^2 = 0 \\
    (4-5)^2 = (-1)^2 = 1  &&  (5-5)^2 = 0^2 = 0 \\
    (4-5)^2 = (-1)^2 = 1  &&  (7-5)^2 = 2^2 = 4 \\
    (4-5)^2 = (-1)^2 = 1  &&  (9-5)^2 = 4^2 = 16 \\
    \end{array}

La varianza es la media de estos valores:

\sigma^2 = \frac{9 + 1 + 1 + 1 + 0 + 0 + 4 + 16}{8} = 4.

y la desviación estándar de la población es igual a la raíz cuadrada de la varianza:

\sigma = \sqrt{ 4 } = 2.

Esta fórmula es válida solo si los ocho valores con los que se trabaja forman la población completa. Si los valores, en cambio, fueran una muestra aleatoria extraída de una gran población de alumnos (por ejemplo, fueron 8 calificaciones elegidas al azar e independientemente de un censo de 2 millones de alumnos), entonces el resultado se obtendría dividiendo por 7 (que es N − 1) en lugar de por 8 (que es N) en el denominador de la última fórmula. En ese caso, el resultado de la fórmula original se denominaría la desviación estándar de la muestra. Dividir por N - 1 en lugar de por N da una estimación imparcial de la varianza de una población más grande. Esta modificación se conoce como corrección de Bessel.

Desviación estándar muestral de las edades de seis niños

Aquí se muestra cómo calcular la desviación estándar de un conjunto de datos. Los datos representan la edad de los miembros de un grupo de niños: {4, 1, 11, 13, 2, 7}

1. Calcular el promedio o media aritmética \overline{x}

\overline{x}=\frac{1}{n}\sum_{i=1}^n x_i

En este caso, n = 6:

x_1 = 4\,\!
x_2 = 1\,\!
x_3 = 11\,\!
x_4 = 13\,\!
x_5 = 2\,\!
x_6 = 7\,\!      Sustituyendo n por 6:
\overline{x}=\frac{1}{6}\sum_{i=1}^6 x_i
\overline{x}=\frac{1}{6} \left ( x_1 + x_2 + x_3 + x_4 + x_5 + x_6 \right )
\overline{x}=\frac{1}{6} \left ( 4 + 1 + 11 + 13 + 2 + 7 \right )
\overline{x}= 6,33

2. Calcular la desviación estándar s\,\!

s = \sqrt{\frac{1}{n-1} \sum_{i=1}^n (x_i - \overline{x})^2}      Sustituyendo n por 6:
s = \sqrt{\frac{1}{5} \sum_{i=1}^6 (x_i - \overline{x})^2}      Sustituyendo \overline{x} por 6,33:
s = \sqrt{\frac{1}{5} \sum_{i=1}^6 (x_i - 6,33)^2}
s = \sqrt{\frac{1}{5} \left [ (4 - 6,33)^2 + (1 - 6,33)^2 + (11 - 6,33)^2 + (13 - 6,33)^2 +(2 - 6,33)^2 + (7 - 6,33)^2 \right ] }
s = \sqrt{\frac{1}{5} \left [ (-2,33)^2 + (-5,33)^2 + 4,67^2 + 6,67^2 + (-4,33)^2 + 0,67^2 \right ] }
s = \sqrt{\frac{1}{5} \left ( 5,43 + 28,41 + 21,81 + 44,49 + 18,75 + 0,45 \right ) }
s = \sqrt{\frac{119,34}{5}}
s = \sqrt{23,87}
s \approx 4,88\,\!

Desviación estándar de la estatura media de hombres adultos

Si la población estudiada tiene una distribución aproximadamente normal, la desviación estándar proporciona información sobre la proporción de las observaciones que se sitúan por encima o por debajo de ciertos valores. Por ejemplo, la estatura media de los hombres adultos en los Estados Unidos es de aproximadamente 177.8 cm, con una desviación estándar de alrededor de 7.62 cm. Esto significa que la mayoría de los hombres (alrededor del 68%, suponiendo un distribución normal) tienen una altura dentro de un intervalo de 7.62 cm alrededor de la media (entre 170.18 y 185.42 cm) y que casi todos los hombres (alrededor del 95%) tienen una altura dentro de los 15.24 cm alrededor de la media (entre 162.56 y 193.04 cm), un intervalo de dos desviaciones estándar de radio. Si la desviación estándar fuera cero, entonces todos los hombres tendrían una altura de exactamente 177.8 cm (el valor medio). Si la desviación estándar fuera de 50.8 cm, entonces los hombres tendrían alturas mucho más variables, con un rango típico de aproximadamente entre 127 y 228.6 cm. Un intervalo de tres desviaciones estándar de radio representa el 99.7% de la población de la muestra que se estudia, asumiendo que posee una distribución normal (en forma de campana). Consúltese la regla 68-95-99.7, o "regla empírica" para obtener más información.

Definición de los valores de una población

Probabilidad

Sea X una variable aleatoria con valor medio:

\operatorname{E}[X] = \mu.\,\!

Aquí el operador E denota el promedio o la esperanza matemática de X. Entonces la desviación estándar de X es la cantidad

\begin{align}
  \sigma & = \sqrt{\operatorname E[(X - \mu)^2]}\\
         & = \sqrt{\operatorname E[X^2] + \operatorname E[-2 \mu X] + \operatorname E[\mu^2]}\\
            & = \sqrt{\operatorname E[X^2] -2 \mu \operatorname E[X] + \mu^2}\\
         & = \sqrt{\operatorname E[X^2] -2 \mu^2 + \mu^2}\\
           & = \sqrt{\operatorname E[X^2] - \mu^2}\\
         & = \sqrt{\operatorname E[X^2]-(\operatorname E[X])^2}
\end{align}

(deducida utilizando las propiedades de la media).

En otras palabras, la desviación estándar σ (σ) es la raíz cuadrada de la varianza de X; es decir, es la raíz cuadrada del valor promedio de (X - μ)2.

La desviación estándar de una distribución de probabilidad (de una variable) es la misma que la de una variable aleatoria que tiene esa distribución. No todas las variables aleatorias tienen una desviación estándar, ya que estos valores no siempre existen necesariamente. Por ejemplo, la desviación estándar de una variable aleatoria que sigue una distribución de Cauchy no está definida, porque su valor esperado μ no está definido.

Variable aleatoria discreta

En el caso donde X toma valores aleatorios de un conjunto de datos finito x1, x2, ..., xN, con cada valor con la misma probabilidad, la desviación estándar es

\sigma = \sqrt{\frac{1}{N}\left[(x_1-\mu)^2 + (x_2-\mu)^2 + \cdots + (x_N - \mu)^2\right]}, {\rm \ \ donde\ \ } \mu = \frac{1}{N} (x_1 + \cdots + x_N),

o, usando la notación con un sumatorio,

\sigma = \sqrt{\frac{1}{N} \sum_{i=1}^N (x_i - \mu)^2}, {\rm \ \ donde\ \ } \mu = \frac{1}{N} \sum_{i=1}^N x_i.

Si, en lugar de poseer probabilidades iguales, los valores poseen probabilidades diferentes, entonces se tiene que x1 tiene la probabilidad p1, x2 tiene una probabilidad p2, ..., xN tiene una probabilidad pN. En este caso, la desviación estándar será

\sigma = \sqrt{\sum_{i=1}^N p_i(x_i - \mu)^2} , {\rm \ \ donde\ \ } \mu = \sum_{i=1}^N p_i x_i.

Variable aleatoria continua

La desviación estándar de una variable aleatoria continua real X con una función de densidad de probabilidad p(x) es

\sigma = \sqrt{\int_\mathbf{X} (x-\mu)^2 \, p(x) \, {\rm d} x}, {\rm \ \ donde\ \ } \mu = \int_\mathbf{X} x \, p(x) \, {\rm d} x,

donde las integrales en x se extienden sobre el todo el conjunto de valores posibles de la variable aleatoria X.

En el caso de una familia paramétrica de distribuciones, la desviación estándar se puede expresar en términos de sus parámetros. Por ejemplo, en el caso de la distribución log-normal con los parámetros μ y σ2, la desviación estándar es

\sqrt{(e^{\sigma^2} - 1)e^{2\mu + \sigma^2}}

Desviación estándar de distribuciones de probabilidad conocidas

Distribución Parámetros Descripción Desviación típica
Distribución de Bernoulli p Distribución discreta de valor 0 con probabilidad (1-p); y de valor 1 con probabilidad p. \sigma=\sqrt{p(1-p)}
Distribución binomial p y n\in\N^* Distribución de la suma de n variables independientes de acuerdo con la distribución de Bernoulli de parámetro p. \sigma=\sqrt{n p (1-p)}
Distribución geométrica p Distribución discreta en \N, tal que la probabilidad de obtener un número entero n es (1-p)p^n. \sigma=\sqrt{\frac{1-p}{p^2}}
Distribución uniforme continua a<b Distribución uniforme continua en \R, cuya densidad es un múltiplo de la función indicadora de [a,b]. \sigma=\frac{b-a}{\sqrt{12}}
Distribución exponencial p Distribución uniforme continua con soporte \R_+, cuya densidad es la función f\colon x \mapsto p \exp(-p x). \sigma=\frac{1}{p}
Distribución de Poisson \lambda Distribución en \N, cuya densidad es la función f\colon x \mapsto \exp(-\lambda)\frac{\lambda^x}{x!}, en la que \lambda \in \R_+. \sigma=\sqrt{\lambda}
Distribución χ²  n Distribución en \R^+, cuya densidad es la función f\colon x \mapsto \frac{1}{2^\frac{n}{2}\Gamma(\frac{n}{2})} x^{\frac{n}{2} - 1} e^{-\frac{x}{2}}\, para todo x positivo, en la que \Gamma es la función gamma. \sigma=\sqrt{2n}
Distribución gamma \alpha,  r y  x Distribución de probabilidad continua, cuya densidad es la función f(x;{\alpha},r) = \frac{\alpha}{\Gamma(r)}(\alpha x)^{r-1} e^{-\alpha x}, para todo x positivo, en la que \Gamma es la función gamma. \sigma=\frac{\sqrt{r}}{\alpha}

La desviación estándar de una distribución de probabilidad de una sola variable es igual a la desviación estándar de una variable aleatoria con la misma distribución. No todas las variables aleatorias tienen desviación estándar, ya que los valores esperados pueden no existir. Por ejemplo, la desviación estándar de una variable que sigue una distribución de Cauchy es indefinida, porque el valor de la media de la distribución es indefinida.

Estimación

Es posible encontrarse con la desviación estándar de una población completa en casos donde se conoce el valor de todos y cada uno de los miembros de una población. En los casos en que esto no se puede hacer (en general, por tratarse con poblaciones muy grandes), la desviación estándar σ se estima examinando una muestra de la población tomada aleatoriamente, y calculando un tratamiento estadístico de la muestra dada, que se utiliza como una estimación de la desviación estándar de la población. Dicha estadística se denomina un estimador, y el estimador (o el valor del estimador, a saber, la estimación) se denomina desviación estándar de la muestra y se denota con s (posiblemente con modificadores). Sin embargo, a diferencia del caso de estimar la media poblacional, para la que la media muestral es un estimador simple con muchas propiedades deseables (sin sesgo, eficiente y con máxima probabilidad), no existe un estimador único para la desviación estándar con todas estas propiedades, y la estimación de la desviación estándar no sesgada es un problema con muchas implicaciones técnicas. La mayoría de las veces, la desviación estándar se calcula utilizando la desviación estándar de la muestra corregida (usando N - 1, definida a continuación), y que a menudo se conoce simplemente como la "desviación estándar de la muestra", sin calificadores. Sin embargo, otros estimadores son mejores en algunos aspectos: el estimador no corregido (que usa N) produce un error cuadrático medio más bajo, mientras que el uso de N − 1.5 (para una distribución normal) elimina el sesgo casi por completo.

Desviación estándar no corregida de una muestra

La fórmula para la desviación estándar de una población (de una población finita) se puede aplicar a la muestra, utilizando el tamaño de la muestra como el tamaño de la población (aunque el tamaño real de la población de la que se extrae la muestra sea mucho más grande). Este estimador, denotado por sN, se conoce como la desviación estándar de la muestra no corregida, o algunas veces como la desviación estándar de la muestra (considerada como la población total), y se define como sigue:


s_N = \sqrt{\frac{1}{N} \sum_{i=1}^N (x_i - \overline{x})^2},

donde \textstyle\{x_1,\,x_2,\,\ldots,\,x_N\} son los valores observados de los elementos de la muestra y \textstyle\overline{x} es el valor medio de estas observaciones, mientras que el denominador N representa el tamaño de la muestra: esta es la raíz cuadrada de la varianza de la muestra, que es el promedio de las desviaciones al cuadrado respecto a la media muestral.

Este es un estimador consistente (porque converge en probabilidad al valor de la población cuando el número de muestras llega al infinito), y posee la máxima verosimilitud estimada cuando la población está normalmente distribuida.

Sin embargo, posee un sesgo estadístico, ya que el número de observaciones es generalmente demasiado bajo. El sesgo disminuye a medida que crece el tamaño de la muestra, disminuyendo como 1/N, y por lo tanto es más significativo para tamaños de muestra pequeños o moderados; para N > 75 el sesgo es inferior al 1 %. Por lo tanto, para tamaños de muestra muy grandes, la desviación estándar de la muestra no corregida es generalmente aceptable. Este estimador también tiene un error cuadrático medio uniformemente más pequeño que la desviación estándar corregida de la muestra.

Desviación estándar corregida de una muestra

Si la varianza sesgada (el segundo momento central de la muestra, que es una estimación sesgada hacia abajo de la varianza de la población) se utiliza para calcular una estimación de la desviación estándar de la población, el resultado es


s_N =\sqrt{ \frac{1}{N} \sum_{i=1}^N (x_i - \overline{x})^2}.

Aquí, al tomar la raíz cuadrada se introduce un sesgo más hacia abajo, por la desigualdad de Jensen, debido a que la raíz cuadrada es una función cóncava. El sesgo en la varianza se corrige fácilmente, pero el sesgo de la raíz cuadrada es más difícil de corregir y depende de la distribución en cuestión.

Se obtiene un estimador no sesgado de la varianza aplicando la corrección de Bessel, usando N − 1 en lugar de N para obtener la varianza de la muestra no sesgada, denotada por s2:

s^2 = \frac{1}{N-1} \sum_{i=1}^N (x_i - \overline{x})^2.

Este estimador es insesgado si existe la varianza y los valores de la muestra se extraen independientemente con reemplazo (es decir, cada elemento de la muestra se devuelve a la población antes de elegir el siguiente elemento). N - 1 corresponde al número de grados de libertad del vector de desviaciones de la media, \textstyle(x_1-\overline{x},\; \dots,\; x_n-\overline{x}).

Al calcular la raíz cuadrada se reintroduce un sesgo (porque la raíz cuadrada es una función no lineal, que no posee la propiedad commutativa con respecto a la media), lo que produce la desviación estándar de la muestra corregida, denotada por s:

s = \sqrt{\frac{1}{N-1} \sum_{i=1}^N (x_i - \overline{x})^2}.

Como se explicó anteriormente, mientras que s2 es un estimador no sesgado de la varianza poblacional, s sigue siendo un estimador sesgado para la desviación estándar de la población, aunque es notablemente menos sesgado que la desviación estándar de la muestra no corregida. Este estimador se usa comúnmente y generalmente se conoce simplemente como la "desviación estándar de la muestra". El sesgo aún puede ser grande para muestras pequeñas (N menor de 10). A medida que aumenta el tamaño de la muestra, el valor del sesgo disminuye. A medida que se dispone de más información, la diferencia entre \frac{1}{N} y \frac{1}{N-1} se hace cada vez más pequeña.

Desviación estándar no sesgada de una muestra

Para la estimación de la desviación estándar no sesgada, no existe una fórmula que funcione en todas las distribuciones, a diferencia de lo que sucede con la media y con la varianza. En su lugar, s se usa como base y se escala según un factor de corrección para producir una estimación no sesgada. Por ejemplo, para la distribución normal, un estimador no sesgado viene dado por s/c4, donde el factor de corrección (que depende de N) se da en términos de la función gamma, y es igual a:

c_4(N)\,=\,\sqrt{\frac{2}{N-1}}\,\,\,\frac{\Gamma\left(\frac{N}{2}\right)}{\Gamma\left(\frac{N-1}{2}\right)}.

Esto se debe a que la distribución de la desviación estándar de la muestra sigue una distribución χ (escalada), y el factor de corrección es la media de la distribución χ.

Se puede dar una aproximación reemplazando N − 1 por N − 1.5, dando como resultado:


    \hat\sigma = \sqrt{ \frac{1}{N - 1.5} \sum_{i=1}^N (x_i - \bar{x})^2 },

El error en esta aproximación decae de forma cuadrática (como 1/N2), y es adecuado para todas las muestras, excepto las más pequeñas o cuando se requiere una precisión máxima: para N = 3, el sesgo es igual al 1.3%, y para N = 9 el sesgo ya es menor del 0.1%.

Una aproximación más precisa es reemplazar el N-1.5 anterior por N-1.5+1/(8(N-1)). Para otras distribuciones, la fórmula correcta depende de la distribución, pero una regla de oro es usar el refinamiento adicional de la aproximación:


    \hat\sigma = \sqrt{ \frac{1}{N - 1.5 - \tfrac14 \gamma_2} \sum_{i=1}^N (x_i - \bar{x})^2 },

donde γ2 denota la curtosis de la población. El exceso de curtosis puede ser conocido de antemano para ciertas distribuciones, o estimado a partir de los datos.

Intervalo de confianza de la desviación estándar de una muestra

La desviación estándar que se obtiene de una muestra de una distribución no es del todo precisa, por razones matemáticas (de acuerdo con el intervalo de confianza) y por razones prácticas de medición (error de medición). El efecto matemático puede ser descrito por el intervalo de confianza o CI.

Para mostrar cómo una muestra más grande hace que el intervalo de confianza sea más estrecho, considérense los siguientes ejemplos:

Una pequeña población de N = 2 tiene solo 1 grado de libertad para estimar la desviación estándar. El resultado es que un IC del 95% de la desviación estándar se extiende desde 0.45 × s a 31.9 × s; los factores son aquí los siguientes:

 \Pr \left( q_{\alpha/2} < k \frac{s^2}{\sigma^2} < q_{1-\alpha/2} \right) = 1-\alpha,

donde q_p es el p-cuantil de la distribución χ² con k grados de libertad, y 1-\alpha es el nivel de confianza. Esto es equivalente a lo siguiente:

 \Pr \left( k \frac{s^2}{q_{1-\alpha/2}} < \sigma^2 < k \frac{s^2}{q_{\alpha/2}} \right) = 1-\alpha.

Con k=1, q_{0.025} = 0.000982 y q_{0.975} = 5.024. Los recíprocos de las raíces cuadradas de estos dos números proporcionan los factores 0.45 y 31.9 dados anteriormente.

Una población mayor de N = 10 tiene 9 grados de libertad para estimar la desviación estándar. Los mismos cálculos anteriores proporcionan en este caso un IC del 95%, que va desde 0.69 × SD a 1.83 × SD. Por lo tanto, incluso con una población de 10 muestras, la desviación estándar real puede ser casi dos veces mayor que la de la muestra. Para una población con una muestra de N = 100, esto se reduce a 0.88 × SD a 1.16 × s. Para estar más seguros de que la desviación estándar de la muestra queda cerca de la real, se necesita una muestra con un gran número de datos.

Estas mismas fórmulas se pueden usar para obtener intervalos de confianza con la varianza de los residuos de un ajuste por mínimos cuadrados según la teoría normal estándar, donde k sería el número de grados de libertad del error.

Identidades y propiedades matemáticas

La desviación estándar es invariante bajo los cambios del origen de coordenadas utilizado para la toma de los datos, y es directamente proporcional con respecto a la escala de la variable aleatoria. Por lo tanto, para una constante c y variables aleatorias X e Y:

 \sigma(c) = 0 \,
 \sigma(X + c) = \sigma(X), \,
 \sigma(cX) = |c| \sigma(X). \,

La desviación estándar de la suma de dos variables aleatorias se puede relacionar con sus desviaciones estándar individuales y la covarianza entre ellas:

 \sigma(X + Y) = \sqrt{\operatorname{var}(X) + \operatorname{var}(Y) + 2 \,\operatorname{cov}(X,Y)}. \,

donde \textstyle\operatorname{var} \,=\, \sigma^2 y \textstyle\operatorname{cov} representan la varianza y la covarianza respectivamente.

El cálculo de la suma de las desviaciones al cuadrado se puede relacionar con los momentos calculados directamente a partir de los datos. En la siguiente fórmula, la letra E se interpreta como el valor esperado, es decir, la media.


\sigma(X) = \sqrt{\operatorname E[(X - \operatorname E[X])^2]} = \sqrt{\operatorname E[X^2] - (\operatorname E[X])^2}.

La desviación estándar de la muestra se puede calcular como:


s(X) = \sqrt{\frac{N}{N-1}} \sqrt{\operatorname E[(X - \operatorname E[X])^2]}.

Para una población finita con probabilidades iguales en todos los puntos, se tiene


\sqrt{\frac{1}{N}\sum_{i=1}^N(x_i-\overline{x})^2} = \sqrt{\frac{1}{N} \left(\sum_{i=1}^N x_i^2\right) - (\overline{x})^2} = \sqrt{\left(\frac{1}{N} \sum_{i=1}^N x_i^2\right) - \left(\frac{1}{N} \sum_{i=1}^{N} x_i\right)^2}.

Esto significa que la desviación estándar es igual a la raíz cuadrada de la diferencia entre el promedio de los cuadrados de los valores y el cuadrado del valor promedio.

Consúltese la fórmula de cálculo de la varianza para un resultado análogo con la desviación estándar de la muestra.

Reglas para datos con una distribución normal

Archivo:Standard deviation diagram
El color azul oscuro representa el intervalo de la desviación estándar a ambos lados de la media. Para la distribución normal, esto representa el 68.27 por ciento del conjunto; mientras que dos desviaciones estándar de la media (azul medio y oscuro) representan 95.45 por ciento; tres desviaciones estándar (azul claro, medio y oscuro) representan el 99.73 por ciento; y cuatro desviaciones estándar representan el 99.994 por ciento. Los dos puntos de la curva situados a una desviación estándar de la media son también los puntos de inflexión de la gráfica.

Teorema del límite central

El teorema del límite central establece que la distribución de un promedio de muchas variables aleatorias independientes e idénticamente distribuidas tiende hacia la famosa distribución normal en forma de campana con una función de densidad de probabilidad de

f(x;\mu,\sigma^2) = \frac{1}{\sigma\sqrt{2\pi}} e^{ -\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2 }

donde μ es la esperanza matemática de las variables aleatorias, σ equivale a la desviación estándar de su distribución dividida por n1/2, y n es el número de variables aleatorias. Por lo tanto, la desviación estándar es simplemente una variable de escala que ajusta la amplitud de la curva, aunque también aparece en la constante de normalización.

Si una distribución de datos es aproximadamente normal, entonces la proporción de valores de datos dentro de z desviaciones estándar de la media, se define por:

 \text{Proporción} = \operatorname{erf}\left(\frac z {\sqrt 2}\right)

donde \textstyle\operatorname{erf} es la función error. La proporción que es menor o igual a un número, x, viene dada por la función de distribución:

 \text{Proporción} \le x = \frac12\left[1 + \operatorname{erf}\left( \frac{x-\mu}{\sigma\sqrt{2}}\right)\right] = \frac12\left[1 + \operatorname{erf}\left( \frac z {\sqrt{2}} \right)\right]

Si una distribución de datos es aproximadamente normal, cerca del 68 por ciento de los valores de los datos estarán dentro de una desviación estándar de la media (matemáticamente, μ ± σ, donde μ es la media aritmética), del orden del 95 por ciento estarán dentro de dos desviaciones estándar, y en torno a un 99.7 por ciento estarán dentro de tres desviaciones estándar (3σ ). Esto se conoce como la regla 68-95-99.7, o la regla empírica.

Para varios valores de z, el porcentaje de valores que se espera que se encuentren dentro y fuera del intervalo simétrico, CI = (-), son los siguientes:

Archivo:Confidence interval by Standard deviation
Porcentaje dentro de (z)
Archivo:Standard deviation by Confidence interval
z para el porcentaje abarcado
Intervalo
de Confianza
Proporción dentro Proporción fuera
Porcentaje Porcentaje Fracción
0.318 639 σ 25 % 75 % 3 / 4
0,674490 σ 50 % 50 % 1 / 2
0,994458 σ 68 % 32 % 1 / 3,125
1 σ 68,2689492 % 31,7310508 % 1 / 3,1514872
1,281552 σ 80 % 20 % 1 / 5
1,644854 σ 90 % 10 % 1 / 10
1,959964 σ 95 % 5 % 1 / 20
2 σ 95,4499736 % 4,5500264 % 1 / 21,977895
2,575829 σ 99 % 1 % 1 / 100
3 σ 99,7300204 % 0,2699796 % 1 / 370,398
3,290527 σ 99,9 % 0,1 % 1 / 1000
3,890592 σ 99,99 % 0,01 % 1 / 10 000
4 σ 99,993666 % 0,006334 % 1 / 15 787
4,417173 σ 99,999 % 0,001 % 1 / 100 000
4.5 σ 99,9993204653751 % 0,0006795346249 % 3.4 / 1 000 000
(a cada lado de la media)
4,891638 σ 99,9999 % 0,0001 % 1 / 1 000 000
5 σ 99,9999426697 % 0,0000573303 % 1 / 1 744 278
5,326724 σ 99,99999 % 0,00001 % 1 / 10 000 000
5,730729 σ 99,999999 % 0,000001 % 1 / 100 000 000
6 σ 99,9999998027 % 0,0000001973 % 1 / 506 797 346
6,109410 σ 99,9999999 % 0,0000001 % 1 / 1 000 000 000
6,466951 σ 99,99999999 % 0,00000001 % 1 / 10 000 000 000
6,806502 σ 99,999999999 % 0,000000001 % 1 / 100 000 000 000
7 σ 99,9999999997440 % 0,000000000256 % 1 / 390 682 215 445

Desigualdad de Chebyshov

Archivo:Dp-simétrica
Regiones de probabilidad de los intervalos de la desigualdad de Chebyshov en una distribución simétrica

Una observación cualquiera rara vez se sitúa a más de unas pocas desviaciones estándar de la media. La desigualdad de Chebyshov garantiza que, para todas las distribuciones para las que se define la desviación estándar, la cantidad de datos dentro de una serie de desviaciones estándar de la media es al menos la que se indica en la siguiente tabla.

Distancia respecto a la media Población mínima abarcada
\sqrt{2}\,\sigma 50%
2σ 75%
3σ 89%
4σ 94%
5σ 96%
6σ 97%
k\sigma  1 - \frac 1 {k^2}
\frac 1 {\sqrt{1-\ell}} \, \sigma \ell

Relación entre la desviación estándar y la media

En estadística descriptiva, la media y la desviación estándar de un conjunto de datos son generalmente facilitadas juntas. En cierto sentido, la desviación estándar es una medida "natural" de las medidas de dispersión si el centro de los datos se mide alrededor de la media. Esto se debe a que la desviación estándar respecto a la media es menor que desde cualquier otro punto. La declaración precisa es la siguiente:

Supóngase que x1, ..., xn son números reales y se define la función:

\sigma(r) = \sqrt{\frac{1}{N-1} \sum_{i=1}^N (x_i - r)^2}

Usando el cálculo infinitesimal o completando el cuadrado, es posible demostrar que σ(r) tiene un mínimo único en la media:

r = \overline{x}.\,

La variabilidad también puede medirse mediante el coeficiente de variación, que es la relación de la desviación estándar con respecto a la media. Es una magnitud adimensional.

Desviación estándar de la media

A menudo, se requiere información sobre la precisión de la media obtenida. Este parámetro se puede obtener determinando la desviación estándar de la media de la muestra. Suponiendo una independencia estadística de los valores de la muestra, la desviación estándar de la media está relacionada con la desviación estándar de la distribución por:

\sigma_{\text{media}} = \frac{1}{\sqrt{N}}\sigma

donde N es el número de observaciones de la muestra utilizada para estimar la media. Esto se puede probar fácilmente con (véanse las propiedades básicas de la varianza):

\begin{align}
\operatorname{var}(X) &\equiv \sigma^2_X\\
\operatorname{var}(X_1+X_2) &\equiv \operatorname{var}(X_1) + \operatorname{var}(X_2)\\  
\end{align}

(se supone la independencia estadística de los datos).

\begin{align}  
\operatorname{var}(cX_1) &\equiv c^2 \, \operatorname{var}(X_1)
\end{align}

por lo tanto


\begin{align}
\operatorname{var}(\text{media})
 &= \operatorname{var}\left (\frac{1}{N} \sum_{i=1}^N X_i \right)
   = \frac{1}{N^2}\operatorname{var}\left (\sum_{i=1}^N X_i \right ) \\
 &= \frac{1}{N^2}\sum_{i=1}^N \operatorname{var}(X_i)
   = \frac{N}{N^2} \operatorname{var}(X)
   = \frac{1}{N} \operatorname{var} (X).
\end{align}

De aquí se deduce que:

\sigma_\text{media} = \frac{\sigma}{\sqrt{N}}.

Se debe enfatizar que para estimar la desviación estándar de la media \sigma_\text{media} es necesario conocer de antemano la desviación estándar de toda la población \sigma. Sin embargo, en la mayoría de las aplicaciones este parámetro es desconocido. Por ejemplo, si se realiza una serie de 10 mediciones de una cantidad previamente desconocida en un laboratorio, es posible calcular la media de la muestra resultante y la desviación estándar de la muestra, pero es imposible calcular la desviación estándar de la media.

Métodos de cálculo rápido

Las dos fórmulas siguientes permiten calcular una desviación estándar agregando datos. Un conjunto de dos sumas de potencias s1 y s2 se calculan sobre un conjunto de N valores de x, denotado como x1, ... , xN:

\ s_j=\sum_{k=1}^N{x_k^j}

Dados los resultados de estas sumas en ejecución, los valores N, s1, s2 se pueden usar en cualquier momento para calcular el valor actual de la desviación estándar de ejecución:

\sigma = \frac{\sqrt{Ns_2-s_1^2} }{N}

Donde N, como se mencionó anteriormente, es el tamaño del conjunto de valores (o también puede considerarse como s0).

Del mismo modo, para la desviación estándar de la muestra,

s = \sqrt{\frac{Ns_2-s_1^2}{N(N-1)}}

En un programa de ordenador, a medida que las sumas de tres sj se hacen grandes, se debe considerar el error de redondeo y el desbordamiento aritmético (por rebosamiento de grandes cantidades o por la pérdida de la mantisa). El siguiente método calcula el método de las sumas con errores de redondeo reducidos. Se trata de un algoritmo de "una pasada" para calcular la varianza de n muestras sin la necesidad de almacenar los datos anteriores durante el cálculo. La aplicación de este método a una serie devuelve valores sucesivos de la desviación estándar correspondiente a n datos a medida que n crece con cada nueva muestra, en lugar de un cálculo que requiera analizar en su totalidad el nuevo conjunto de datos.

Para k = 1, ..., n:

\begin{align}
A_0 &= 0\\
A_k &= A_{k-1}+\frac{x_k-A_{k-1}}{k}
\end{align}

donde A es el valor medio.

\begin{align}
Q_0 &= 0\\
Q_k &= Q_{k-1}+\frac{k-1}{k} (x_k-A_{k-1})^2 = Q_{k-1}+ (x_k-A_{k-1})(x_k-A_k)\\
\end{align}

Nota: Q_1 = 0 desde k-1 = 0 o x_1 = A_1

Varianza de la muestra:

s^2_n=\frac{Q_n}{n-1}

Varianza de la población:

\sigma^2_n=\frac{Q_n}{n}

Cálculo ponderado

Cuando los valores xi se ponderan con pesos desiguales wi, las sumas de potencias s0, s1, s2 se computan como:

\ s_j=\sum_{k=1}^N{w_k x_k^j}.\,

y las ecuaciones de la desviación estándar se mantienen sin cambios. Téngase en cuenta que s0 es ahora la suma de los pesos y no el número de muestras N.

El método incremental con errores de redondeo reducidos también se puede aplicar, con cierta complejidad adicional.

Se debe calcular una suma de pesos para cada k desde 1 hasta n:

\begin{align}
W_0 &= 0\\
W_k &= W_{k-1} + w_k
\end{align}

y los lugares donde se usa 1/n anteriormente deben reemplazarse por wi/Wn:

\begin{align}
A_0 &= 0\\
A_k &= A_{k-1}+\frac{w_k}{W_k}(x_k-A_{k-1})\\
Q_0 &= 0\\
Q_k &= Q _{k-1} + \frac{w_k W_{k-1}}{W_k}(x_k-A_{k-1})^2 = Q_{k-1}+w_k(x_k-A_{k-1})(x_k-A_k)
\end{align}

En la división final,

\sigma^2_n=\frac{Q_n}{W_n}\,

y

s^2_n = \frac{Q_n}{W_n-1},

o

s^2_n = \frac{n'}{n'-1} \sigma^2_n,

donde n es el número total de elementos, y n' es el número de elementos con ponderaciones distintas de cero. Las fórmulas anteriores se hacen iguales a las fórmulas más simples dadas arriba si los pesos se toman como iguales a uno.

Historia

El término desviación estándar fue utilizado por primera vez en un escrito por Karl Pearson, en una comunicación a la Royal Society de 1894, aunque ya lo había utilizado en sus clases. Esta denominación sustituyó a otros nombres anteriores de la misma idea: por ejemplo, Gauss usó la expresión error medio.

Véase también

Kids robot.svg En inglés: Standard deviation Facts for Kids

  • Regla 68-95-99.7
  • Precisión y exactitud
  • Desigualdad de Chebyshov
  • Desigualdad de Samuelson
  • Cumulante
  • Desviación (estadística)
  • Correlación de la distancia
  • Barra de error
  • Desviación estándar geométrica
  • Distancia de Mahalanobis
  • Error absoluto medio
  • Varianza agrupada
  • Propagación de errores
  • Percentil
  • Puntuación bruta
  • Coeficiente de variación
  • Media cuadrática
  • Tamaño de la muestra
  • Seis Sigma
  • Error estándar
  • Unidad tipificada
  • Volatilidad (finanzas)
  • Parámetro estadístico
  • Desviación estándar robusta
  • Método de Yamartino
kids search engine
Desviación típica para Niños. Enciclopedia Kiddle.