robot de la enciclopedia para niños

Teorema del límite central para niños

Enciclopedia para niños

El teorema del límite central o teorema central del límite indica que, en condiciones muy generales, si S_n es la suma de n variables aleatorias independientes, con media conocida y varianza no nula pero finita, entonces la función de distribución de S_n «se aproxima bien» a una distribución normal (también llamada distribución gaussiana, curva de Gauss o campana de Gauss). Así pues, el teorema asegura que esto ocurre cuando la suma de estas variables aleatorias e independientes es lo suficientemente grande.

El nombre viene de un documento científico escrito por George Pólya en 1920, titulado Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem [Sobre el «teorema del límite» (Grenzwertsatz) central del cálculo probabilístico y el problema de los momentos], por lo que la denominación más fiel a la original sería teorema del límite central.

Introducción

Sabemos que si X es una variable aleatoria tal que X\sim N(\mu,\sigma^2) entonces su función de densidad está dada por

f(x)=\frac{1}{\sqrt{2\pi\sigma^2}}e^\frac{-(x-\mu)^2}{2\sigma^2}

para x\in\mathbb{R} donde \mu denota la media y \sigma^2 la varianza de la variable aleatoria X. En particular cuando \mu=0 y \sigma^2=1 obtenemos

f(x)=\frac{1}{\sqrt{2\pi}}e^\frac{-x^2}{2}

es decir, la distribución normal estándar, denotada por X\sim N(0,1).

Se define la variable aleatoria S_n como la suma de n variables aleatorias independientes e idénticamente distribuidas, cada una de ellas con una media \mu y varianza \sigma^2<\infty, es decir

S_n:=X_1+\cdots+X_n=\sum\limits_{i=1}^nX_i

donde \operatorname{E}[X_i]=\mu y \operatorname{Var}[X_i]=\sigma^2. Con lo anterior, la media de S_n es n\mu y la varianza es n\sigma^2 pues son variables aleatorias independientes. Con tal de hacer más fácil la comprensión del teorema y su posterior uso, se hace una estandarización de S_n como

Z_n:=\frac{S_n-n\mu}{\sigma\sqrt{n}}=\frac{\sum_{i=1}^nX_i-n\mu}{\sigma\sqrt{n}}

para que la media de la nueva variable sea igual a 0 y la desviación estándar sea igual a 1. Así, la variable Z_n convergerán en distribución a la distribución normal estándar N(0,1) cuando n tienda a infinito. Como consecuencia, si \Phi(z) es la función de distribución de N(0,1) para cada número real z entonces

\lim_{n\to\infty}\operatorname{P}\left(Z_n\leq z\right)=\Phi(z)=\int_{-\infty}^z\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}dx

donde \operatorname{P} indica probabilidad y \lim se refiere a límite matemático.

Teorema

De manera formal y compacta el teorema enuncia

Sean X_1,X_2,\dots,X_n variables aleatorias independientes e idénticamente distribuidas con \operatorname{E}[X_i]=\mu y \operatorname{Var}(X_i)=\sigma^2<\infty, se define

Z_n:=\frac{\sum_{i=1}^nX_i-n\mu}{\sigma\sqrt{n}}

Entonces la función de distribución de Z_n converge hacia la función de distribución normal estándar cuando n\to\infty, es decir,

\lim_{n\to\infty}\operatorname{P}\left(Z_n\leq z\right)=\Phi(z)=\int_{-\infty}^z\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}dx

Es muy común encontrarlo con la variable estandarizada Z_n en función de la media muestral \overline{X}, es decir

Z_n=\frac{\overline{X} - \mu}{\sigma / \sqrt{n}}

puesto que son equivalentes (sólo se divide tanto numerador como denominador entre n).

Es importante remarcar que este teorema no dice nada acerca de la distribución de la variable aleatoria {X_i}, excepto la existencia de media y varianza.

Propiedades

  • El teorema del límite central garantiza una distribución aproximadamente normal cuando n es suficientemente grande.
  • Existen diferentes versiones del teorema, en función de las condiciones utilizadas para asegurar la convergencia. Una de las más simples establece que es suficiente que las variables que se suman sean independientes, idénticamente distribuidas, con valor esperado y varianza finitas.
  • La aproximación entre las dos distribuciones es, en general, mayor en el centro de las mismas que en sus extremos o colas, motivo por el cual se prefiere el nombre "teorema del límite central" ("central" califica al límite, más que al teorema).

Varianza nula o infinita

En el caso de n variables aleatorias X_i independientes e idénticamente distribuidas, cada una de ellas con varianza nula o infinita, la distribución de las variables

S_n=\frac{X_1+\cdots+X_n}{n}

no convergen en distribución hacia una normal.

A continuación se presentan los dos casos por separado.

Varianza infinita

Considérese el caso de variables que siguen una distribución de Cauchy:

F_{X_i}(x) = \frac{1}{\pi} \arctan x

En este caso puede demostrarse que la distribución asintótica de S_n viene dada por otra distribución de Cauchy:

F_{S_n}(x) = \frac{1}{\pi} \arctan \frac{x}{n}

Para otras distribuciones de varianza infinita no es fácil dar una expresión cerrada para su distribución de probabilidad aunque su función característica sí tiene una forma sencilla, dada por el teorema de Lévy-Khintchine:

\varphi_{S_n}(t) = \exp\left[ ist - c|t|^\alpha\left(1+ i\gamma\ \frac{t}{|t|} u(t,\alpha) \right) \right]

donde c \ge 0, -1 \ge \gamma \ge 1, 0 < \alpha \ge 2 y:

u(t,\alpha) = \begin{cases}
\tan \cfrac{\pi\alpha}{2} & \alpha \ne 1\\
\cfrac{2}{\pi} \ln |t| & \alpha = 1 \end{cases}

Las condiciones anteriores equivalen a que una distribución de probabilidad sea una distribución estable.

Varianza nula

Este caso corresponde trivialmente a una función degenerada tipo delta de Dirac cuya función de distribución viene dada por:

F_{X_i}(x) = \int_{-\infty}^x \delta(s-x_0)\ ds =
\begin{cases} 0 & x < x_0 \\ 1 & x \ge x_0 \end{cases}

En este caso resulta que la variable S_n trivialmente tiene la misma distribución que cada una de las variables independientes.

Véase también

Kids robot.svg En inglés: Central limit theorem Facts for Kids

kids search engine
Teorema del límite central para Niños. Enciclopedia Kiddle.