Sección : Variables aleatorias
Previo : Esperanza
Siguiente : Teoremas límites


Varianza

Definición 3.13   Se llama varianza de $ X$ y se denota por $ Var[X]$, a la esperanza de la variable aleatoria $ (X-\mathbb {E} [X])^2$, si esta existe.


Se demuestra que la existencia de la varianza implica la existencia de la esperanza. Por el contrario, una variable aleatoria puede tener una esperanza pero no tener varianza. Es el caso, por ejemplo, si $ X$ tiene por densidad:

$\displaystyle f_X(x)
=\frac{2}{x^3}\mathbb {I}_{[1,+\infty[}(x)
\;.
$


El cálculo de las varianzas se simplifica, con frecuencia, gracias al siguiente resultado.

Proposición 3.14   La varianza de $ X$ existe si y sólo si $ \mathbb {E}[X^2]$ existe y se tiene:

$\displaystyle Var[X] = \mathbb {E}[X^2] - (\mathbb {E}[X])^2\;.
$


Demostración : Para pasar de la definición a la formula anterior, basta desarrollar el cuadrado y emplear la linealidad de la integral.

$\displaystyle Var[X]$ $\displaystyle =$ $\displaystyle \mathbb {E}[(X-\mathbb {E}[X])^2]$  
  $\displaystyle =$ $\displaystyle \mathbb {E}[X^2-2X\mathbb {E}[X]+(\mathbb {E}[X])^2]$  
  $\displaystyle =$ $\displaystyle \mathbb {E}[X^2]-2\mathbb {E}[X]\mathbb {E}[X]+(\mathbb {E}[X])^2$  
  $\displaystyle =$ $\displaystyle \mathbb {E}[X^2]-(\mathbb {E}[X])^2\;.$  

$ \square$

La varianza mide cuanto se alejan del valor medio, $ \mathbb {E}[X]$, los valores que toma $ X$. La varianza no es homogénea: si $ X$ es una longitud expresada en metros, $ Var[X]$ está expresada en metros cuadrados. Esto se corrige introduciendo la desviación estándar que es la raíz cuadrada de la varianza. Las propiedades principales de la varianza son las siguientes.

Proposición 3.15    
$ \bullet$
Para todo $ a\in \mathbb {R}$ : $ Var[aX]=a^2\,Var[X]$.
$ \bullet$
Para todo $ b\in \mathbb {R}$ : $ Var[X+b]=Var[X]$.
$ \bullet$
Si $ X$ e $ Y$ son independientes, entonces:

$\displaystyle Var[X+Y]=Var[X]+Var[Y]
\;.
$


Demostración : Las dos primeras propiedades son consecuencia directa de la definición. Para la tercera, si $ X$ e $ Y$ son independientes, entonces $ (X\!-\!\mathbb {E}[X])$ y $ (Y\!-\!\mathbb {E}[Y])$ también lo son. Tenemos por tanto:

$\displaystyle \mathbb {E}[(X+Y-\mathbb {E}[X+Y])^2]$ $\displaystyle =$ $\displaystyle \mathbb {E}[(X-\mathbb {E}[X]+Y-\mathbb {E}[Y])^2]$  
  $\displaystyle =$ $\displaystyle Var[X]+Var[Y]+2\mathbb {E}[(X-\mathbb {E}[X])(Y-\mathbb {E}[Y])]$  
  $\displaystyle =$ $\displaystyle Var[X]+Var[Y]+2\mathbb {E}[X-\mathbb {E}[X]\,]\,\mathbb {E}[Y-\mathbb {E}[Y]\,]$  
  $\displaystyle =$ $\displaystyle Var[X]+Var[Y]\;.$  

$ \square$

La desigualdad de Bienaymé-Tchebichev que presentamos a continuación traduce la idea intuitiva que los valores que toma $ X$ se separan menos de $ \mathbb {E}[X]$ según $ Var[X]$ es más pequeña. El caso extremo es el de una variable aleatoria de varianza nula, la cual solamente puede tomar un valor.

Teorema 3.16   Sea $ X$ una variable aleatoria que admite una varianza. Entonces, para todo $ \varepsilon >0$ :

$\displaystyle \mathbb {P}[\,\vert X-\mathbb {E}[X]\vert>\varepsilon\,]
\leq \frac{Var[X]}{\varepsilon^2}
\;.
$


Demostración : Demostraremos este resultado para las variables continuas, el razonamiento para las variables discretas es análogo. Pongamos $ \mathbb {E} [X]=m$ . Se tiene:

\begin{displaymath}
\begin{array}{l}
Var[X]= \displaystyle\int_{\mathbb {R}}(x...
...2\mathbb {P}[\,\vert X-m\vert>\varepsilon\,] \;.
\end{array}
\end{displaymath}

$ \square$

Presentamos algunos ejemplos de cálculos de la varianza.

$ \bullet$
Ley de Bernoulli :

$\displaystyle \mathbb {E}[X^2]
=0\cdot (1-p)+1\cdot p
=p\;,
$

por tanto:

$\displaystyle Var[X]
=p-p^2
=p(1-p)
\;.
$

$ \bullet$
Ley binomial :

$\displaystyle Var[X]
=n\,p\,(1-p) \,\,
($suma de Bernoullis independientes$\displaystyle ).
$

$ \bullet$
Ley geométrica $ {\cal G}(p)$ :
$\displaystyle \mathbb {E}[X^2]$ $\displaystyle =$ $\displaystyle \displaystyle\sum\limits_{k=1}^\infty
k^2p(1-p)^{k-1}
=\displayst...
...^\infty
k(k-1)p(1-p)^{k-1}
+\displaystyle\sum\limits_{k=1}^\infty kp(1-p)^{k-1}$  
  $\displaystyle =$ $\displaystyle \displaystyle{\frac{2p(1-p)}{p^3}}
+\displaystyle{\frac{ 1}{ p}}\;,$  

por tanto:

$\displaystyle Var[X]
=\frac{1-p}{p^2}
\;.
$

$ \bullet$
Ley de Poisson $ {\cal P}(\lambda )$ :
$\displaystyle \mathbb {E}[X^2]$ $\displaystyle =$ $\displaystyle \displaystyle{
\sum\limits_{k=0}^\infty k^2e^{-\lambda}\frac{\lambda^k}{k!}}$  
  $\displaystyle =$ $\displaystyle \displaystyle{
\sum\limits_{k=0}^\infty k(k-1)\,e^{-\lambda}\frac{\lambda^k}{k!}
+ \sum\limits_{k=0}^\infty
k\,e^{-\lambda}\frac{\lambda^k}{k!}}$  
  $\displaystyle =$ $\displaystyle \lambda^2+\lambda\;,$  

por tanto:

$\displaystyle Var[X]
=\lambda
\;.
$

$ \bullet$
Ley uniforme $ {\cal
U}(0,1)$ :

$\displaystyle \mathbb {E}[X^2]
=\int_0^1x^2dx
=\frac{1}{3}
\;,
$

por tanto:

$\displaystyle Var[X]
=\frac{1}{3}-\frac{1}{4}
=\frac{1}{12}
\;.
$

Si $ X$ sigue la ley $ {\cal
U}(0,1)$, $ Y=a+(b-a)X$ sigue la ley $ {\cal U}(a,b)$.

$\displaystyle Var[Y]
=\frac{(b-a)^2}{12}
\;.
$

$ \bullet$
Ley exponencial $ {\cal E}(\lambda )$ :

$\displaystyle \mathbb {E}[X^2]
=\int_0^\infty x^2\lambda e^{-\lambda x}dx
=\frac{2}{\lambda^2}\,\,
($por partes$\displaystyle )
\;,
$

por tanto:

$\displaystyle Var[X]
=\frac{1}{\lambda^2}
\;.
$

$ \bullet$
Ley normal $ {\cal N}(0,1)$ :
$\displaystyle \mathbb {E}[X^2]$ $\displaystyle =$ $\displaystyle \displaystyle\int_{-\infty}^{+\infty}
\displaystyle{\frac{x^2}{\sqrt{2\pi}}}
e^{-x^2/2}dx$  
  $\displaystyle =$ $\displaystyle \displaystyle{\int_{-\infty}^{+\infty}
\frac{1}{\sqrt{2\pi}}e^{-x^2/2}dx}
\,\,(\mbox{por partes})$  
  $\displaystyle =$ $\displaystyle 1
\;,$  

por tanto:

$\displaystyle Var[X]=1
\;.
$

Si $ X$ sigue la ley $ {\cal N}(0,1)$, $ Y=\sigma
X+\mu$ sigue la ley $ {\cal N}(\mu,\sigma^2)$.

$\displaystyle Var[Y]
=\sigma^2
\;.
$


La tabla que presentamos a continuación da las varianzas de las leyes usuales, discretas y continuas.

 
 
Ley
Varianza
 
 
Uniforme $ {\cal U}(\{1,\ldots,n\})$
$ \frac{n^2-1}{12}$
Bernoulli $ {\cal B}(1,p)$
$ p(1-p)$
Binomial $ {\cal B}(n,p)$
$ np(1-p)$
Geométrica $ {\cal G}(p)$
$ \frac{1-p}{p^2}$
Poisson $ {\cal P}(\lambda )$
$ \lambda$
Hipergeométrica $ {\cal HG}(N,m,n)$
$ n \frac{m}{N}\left(1-\frac{m}{N}\right)\frac{N-n}{N-1}$
Binomial negativa $ {\cal BN}(n,p)$
$ n\frac{1-p}{p^2}$
 
 
Uniforme $ {\cal U}(a,b)$
$ \frac{(a-b)^2}{12}$
Exponencial $ {\cal E}(\lambda )$
$ \frac{1}{\lambda^2}$
Normal $ {\cal N}(\mu,\sigma^2)$
$ \sigma^2$
Weibull $ {\cal
W}(a,\lambda)$
$ \lambda^{-\frac{2}{a}}(\Gamma(\frac{2}{a}+1)-
(\Gamma(\frac{1}{a}+1))^2)$
Gamma $ {\cal G}(a,\lambda)$
$ \frac{a}{\lambda^2}$
chi-cuadrado $ {\cal X}^2(n)$
$ 2n$
beta $ {\cal B}(a,b)$
$ \frac{ab}{(a+b)^2(a+b+1)}$
Log-normal $ {\cal LN}(\mu,\sigma^2)$
$ e^{2\mu+\sigma^2}(e^{\sigma^2}-1)$
Student $ {\cal T}(n)$
$ \frac{n}{n-2}\;$ si $ n>2$
Fisher $ {\cal F}(n,m)$
$ \frac{2m^2}{n}\frac{n+m-2}{(m-2)^2(m-4)}\;$ si $ m>4$



Sección : Variables aleatorias
Previo : Esperanza
Siguiente : Teoremas límites