Sección : Variables aleatorias
Previo : Función cuantil
Siguiente : Varianza


Esperanza


A partir de la interpretación de una ley de probabilidad como una distribución de masa, la esperanza de una ley de probabilidad es el baricentro de esta distribución de masa.

Leyes discretas.

Consideremos una variable aleatoria discreta $ X$, que toma sus valores en $ \{x_k\,,\;k\in K \subset \mathbb {N} \}$. Si la serie $ \displaystyle\sum\limits_{k\in K}\vert x_k\vert\mathbb {P}[X=x_k]$ converge, entonces la esperanza, $ \mathbb {E}[X]$, es:

$\displaystyle \mathbb {E}[X]
=\sum\limits_{k\in K}x_k\,\mathbb {P}[X=x_k]
\;.
$


Este es el baricentro de los puntos de abscisa $ x_k$, cada uno con el peso $ \mathbb {P}[X=x_k]$.

Leyes continuas.

Sea $ X$ una variable aleatoria continua, de densidad $ f_X$ sobre $ \mathbb {R}$. Una densidad se interpreta como una distribución de masa continua sobre $ \mathbb {R}$. Sigue siendo el baricentro lo que hay que calcular. Si la integral $ \displaystyle\int_{\mathbb {R}}\vert x\vert f_X(x)\,dx$ converge, entonces la esperanza, $ \mathbb {E}[X]$, es:

$\displaystyle \mathbb {E}[X]=\int_{\mathbb {R}}x\,f_X(x)\,dx \;.
$

Las propiedades principales de la esperanza son las siguientes.

Proposición 3.11    
  1. Si $ X$ e $ Y$ admiten una esperanza, entonces:

    $\displaystyle \forall a,b\in \mathbb {R}\,\,\mathbb {E}[aX+bY]
=a\mathbb {E}[X] +b\mathbb {E}[Y]
\;.
$

  2. Si $ X$ e $ Y$ son independientes y admiten una esperanza entonces:

    $\displaystyle \mathbb {E}[XY]
=\mathbb {E}[X] \, \mathbb {E}[Y]
\;.
$


Demostración : La propiedad 1 es consecuencia de la linealidad de la suma (para variables discretas) o de la integral (para variables continuas). Demostraremos la propiedad 2 para variables discretas. Si, $ X$ toma los valores $ (x_k)_{k\in K}$ , $ Y$ toma los valores $ (y_h)_{h\in H}$, como $ X$ e $ Y$ son independientes, el par $ (X,Y)$ toma los valores $ (x_k,y_h)_{(h,k)\in K\times H}$ con probabilidad $ \mathbb {P}[X=x_k]\,\mathbb {P}[Y=y_h]$. Por tanto tenemos:

$\displaystyle \mathbb {E}[X Y]$ $\displaystyle =$ $\displaystyle \sum_{(k,h)\in K\times H}
x_k\,y_h\,\mathbb {P}[X=x_k]\,\mathbb {P}[Y=y_h]$  
  $\displaystyle =$ $\displaystyle \displaystyle\sum\limits_{k\in K}x_k\mathbb {P}[X=x_k]\,
\displaystyle\sum\limits_{h\in H}y_h\mathbb {P}[Y=y_h]$  
  $\displaystyle =$ $\displaystyle \mathbb {E}[X]\,\mathbb {E}[Y]\;.$  

$ \square$

Presentamos algunos ejemplos de cálculo.

$ \bullet$
Ley de Bernoulli : $ \mathbb {E} [X]=0\cdot (1-p)+1\cdot p=p$ .
$ \bullet$
Ley binomial $ {\cal B}(n,p)$ : si $ X_1,\ldots,X_n$ son independientes y siguen leyes de Bernoulli de parámetro $ p$, entonces $ X_1+\cdots +X_n$ sigue la ley $ {\cal B}(n,p)$. Por linealidad de la esperanza tenemos:

$\displaystyle \mathbb {E}[X_1+\cdots + X_n]=np
\;.
$

Este valor corresponde con el orden de magnitud esperado del número de éxitos en $ n$ tentativas si la probabilidad de éxito es $ p$.

$ \bullet$
Ley geométrica $ {\cal G}(p)$ :

$\displaystyle \mathbb {E}[X]
=\sum\limits_{k=1}^\infty k\,p\,(1-p)^{k-1}
=\frac{1}{p}
\;.
$


El número de veces que se ejecuta un lazo con la salida del lazo determinada por un test aleatorio (con probabilidad de salida $ p$), sigue la ley $ {\cal G}(p)$. El numero medio de veces que se ejecuta el lazo es $ 1/p$. En $ N$ repeticiones, el orden de magnitud de pases será $ N/p$. Por ejemplo:

    Repetir $\displaystyle X\longleftarrow$    Random Hasta que $\displaystyle (X<0.2)\;,
$


supone como promedio $ 5$ llamadas de la función Random.

$ \bullet$

Ley de Poisson $ {\cal P}(\lambda )$ :

$\displaystyle \mathbb {E}[X]
=\sum\limits_{k=0}^\infty ke^{-\lambda}\frac{\lam...
..._{k=1}^\infty\lambda
e^{-\lambda}\frac{\lambda^{k-1}}{(k-1)!}
=\lambda
\;.
$

$ \bullet$
El uso de la palabra esperanza se justifica plenamente en el caso de una ganancia aleatoria. Veamos el ejemplo de la lotería Keno, para $ 4$ números seleccionados (que cuesta $ 3$ euros).

número(s) bueno(s)
0
1
2
3
4
ganancia
0
0
0
15
150
probabilidad
0.2512
0.4275
0.2538
0.0622
0.0053
Esperanza:

$\displaystyle 15\times 0.0622 +150\times 0.0053=1.73$    euros.$\displaystyle $

presentamos las esperanzas de ganancia en función de la cantidad de números seleccionados, según la tabla de ganancia oficial (siempre por $ 3$ euros pagados a la compañía Française des Jeux).

K
4
5
6
7
8
9
10
Esperanza
1.73
0.82
1.68
1.62
1.52
1.33
1.66
$ \bullet$
Ley uniforme $ {\cal U}(a,b)$ :

$\displaystyle \mathbb {E}[X]=\int_a^bx\,dx=\frac{a+b}{2}$     (punto medio del segmento).$\displaystyle $

$ \bullet$
Ley exponencial $ {\cal E}(\lambda )$ :

$\displaystyle \mathbb {E}[X]=\lambda \int_{0}^{+\infty} xe^{-\lambda x}\,dx
=\frac{1}{\lambda}$     (integración por partes).$\displaystyle $

$ \bullet$
Ley normal $ {\cal N}(0,1)$ :

$\displaystyle \mathbb {E}[X]=\int_{-\infty}^{+\infty}\frac{x}{\sqrt{2\pi}}
\exp \left(-\frac{x^2}{2}\right)\,dx
=0 \,\,$(función impar).$\displaystyle $

Si $ X$ sigue la ley $ {\cal N}(0,1)$ entonces $ Y=\sigma
X+\mu$ sigue la ley $ {\cal N}(\mu,\sigma^2)$ . Por linealidad $ \mathbb {E} [Y]=\mu$ .
A continuación una ley discreta y una ley continua que no tienen esperanza.
$ \bullet$
$ \forall k\in \mathbb {N} ^*\,\,\mathbb {P}[X=k]
=\displaystyle{\frac{ 6}{\pi^2}}
\displaystyle{\frac{ 1}{k^2}}$.
$ \bullet$
Ley de Cauchy : $ f_X(x)=\displaystyle{\frac{1}{ \pi(1+x^2)}}$.

La tabla que presentamos a continuación da las esperanzas de las leyes usuales, discretas y continuas.

 
 
Ley
Esperanza
 
 
Uniforme $ {\cal U}(\{1,\ldots,n\})$
$ \frac{n+1}{2}$
Bernoulli $ {\cal B}(1,p)$
$ p$
Binomial $ {\cal B}(n,p)$
$ np$
Geométrica $ {\cal G}(p)$
$ \frac{1}{p}$
Poisson $ {\cal P}(\lambda )$
$ \lambda$
Hipergeométrica $ {\cal HG}(N,m,n)$
$ n\frac{ m}{N}$
Binomial negativa $ {\cal BN}(n,p)$
$ \frac{n}{p}-n$
 
 
Uniforme $ {\cal U}(a,b)$
$ \frac{a+b}{2}$
Exponencial $ {\cal E}(\lambda )$
$ \frac{1}{\lambda}$
Normal $ {\cal N}(\mu,\sigma^2)$
$ \mu$
Weibull $ {\cal
W}(a,\lambda)$
$ \lambda^{-\frac{1}{a}}
\Gamma(\frac{1}{a}+1)$
Gamma $ {\cal G}(a,\lambda)$
$ \frac{a}{\lambda}$
chi-cuadrado $ {\cal X}^2(n)$
$ n$
beta $ {\cal B}(a,b)$
$ \frac{a}{a+b}$
Log-normal $ {\cal LN}(\mu,\sigma^2)$
$ e^{\mu+\sigma^2/2}$
Student $ {\cal T}(n)$
0 si $ n>1$
Fisher $ {\cal F}(n,m)$
$ \frac{m}{m-2}$ si $ m>2$

Frecuentemente se encuentra el problema de calcular la esperanza de una variable aleatoria que se expresa como función de otra variable aleatoria, cuya ley es conocida: $ \mathbb {E}[Y]=\mathbb {E}[\phi(X)]$. Una primera solución consiste en determinar la ley de $ Y$ para después calcular su esperanza. La siguiente proposición demuestra que esto no es necesario.

Proposición 3.12   Sea $ \phi$ una función de $ \mathbb {R}$ en $ \mathbb {R}$.
  1. Sea $ X$ una variable aleatoria discreta, que toma los valores $ \{x_k\,,\;k\in K \subset \mathbb {N} \}$. La variable aleatoria $ \phi(X)$ admite una esperanza si y sólo si la serie
    $ \sum
\vert\phi(x_k)\vert\,\mathbb {P}[X=x_k]$ converge. Si es así , entonces tenemos:

    $\displaystyle \mathbb {E}[\phi(X)] = \sum_{k\in K} \phi(x_k)\mathbb {P}[X=x_k]\;.
$

  2. Sea $ X$ una variable aleatoria continua, de densidad $ f_X$. La variable aleatoria $ \phi(X)$ admite una esperanza si y sólo si la integral $ \int \vert\phi(x)\vert\,f_X(x)\,dx$ converge. Si es así , entonces tenemos:

    $\displaystyle \mathbb {E}[\phi(X)] = \int_{\mathbb {R}} \phi(x)\,f_X(x)\,dx\;.
$


Los cálculos de varianzas del próximo parrafo son una aplicación de esta proposición.



Sección : Variables aleatorias
Previo : Función cuantil
Siguiente : Varianza