Sección : Variables aleatorias
Previo : Ley de una variable
Siguiente : Variables aleatorias continuas

Variables aleatorias discretas


Definición 3.3   Se dice que una variable aleatoria es discreta si toma un numero finito o a lo más numerable de valores:

$\displaystyle X\in \{x_k\,,\;k\in K\subset \mathbb {N}\}\;.
$


En este caso la ley de la variable aleatoria $ X$ es la ley de probabilidad sobre el conjunto de los valores posibles de $ X$ que asocia la probabilidad $ \mathbb {P}[X=x_k]$ al singleton $ \{x_k\}$.

En la práctica el conjunto de los valores que puede tomar $ X$ es $ \mathbb {N}$ o una parte de $ \mathbb {N}$.

Determinar la ley de una variable aleatoria discreta es:

  1. Determinar el conjunto de los valores que puede tomar $ X$.
  2. Calcular $ \mathbb {P}[X=x_k]$ para cada uno de estos valores $ x_k$.

Punto de vista frecuentista.

Recordemos que el único sentido práctico que le podemos dar a la idea de probabilidad es el de un límite de frecuencias experimentales. Este es también el sentido que hay que dar a la noción de ley discreta. Repetimos $ n$ veces, en forma independiente, el experimento aleatorio del cual como resultado medimos $ X$. Se obtiene así una $ n$-tupla $ (X_1,\ldots ,X_n)$ de variables aleatorias independientes de misma ley que $ X$ (esto se llama una muestra). A partir de esta $ n$-tupla podemos calcular las frecuencias experimentales de los eventos ``$ X=x_k$'' :

$\displaystyle f_n(\{x_k\})
=\frac{1}{n}\Big(\mathbb {I}_{ \{x_k\} }(X_1)+\cdots+\mathbb {I}_{ \{x_k\} }(X_n)\Big)\;.
$


Según la Ley de los Grandes Números, esta frecuencia debe converger a $ \mathbb {P}[X=x_k]$. Para todo $ n$ las frecuencias experimentales $ \{ f_n(\{x_k\})\,,\,k\in K\}$ definen una ley de probabilidad discreta sobre el conjunto de los $ x_k$.

Usualmente se representa a las leyes discretas por diagramas de barras : Se dibuja encima de la abscisa $ x_k$ un segmento vertical de altura igual a $ \mathbb {P}[X=x_k]$.

Las leyes discretas más comunes son las siguientes.

Ley uniforme.

La ley uniforme definida sobre un conjunto finito es la ley de ``sorteos al azar'' en este conjunto o equiprobabilidad. Ella asigna la misma probabilidad $ 1/n$ a todos los elementos del conjunto, si el cardinal del conjunto es $ n$.

Ley de Bernoulli.

Las variables aleatorias discretas más simples son las indicatrices de eventos. Si $ A$ es un evento de probabilidad $ p$, la variable aleatoria $ \mathbb {I}_A$ toma el valor $ 1$ si $ A$ se realiza y 0 si no. Su ley es la ley de Bernoulli de parámetro $ p$.

$\displaystyle \mathbb {P}[\mathbb {I}_A=0]=1-p\quad,\quad \mathbb {P}[\mathbb {I}_A=1]=p\;.
$

Los otros dos ejemplos básicos son la ley binomial y la ley geométrica.

Ley binomial.

Se repite el mismo experimento $ n$ veces en forma independiente y se cuenta el número de veces que se produce el evento $ A$. Se considerará la repetición de los $ n$ experimentos como un nuevo experimento global. Como solamente nos interesa el evento $ A$, bastará guardar de la experiencia global una $ n$-tupla booleana del tipo:

$\displaystyle (A,\, \overline A,\, A,\,A,\, \overline A,\ldots,
\overline{A},\,A),
$

la cual será más fácil de transformar en una $ n$-tupla de 0 y $ 1$. Denotemos:
$ \bullet$
\begin{displaymath}
X_i=
\left\{
\begin{array}{cl}
1&\mbox{si $A$\ es verdad...
... resultado del $i$-\'esimo
experimento.}
\end{array}\right.
\end{displaymath}
$ \bullet$
$ S_n = \displaystyle\sum\limits^{n}_{i=1}X_i
$ el número de veces en que $ A$ se realiza a lo largo de los $ n$ experimentos.
Si $ p$ denota la probabilidad del evento $ A$, la variable aleatoria $ X_i$ sigue una ley de Bernoulli de parámetro $ p$. La variable aleatoria $ S_n$ toma sus valores en el conjunto $ \{0,\ldots,n\}$. Para determinar su ley, los eventos que nos interesan son los del tipo ``$ S_n=k$''. A partir de la hipótesis de independencia de los experimentos, la probabilidad de un resultado cualquiera del experimento global es un producto de probabilidades. Por ejemplo:

$\displaystyle \mathbb {P}[(A,\overline A, A, A, \overline A,\ldots, \overline{A}, A)]
=
p\,(1\!-\!p)\,p\,p\,(1\!-\!p)\ldots(1\!-\!p)\,p\;.
$

Toda $ n$-tupla particular que contenga $ k$ ``$ 1$'' y $ n-k$ ``0'' tiene como probabilidad $ p^k(1\!-\!p)^{n-k}$. En total hay:

$\displaystyle \binom{n}{k} = \frac{n!}{k!\,(n\!-\!k)!}\;,
$


que es el número de maneras de seleccionar $ k$ índices entre $ n$. De donde:

$\displaystyle \mathbb {P}[S_n=k]=\binom{n}{k}p^k(1-p)^{n-k}\;,\quad\forall k=0,\ldots,n\;.
$

Definición 3.4   Se dice que una variable aleatoria $ X$ sigue la ley binomial de parámetros $ n$ y $ p$ (denotada $ {\cal B}(n,p)$) si:
  1. $ X$ toma sus valores en el conjunto $ \{0,1,\ldots ,n\}$
  2. $ \mathbb {P}[X=k]=\binom{n}{k}p^k(1-p)^{n-k}\;,\quad\forall
k=0,\ldots,n\;. $


Para recordar:

El número de ocurrencias de un mismo evento en el curso de $ n$ experimentos independientes sigue una ley binomial.

Simulación:

A la salida del algoritmo que mostramos a continuación, $ X$ sigue la ley binomial $ {\cal B}(n,p)$. Es el caso típico en el que encontramos una ley binomial, pero no es el método mas eficaz de simulación de la misma.

$ X\leftarrow 0$
Repetir $ n$ veces
Si ( Random$ <p $) entonces $ X\leftarrow X+1$
finSi
finRepetir.

Observación:

Es un buen hábito el comprobar que la suma de las probabilidades calculadas vale $ 1$. En este caso: $ \displaystyle\sum\limits^n_{k=0}\binom{n}{k}p^k(1\!-\!p)^{n-k}
=(p +(1\!-\!p ))^n=1$, por la fórmula del binomio de Newton (de ahíel nombre de binomial).

Ley geométrica.

El problema aquí es observar una sucesión de repeticiones independientes de un mismo experimento. Nos interesa el momento en que se produce el evento $ A$ por primera vez. Se asume que la probabilidad $ p$ de $ A$ es estrictamente positiva.

Denotemos por $ X$ el número de orden del experimento en el cual $ A$ ocurre por primera vez. Es una variable aleatoria que depende del experimento:

``repetir independientemente hasta que ocurra $ A$''.
El conjunto de los valores posibles para $ X$ es $ \{1,2,\ldots
\}=\mathbb {N}^*$. Para todo $ k\geq 1$ se tiene:

$\displaystyle \mathbb {P}[X=k]=\mathbb {P}[(\underbrace{\overline A\ldots\overl...
...}A)]
=\underbrace{(1\!-\!p) \cdots (1\!-\!p)}_{k-1} p=p\; (1\!-\!p)^{k-1}\;.
$

Definición 3.5   Se dice que una variable aleatoria $ X$ sigue la ley geométrica de parámetro $ p$ (denotada $ {\cal G}(p)$), si:
  1. $ X$ toma sus valores en el conjunto $ \mathbb {N}^*$ .
  2. $ \mathbb {P}[X=k]=p (1\!-\!p )^{k-1}\;,\quad\forall k\geq 1\;.
$


Para recordar:

El número de experimentos independientes necesarios hasta la primera ocurrencia de un evento sigue una ley geométrica.

Simulación:

A la salida del algoritmo que mostramos a continuación, $ X$ sigue la ley geométrica $ {\cal G}(p)$. Es el caso típico en el que encontramos una ley geométrica, pero no es el método mas eficaz de simulación de la misma.

$ X\leftarrow 0$
Repetir
$ X\leftarrow X+1$
Hasta que ( Random$ <p $).

Observación:

$ \displaystyle\sum\limits^\infty_{k=1}p(1\!-\!p)^{k-1}
=\displaystyle{\frac{ p}{1-(1\!-\!p)}}=1$.

La consecuencia de esta observación es la siguiente: en el transcurso de una serie de experimentos independientes, todo evento acabará sucediendo, si su probabilidad es estrictamente positiva. Así una sucesión aleatoria de 0 y $ 1$ debe contener necesariamente una cadena de $ 100000$ ceros seguidos. Con el mismo razonamiento, si un mono golpea al azar las teclas de una máquina de escribir, terminará, necesariamente, escribiendo ``Don Quijote'' sin faltas, desde la primera mayúscula hasta el último punto.

Para comprender esta paradoja, calculemos la probabilidad de que un evento de probabilidad $ p$ se produzca a lo sumo en el $ k$-ésimo experimento.

$\displaystyle \mathbb {P}[X\leq k]
=\sum\limits_{i=1}^kp(1\!-\!p)^{i-1}
=p\frac{1-(1\!-\!p)^{k}}{1-(1\!-\!p)}=1-(1\!-\!p)^k\;.
$

Mostramos algunos valores de $ \mathbb {P}[X\leq k]$ en función de $ k$ y $ p$ .

$\displaystyle \begin{array}{\vert c\vert c\vert c\vert c\vert}
\hline \raisebo...
...0.096&0.010&0.001
\\  \hline
100&0.634&0.095&0.010
\\  \hline
\end{array}
$


Aún si todas las partículas del universo fueran monos tecleando a razón de $ 10$ carácteres por segundo, se necesitaría mucho más tiempo del transcurrido desde el inicio del universo para tener una probabilidad no despreciable de ver a uno de ellos teclear Don Quijote.

La ley geométrica y la ley binomial aparecen con frecuencia en el análisis de algoritmos de simulación. A continuación presentamos el ejemplo del cálculo de una probabilidad condicional. La programación directa de la definición intuitiva (proporción de veces en que ocurre $ A$ entre aquellas en que $ B$ también ocurre) conduciría al siguiente algoritmo.

$ n_A\leftarrow 0$
$ n_{A\cap B}\leftarrow 0$
Repetir $ n$ veces
experimento
Si $ B$ ocurre entonces $ n_B\leftarrow n_B+1$
Si $ A$ ocurre entonces $ n_{A\cap B} \leftarrow n_{A\cap B}+1$
finSi
finSi
finRepetir
$ f_{A\vert B} \leftarrow
\displaystyle{\frac{n_{A\cap B}}{n_B}}\;.$

Nada impide que $ n_B$ sea cero al final de los $ n$ experimentos (aún si es poco probable). Es preferible fijar $ n_B$ y escribir:

$ n_{A\cap B}\leftarrow 0$
Repetir $ n_B$ veces
Repetir
experimento
Hasta que $ B$ ocurre
Si $ A$ ocurre entonces $ n_{A\cap B} \leftarrow n_{A\cap B}+1$
finSi
finRepetir
$ f_{A\vert B}=\displaystyle{\frac{n_{A\cap B}}{n_B}}\;.$

Ejecutar este algoritmo se convierte en calcular la frecuencia experimental de $ A$, en el resultado de $ n_B$ repeticiones independientes de un experimento global. Este experimento global consiste en repetir independientemente un mismo experimento hasta que ocurre por primera vez $ B$. La ``duración'' del experimento global es un número entero aleatorio. El sigue una ley geométrica de parámetro $ \mathbb {P}[B]$. Se puede demostrar que la variable $ n_{A\cap B}$ sigue una ley binomial de parámetros $ n_B$ y $ \mathbb {P}[A\vert B]$.

Ejemplo: $ n_{A\cap B}\leftarrow 0$
Repetir $ n_B$ veces
Repetir
$ D\leftarrow Int($Random$ * 6)+1$ (* lanzamiento de un dado *)
Hasta que ($ D$ es par) (* $ B$ es el evento ``$ D$ es par'' *)
Si $ D\geq 4$ entonces $ n_{A\cap B} \leftarrow n_{A\cap B}+1$ (* $ A$ es el evento ``$ D\geq 4$'' *)
finSi
finRepetir
$ f_{A\vert B}\leftarrow n_{A\cap B}/n_B\;.$

A la salida de este algoritmo, $ f_{A\vert B}$ contiene un número cercano a $ 2/3$ si $ n_B$ es grande. El número de repeticiones del experimento cada vez que se ejecuta un lazo, sigue la ley geométrica $ {\cal G}(1/2)$.

Hay otras leyes discretas clásicas que se emplean con frecuencia. Se trata de las leyes de Poisson, hipergeométricas y binomiales negativas.

Ley de Poisson.

Muchas variables aleatorias discretas corresponden a conteos de objetos con una característica, relativamente rara, dentro de un conjunto grande de objetos: átomos de un isótopo, moléculas de un elemento químico, bacterias, virus, individuos que poseen un gen especial...  Con frecuencia se emplea una ley de Poisson como modelo para estos conteos. Una variable aleatorio sigue una ley de Poisson de parámetro $ \lambda>0$ si ella toma sus valores en $ \mathbb {N}$ y si para todo $ k\in
\mathbb {N}$ :

$\displaystyle \mathbb {P}[X=k]=e^{-\lambda }\frac{\lambda^k}{k!}\;.
$


Ley hipergeométrica.

La ley hipergeométrica es la ley de ``captura sin reposición''. En una población de tamaño $ N$, se extrae al azar una muestra (subconjunto) de tamaño $ n$. Entre los $ N$ individuos de la población hay $ m$ que están ``marcados'' (poseen una cierta característica). El número $ X$ de individuos marcados entre los $ n$ individuos seleccionados, sigue la ley hipergeométrica de parámetros $ N$, $ m$ y $ n$. La variable aleatoria $ X$ toma sus valores en el conjunto $ \{0,\ldots,n\}$, y para todo $ k\in \{0,\ldots , n\}$ :

$\displaystyle \mathbb {P}[X=k]=\frac{\binom{m}{k}\,\binom{N-m}{n-k} }{\binom{N}{n}}\;,
$

donde por convención $ \binom{i}{j}=0$, si $ j\not\in \{0,\ldots ,i\}$.
Esta ley se encuentra con frecuencia en los juegos de azar.

Variable aleatoria
$ N$
$ m$
$ n$
Número de ases en una mano de poker
32
4
5
Número de ases en una mano de bridge
52
4
6
Número de números buenos en un sorteo de Loto
49
6
6
Número de números buenos en un sorteo de Keno
70
20
$ 4, 5,\ldots ,10$

Ley binomial negativa.

Esta ley se emplea frecuentemente en los conteos en biología. El modelo de base que la define puede escribirse todavía en términos de indicatrices de eventos independientes, como en las leyes binomiales y geométricas. En el transcurso de una serie de experimentos aleatorios independientes, observemos un evento $ A$ de probabilidad $ p$. Denotemos por $ X$ el número de observaciones de $ \overline{A}$ antes de la $ n$-ésima observación de $ A$. Entonces $ X$ sigue la ley binomial negativa de parámetros $ n$ y $ p$, denotada por $ {\cal BN}(n,p)$. El conjunto de los valores que toma es $ \mathbb {N}$ y para todo $ k\in
\mathbb {N}$:

$\displaystyle \mathbb {P}[X=k] = \binom{n+k-1}{n-1} p^n (1-p)^k\;.
$

La variable aleatoria $ X$ sigue la ley $ {\cal BN}(n,p)$ como salida del siguiente algoritmo.

$ X \longleftarrow 0$
Repetir $ n$ veces
Mientras (Random $ > p$)
$ X \longleftarrow X+1$
finMientras
finRepetir.



Sección : Variables aleatorias
Previo : Ley de una variable
Siguiente : Variables aleatorias continuas