Sección : Experimentos aleatorios
Previo : Axiomas de las probabilidades
Siguiente : Simulación, modelos y realidad

Probabilidades condicionales


El conocer información sobre un experimento puede modificar la idea que uno se hace sobre la probabilidad de un evento. La probabilidad de esperar más de una hora para comprar un billete, es mayor si hay mucha gente delante de uno.

Definición 1.2   Sean $ A$ y $ B$ dos eventos tales que $ \mathbb {P}[B]\neq 0$. La probabilidad condicional de $ A$ conocido $ B$ es:

$\displaystyle \mathbb {P}[A\,\vert\,B]=\frac{\mathbb {P}[A\cap B]}{\mathbb {P}[B]}
\;.
$

Interpretación: El hecho de saber que $ B$ se realiza, reduce el conjunto de los resultados posibles de $ \Omega$ a $ B$. A partir de esto, solamente los eventos de $ A\cap B$ tienen relevancia. La probabilidad de $ A$, conocido $ B$, debe ser por tanto proporcional a $ \mathbb {P}[A\cap B]$. El coeficiente de proporcionalidad $ 1/\mathbb {P}[B]$ nos garantiza que la aplicación que a $ A$ asocia $ \mathbb {P}[A\vert B]$ es una probabilidad, para la cual $ B$ es el evento cierto.

Punto de vista frecuentista: Si admitimos la Ley de los Grandes Números, la probabilidad debe ser vista como un límite de frecuencias experimentales. Empleando las notaciones del parrafo precedente, $ n_{A\cap B}/n$ (resp. $ n_B/n$) es la frecuencia experimental de $ A\cap B$ (resp. $ B$), y tenemos:

$\displaystyle \mathbb {P}[A\,\vert\,B]=\frac{\mathbb {P}[A\cap B]}{\mathbb {P}[B]} \approx
\frac{n_{A\cap B}/n}{n_B/n}
=\frac{n_{A\cap B}}{n_B}
\;.
$

Debemos ver la probabilidad condicional $ \mathbb {P}[A\,\vert\,B]$ como el límite, cuando el número de experimentos tiende a infinito, de la proporción de las veces en que ocurre $ A$ entre las experiencias en que $ B$ ocurre también. Una ley de probabilidad condicional es una ley de probabilidad. En particular si $ A_1$ y $ A_2$ son disjuntos (incompatibles) entonces:

$\displaystyle \mathbb {P}[A_1\cup A_2\; \vert\; B]
=\mathbb {P}[A_1\,\vert\, B]+\mathbb {P}[A_2\,\vert\, B]
\;.
$

también:

$\displaystyle \mathbb {P}[\overline A\,\vert\, B]=1-\mathbb {P}[A\,\vert\, B]
\;.
$

La definición de las probabilidades condicionales se emplea frecuentemente en la forma:

$\displaystyle \begin{array}{rl}
\mathbb {P}[A\cap B]= & \mathbb {P}[A\,\vert\,...
...[B]
\\  [1ex]
= & \mathbb {P}[B\,\vert\,A]~\mathbb {P}[A]
\;.
\end{array}
$

Si $ (B_i)_{i\in I}$ es una familia numerable de eventos disjuntos dos a dos, cuya unión es el evento cierto $ \Omega$ (una partición de $ \Omega$), entonces:

$\displaystyle \mathbb {P}[A]
=\sum_{i\in I}\mathbb {P}[A\cap B_i]
=\sum_{i\in I}\mathbb {P}[A\,\vert\,B_i]~\mathbb {P}[B_i]\;.
$

Es la fórmula de las probabilidades totales. Pero también, para todo $ j\in I$:

$\displaystyle \mathbb {P}[B_j\,\vert\,A]
=\frac{\mathbb {P}[B_j\cap A]}{\mathb...
...P}[B_j]}{\sum\limits_{i\in I }\mathbb {P}[A\,\vert\,B_i]~\mathbb {P}[B_i]}\;.
$

Es la fórmula de Bayes. La idea intuitiva de independencia de dos eventos es la siguiente: $ A$ y $ B$ son independientes si el hecho que $ B$ se produce o no, no modifica las posibilidades de $ A$. O aún: en un gran número de experimentos, la proporción de las veces que ocurre $ A$ cuando $ B$ ocurre, es aproximadamente la misma que cuando no ocurre.

Ejemplo:
$ A$ : ``La bolsa de Nueva York está en alza''.
$ B$ : ``Llueve en París''. Decir que $ A$ y $ B$ son independientes, es decir que la bolsa de Nueva York está en alza tan frecuentemente cuando llueve en París que cuando no llueve. En términos de frecuencias, escribiremos:

$\displaystyle \frac{n_{A\cap B}}{n_B}
\approx \frac{n_{A\cap B}}{n_{\overline B}}
\approx \frac{n_A}{n}
\;.
$

Y para las probabilidades:

$\displaystyle \mathbb {P}[A\vert B] = \mathbb {P}[A\,\vert\,\overline B] = \mathbb {P}[A]
\;,
$

o aún,

$\displaystyle \frac{\mathbb {P}[A\cap B]}{\mathbb {P}[B]}=\mathbb {P}[A]
\;.
$

Definición 1.3   Dos eventos $ A$ y $ B$ son independientes si:

$\displaystyle \mathbb {P}[A\cap B]=\mathbb {P}[A]~\mathbb {P}[B]
\;.
$

Dos experimentos aleatorios son independientes, si todo evento observable como resultado de uno es independiente de todo evento observable como resultado del otro.

Atención: No se debe confundir independientes con incompatibles. Para dos eventos incompatibles tenemos $ \mathbb {P}[A\cup
B]=\mathbb {P}[A]+\mathbb {P}[B]$. Dos eventos incompatibles de probabilidades no nulas nunca son independientes. Si uno de los dos ocurre, el otro no puede suceder.

La definición de independencia se generaliza de la siguiente manera.

Definición 1.4   Los eventos $ A_1, \ldots , A_n$ son independientes si para todo subconjunto de índices $ \{i_1,\ldots ,i_k\}\subset\{1, \ldots ,
n\}$, la probabilidad de la intersección es el producto de las probabilidades:

$\displaystyle \mathbb {P}[\bigcap_{j=1}^kA_{i_j}]
=\prod^k_{j=1}\mathbb {P}[A_{i_j}]
\;.
$

Los experimentos aleatorios $ {\cal E}_1, \ldots ,{\cal E}_n$ son independientes si para toda $ n$-tupla de eventos $ A_1, \ldots , A_n$, donde $ A_i$ es observado como resultado de $ {\cal E}_i$, los $ n$ eventos $ A_1, \ldots , A_n$ son independientes.
Una sucesión $ ({\cal E}_n)_{n\in\mathbb {N}}$ es una sucesión de experimentos aleatorios independientes si para todo $ n$ los experimentos $ {\cal E}_1, \ldots ,{\cal E}_n$ son independientes.


En las definiciones que hemos dado tenemos un círculo vicioso: Una probabilidad es un límite de frecuencias calculadas a partir de experimentos independientes. Dos eventos son independientes si la probabilidad de su intersección es el producto de las probabilidades.

Las nociones de probabilidad y de independencia son, por tanto, inseparables, y en cierto sentido imposibles de definir en la práctica. Lo más que podemos hacer es mostrar la coherencia entre sus definiciones. Dada una probabilidad para los eventos observables a partir de un experimento aleatorio, esta probabilidad es efectivamente el límite de las frecuencias experimentales, cuando se repite el mismo experimento en forma independiente. Esta es la Ley de los Grandes Números, la cual demostraremos mas adelante. La cuestión de la existencia de ``verdaderas'' sucesiones de experimentos independientes es mucho mas difícil. Será tratada, sin resolverla, en el próximo capítulo.



Sección : Experimentos aleatorios
Previo : Axiomas de las probabilidades
Siguiente : Simulación, modelos y realidad