Download Capítulo 3 Variables aleatorias

Document related concepts
no text concepts found
Transcript
Capítulo 3
Variables aleatorias
3.1
Definición, tipos
En ocasiones de un experimento aleatorio sólo nos interesará conocer ciertas características del mismo.
En estos casos nos bastará con conocer la distribución o modelo de probabilidad de cada característica.
Ejemplo 21 Si queremos estudiar “la suma de dos dados lanzados uno tras otro”, de los 36 resultados
(a, b), estudiaremos los 11 posibles resultados a + b. Si ninguno de los dados está trucado, nuestro
modelo de probabilidad será:
 1
si a + b = 2

36


 2

si a + b = 3
36
P ( Suma sea ω) =
..

.



 1
si a + b = 12
36
Si quisiéramos estudiar también “cuánto distan”, es decir |a−b|, tendríamos 6 resultados: 0, 1, 2, 3, 4
ó 5, con distribución de probabilidad dada por:
 6
si |a − b| = 0

36



10

si |a − b| = 1
36
P ( Distancia sea ω) =
..

.



 2
si |a − b| = 5
36
Para ambas características estamos utilizando el mismo modelo de probabilidad sobre el espacio muestral de 36 sucesos elementales: Ω = {(1, 1), (1, 2), . . . , (6, 5), (6, 6)}. Y este modelo de probabilidad
nos permite calcular el modelo para ambas características (o cualquier otra asociada al experimento).
Definición 3.1.1. Una variable aleatoria X es una “función” X : Ω −→ R, que a cada elemento del
espacio muestral le hace corresponder un número real.
La idea recogida en esta definición es que para cada suceso elemental, ω ∈ Ω, el valor X(ω)
representa la característica que queremos estudiar.
41
42
CAPÍTULO 3. VARIABLES ALEATORIAS
Ejemplo 22 En el experimento del lanzamiento sucesivo de dos dados, estamos considerando las
siguientes variables aleatorias:
X =
Y =
suma de los dados ;
diferencia (en valor absoluto) de ambos dados .
A partir de ellas podemos definir distintos sucesos aleatorios. Por ejemplo:
A1 = {ω ∈ Ω : X(ω) = 5} ;
A3 = {ω ∈ Ω : Y (ω) ≤ 4} ;
A2 = {ω ∈ Ω : X(ω) > 7} ;
A4 = {ω ∈ Ω : (X − Y )(ω) = 6} .
Y nos interesará conocer la probabilidad de los diferentes sucesos correspondientes a una variable
aleatoria, es decir, su modelo o función de probabilidad.
Definición 3.1.2. Sea X : Ω −→ R una variable aleatoria. Si A es un subconjunto de R, definimos:
P (A) = P (X ∈ A) := P ({ω ∈ Ω : X(ω) ∈ A}) .
Ejemplo 23 De los tres primeros sucesos del ejemplo anterior, considerando que los dados no están
trucados, tenemos que:
P (A1 ) =
4
1
5+4+3+2+1
15
5
2
17
7
= ; P (A2 ) =
=
=
; P (A3 ) = 1 −
=
; P (A4 ) =
36
9
36
36
12
36
18
36
que hemos calculado con las siguientes igualdades, evidentes:
P (A2 ) = P (X > 7)) = P (X = 8) + P (X = 9) + P (X = 10) + P (X = 11) + P (X = 12)
¢
P (A3 ) = P ((Y ≤ 4)) = 1 − P ((Y = 5)) .
Obsérvese el abuso de notación, P (X > x) en lugar de P (X(ω) > x) por ejemplo, que utilizaremos,
para simplificar, siempre que esté claro lo que queremos decir. Por último, los casos ω = (a, b) en que
se verifica (X − Y )(ω) = 6 son los siete siguientes: (3, 3), (3, 4), (4, 3), (3, 5), (5, 3), (3, 6) y (6, 3).
3.2
Función de masa o de densidad, función de distribución
Definición 3.2.1. La función de distribución de una variable aleatoria se define como:
F (x) = P ((−∞, x]) = P ({ω ∈ Ω : X(ω) ≤ x})
Propiedades de las funciones de distribución
1. lı́m F (x) = 0;
x→−∞
2. lı́m F (x) = 1;
x→∞
3. si x1 < x2 , entonces F (x1 ) ≤ F (x2 );
para todo x ∈ R .
3.2. FUNCIÓN DE MASA O DE DENSIDAD, FUNCIÓN DE DISTRIBUCIÓN
43
4. F es continua por la derecha, es decir:
lı́m F (x + h) = F (x) .
h→0+
Es fácil, dada una función de distribución, calcular la probabilidad de diferentes tipos de intervalos de la recta real. Basta tomar la definición, P ((−∞, x]) = F (x) y las propiedades generales de
cualquier función de distribución. Denotaremos por
F (x− ) = lı́m+ P ((−∞, x − h]) = P ((−∞, x)) .
h→0
Se tienen así las siguientes identidades:
P ((a, b])
P ((a, b))
P ([a, b])
P ({b})
=
=
=
=
P ((−∞, b]) − P ((−∞, a]) = F (b) − F (a)
P ((−∞, b)) − P ((−∞, a]) = F (b− ) − F (a)
P ((−∞, b]) − P ((−∞, a)) = F (b) − F (a− )
((−∞, b]) − P ((−∞, b)) = F (b) − F (b− ) = “salto de F en el punto b .
La última de ellas nos dice que si la función de distribución, F , tiene un salto en un punto, la
probabilidad de ese punto es positiva.
Ya hemos dicho que al estudiar una variable aleatoria nos interesará conocer su función de probabilidad. La función de distribución caracteriza completamente la de probabilidad. Ahora bien, para
los casos más interesantes de variables aleatorias que trataremos, hay herramientas más sencillas que
la función de distribución para conocer el reparto de probabilidad. Éstas son: la función de masa,
para una variable aleatoria discreta; la función de densidad, si la variable aleatoria es continua.
3.2.1
Variables aleatorias discretas
Definición 3.2.2. Una variable aleatoria, X, se dice discreta cuando sólo puede tomar un número
finito o numerable de valores x1 , . . . , xn , . . . .
La función de probabilidad de una variable aleatoria discreta X queda totalmente caracterizada
por su función de masa, que nos da la probabilidad de cada uno de esos posibles valores:
P (X = xi ) = P ({xi }) = P (xi ) = P ({ω ∈ Ω : X(ω) = xi }) i = 1, 2, 3, . . . , n, . . . .
P
Se sigue de la definición que
P (xi ) = 1. La función de distribución de una variable aleatoria
discreta tiene forma de escalera:
i
F (x)
•
•
•
x1
x2
x3
x
Obsérvese que la función de distribución, F (x), es no decreciente (¿por qué?).
44
CAPÍTULO 3. VARIABLES ALEATORIAS
Ejemplo 24 Calcular la función de masa y la función de distribución de la variable aleatoria
X =“suma de los dados”, en el experimento de tirar sucesivamente dos dados no trucados.
Solución: El espacio muestral tiene 36 elementos:
Ω = {(1, 1), (1, 2), . . . , (6, 5), (6, 6)} .
La variable aleatoria X, es una función del espacio muestral Ω en R que sólo toma los 11 valores enteros: 2, 3, . . . , 12. Puesto que los dados no están trucados, los sucesos elementales son equiprobables,
y así:
1
P ({(a, b)}) =
, para cualquier (a, b) ∈ Ω .
36
Puesto que podemos contar cuántos elementos de Ω hay en cada uno de los sucesos X = 2, X = 3,
. . . , X = 12, conocemos la función de masa de la variable X. La siguiente tabla de valores, determina
completamente la función de masa de X:
xi
2
3
4
5
6
7
8
9
10
11
12
P (X = xi )
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
Obsévese que
1+2+3+4+5+6+5+4+3+2+1
= 1.
36
Por su parte la función de distribución, F : R −→ [0, 1], viene dada por:
F (x) = 0
si x < 2 ,
F (x) = 1
si x ≥ 12
y para 2 ≤ x < 12, va subiendo de 0 a 1 paulatinamente creando una gráfica con escalones horizontales
entre cada dos enteros consecutivos, con los saltos en cada entero determinados por la función de
masa (dibujar la gráfica).
3.2.2
Variables aleatorias continuas
Definición 3.2.3. Una variable aleatoria, X, se dice continua cuando puede tomar cualquiera
de los valores de un intervalo. La función de probabilidad de una variable aleatoria continua queda
caracterizada por su función de densidad, que es una función f : R −→ R verificando:
1. f (x) ≥ 0, para todo x ∈ R;
Z
f (x) dx = 1.
2.
R
La probabilidad de un suceso, A, relativo a una variable aleatoria continua, X, con función de
densidad f se calcula mediante la fórmula:
Z
P (A) =
f (x) dx
A
3.2. FUNCIÓN DE MASA O DE DENSIDAD, FUNCIÓN DE DISTRIBUCIÓN
45
Conviene resaltar que para una variable aleatoria continua X, los sucesos unitarios, A = {t}, tienen
probabilidad 0 pues:
Z
P ({t}) =
f (x) dx = 0 .
{t}
Este hecho viene a decir que si X es una variable aleatoria continua, la probabilidad de que X tome
un valor particular es nula: P (X = t) = P ({t}) = 0. Como consecuencia, la función de distribución
no tiene saltos, es decir, es continua.
La función de distribucion se obtiene a partir de la función de densidad:
Z x
F (x) = P ((−∞, x]) =
f (t) dt .
−∞
Además, en los puntos en que F (x) es derivable:
f (x) = F 0 (x) .
Ejemplo 25 Sea un segmento OA de longitud 5. ¿Cuál es la probabilidad de que un punto B,
situado al azar en OA, se encuentre en un segmento CD de OA? ¿Cuál es la función de densidad de
la distancia OB?
Solución: El conjunto Ω de sucesos es no numerable. La probabilidad de que B sea un punto
cualquiera del segmento CD, es nula. La probabilidad de que B esté sobre CD se define mediante
la razón de las longitudes: CD/OA. Modelizaremos el experimento tomando OA sobre el intervalo
[0, 5] de la recta real:
B
•
O=0
ª
◦
C
U
◦
D
q
•
A=5
Podemos definir la función de distribución de la variable aleatoria continua X =“distancia OB”,
de manera que sea igual a 1 cuando B esté en A:
Z 5
f (x) dx = 1 .
0
Puesto que el punto B se sitúa al azar en el intervalo OA, la distribución
decir, la función de densidad es constante, y así:

0

(

 Z x1
0 si x ∈
/ [0, 5]
x
dt =
1
f (x) =
=⇒ F (x) =

si x ∈ [0, 5]
5
0 5


5
1
f (x)
1
5
F (x)
x
x
es uniforme sobre OA, es
si x < 0
si x ∈ [0, 5]
si x ≥ 5 .
46
3.3
CAPÍTULO 3. VARIABLES ALEATORIAS
Esperanza: media y varianza
Con frecuencia de los experimentos aleatorios que estudiemos, podremos realizar un estudio estadístico previo. Para ello, se toma cierta muestra, realizando varias veces el experimento, y se
recogen datos sobre distintas características del mismo. El objetivo último es adaptar, para las distintas características del experimento (variables aleatorias), modelos de probabilidad teóricos que
nos permitan predecir el comportamiento real (su probabilidad) de estas características. De los datos
tomados se calcularán ciertas medidas que nos darán idea de la distribución de cada una de las
características objeto de estudio.
Destacamos entre éstas la media (medida de centralización), la varianza y la desviación
típica (medidas de dispersión). En esta sección definiremos los conceptos análogos a estas medidas
de la Estadística.
Definición 3.3.1. Dada una variable aleatoria discreta, X, con función de masa P (xi ), i = 1, 2, . . . ,
se define su media o esperanza como:
X
µ = E[X] =
xi P (xi ) .
i
De manera análoga, si X es una variable aleatoria continua, con función de densidad f (x), se
define su media o esperanza como:
Z
µ = E[X] =
xf (x) dx .
R
Pasemos a las medidas de dispersión (en el capítulo de Estadística vimos la utilidad de estas
medidas).
Definición 3.3.2. La varianza de una variable aleatoria discreta, X, con función de masa P (xi )
y media µ se define como:
X
σ 2 = V [X] = E[(X − µ)2 ] =
(xi − µ)2 P (xi ) .
i
Análogamente, la varianza de una variable aleatoria continua, X, con función de densidad f (x)
media µ se define como:
Z
2
2
σ = V [X] = E[(X − µ) ] = (x − µ)2 f (x) dx .
R
La desviación típica, σ, de una variable aleatoria se define como la raíz cuadrada positiva de
su varianza.
Ejercicio 1 Demostrar, en los casos discreto y continuo, la siguiente identidad para la varianza de
una variable aleatoria:
σ 2 = E[X 2 ] − µ2
3.3. ESPERANZA: MEDIA Y VARIANZA
47
Solución: Si X es una variable aleatoria discreta con función de masa P (xi ), desarrollando el
cuadrado y simplificando, se obtiene:
X
σ2 =
(xi − µ)2 P (xi )
i
X
=
(x2i − 2xi µ + µ2 )P (xi )
i
=
X
x2i P (xi ) − 2µ ·
¡X
¢
¢
¡X
P (xi )
xi P (xi ) + µ2 ·
i
i
i
2
2
2
2
2
= E[X ] − 2µ + µ = E[X ] − µ .
En el caso continuo, desarrollando el cuadrado y simplificando, se obtiene:
Z
2
σ =
(x − µ)2 f (x) dx
R
µZ
¶
µZ
¶
Z
2
2
=
x f (x) dx − 2µ
xf (x) dx + µ
f (x) dx
R
R
R
= E[X 2 ] − 2µ2 + µ2 = E[X 2 ] − µ2 .
Ejemplos
Ejemplo 26 Una persona participa en un concurso de televisión con las siguientes reglas:
• Si contesta correctamente a una pregunta con cinco respuestas posibles (sólo una correcta) gana
10 000e.
• En caso contrario se le propone una segunda pregunta con tres respuestas posibles (sólo una
correcta). Si acierta gana 1 000e.
• Si tampoco acierta la segunda respuesta, se le propone una tercera con dos respuestas posibles
(sólo una correcta). Si acierta no gana nada, pero si falla debe pagar 500e.
El juego termina cuando la persona acierta o tras fallar la tercera pregunta. Si un concursante contesta
al azar, calcúlese:
a) probabilidad de que obtenga una respuesta correcta;
b) la ganancia esperada;
c) E[X] y V [X], siendo X el número de preguntas propuestas al concursante.
Solución: Sea Ai el suceso “el concursante responde correctamente la cuestión i-ésima”, i = 1, 2, 3.
Los sucesos A1 , A2 y A3 son independientes.
a) La probabilidad de que una respuesta sea correcta es:
P (A1 ) + P (A2 )P (Ac1 ) + P (A3 )P (Ac1 )P (Ac2 ) =
11
1 1 4 1 4 2
+ · + · · =
.
5 3 5 2 5 3
15
48
CAPÍTULO 3. VARIABLES ALEATORIAS
b) Sea Y la variable aleatoria “ganancia”. Es claro que esta variable toma los valores:
y1 = 10 000
con
y2 = 1 000
con
y3 = 0
con
y3 = −500
con
1
;
5
4
P (y2 ) = ·
5
4
P (y3 ) = ·
5
4
P (y3 ) = ·
5
P (y1 ) =
1
3
2
3
2
3
=
4
;
15
1
4
=
;
2
15
1
4
· =
.
2
15
·
Por tanto, la ganancia esperada es:
E[Y ] = 10 000 ·
1
4
4
4
+ 1 000 ·
+0·
− 500 ·
= 2 133.33e .
5
15
15
15
c) La variable aleatoria X puede tomar los valores:
1
,
5
x1 = 1
con
P (X = 1) = P (A1 ) =
x2 = 2
con
P (X = 2) = P (A2 )P (Ac1 ) =
x3 = 3
con
1
3
2
P (X = 3) = P (Ac2 )P (Ac1 ) =
3
4
4
=
,
5
15
4
8
· =
.
5
15
·
Así:
µ = E[X] =
3
X
xi P (xi ) = 1 ·
i=1
2
2
V [X] = E[X ] − µ =
4
8
35
1
+2·
+3·
=
= 2.33 ;
5
15
15
15
3
X
x2i P (xi ) − µ2
i=1
µ ¶2
1
35
4
8
= 1· +4·
+9·
−
5
15
15
15
91 1225
1365 − 1225
140
28
=
−
=
=
=
= 0.622 .
15
225
225
225
45
Ejemplo 27 La longitud de ciertos tornillos en centímetros se distribuye según la función de densidad:
( 3
(x − 1)(3 − x) si x ∈ [1, 3]
f (x) =
4
0
si x ∈
/ [1, 3] .
i) Calcúlese E[X] y σ[X].
ii) Si los tornillos son válidos sólo si su longitud está entre 1.7 y 2.4 cm., calcúlese la probabilidad
de que un tornillo sea válido.
3.4. VARIAS VARIABLES
49
Solución: i) Aplicamos directamente las fórmulas a la variable aleatoria continua X =longitud del
tornillo, que tiene función de densidad f (x):
Z
E[X] =
=
=
E[X 2 ] =
=
σ 2 [X] =
σ[X] =
Z
3
3 3
x(x − 1)(3 − x) dx =
(−3x + 4x2 − x3 ) dx
4 1
1 4
´
3³ 3
4
1
− (9 − 1) + (27 − 1) − (81 − 1)
4
2
3
4
´ 3 8
3³
104
− 12 +
− 20 = · = 2 ;
4
3
4 3
Z 3
´
1
3
3³
− (27 − 1) + (81 − 1) − (243 − 1)
(−3x2 + 4x3 − x4 ) dx =
4 1
4
5
3³
242 ´ 3 28
21
− 26 + 80 −
= ·
=
4
5
4 5
5
21
1
E[X 2 ] − µ2 =
−4=
5
5
r
√
1
5
=
= 0.447 .
5
5
3
ii) Nos piden calcular P (1.7 < x < 2.4), que, por definición, es:
Z
2.4
P (1.7 < x < 2.4) =
1.7
=
=
=
3.4
3
f (x) dx =
4
Z
2.4
(−3 + 4x − x2 ) dx
1.7
´
3 ³
1
· − 3(2.4 − 1.7) + 2(2.42 − 1.72 ) − (2.43 − 1.73 )
4
3
´ 1 ³
´
1
3 ³
· − 2.1 + 5.74 − 8.911 = · 10.92 − 8.911
4
3
4
2.009
= 0.50225 .
4
Varias variables
En un mismo experimento aleatorio podemos considerar distintas variables aleatorias: X1 , X2 , . . . .
En ocasiones interesará considerar sucesos determinados por valores referidos a varias de ellas, en cuyo
caso tendremos que “mezclar” adecuadamente la información de las variables individuales.
En el mejor de los casos la información de cada variable no influirá en la de las demás. Diremos
que estamos ante variables independientes. Cuando esto no sea así, tendremos una relación entre
ellas más o menos fuerte. La covarianza de dos variables aleatorias es un número que nos mide
esta posible relación.
Definición 3.4.1. (Vectores aleatorios) Un vector aleatorio (o variable aleatoria de dimensión n)
es una “función”
(X1 , . . . , Xn ) : Ω −→ Rn .
que a cada elemento ω del espacio muestral Ω le hace corresponder n números reales X1 (ω), . . . , Xn (ω).
50
CAPÍTULO 3. VARIABLES ALEATORIAS
Ejemplo 28 En el experimento “tirar dos dados perfectos sucesivamente”, se considera el vector
aleatorio
(X, Y ) : Ω −→ R2
que dado un elemento ω = (a, b) nos devuelve:
(X, Y )(ω) = (a + b, |a − b|) .
En el concurso televisivo del Ejemplo 26, se considera el vector aleatorio
(X, Y ) : Ω −→ R2
que a cada elemento del espacio muestral, ω, le asocia:
(X, Y )(ω) = ( preguntas propuestas al concursante , ganancia del concursante ) .
En la producción de tornillos del Ejemplo 27, consideramos el vector aleatorio
(X, Y, Z) : Ω −→ R3
que al tomar cada tornillo ω ∈ Ω, nos dice:
(X, Y, Z)(ω) = ( su longitud , diámetro de la cabeza , longitud de la rosca ) .
En lo que sigue definiremos los conceptos análogos al caso de una variable aleatoria para vectores
aleatorios de dimensión 2. El caso n–dimensional es la generalización natural del de dimensión 2.
Además, al considerar vectores aleatorios de la forma:
(X, Y ) : Ω −→ R2
podremos hacer representaciones sobre el plano, ganando en claridad a la hora de asimilar los conceptos.
Definición 3.4.2. Si A es un subconjunto de R2 descrito como conjunto de posibles valores del vector
aleatorio (X, Y ) : Ω −→ R2 , definimos:
P (A) = P ((X, Y ) ∈ A) = P ({ω ∈ Ω : (X(ω), Y (ω)) ∈ A}) .
Definición 3.4.3. La función de distribución de un vector aleatorio (X, Y ) se define como:
F (x, y) = P ({(s, t) ∈ R2 : s ≤ x, t ≤ y})
= P ({ω ∈ Ω : X(ω) ≤ x, Y (ω) ≤ y})
para todo (x, y) ∈ R2 .
Las propiedades de las funciones de distribución de un vector aleatorio son, en cierto modo,
parecidas al caso de una variable. Sin embargo son menos manejables, de manera que utilizaremos
las funciones de masa conjunta o de densidad conjunta, para el cálculo de probabilidades.
Ejercicio 2 Calcular la función de distribución del vector aleatorio
(X, Y ) : Ω −→ R2
correspondiente al concurso televisivo del Ejemplo 28.
3.4. VARIAS VARIABLES
3.4.1
51
Densidad conjunta
Definición 3.4.4. Un vector aleatorio (X, Y ) es discreto cuando sólo puede tomar un número
finito o numerable de valores. El modelo de probabilidad conjunta de un vector aleatorio
(X, Y ) discreto queda caracterizado por la función de masa conjunta:
P (X = xi , Y = yj ) = P ({ω ∈ Ω : X(ω) = xi , Y (ω) = yj }) i = 1, . . . , m ; j = 1, . . . , n .
Cuando esté claro por el contexto, utilizaremos la siguiente notación: pi,j = P (X = xi , Y = yj ).
La función de masa conjunta suele presentarse con una tabla de doble entrada:
Y
X
y1
···
x1
..
.
yj
···
yn
···
···
..
.
xi
..
.
···
···
pi,j
..
.
xm
Ejemplo 29 Para el concurso televisivo descrito en el Ejemplo 26, calcular la función de masa del
vector aleatorio determinado por:
(X, Y )(ω) = ( preguntas propuestas al concursante , ganancia del concursante ).
Solución: Este vector aleatorio puede tomar 3 × 4 = 12 valores, tomando la primera componente
3 posibles valores, y 4 la segunda. La siguiente tabla nos representa la función de masa conjunta:
Y
X
−500
0
1 000
1
0
0
2
0
4
15
0
4
15
0
4
15
0
3
10 000
1
5
0
0
En el caso de vectores aleatorios, aparte de la distribución conjunta, hay otras distribuciones
también muy interesantes: las distribuciones marginales y las condicionadas.
Definición 3.4.5. Las distribuciones marginales de un vector aleatorio (X, Y ) son las que se
obtienen al considerar cada característica por separado. Así tenemos:
Distribución marginal de X: es de tipo discreto y su función de masa marginal viene
dada por:
n
X
P (X = xi ) =
P (X = xi , Y = yj ) , i = 1, . . . , m .
j=1
Distribución marginal de Y : es de tipo discreto y su función de masa marginal viene
dada por:
m
X
P (Y = yj ) =
P (X = xi , Y = yj ) , j = 1, . . . , n .
i=1
52
CAPÍTULO 3. VARIABLES ALEATORIAS
Obsérvese que, de la definición, es fácil obtener cada distribución marginal si la función de masa
conjunta viene representada por una tabla de doble entrada: basta en cada caso sumar por filas o
por columnas.
Ejemplo 30 Las distribuciones marginales del ejemplo anterior se obtienen a partir de la tabla como
se indica:
Y
X
−500
0
1 000
1
0
0
0
2
0
0
4
15
0
3
4
15
4
15
0
0
4
15
4
15
4
15
8
15
4
15
4
5
1
5
P (Y = yj )
FY (yj )
3.4.2
10 00
1
5
P (X = xi )
1
5
4
15
8
15
FX (xi )
1
5
7
15
1
1
Covarianza
Antes de pasar a las distribuciones condicionadas conviene definir: covarianza e independencia.
Definición 3.4.6. La covarianza entre dos variables aleatorias discretas X e Y se define como:
£
¤
Cov(X, Y ) = E (X − E[X])(Y − E[Y ])
m X
n
X
=
(xi − E[X])(yj − E[Y ])P (X = xi , Y = yj ) .
i=1 j=1
Decimos que X e Y están incorreladas, cuando Cov(X, Y ) = 0.
Se define, también, el coeficiente de correlación lineal de (X, Y ) como:
r=
Cov(X, Y )
.
σ[X]σ[Y ]
Este coeficiente verifica que −1 ≤ r ≤ 1, y sirve para estudiar la existencia de una posible relación
lineal entre X e Y : digamos Y = aX + b para ciertos coeficientes a, b ∈ R. Si r = 1 ó r = −1, existe
tal relación lineal. Su utilidad quedará más clara en los capítulos sobre Estadística.
Ejercicio 3 Demostrar la siguiente fórmula:
Cov(X, Y ) = E[XY ] − E[X] · E[Y ] .
3.4. VARIAS VARIABLES
53
Solución: Desarrollando el sumatorio y usando las propiedades de las funciones de distribución
conjunta y marginales, tenemos:
Cov(X, Y ) =
=
m X
n
X
i=1 j=1
m X
n
X
(xi − E[X])(yj − E[Y ])P (X = xi , Y = yj )
xi yj P (X = xi , Y = yj ) − E[Y ]
i=1 j=1
−E[X]
m
X
xi
i=1
n
X
yj
m
³X
j=1
= E[XY ] − E[Y ]
n
³X
´
P (X = xi , Y = yj )
j=1
m X
n
´
X
P (X = xi , Y = yj ) + E[X]E[Y ]
P (X = xi , Y = yj )
i=1
m
X
i=1 j=1
xi P (X = xi ) − E[X]
i=1
n
X
yj P (Y = yj ) + E[X]E[Y ]
j=1
= E[XY ] − E[Y ]E[X] − E[X]E[Y ] + E[X]E[Y ] = E[XY ] − E[X]E[Y ] .
3.4.3
Independencia
Definimos a continuación la independencia de variables aleatorias discretas, de manera análoga a la
definición de independencia de sucesos.
Definición 3.4.7. Dos variables aleatorias discretas, X e Y , se dicen independientes cuando:
P (X = xi , Y = yj ) = P (X = xi ) · P (Y = yj )
para
i = 1, . . . , m ; j = 1, . . . , n .
Surge, de manera directa, la siguiente propiedad:
“Si X e Y son variables aleatorias discretas independientes entonces
E[XY ] = E[X] · E[Y ] .
En particular son incorreladas, es decir: Cov(X, Y ) = 0” .
Ejercicio 4 Demostrar la propiedad anterior.
Solución: Supongamos que X e Y son independientes, es decir:
P (X = xi , Y = yj ) = P (X = xi ) · P (Y = yj ) ,
para i = 1, . . . , m ; j = 1, . . . , n. Calculemos la esperanza de la variable producto X · Y :
E[XY ] =
m X
n
X
xi yj P (X = xi , Y = yj )
i=1 j=1
=
m X
n
X
xi yj P (X = xi ) · P (Y = yj )
i=1 j=1
=
m
X
n
³X
´
xi P (X = xi )
yj P (Y = yj )
i=1
j=1
m
³X
´
= E[Y ]
xi P (X = xi ) = E[Y ]E[X] .
i=1
54
CAPÍTULO 3. VARIABLES ALEATORIAS
En particular Cov(X, Y ) = E[XY ] − E[X]E[Y ] = 0, en otras palabras, X e Y son incorreladas
siempre que sean independientes.
Ejercicio 5 Calcular la covarianza de las variables aleatorias X = “número de preguntas propuestas
al concursante” e Y = “ganancia de un concursante”, del Ejemplo 26.
Solución: De la tabla de las funciones de masa conjunta y marginales del vector (X, Y ) vemos que
no son independientes, pues, por ejemplo:
P (X = 3, Y = 0) =
4
15
mientras que
P (X = 3) · P (Y = 0) =
8 4
4
·
6=
.
15 15
15
Con los datos de la tabla calculamos:
1
4
8
35
7
+2·
+3·
=
=
5
15
15
15
3
1
4
4
4
32 000
6 400
E[Y ] = 10 000 · + 1 000 ·
+0·
− 500 ·
=
=
5
15
15
15
15
3
1
4
4
4
32 000
6 400
E[XY ] = 1 · 10 000 · + 2 · 1 000 ·
+3·0·
+ 3 · (−500) ·
=
=
5
15
15
15
15
3
³
´
6 400 7 6 400
7
6 400
−25 600
Cov(X, Y ) = E[XY ] − E[X]E[Y ] =
− ·
= 1−
·
=
3
3
3
3
3
9
E[X] = 1 ·
de donde:
3.4.4
Densidades condicionadas
Finalizamos esta sección con el concepto de probabilidad condicionada.
Definición 3.4.8. La distribución de la variable aleatoria X, condicionada por un valor fijo, yj , de
la variable aleatoria Y , viene dada por la función de masa condicionada:
P (X = xi | Y = yj ) =
P (X = xi , Y = yj )
,
P (Y = yj )
i = 1, . . . , m .
Es fácil comprobar que si X e Y son independientes, las distribuciones condicionadas coinciden
con las distribuciones marginales correspondientes:
P (X = xi , Y = yj )
P (Y = yj )
P (X = xi ) · P (Y = yj )
=
= P (X = xi ) ,
P (Y = yj )
P (X = xi | Y = yj ) =
i = 1, . . . , m .
Y, análogamente, para Y : P (Y = yj | X = xi ) = P (Y = yj ), j = 1, . . . , n.
3.4.5
Vectores aleatorios continuos
Definición 3.4.9. Un vector aleatorio (X, Y ) es continuo cuando toma valores en un subconjunto
no discreto de R2 ; por ejemplo: un cuadrado, un rectángulo, un triángulo, un círculo, un sector
circular, . . . .
El modelo de probabilidad conjunta de un vector aleatorio (X, Y ) continuo queda caracterizado por la función de densidad conjunta, que es una “función” f : R2 −→ R, verificando:
1. f (x, y) ≥ 0 para todo (x, y) ∈ R2 ;
3.4. VARIAS VARIABLES
55
ZZ
2.
f (x, y) dx dy = 1.
R2
La probablidad de cualquier suceso A ⊂ R2 relativo al vector aleatorio continuo (X, Y ), se calcula
por la fórmula:
ZZ
P (A) =
f (x, y) dx dy .
A
Definición 3.4.10. Las distribuciones marginales de un vector aleatorio (X, Y ) son las que
se obtienen al considerar cada característica por separado. Así tenemos:
Distribución marginal de X: es de tipo continuo y su función de densidad marginal
viene dada por:
Z
f (x) =
f (x, y) dy ,
para todo x ∈ R .
R
Distribución marginal de Y : es de tipo continuo y su función de densidad marginal
viene dada por:
Z
f (x, y) dx , para todo y ∈ R .
f (y) =
R
Definición 3.4.11. La covarianza entre dos variables aleatorias continuas X e Y se define como:
ZZ
£
¤
Cov(X, Y ) = E (X − E[X])(Y − E[Y ]) =
(x − E[X])(y − E[Y ])f (x, y) dx dy .
R2
Decimos que X e Y están incorreladas, cuando Cov(X, Y ) = 0. El coeficiente de correlación lineal de (X, Y ) se define como:
Cov(X, Y )
r=
.
σ[X]σ[Y ]
Ejercicio 6 Demostrar la igualdad: Cov(X, Y ) = E[XY ] − E[X]E[Y ].
Definición 3.4.12. Dos variables aleatorias continuas, X e Y , se dicen independientes si:
f (x, y) = f (x)f (y)
para cualesquiera x ∈ R, y ∈ R .
Se tienen, también, la siguiente propiedad:
“Si X e Y son variables aleatorias continuas independientes entonces
E[XY ] = E[X] · E[Y ] .
En particular son incorreladas, es decir: Cov(X, Y ) = 0” .
Definición 3.4.13. La distribución de la variable aleatoria X, condicionada por un valor fijo, y, de
la variable aleatoria Y , viene dada por la función de densidad condicionada:
f (x | y) = f (x | Y = y) =
f (x, y)
,
f (y)
para todo x ∈ R .
Obsérvese que es necesario que f (y) > 0. Intuitivamente, esto quiere decir que estamos condicionando por un valor de Y potencialmente observable.
56
CAPÍTULO 3. VARIABLES ALEATORIAS
Es fácil comprobar que si X e Y son independientes, las distribuciones condicionadas coinciden
con las distribuciones marginales correspondientes:
f (x | y) =
f (x)f (y)
= f (x) , para todo x ∈ R ;
f (y)
f (y | x) =
f (x)f (y)
= f (y), para todo y ∈ R .
f (x)
Ejercicio 7 La función de densidad conjunta de dos variables aleatorias continuas es:
½
k(x + xy) si x ∈ (0, 1), y ∈ (0, 1)
f (x, y) =
0
en otro caso.
1) ¿Cuál es el valor de k?
2) Calcular la densidad marginal, la esperanza y la varianza de cada variable.
3) ¿Son variables independientes?
4) Calcular la covarianza.
Solución: 1) Puesto que es una función de densidad hemos de tener integral total 1. Integrando
tenemos:
ZZ
Z 1Z 1
f (x, y) dx dy = k
(x + xy) dx dy
R2
0
0
Z 1 ³
Z 1 ³Z 1
´
´
1
x (1 − 0) + ( − 0) dx
(1 + y) dy dx = k
x
= k
2
0
0
Z 1 0
¢ 3k
3k
3k ¡ 1
4
=
x dx =
−0 =
=⇒ k = .
2 0
2 2
4
3
2) Las densidades marginales serán:
Z
f (x) =
f (x, y) dy
R
Z 1
¢
4
4x ¡
1
ahora bien:
x(1 + y) dy =
(1 − 0) + ( − 0) = 2x
3
3
2
½0
2x si x ∈ (0, 1)
de donde: f (x) =
0
en otro caso;
Z
f (y) =
f (x, y) dx
R
Z 1
¢ 2
4
4(1 + y) ¡ 1
ahora bien:
(1 + y)x dx =
− 0 = (1 + y)
3
3
2
3
(0 2
(1 + y) si y ∈ (0, 1)
de donde: f (y) =
3
0
en otro caso.
3.5. SUMA DE VARIABLES INDEPENDIENTES
57
Con las densidades marginales calculamos los parámetros pedidos de cada variable:
Z
µX = E[X] =
E[X 2 ] =
2
σX
= E[X 2 ] − µ2X
=
µY = E[Y ] =
E[Y 2 ] =
σY2 = E[Y 2 ] − µ2Y
=
³1
´ 2
x · 2x dx = 2
−0 =
3
3
0
Z 1
1
1
x2 · 2x dx = (1 − 0) =
2
2
0
1 4
1
− =
2 9
18
Z 1
2
2³1 1´
=
y · (1 + y) dy =
+
3
3 2 3
0
Z
2 1 2
2³1 1´
=
y (1 + y) dy =
+
3 0
3 3 4
7
25
13
−
=
18 81
162
1
5
9
7
18
3) La densidad conjunta es el producto de las marginales:
f (x, y) = f (x) · f (y)
y, por tanto, son variables independientes.
4) Al ser variables independientes, directamente son incorreladas, es decir: Cov(X, Y ) = 0.
3.5
Suma de variables independientes
Es especialmente ventajoso considerar variables que se distribuyen de manera independiente pues
combinándolas linealmente se obtienen otras variables cuyas distribuciones se conocen a partir de las
primeras.
En la Estadística Descriptiva que hemos tratado en el Capítulo 1, es interesante que las muestras
recogidas nos sirvan para inferir la distribución de cierta cualidad en determinada población. Para
ello tomamos medidas numéricas de la muestra. Si cada dato muestral es representativo de la cualidad
(o variable aleatoria) a inferir, nos gustaría, por ejemplo, que la media muestral fuese representativa
de la media de dicha cualidad (se dice de la media poblacional); y así con el resto de las medidas:
varianza, desviación típica, mediana, . . .
Si consideramos a cada muestra, de tamaño N , como un valor concreto de un vector aleatorio
(X1 , X2 , . . . , XN ), con cada componente la misma variable, el requisito de independencia de las Xi
simplifica tanto los cálculos como el análisis.
Definición 3.5.1. Dadas n variables aleatorias X1 , X2 , . . . , Xn decimos que son variables aleatorias
independientes igualmente distribuidas, en adelante v.a.i.i.d., si todas siguen el mismo modelo de
probabilidad, digamos Xi ∼ X, y son independientes dos a dos.
Ejercicio 8 Probar que si X1 , X2 , . . . , Xn son v.a.i.i.d. con distribución común Xi ∼ X, µ = E(X)
y σ 2 = V (X) entonces:
E(X1 + X2 + · · · + Xn ) = nµ , V (X1 + X2 + · · · + Xn ) = nσ 2 .
¢
¡
Es más si X̄ = n1 X1 + X2 + · · · + Xn entonces µ(X̄) = µ y V (X̄) = σ 2 /n.
58
CAPÍTULO 3. VARIABLES ALEATORIAS
Podemos, por último, tratar el caso más general de combinaciones lineales de variables aleatorias independientes. Basta enunciar los resultados para dos variables. Los presentamos en forma de
ejercicio:
Ejercicio 9 Sean X e Y dos variables aleatorias independientes, y consideremos la nueva variable
T = aX + bY (con a, b ∈ R). Entonces:
E(T ) = aE(X) + bE(Y ) ,
V (T ) = a2 V (X) + b2 V (Y ) .
Cerramos la sección con la observación de que si no se tiene independencia (ni tan siquiera
incorrelación) entre las variables, la covarianza juega un papel importante en la fórmula de la varianza
de la combinación (ver el problema 1).
Problemas
1. Demuestra las siguientes propiedades de esperanzas y varianzas de variables aleatorias:
(a) E[kX] = kE[X].
(b) E[X + Y ] = E[X] + E[Y ].
(c) V [kX] = k 2 V [X].
(d) Si X e Y son incorreladas: E[XY ] = E[X]E[Y ].
X
(e) V [X1 + · · · + Xn ] = V [X1 ] + · · · + V [Xn ] + 2
Cov(Xi , Xj ).
i<j
(f) Si X1 , . . . , Xn son variables aleatorias incorreladas:
V [X1 + · · · + Xn ] = V [X1 ] + · · · + V [Xn ] .
(g) V [X − Y ] = V [X] + V [Y ] − 2Cov(X, Y ).
(h) Si X e Y son variables aleatorias incorreladas: V [X − Y ] = V [X] + V [Y ].
2. Dadas las variables aleatorias independientes X e Y con funciones de densidad f y g respectivamente, dadas por:
( y
½
si 0 ≤ y ≤ 2
2x si 0 ≤ x ≤ 1
f (x) =
g(y) =
2
0
en otro caso;
0
en otro caso;
calcula:
i) E[X + Y ];
ii) E[2X − 3Y + 5];
iii) E[2XY ];
iv) V [4X − 2Y − 3];
v) V [2X + 3Y ].
3.5. SUMA DE VARIABLES INDEPENDIENTES
59
3. En un experimento aleatorio el suceso A ocurre con probabilidad 0.2. Se realiza el experimento
tres veces y se define la variable aleatoria X = “número de veces que ha ocurrido A” en las tres
pruebas que se suponen independientes.
(a) Calcular E[X] y V [X].
(b) Representar gráficamente la función de distribución de X.
(c) Calcular P (X > 2) a partir de la función de distribución.
4. La variable aleatoria X está distribuida de tal forma que su función de densidad determina con
los ejes un triángulo rectángulo con ángulo recto en el origen y base sobre el intervalo (0, 1).
Calcula sus funciones de densidad y distribución, la esperanza, µ, la desviación típica, σ, y la
probabilidad de que X ∈ (µ − σ, µ + σ).
5. Un semáforo está verde para los coches durante un minuto y medio, y rojo durante 15 segundos.
Suponiendo que un automovilista llega al semáforo con igual probabilidad en cualquier instante,
calcúlese el tiempo medio de espera.
6. Una diana está formada por tres círculos concéntricos de radios 10, 20 y 30 cm. respectivamente.
Si se cae en el círculo central se obtienen 5 puntos, 3 puntos si se cae en la primera corona
y 1 punto al caer en la tercera corona. La probabilidad de que un tiro caiga en cada zona es
proporcional al área de la misma (y ningún tiro cae fuera de la diana). Si se efectúan cuatro
disparos, calcúlese:
(a) la puntuación esperada;
(b) la probabilidad de la puntuación total se mayor que 17.
7. Un examen consta de 5 temas numerados. Para elegir un tema al azar, se propone lanzar un
dado; si sale de 1 a 5, el número del tema es el resultado del dado; si sale 6 se vuelve a tirar
hasta que sale de 1 a 5. Sabemos que el dado está trucado de tal manera que la probabilidad
de que salga el número 2 es 2/7 y la probabilidad de cualquier otro número es 1/7. Sea X la
variable aleatoria que representa el tema seleccionado finalmente. Halla la probabilidad de que
X valga 1 (que nos interesa especialmente ya que el tema 1 es el único que hemos estudiado).
8. El vector aleatorio (X, Y ) tiene una distribución de probabilidad dada por:
P (X = 0, Y = 1) = 0.3 ; P (X = 1, Y = 1) = 0.1 ; P (X = 2, Y = 1) = 0.1 ;
P (X = 0, Y = 2) = 0.1 ; P (X = 1, Y = 2) = 0.2 ; P (X = 2, Y = 2) = 0.2 .
Calcúlese:
(a) Las distribuciones marginales y condicionadas;
(b) las esperanzas de cada variable, y la de XY ;
(c) las varianzas de cada variable y Cov(X, Y );
(d) el coeficiente de correlación lineal.
60
CAPÍTULO 3. VARIABLES ALEATORIAS
9. La vida útil de cierto producto perecedero es una variable aleatoria con función de densidad
½ −x
e
si x > 0
f (x) =
0
en otro caso.
Si X1 y X2 representan la vida útil de dos unidades de dicho producto, seleccionadas al azar,
calcúlese P (X1 ≤ 2, 1 ≤ X2 ≤ 3).
10. Dado el vector aleatorio (X, Y ) y la función
½
k(x + y) si 0 ≤ x ≤ 2 0 ≤ y ≤ 2x − x2
f (x, y)
0
en otro caso.
(a) Determínese k para que f (x, y) sea su función de densidad.
(b) Calcular P (0 ≤ X ≤ 1).
11. Las etiquetas de cierta bebida pueden tener un premio de forma que en cada 1000 etiquetas
hay 500 correspondientes a “inténtelo otra vez”, 300 con premio de 5 euros, 150 con premios de
10 euros, 40 con premios de 50 euros y 10 con premios de 100 euros. Una persona compra una
botella que cuesta 10 euros.
(a) Si X es la variable aleatoria correspondiente al beneficio obtenido por el comprador, ¿cuál
es la distribución de X?
(b) ¿Cuál es el beneficio esperado del comprador?
(c) ¿Cuál es la probabilidad de perder dinero?
(d) Si se sabe que el comprador ha ganado dinero, ¿cuál es la probabilidad de que le haya
tocado una etiqueta de 100 euros?
12. En una ciudad hay una proporción p de personas que fuman. Se define una variable aleatoria
X que toma el valor 1 si al preguntar a una persona seleccionada aleatoriamente responde que
es fumador, y toma el valor 0 si responde que no lo es.
(a) En función de p calcula la esperanza de X e interpreta el valor obtenido.
(b) Calcula la varianza de X en función de p. ¿Para qué valor de p es máxima la varianza?
(c) Si se pregunta a n personas seleccionadas aleatoriamente con reemplazamiento, y la variable
aleatoria Y representa el número de fumadores entre los n seleccionados, calcula la esperanza
y la varianza de Y .
13. Sea X una variable aleatoria continua con función de densidad
½
k(1 + x), si x ∈ (0, 2)
f (x) =
0,
si x ∈
/ (0, 2)
(a) Calcula la constante k.
(b) Calcula la probabilidad de que X tome valores entre 0 y 1.
(c) Sabiendo que X es mayor que 1, ¿cuál es la probabilidad de que sea menor que 1.5?
(d) Calcula P{|X − E(X)| > 0.2}
14. El tiempo de vida activa de un plaguicida (en días) es una variable aleatoria X con función de
densidad
½ 1 − 1 x
e 500 , si x ≥ 0
500
f (x) =
0,
si x < 0
3.5. SUMA DE VARIABLES INDEPENDIENTES
61
(a) Calcula el valor m tal que la probabilidad de que X sea menor o igual que m es 0.5.
Interpreta el resultado obtenido.
(b) Si al cabo de 800 días el plaguicida ya no estaba activo, ¿cuál es la probabilidad de que
tras 600 días todavía lo estuviera?
15. El vector aleatorio (X, Y ) tiene una distribución uniforme en el cuarto de círculo de centro
(0, 0) y radio r correspondiente al primer cuadrante. Obténganse las densidades conjunta y
marginales de X e Y , y estudiar si son variables independientes.
16. Una pareja decide encontrarse en un lugar prefijado entre las tres y las cuatro de la tarde, de
forma que el primero que llegue sólo esperará al otro durante 15 minutos. Suponiendo que los
momentos de llegada de ambos al lugar son independientes y se distribuyen uniformemente
entre las tres y las cuatro, calcúlese la probabilidad de que no se encuentren.
17. Una fábrica produce una pieza en dos calidades diferentes: el 60 % de la producción es de
calidad A. La duración (en años) de una pieza de esta calidad viene dada por la función de
densidad
½ −x
e
si x > 0
fA (x) =
0
en el resto.
El 40 % restante es de calidad B. La duración viene dada, en este caso, por la función de
densidad
½ −2x
2e
si x > 0
fB (x) =
0
en el resto.
(a) Calcula la probabilidad de que una pieza de calidad A dure más de 1 año.
(b) Si tomamos una pieza al azar de toda la producción, ¿cuál es la probabilidad de que dure
más de 1 año?
(c) Si tomamos una pieza al azar de toda la producción, y observamos que dura más de 1 año,
¿cuál es la probabilidad de que sea de calidad A?
18. Una empresa suministra energía eléctrica a través de dos líneas de alta tensión A y B. En la
siguiente tabla se muestran las probabilidades conjuntas pij = P {X = xi , Y = yj }, para las
variables X ≡ número de fallos mensuales en la línea A e Y ≡ número de fallos mensuales en
la línea B.
X
0
1
2
3
0
0.20
0.20
0.06
0.04
Y
1
2
0.15 0.05
0.06 0.08
0.02 0.02
0.02
0
3
0.04
0.03
0
0
4
0.02
0.01
0
0
(a) Calcula las distribuciones marginales de X e Y .
(b) Calcula la distribución del número de fallos que se producen en la línea B en un mes en que
no se produce ningún fallo en la línea A. ¿Cuál es el número esperado de fallos en este caso?
(c) ¿Son independientes los fallos en las dos líneas?
62
CAPÍTULO 3. VARIABLES ALEATORIAS
19. Dos características, X e Y , son variables aleatorias con función de densidad conjunta:
½
kye−2x e−y si x > 0, y > 0
f (x, y) =
0
en el resto.
(a) Hallar el valor de k. ¿Son independientes X e Y ?
(b) Calcular la esperanza de X.
20. Dos sustancias, A y B, se encuentran en la sangre en cantidades X e Y , respectivamente. Estas
cantidades varían de un individuo a otro. La densidad conjunta de ambas es:
½ 2 2
xy
si 0 < x < 3, 0 < y < 3
81
f (x, y) =
0
en el resto.
Calcúlese:
(a) la densidad marginal de Y y la esperanza de Y ;
(b) la probabilidad de que, en un individuo tomado al azar, haya más sustancia A que B.
Capítulo 4
Modelos de probabilidad
4.1
4.1.1
Modelos discretos
Pruebas de Bernoulli
Definición 4.1.1. Una prueba de Bernoulli es un experimento aleatorio cuyos posibles resultados se agrupan en dos conjuntos excluyentes que llamaremos éxito (E) y fracaso (F ), con
respectivas probabilidades: p = P (E) y 1 − p = P (F ).
Ejemplos 31 En el lanzamiento de una moneda podemos tomar E = { Cara } y F = { Cruz }.
Si la moneda no está trucada, p = 21 .
En una población se elige al azar una persona y consideramos los sucesos E = { altura ≥ 1.80}
y F = { altura < 1.80}. La probabilidad de éxito dependerá de la distribución de la variable altura
en la población.
En el lanzamiento de un dado podemos tomar E = {6} y F = {1, 2, 3, 4, 5}. Si el dado es
perfecto, p = 61 ; si está trucado y, por ejemplo, el 2 tiene probabilidad doble que cualquiera de los
demás resultados, p = 17 .
La distribución de Bernoulli es el modelo más sencillo obtenido a partir de pruebas de Bernoulli.
Definición 4.1.2. Realizada una prueba de Bernoulli con P (E) = p se considera la variable aleatoria
½
X=
1 si obtenemos éxito
0 si obtenemos fracaso
La función de masa es: P (X = 0) = 1 − p y P (X = 1) = p. Los parámetros esperanza y varianza de
una variable X con distribución de Bernoulli son:
E[X] = p ,
V [X] = p (1 − p) ;
obtenidos ambos de manera sencilla a partir de la definición. Para abreviar escribiremos X ∼ B(1; p)
para indicar que X es una variable aleatoria con distribución de Bernoulli con esperanza p.
63
64
4.1.2
CAPÍTULO 4. MODELOS DE PROBABILIDAD
Distribución binomial
Definición 4.1.3. Supongamos que realizamos n pruebas de Bernoulli independientes, con P (E) = p
en cada prueba. Sea X la variable “número de éxitos obtenidos en las n pruebas”. Llamamos distribución binomial a la distribución de esta variable X. Denotaremos por B(n; p) la distribución
binomial de parámetros n = “número de pruebas de Bernoulli” y p = P (E) en cada prueba.
Si X sigue una distribución B(n; p), escribiremos X ∼ B(n; p), y su función de masa es:
µ ¶
n i
P (X = i) =
p (1 − p)n−i ,
i
i = 0, 1, 2, . . . , n .
Obsérvese que si tomamos una prueba de Bernoulli con p(E) = p, y consideramos la variable X
con valores 1 si éxito, 0 si fracaso, entonces X ∼ B(1; p).
También, si tomamos n variables Xi independientes, todas y cada una de ellas siguiendo la misma
distribución B(1; p), entonces la variable
X = X1 + X2 + · · · + Xn
sigue una distribución B(n; p). En particular, la esperanza y la varianza de X ∼ B(n; p) son:
E[X] = n · p ,
V [X] = n · p · (1 − p) ;
puesto que p = E[Xi ] y p · (1 − p) = V [Xi ] para cada una de las variables independientes que
sumamos.
4.1.3
Otros modelos basados en pruebas de Bernoulli
Definición 4.1.4. Realizamos pruebas de Bernoulli independientes con la misma distribución dada
por P (E) = p. La distribución geométrica de parámetro p es la de la variable aleatoria:
X = “número de pruebas hasta el primer éxito”.
Su función de masa es:
P (X = j) = (1 − p)j−1 · p ,
j = 1, 2, 3, . . . .
Se puede probar que:
E[X] =
1
;
p
V [X] =
1−p
.
p2
Ejercicio 1 Demostrar que si X sigue una distribución geométrica de parámetro p, entonces
E[X] =
1
.
p
4.1. MODELOS DISCRETOS
65
Solución: Por definición se tiene:
E[X] = 1 · p + 2 · (1 − p) · p + 3 · (1 − p)2 · p + 4 · (1 − p)3 + 5(1 − p)4 + · · ·
¡
¢
= p · 1 + 2(1 − p) + 3(1 − p)2 + 4 · (1 − p)3 + 5(1 − p)4 + · · ·
¡
= p · 1 + (1 − p) + (1 − p)2 + (1 − p)3 + (1 − p)4 + · · ·
+ (1 − p) + (1 − p)2 + (1 − p)3 + (1 − p)4 + · · ·
+ (1 − p)2 + (1 − p)3 + (1 − p)4 + · · ·
+ (1 − p)3 + (1 − p)4 + · · ·
¢
+ (1 − p)4 + · · ·
³ 1 1 − p (1 − p)2 (1 − p)3 (1 − p)4
´
= p
+
+
+
+
+ ···
p
p
p
p
p
1
= 1 + (1 − p) + (1 − p)2 + (1 − p)3 + (1 − p)4 + · · · = .
p
Definición 4.1.5. Consideramos pruebas de Bernoulli independientes con la misma distribución
dada por p = P (E). Para cada número fijo r, se define la variable
X = “número de pruebas hasta el r–ésimo éxito” .
Decimos que la variable X sigue una distribución binomial negativa de parámetros r y p,
X ∼ BN (r; p), y su función de masa viene dada por:
¶
µ
r+j−1 r
p (1 − p)j , j = 0, 1, 2, . . . .
P (X = r + j) =
j
La distribución BN (r; p) para r = 1 es una geométrica. De hecho, si realizamos pruebas de
Bernoulli con p = P (E), hasta conseguir r éxitos y se definen las variables:
Xi = número de pruebas entre el (i − 1)–ésimo éxito y el i–ésimo,
i = 1, 2, . . . , r
cada Xi es una geométrica de parámetro p. Entonces
X = X1 + X2 · · · + Xr
sigue una distribución BN (r; p). Así vemos que si X ∼ BN (r; p) entonces:
E[X] =
4.1.4
r
;
p
V [X] =
r(1 − p)
.
p2
Distribución de Poisson
Supongamos que estamos interesados en estudiar el número de éxitos obtenidos en un número grande
de pruebas independientes de Bernoulli, teniendo una probabilidad pequeña de éxito en cada prueba.
Es razonable pensar que la distribución venga dada como límite de una distribución B(n; p) con
n → ∞, p → 0. De hecho si se tiene cierto control sobre el producto np, digamos np → λ < ∞
66
CAPÍTULO 4. MODELOS DE PROBABILIDAD
cuando n → ∞ y p → 0, podemos calcular el límite. Surge así la distribución de Poisson de parámetro
λ > 0 definida por la función de masa:
P (X = j) =
λj · e−λ
,
j!
j = 0, 1, 2, . . . .
Si X ∼ Poisson(λ), informalmente, se obtiene: E[X] = lı́m n · p = λ y V [X] = lı́m np(1 − p) = λ.
Usaremos la distribución de Poisson cuando estemos estudiando un modelo binomial, B(n ; p),
con un número grande de pruebas, cada una con probabilidad de éxito pequeña. A título orientativo,
sustituiremos la B(n ; p) por una Poisson(λ), con λ = np, cuando n ≥ 30 y p ≤ 0.1.
Es fácil comprobar que la función dada arriba es una función de masa puesto que:
∞
X
∞
∞
X
X
λj · e−λ
λj
−λ
P (X = j) =
=e
= e−λ · eλ = 1 .
j!
j!
j=0
j=0
j=0
Ejercicio 2 Demostrar que el límite cuando n → ∞, p → 0, con np → λ, de la función de masa de
una B(n; p) es la función de masa de una distribución de Poisson con parámetro λ, en otras palabras
si np → λ cuando n → ∞ y p → 0:
µ ¶
n j
λj · e−λ
lı́m
p (1 − p)n−j =
,
cuando n → ∞, p → 0 .
j
j!
Solución: :
µ ¶
n j
n(n − 1)(n − 2) · · · · · (n − j + 1) j (1 − p)n
lı́m
p (1 − p)n−j = lı́m
·p ·
j
j!
(1 − p)j
µ
¶µ
¶
µ
¶
1
1
2
j−1
(1 − p)n
j
=
lı́m n · 1 −
1−
· ··· · 1 −
· pj ·
j!
n
n
n
(1 − p)j
µ
¶µ
¶
µ
¶
1
1
2
j−1
(1 − p)n
=
lı́m 1 −
1−
· ··· · 1 −
· (n · p)j ·
j!
n
n
n
(1 − p)j
1
e−λ
λj · e−λ
=
1 · λj
=
.
j!
1
j!
4.2
4.2.1
Modelos continuos
Distribución uniforme
Definición 4.2.1. Decimos que una variable aleatoria X sigue una distribución uniforme en
un intervalo (a, b) de la recta real, X ∼ U (a, b), si su función de densidad es:
f (x) =
1
b−a
si x ∈ (a, b) ,
Si X ∼ U (a, b) entonces µ = E[X] =
f (x) = 0
en otro caso.
1
a+b
y σ 2 = V [X] = (b − a)2 .
2
12
4.2. MODELOS CONTINUOS
4.2.2
67
Distribución exponencial
Definición 4.2.2. Una variable aleatoria X se dice que sigue una distribución exponencial de
parámetro λ > 0, X ∼ Exp(λ), si su función de densidad es
f (x) = λe−λx
si x > 0 ,
Si X ∼ Exp(λ) entonces:
µ = E[X] =
4.2.3
1
,
λ
f (x) = 0
σ 2 = V [X] =
si x ≤ 0 .
1
.
λ2
Distribución Normal
Definición 4.2.3. De una variable aleatoria X diremos que sigue una distribución normal de
media µ y desviación típica σ, X ∼ N(µ; σ), si su función de densidad es:
(x−µ)2
1
f (x) = √ e− 2σ2 ,
σ 2π
para todo x ∈ R .
Si X ∼ N(µ; σ) entonces:
E[X] = µ ,
V [X] = σ 2 .
La función de densidad de una distribución N (µ; σ) tiene propiedades muy interesantes:
1. Su gráfica es simétrica respecto a la media µ:
µ−σ
µ
µ+σ
de manera que: P (X < µ − a) = P (X > µ + a), para todo a > 0.
X −µ
2. Si X ∼ N(µ; σ) y Z =
entonces Z ∼ N(0; 1). En esta situación, nos referiremos al cambio
σ
X −µ
, como tipificación de la variable X ∼ N(µ; σ), y a la correspondiente
de variable Z =
σ
Z ∼ N(0; 1) como la distribución normal tipificada.
La tipificación de cualquier normal, X ∼ N(µ; σ), nos permitirá calcular la probabilidad de un
suceso correspondiente a ella a partir de la tabla de la distribución normal tipificada N(0; 1).
Así, por ejemplo, si X ∼ N(µ; σ) entonces:
P (a < X < b) = P
¡b − µ¢
¡a − µ¢
¡a − µ
b − µ¢
<Z<
= FZ
− FZ
,
σ
σ
σ
σ
donde Z ∼ N(0; 1) y FZ (z) = P (Z ≤ z) es su función de distribución, cuyos valores vienen
dados por una tabla.
68
CAPÍTULO 4. MODELOS DE PROBABILIDAD
3. La distribución B(n; p) tiende a una distribución normal cuando n → ∞ y p es fijo. Así si
estamos con una distribución binomial con n grande, la podremos aproximar por una normal
N (µ; σ) con parámetros:
p
µ = n · p , σ = n p (1 − p) .
A título orientativo es aconsejable realizar esta sustitución cuando n ≥ 30 y 0.1 < p < 0.9.
4. Si X1 ∼ N(µ1 ; σ1 ), X2 ∼ N(µ2 ; σ2 ), . . . , Xn ∼ N(µn ; σn ) son variables independientes entonces:
q
X = X1 + X2 + · · · + Xn ∼ N(µ = µ1 + µ2 + · · · + µn ; σ = σ12 + σ22 + · · · + σn2 )
q
Y = X1 − X2 ∼ N(µ = µ1 − µ2 ; σ = σ12 + σ22 ) .
Problemas
1. En una cadena de producción dos robots funcionan conectados, respectivamente, a cinco y seis
ordenadores independientes entre sí, de manera que en un tiempo dado t de funcionamiento
falla un ordenador del primer robot (resp. segundo) con probabilidad 0.1 (resp. 0.2). Calcúlense
las probabilidades de que en un tiempo t de funcionamiento fallen:
(a) un ordenador del primer robot;
(b) al menos un ordenador del primer robot;
(c) cinco ordenadores del segundo robot;
(d) no más de cinco ordenadores del segundo robot;
(e) exactamente dos ordenadores del primer robot y tres del segundo;
(f) tres ordenadores más del primero que del segundo robot.
2. Un lote de piezas contiene una proporción p de defectuosas. Para realizar un control de calidad
se seleccionan n piezas y se denomina X el número de piezas defectuosas encontradas.
(a) Calcúlese P (X = 0).
(b) Si p = 0.1, ¿cuál debe ser el número de piezas, n, examinadas para tener P (X = 0) < 0.05?
(c) Si n = 40, ¿para qué valores de p es P (X = 0) < 0.01?
(d) Si se examinan n = 80 piezas y se encuentran dos defectuosas, ¿cuál es la proporción más
verosímil de piezas defectuosas en el lote total: el 1 %, el 4 % ó el 7 %?
3. En una población se sabe que, en promedio, uno de cada 20 habitantes tiene teléfono móvil.
¿Cuál es la probabilidad de que al realizar una encuesta, el cuarto encuestado sea el primero
con teléfono móvil?
4. Se extraen una a una con reemplazamiento cartas de una baraja española. Calcúlese la probabilidad de obtener 5 cartas que no sean oros antes de obtener el tercer oro.
4.2. MODELOS CONTINUOS
69
5. El dueño de una ferretería, extrae al azar 50 tornillos de cada lote que recibe. Si en la muestra no
encuentra más de 3 defectuosos, se queda el lote, en caso contrario lo rechaza. Un representante
le envía un lote que contiene un 10 % de tornillos defectuosos, ¿cuál es la probabilidad de que
acepte el lote?
6. En cierto tramo de una carretera la probabilidad de que un coche supere la velocidad máxima
permitida es 0.0001. Si recorren ese tramo 20000 coches, calcúlese la probabilidad de que
(a) ninguno supere la velocidad máxima permitida;
(b) a lo sumo 5 superen la velocidad máxima permitida.
7. Se ha observado el número de fallos cometidos en un folio por un mecanógrafo en un tiempo
fijado. Estos fallos se han anotado en la siguiente tabla:
número de fallos
frecuencia
0
42
1
30
2
16
3
12
4
4
5
1
Ajústese una distribución de Poisson y calcúlese la probabilidad de que en un folio seleccionado
al azar, de entre los escritos por este mecanógrafo, aparezcan más de tres fallos.
8. Se sabe que la demanda de un producto de consumo sigue una distribución normal de media
95 y desviación típica 7. Calcúlese:
(a) la probabilidad de que la demanda sea menor que 97;
(b) la probabilidad de que la demanda sea mayor que 99;
(c) la probabilidad de que la demanda esté entre 92 y 96;
(d) la mínima cantidad disponible necesaria para poder atender la demanda con una probabilidad no menor que 0.95 .
9. En cierto país, el 20 % de la población se muestra preocupada por el incremento de las emisiones
de dióxido de carbono. Se hace una encuesta a 15 personas.
(a) ¿Cuál es la probabilidad de que ninguna de ellas esté preocupada por el incremento de las
emisiones de dióxido de carbono?
(b) Halla la probabilidad de que no haya más de tres personas preocupadas.
(c) Calcula la probabilidad de que al menos tres personas entre las 15 estén preocupadas.
(d) ¿Cuál es la esperanza y la desviación típica del número de personas preocupadas entre las
15? Si en lugar de al 20 %, sólo al 2 % de los habitantes del país les preocupa el problema,
¿cómo cambian la esperanza y la desviación típica?
10. Consideramos un experimento aleatorio consistente en tirar 400 veces una moneda.
(a) Halla la probabilidad aproximada de que el número de caras obtenido esté comprendido
entre 160 y 190.
(b) Halla el intervalo (a, b) centrado en 200, tal que la probabilidad aproximada de que el
número de caras obtenido esté en dicho intervalo sea 0.95.
70
CAPÍTULO 4. MODELOS DE PROBABILIDAD
11. Un zoólogo estudia cierta especie de ratones de campo. Para ello, captura ejemplares de ratones
en un bosque en el que la proporción de ratones de campo de la especie que le interesa es p.
(a) Si p = 0.3, calcula la probabilidad de que entre 6 ejemplares capturados haya al menos 2
de la especie que le interesa.
(b) Si p = 0.05, calcula la probabilidad de que entre 200 ejemplares capturados, haya exactamente 3 de la especie que le interesa.
(c) Si p = 0.4, calcula la probabilidad de que entre 200 ejemplares capturados, haya entre 75
y 110 de la especie que le interesa.
(d) ¿Cuál es el número medio de ejemplares que tendrá que capturar hasta encontrar uno de
la especie que le interesa, si p = 0.2 ?
12. Se supone que el número de bacterias por cm3 de agua en un estanque es una variable aleatoria
X con distribución de Poisson de parámetro λ = 0.5.
(a) ¿Cuál es la probabilidad de que en un cm3 de agua del estanque no haya ninguna bacteria?
(b) En 40 tubos de ensayo se toman muestras de agua del estanque (1 cm3 de agua en cada
tubo). ¿Qué distribución sigue la variable Y que representa el número de tubos de ensayo,
entre los 40, que no contienen bacterias? Calcula P (Y ≥ 20).
(c) Si sabemos que en un tubo hay bacterias, ¿cuál es la probabilidad de que haya menos de
tres?
13. En el sur de California se produce, en promedio, un terremoto al año de magnitud 6.1 o mayor
en la escala de Richter1 . Se supone que el número de terremotos al año en esta zona sigue un
proceso de Poisson.
(a) ¿Cuál es la probabilidad de que se produzcan más de dos terremotos en cinco años?
(b) ¿Cuál es la probabilidad de que haya un periodo de 15 meses sin que haya terremotos?
(c) ¿Cuál es la probabilidad de que haya que esperar más de tres años y medio para que se
produzcan dos terremotos?
14. La probabilidad de que una pieza tenga un fallo durante el primer año de funcionamiento es
0.001. Halla la probabilidad de que, entre 2000 piezas, presenten un fallo (a) exactamente tres,
(b) más de 2.
1
Magnitud
menos de 3.5
3.5–5.4
5.5–6.0
6.1–6.9
7.0–7.9
8 ó mayor
Escala Ritcher
Efectos del terremoto
Generalmente no se siente, pero es registrado
A menudo se siente, pero sólo causa daños menores
Ocasiona daños ligeros a edificios
Puede ocasionar daños severos en áreas muy pobladas
Terremoto mayor. Causa graves daños
Gran terremoto. Destrucción total a comunidades cercanas
Fuente: http://www.angelfire.com/ri/chterymercalli
4.2. MODELOS CONTINUOS
71
15. La variable X expresa el tiempo en segundos que tarda una depuradora en filtrar 10 mm3 de
agua y sigue una distribución exponencial con media 10. Calcula la probabilidad de que tarde
entre tres y doce segundos en depurar 10 mm3 .
16. Para estudiar la viabilidad económica de una mina de carbón, consideramos la variable aleatoria
X=“Kilogramos de carbón obtenidos por tonelada de mineral”. Supongamos que, en cierta mina,
X sigue una N(µ = 150; σ = 25).
(a) Calcula la probabilidad de que, en una tonelada de mineral, el contenido de carbón sea
superior a 130 kg.
(b) Calcula la probabilidad de que, en 2 toneladas de mineral extraídas independientemente,
la diferencia en el contenido de carbón sea inferior a 30 kg.
(c) Extraemos independientemente 100 toneladas de mineral. Calcula la probabilidad de que
en más de 80 de ellas el contenido de carbón sea superior a 130 kg.
17. En una fábrica, se están produciendo cuerdas con cierta fibra sintética. La resistencia a la
tensión de estas cuerdas sigue una distribución N(µ = 30; σ = 2).
(a) ¿Cuál es el porcentaje de cuerdas cuya resistencia a la tensión está entre 28 y 32?
(b) En un pedido de 200 cuerdas, ¿cuál es la probabilidad de que más de 140 presenten una
resistencia a la tensión entre 28 y 32?
(c) En un pedido de 250 cuerdas, ¿cuál es la probabilidad de que alguna presente una resistencia inferior a 25?
18. Un fabricante produce varillas y recipientes para insertar las varillas. Ambos tienen secciones
circulares. Los diámetros de las varillas siguen una distribución N(µ = 1; σ = 0.2); los diámetros
de los recipientes siguen una distribución N (µ = 1.05; σ = 0.15). Un ingeniero selecciona al
azar una varilla y un recipiente. ¿Cuál es la probabilidad de que la varilla pueda insertarse en
el recipiente?
19. Para analizar si las aguas próximas a la costa están contaminadas cuando se produce una marea
negra por el hundimiento de un petrolero, se analizan varias muestras con un test que se divide
en tres pruebas independientes. Los resultados varían aleatoriamente de unas muestras a otras
y se sabe que siguen distribuciones normales dadas por:
X
Y
Z
=
=
=
resultados de la primera prueba del test, X ∼ N(7; 1)
resultados de la segunda prueba del test, Y ∼ N(5; σ = 2)
resultados de la tercera prueba del test, Z ∼ N(6; 1)
Se elige una muestra al azar. Contesta a las siguientes preguntas:
(a) Si el resultado final del test es el promedio de los valores que se obtienen en las tres
pruebas, ¿cuál es la probabilidad de que el resultado del test sea superior a 5?
(b) ¿Cuál es la probabilidad de que el resultado de las tres pruebas sea superior a 5?
20. Una compañía de petróleo tiene un contrato para vender grasa en envases de 500 gramos. La
cantidad de grasa que la máquina de llenado pone en los envases sigue una Normal con la media
que el encargado elija y σ = 25. ¿Qué valor medio deberá elegir el encargado si la compañía no
desea que le rechacen más del 2 % de los envases por tener un peso por debajo de lo especificado?
72
CAPÍTULO 4. MODELOS DE PROBABILIDAD
21. Una máquina de envasado llena sacos de fertilizante de aproximadamente 30 kg. La “cantidad
de fertilizante por saco” sigue una distribución N (µ = 30; σ = 1).
(a) Se desea que la cantidad de fertilizante por saco esté entre 29 y 31 kg. Calcula la probabilidad de que la cantidad esté dentro de esos límites.
(b) Una empresa realiza un pedido de 80 de estos sacos de fertilizante. Calcular la probabilidad
de que más de 50 estén dentro de los límites indicados.
22. La permeabilidad intrínseca del hormigón producido en una fábrica química sigue una distribución N (µ = 40; σ = 5). Se reciben 60 remesas de hormigón.
(a) ¿Cuál es la probabilidad de que alguna remesa tenga una permeabilidad intrínseca inferior
a 30?
(b) El 30 % de las remesas de hormigón enviadas a un almacén tiene una permeabilidad que
sigue una N (µ = 40; σ = 5). El 70 % de las remesas restantes tiene una permeabilidad
que sigue una N (µ = 45; σ = 10). ¿Cuál es el porcentaje total de remesas que tienen una
permeabilidad inferior a 35?