Download DEF Diremos que X es una variable aleatoria discreta

Document related concepts
no text concepts found
Transcript
1. INTRODUCCIÓN.
DEF Diremos que X es una variable aleatoria discreta unidimensional si es una
variable aleatoria que toma sólo un número finito o infinito numerable de valores del eje
x.
Supongamos que X toma únicamente los valores x1, x2, ..., xn, ... con probabilidades
f(x1), f(x2), ..., f( xn), ... e imaginemos que A es cualquier subconjunto de los puntos x1,
x2, ..., xn, ... La probabilidad P(A) del suceso A (probabilidad de que x esté en A) se
define como
P( A) = ∑ f (x)
x∈A
donde el sumatorio representa la suma de f(x) para aquellos valores xi que pertenecen a
A.
Así, por ejemplo, P(X=4) indica la probabilidad de que el valor de la variable sea 4,
y P(1<X<3) indica la probabilidad de que el valor de la variable aleatoria esté
comprendido entre 1 y 3.
Dada una situación experimental, f(x) la tomaremos de tal manera que se ajuste al
problema particular que estemos considerando.
DEF Llamaremos a f(x) Función de Densidad de una variable Discreta, si satisface las
dos condiciones siguientes:
• f(xi)≥0 ∀i
•
∑ f (x ) = 1
i
La función de Densidad también se conoce como Función de Cuantía.
Ejemplo. Sea un experimento aleatorio consistente en lanzar cuatro monedas
simétricas y registrar el número de caras. Los valores que toma una variable aleatoria X
serán 0, 1, 2, 3 y 4. Para calcular la función de densidad f(x), probabilidad de que
aparezcan x caras, observamos que el número de formas en que pueden caer las cuatro
 4
monedas es 24. El número de formas en que pueden aparecer x caras es   ; por tanto,
 x
 4
 
x
f (x) =  
Como
2
x = 0,1,2,3,4
4
f(x)≥0
1/17
0≤x≤4
∑ f ( x) =
4
x= 0
 4
 =1
2 4 x =0  x 
1
∑
4
Entonces, f(x) es una función de densidad.
Es importante destacar que f(x) da las frecuencias relativas o frecuencias con que se
presenta cada uno de los valores de X.
2. FUNCIONES DE CUANTÍA.
El conjunto de resultados posibles de un suceso aleatorio se divide en un cierto
número de clases mutuamente excluyentes en relación con determinado atributo. A cada
clase se le asocia un valor de la variable aleatoria, o variante X. La función de cuantía es
una función que da la probabilidad de que ocurra un valor determinado de x.
La variante X puede describir un atributo, como era el caso anterior del lanzamiento
de 4 monedas, o puede ser simplemente el resultado de una codificación. Así, al extraer
bolas de una urna, pueden clasificarse según su color, y podríamos definir una variable
aleatoria X estableciendo arbitrariamente una correspondencia entre los valores de X y
los colores.
La función de cuantía puede ser una expresión matemática, como en el apartado
anterior, o bien reducirse a una tabla de valores.
A menudo resulta necesario calcular la probabilidad cuando la variable aleatoria se
encuentra en un determinado rango de valores, como por ejemplo, P(X<3) o P(1<X<5).
En estos casos, y también en otras situaciones, es conveniente definir una nueva
función.
DEF Llamaremos Función de Distribución Acumulativa a F(x), que se
F(x)=P(X≤x). Es decir
F( x) = ∑ f (x i )
define como
xi ≤ x
PROP
P(a<x≤b) = F(b) – F(a)
Dem.
Inmediata a partir de la definición.
3. DISTRIBUCIONES MULTIVARIANTES.
Si el resultado de un suceso aleatorio lo podemos clasificar de más de una manera,
la función de cuantía es una función de más de una variable. Así, al extraer una carta de
una baraja francesa, podríamos caracterizarla según su palo y su numeración.
Tendríamos la variable aleatoria X que toma los valores 1, 2, 3 y 4 (representando cada
uno a un palo de la baraja) y la variable aleatoria Y que toma los valores del 1 al 13.
2/17
La variable aleatoria (X,Y) es bidimensional y la probabilidad de extraer una carta
se representa por f(X,Y). Si cada carta tiene la misma probabilidad de ser extraida, la
función de cuantía será
1
f ( X ,Y ) =
1 ≤ X ≤ 4 1 ≤ Y ≤13
52
Este tipo de funciones pueden representarse sobre un plano. Las probabilidades
vienen representadas por segmentos verticales en los puntos (x,y) del plano horizontal
en el cual están definidas. En el ejemplo, los segmentos serán de igual altura.
En general, la variable aleatoria k-dimensional (x1, x2, ..., xn) se denomina función
de cuantía de la variable aleatoria k-dimensional. Sea A un subconjunto del conjunto de
valores de la variable aleatoria, entonces
, x k ) ∈ A) = ∑ f ( x1 , x 2 ,
P((x1 , x 2 ,
, xk )
A
donde el sumatorio supone la suma que toma la función de cuantía para los valores de la
variable que pertenecen al conjunto A.
DEF
Sea x i1 , x i2 ,
, xi t cualquier subconjunto de las variables aleatorias discretas x1,
x2, ..., xn. La distribución marginal de la variable aleatoria t-dimensional ( xi 1 , x i2 ,
es
f i ,i
,..., i
1 2
t
, xi t )
( xi , xi ,..., xi ) = ∑ f ( x1 , x2 ,..., xn )
1
t
t
donde la suma se extiende a todos los valores, a excepción de x i1 , x i2 ,
, xi t .
DEF Sean x i1 , x i2 , , xi t y x j1 , x j 2 , , x j s dos subconjuntos disjuntos de las variables
aleatorias discretas x1, x2, ..., xn . La distribución condicional de la variable aleatoria
t-dimensional ( x i1 , x i2 , , xi ) dado el valor ( x j1 , x j2 , , x j ) es
t
s
g( x , x ,
i1
i2
, x | x ,x ,
it
j1
j2
,x )=
j
f i ,i ,..., i , j , j ,..., j ( xi , xi ,
1 2
t
1
2
s
1
, xi , x j , x j ,
2
f j1 , j2 ,..., js ( x j1 , x j2 ,
s
t
1
2
,xj)
s
, x js )
para todos los valores de x para los cuales no se anula el denominador.
DEF
Las variables aleatorias discretas x1, x2, ..., xk son Independientes si
f (x1 , x2 ,..., xk ) = f ( x1 )· f ( x2 )·...· f (x k )
para todos los valores en que está definida la variable aleatoria.
Ejemplo Supongamos que extraemos 12 cartas sin reemplazamiento de una baraja
francesa. Sea X1 el número de ases, X2 el número de doses, X3 el número de treses y X4
el número de cuatros. La distribución de estas variables viene expresada por una función
de cuatro variables, que es:
3/17
36
4 4  4  4 

  ⋅  ⋅   ⋅  ⋅ 

x
x
x
x


2

4

3


12
−
x
−
x
−
x
−
x

1

f (x , x , x , x ) =
1
2
3
4 

1
2
3
4
 52
 
12 
siendo el recorrido de cada una de las variables aleatorias de 1≤Xi≤4 y verificando la
restricción de
∑X
i
≤ 12
Existe una gran cantidad de distribuciones marginales y condicionales asociadas con
esta distribución. Veamos dos ejemplos de distribuciones marginales y otro de
distribución condicional.
44
4  4 

  ⋅  ⋅

x
x
3
2



12
−
x
−
x

f (x,x )=
2
3 

23
3
4
 52
 
12 
 4   48 
  ⋅

12 − x
f 4 (x 4 ) =  x4  52 4 
 
12 
0 ≤ xi ≤ 4
0 ≤ x4 ≤ 4
36
4  4  

 ⋅   ⋅

x
x

4

12
−
x
−
x
−
x
−
x
f (x , x | x , x ) =  2 
1
2
3
4

2
4
1
3
44




−
x
12
−
x

1
3 
0 ≤ xi ≤ 4
x2 + x4 ≤ 12 − x1 − x3
4. DISTRIBUCIÓN DE BERNOUILLI.
Llamaremos Prueba de Bernouilli a toda realización de un experimento aleatorio en
el que sólo sean posibles dos resultados mutuamente exclusivos (por ejemplo, éxito y
fracaso). Por tanto, podemos definir un espacio muestral como
Ω = {0,1}
donde 0 representa “fracaso” y 1 representa “éxito”. Definamos una variable aleatoria X
que pueda tomar sólo los valores anteriores, con probabilidades asociadas
P(éxito) = p
P(fracaso) = q = 1 – p
Es claro que la función de distribución de probabilidades (también llamada de
cuantía) de X es:
4/17
f(x) = P(X=x) = px(1–p)1-x para x=0,1
Esta distribución de probabilidades recibe el nombre de Distribución de Bernouilli.
La media y la varianza de una variable aleatoria que posee una distribución de
probabilidades de Bernouilli son:
E(X) = 0·f(0) + 1·f(1) =00·q + 1·p = p
Var(X) = E(X2) – [E(X)]2 = 0·f(0) + 1·f(1) – p2 = p – p2 = p(1–p) = pq
5. DISTRIBUCIÓN BINOMIAL.
Supongamos n pruebas independientes entre sí de Bernouilli tales que la
probabilidad de éxito, p, se mantiene constante a lo largo de todas ellas. Definimos la
variable aleatoria X como el número de veces que sucedió el suceso éxito. Bajo estas
condiciones podemos definir
DEF Diremos que X es una variable aleatoria Binomial de parámetros n y p si su
función de probabilidad es
n
P( X = x) =   p x q n− x con x = 0,1,...,n
 x
Veamos como se ha originado esta función de probabilidad. Supongamos que el
resultado de la i-ésima prueba forma una variable aleatoria unidimensional que
designaremos por Xi, siendo su valor Xi=0 si el resultado es un fracaso y Xi=1 si es un
éxito. Sea f(x1,x2,...,xn) la probabilidad de que la variable aleatoria Xi=xi con i:1,2,...,n.
Puesto que las n variables aleatorias, todas ellas iguales, son independientes,
podemos aplicar la definición de independencia para obtener
x
n−
x
f (x1, x2,..., xn ) = f (x1 )· f (x 2 )· · f ( xn ) = p x1 q 1− x1 p x 2 q1− x2 · ·p xn q1− xn = p ∑ i q ∑ i
donde 0 y 1 son los valores que toman cada una de las variables xi.
Evidentemente, para cualquier ordenación de k éxitos y n–k fracasos, la
probabilidad es
pkqn–k
puesto que el sumatorio será k al haber esa cantidad de 1’s. Si ahora tenemos en cuenta
el número total de formas de ordenar k 1’s en n lugares, obtenemos el número
combinatorio
n
 
k 
siendo entonces la probabilidad de k éxitos el número
5/17
n
  p k q n− k
k 
La función de distribución de variable aleatoria binomial presenta otras dos
variables, p y n, de carácter distinto. Su variación corresponde a distribuciones
binomiales diferentes, ya que para una distribución binomial dada, p y n tienen valores
fijos. Las variables de este tipo reciben el nombre de parámetros de la distribución.
La función f( x;n,p) representa una familia de distribuciones con dos parámetros,
obteniéndose un miembro de esta familia al especificar los valores de p y n.
DEF El parámetro n recibe el nombre de Parámetro Discreto. El parámetro p es el
Parámetro Contínuo.
El nombre de n es debido a que sólo puede tomar valores naturales. En cambio, p
puede tomar valores dentro del intervalo cerrado [0,1]
En general, la distribución binomial tendrá un valor máximo, el cual pasamos a
determinar.
Sea m la parte entera del número (n+1)·p y sea e la parte fraccionaria.
m = [(n+1)·p]
y
e = (n+1)·p – [(n+1)·p]
PROP El mayor valor de f(x) se obtiene al tomar x = m, recibiendo m el nombre de
valor modal o, simplemente, moda de la variable aleatoria X. Si e=0, también se alcanza
en x = m–1.
Dem.
Supongamos que el número e, definido anteriormente, es distinto de cero. Tomemos
la razón
f ( x +1)
f (x)
Vamos a comprobar que esta razón es inferior a 1 cuando x es mayor o igual a m, y
superior a 1 cuando x es inferior a m.
f (x + 1) p n − x
= ⋅
f ( x)
q x +1
y si x ≥ m tenemos
p n−x p n−m
⋅
≤ ⋅
q x + 1 q m +1
Sustituyendo m por (n+1)p–e, el segundo miembro puede escribirse como
6/17
1 − e 
(n +1) −
p  nq− m



n +1 +
e
⋅
=
q m + 1 (n + 1) + 1 − e 


 p 
que es menor que la unidad
Si x < m–1 tenemos
q
p n − x p n − (m −1) p (n + 1)q + e
⋅
> ⋅
> ⋅
>
m
q (n + 1) p − e n +1 − e
q x +1 q
p
que es mayor que 1.
Ahora vamos a estudiar el caso que nos hemos dejado pendiente: x = m–1, para el
cual se verifica:
e
(n + 1) +
q
f ( x + 1) p n − m + 1
= ⋅
=
e
f ( x)
q
m
(n + 1) −
p
que es también superior a 1 si e≠0. Si e=0, la razón es igual a la unidad, verificándose
que f(x+1) = f(x), teniendo la distribución dos valores de x en los que alcanza el
máximo, x =m y x = m–1.
PROP La Media y la Varianza de una variable aleatoria que posee una distribución de
probabilidades Binomial es:
1) E(X) = np
2) Var(X) = npq
Dem.
Para la demostración, vamos a considerar que la variable aleatoria X con
distribución binomial se puede dividir en n variables aleatorias independientes, cada una
de ellas asociada a una distribución de Bernouilli de probabilidad p. Es decir
X = X1 + X2 + ... + Xn
donde las Xi son variables aleatorias independientes que siguen una distribución de
Bernouilli, representando si sucede o no el suceso A en la prueba i-ésima, con i:1,2,...,n.
Tomando esperanzas a ambos lados de la igualdad:
E(X) = E(X1 + X2 + ... + Xn) = E(X1) + E(X2) + ... + E(Xn) = p + p + ... + p = np
y tomando varianzas
Var(X) = Var(X1 + X2 + ... + Xn) = Var(X1) + Var(X2) + ... + Var(Xn) =
7/17
= pq + pq + ... + pq = npq
6. DISTRIBUCIÓN DE POISSON.
DEF Diremos que la variable aleatoria X se distribuye según una distribución de
Poisson si la función de distribución es de la forma
f (x) =
e−
x
x!
con x=0,1,2,3,...
siendo λ cualquier número positivo.
Si tenemos en cuenta que la exponencial eλ tiene un desarrollo en serie de potencias
e =1+ +
2
+
+
2!
x
+
x!
deducimos que
∞
∑ f (x) =1
x= 0
Esta distribución se suele aplicar en aquellas situaciones en que un gran número de
objetos se encuentran distribuidos sobre un gran recinto de considerable extensión.
Consideremos un ejemplo que concrete esta situación.
Supongamos un volumen V de un fluido que contiene un gran número N de
pequeños organismos. Podemos suponer que estos organismos carecen de instintos
sociales y que la probabilidad de que aparezcan en cualquier parte del fluido es la
misma para un determinado volumen.
Examinemos una gota de volumen D al microscopio. ¿Cuál es la probabilidad de
que se hallen x organismos en la gota?. Se supone que V es mucho mayor de D. Puesto
que suponemos que los organismos están distribuidos con probabilidad uniforme por
todo el fluido, se deduce que la probabilidad de encontrar uno cualquiera de ellos en D
D
es
. Y al suponer que no tienen instintos sociales, la presencia de uno de ellos en D
V
no influye en la de cualquiera de los otros. Por tanto, la probabilidad de que haya x
organismos en D es
 N   D  x  V − D  N −x
 ⋅  ⋅

 x  V   V 
Supongamos ahora también que los organismos son tan pequeños que podemos
prescindir del espacio que ocupan; los N reunidos no ocuparían parte apreciable del
volumen D. La función de Poisson es una aproximación de la expresión anterior, que es
D
simplemente una función binomial en la que p =
es un valor muy pequeño.
V
8/17
La distribución de Poisson se obtiene haciendo que V y N tiendan a infinito, de tal
N
modo que la densidad de organismos d =
permanezca constante. si escribimos de
V
nuevo el producto anterior de la siguiente forma
N(N − 1)(N − 2)
x!⋅N x
(N − x + 1)  ND  x
⋅

 V 
ND  N − x
⋅ 1 −
=

NV


− 
 



 N− x
x
1
2
x 1
Dd
 ⋅ (Dd ) ⋅ 1 −

1 − 1 −  1 −
N 
N 
N 
N 

=
x!
Podemos ver que el límite de la expresión anterior cuando N tiende a infinito es
e− Dd (Dd ) x
x!
y si sustituimos Dd por λ obtenemos la función de distribución de Poisson.. Esto nos
demuestra que λ es el valor medio de x, ya que D, volumen de la porción examinada,
multiplicado por la densidad d, da el promedio esperado en el volumen D.
Hemos visto este ejemplo con cierto detalle porque a menudo se aplica de forma
equivocada a datos que no verifican todas las condiciones requeridas. Por ejemplo, no
se puede aplicar en el estudio de distribuciones de larvas de insectos en una gran
extensión de cultivo, porque los insectos depositan sus huevos en grupos, de modo que
en caso de encontrar uno en una pequeña área dada, lo probable es que se encuentren
también otros.
PROP La Media y la Varianza de una distribución de Poisson son iguales al parámetro
λ.
Dem.
∞
E( X ) = ∑ x
x
x=0
∞
e− = x
∑
x!
x =1
x
e− =
x!
∞
x −1 −
∑ ( x −e
1)!
x =1
Haciendo el cambio de y = x–1 y operando, obtenemos
∞
E( X ) = e
∑
−
y =1
y
= e− e =
y!
En cuanto a la varianza, nos vamos a apoyar en su obtención en el cálculo de la
esperanza.
∞
E[ X ( X − 1) ] = ∑ x( x − 1)
x= 0
x
e
−
x!
∞
= ∑ x(x − 1)
x=2
9/17
x
e
∞
−
x!
=
2
∑
x= 2
x− 2
e
−
(x − 2)!
Haciendo el cambio de variable y = x–2 y operando, obtenemos
∞
E[ X ( X − 1) ] =
2
y
∑
e
−
=
2
y!
y=0
con lo cual obtenemos el valor de la varianza
Var( X ) = E( X 2 ) − [E( X ) ]2 = E( X 2 ) − µ2 = E [X ( X −1) ] + µ − µ2 = µ =
7. AJUSTE DE UNA DISTRIBUCIÓN BINOMIAL A UNA POISSON.
La distribución de Poisson también se obtiene como límite de la binomial cuando el
tamaño de muestra n crece, n→∞, y la probabilidad de éxito tiende a cero, p→0, de
manera que el número medio de “éxitos”, np=λ, permanezca constante. Las
probabilidades binomiales las podemos expresar de la forma siguiente:
n− x
 n   x 

P( X = x) =   ⋅   ⋅ 1 − 
n
 x  n  
Tomando límites:
 n    

  ⋅   ⋅ 1 − 
n
n→∞
x
n
Lim




 
x
P( X = x) =
n →∞
Lim
Lim
x!
n→∞



x

1−  n x
n

 = x
x!



 n(n −1) (n − x +1) 


x
=
n− x
n
=
1
• Lim − 
 n→∞ 
n


x
x!



n
(n − x + 1) 
 
n→∞  n(n −1)
1 −  =
x
n 
Lim


 x


1 −  n
n





⋅
⋅ −
1 e
En consecuencia
P( X = x) →
x
e−
x!
para x = 0, 1, 2, ...
llegando así a la distribución de Poisson. La aproximación se puede considerar que es
bastante buena cuando se verifican las siguientes condiciones:
1) n > 25
2) p < 0’1
3) np = λ ≤ 5
Debido a esto, se conoce a la distribución de Poisson como Ley de los Sucesos
Raros ya que se presenta en aquellos fenómenos en que estudiemos la ocurrencias de
sucesos con probabilidades pequeñas.
10/17
8. OTRAS DISTRIBUCIONES DISCRETAS.
8.1. Distribución Multinomial.
Supongamos que un experimento aleatorio puede conducir a k resultados
excluyentes y exhaustivos E1, E2, ..., Ek, con probabilidades respectivas p1, p2, ..., pk,
entonces la distribución de probabilidad de las variables aleatorias X1, X2, ..., Xk, que
representan los números de ocurrencias para E1, E2, ..., Ek, en n ensayos independientes
es:
n!
n
x1
x2
xk

 x1 x2
xk
f (x1 , x2 , , xk ) =  x , x , , x  p1 p 2
p k = x ! x ! x ! p1 p2
pk
k
1
2
 1 2
k 
donde
k
∑ x =n
i
k
0 ≤ p1 ≤ 1
∑p
i =1
i=1
i
=1
Si la variable aleatoria X tiene distribución Multinomial, entonces sus Medias,
Varianzas y Covarianzas están dadas por las siguientes expresiones:
1) E(Xi) = µi = 2npi
2) Var(Xi) = σi = npi(1–pi)
3) Cov( Xi,Xj) = σij = –npipj con i≠j
8.2. Distribución Hipergeométrica.
Supongamos que tenemos una población con N unidades estadísticas, de las cuales
NA son de la clase A y el resto, N–NA, de la clase contraria A . Sea un experimento
consistente en tomar, sin reemplazamiento, n unidades de población.
DEF
Bajo las condiciones anteriores, llamamos variable aleatoria Hipergeométrica a
X = “número de elementos de la clase A que hay en la muestra”
A la variable aleatoria así definida le corresponde una función de probabilidad dada
por
 N A  N − N A 




x
 n − x 
P( X = x) =
N 
 
n
Los parámetros de la distribución son
N Tamaño de la población
NA Nº de unidades de la clase A
n Tamaño de la muestra sin reemplazamiento
PROP Si la variable aleatoria X tiene una distribución Hipergeométrica, entonces su
media y su varianza están dadas por
11/17
E( X ) = µ =
nN A
Var( X ) = Χ 2 =
= np
N
donde p =
NA
N−n
np(1 − p)
N −1
.
N
Dem.
n
E( X ) = ∑
x
x=0
 NA   N − N A
 x  ⋅  n − x 
 N
 
n
( NA − 1)!  N − N A 

=
= N ∑
x =1 (x − 1)!(N A − x )
n
−
x

!
NA
n

 
n
(N A −1)!  N − N A  N A n  N A −1 N − N A 
NA n
N
(
x
−1)!
(N − x) n − x  =  N  ∑  x −1  n − x 
=  ∑
!
   x=1 


A
  x =1
n
n
y haciendo el cambio de variable de y = x–1 convertimos la expresión anterior en
n−1
 N −1  N − N A 
N A∑ A
 ⋅

y =0 
y
n
−
y
−1
 

E( X ) =
 N
 
n
y teniendo en cuenta que
como
 N  N  N − 1
 = 

n
  n  n − 1
podemos dejar la expresión anterior
 N A − 1 ⋅  N − N A 
 y
N
  n − y − 1 N A
−1

 
=
n = np
E( X ) = A n∑
N
 N −1
N y =0
 n −1 


n
ya que el sumatorio es el de todas las probabilidades en el caso de una muestra de
tamaño n–1, de un lote con N–1 objetos de los que NA–1 son de la clase A.
Para el cálculo de la varianza vamos a tener en cuenta lo siguiente:
Var( X ) = E( X 2 ) − [E( X ) ]2 = E( X 2 ) − µ2 = E[ X ( X −1) ] + µ − µ2
donde
E[ X ( X − 1)] =
N A (N A −1)n(n −1)
N( N −1)
y al operar obtenemos
12/17
Var( X ) =
N−n
N −1
np(1 − p)
La diferencia más importante entre esta distribución y la binomial es que en esta
última las probabilidades permanecen constantes a lo largo de las pruebas (muestreo con
reemplazamiento), mientras que en la hipergeométrica varían de prueba a prueba en
función de los resultados de las pruebas anteriores (muestreo sin reemplazamiento).
Cuando se verifican las condiciones siguientes:
1) N→∞
NA
2) = p = cte N
3) n = cte.
entonces podemos aproximar la distribución hipergeométrica por una binomial, ya que
puede probarse que en esas condiciones se cumple que:
 N A   N − N A
 x  ⋅

   n − x   n  x n− x
p q
→ x 
 N
 
n
 
8.3. Distribución Hipergeométrica Multivariante.
Consideremos una población con N unidades estadísticas repartidas en k clases
disjuntas y exhaustivas E1, E2, ..., Ek con N1, N2, ..., Nk unidades en cada clase
respectivamente, y verificándose que N1+N2+ ...+Nk=N. Si tomamos n unidades
estadísticas sin reemplazamiento y contabilizamos cuántas unidades de cada clase nos
aparecen, entonces esas k variables discretas constituyen una variable hipergeométrica
multivariante.
Xi = Nº de elementos de la clase Ai que hay en la muestra
Estas variables Xi son linealmente dependientes, ya que su suma es evidentemente el
tamaño n de la muestra. Su función de probabilidad viene dada por
P( X 1 = x1 , X 2 = x2 ,
 N1  N 2   N k 
    
x
x
 xk 
, X k = xk ) =  1  2 N
 
 
n
y sus medias y varianzas valen
E( X i ) = µi = npi
13/17
Var( X ) = Χ2 =
N−n
np (1− p )
N −1 i
N−n
np p
Cov( X , X ) = Χ = −
i
j
i
j
ij
N −1
i
donde p =
i
Ni
i
i
i≠ j
.
N
Vemos que las covarianzas son negativas, al igual que sucedía con la distribución
multinomial. De manera totalmente análoga a la expuesta en el punto anterior, podemos
aproximar esta distribución por una binomial, bajo las siguientes condiciones:
1) N→∞
Ni
2)
= p = cte.
i
N
3) n = cte.
y la aproximación de la distribución hipergeométrica multivariante por una multinomial
se debe al hecho de que en esas condiciones se verifica
 N1  N 2   N k 
    
 x1  x2   xk 
 N
n
 
→
n!
x1
x2
x ! x ! x ! p1 p2
1
2
p kx k
k
8.4. Distribución Geométrica o de Pascal.
Supongamos que realizamos un experimento y estamos interesados en la ocurrencia
o no de un determinado suceso A. Supongamos también, al igual que hacíamos en la
distribución binomial, que realizamos repeticiones del experimento de forma que estas
repeticiones son independientes, y que en cada una de las repeticiones las
probabilidades de A, p, y de su complementario A , 1–p, permanecen constantes. En
esta situación, repetimos el experimento hasta que ocurre A por primera vez. Podemos
definir la variable aleatoria
X=
número de repeticiones del experimento necesarias para que tenga lugar la
primera ocurrencia de A
la cual, diremos, tiene una distribución Geométrica o de Pascal de parámetro p.
Tengamos en cuenta que aquí nos separamos de las hipótesis mantenidas para la
distribución binomial. Allí el número de repeticiones era predeterminado, mientras que
aquí es una variable aleatoria. Tenemos que X=k siempre que en las k–1 repeticiones
anteriores no haya sucedido A. Entonces, la función de probabilidad es
f (x) = pq k −1
para k =1,2,3,
14/17
PROP Si la variable aleatoria X tiene una distribución geométrica, entonces su media y
su varianza vienen determinadas por
E( X ) =
1
Var( X ) =
p
q
p2
Dem.


d∑q k 


d (q k )
p
p 1
 = p d  q =
E( X ) = ∑ kpqk −1 = p∑
=p  k
=
=
2
2
p
p
dq
dq
dq 1 − q  (1 − q)
k
k
y de forma análoga, con la derivada segunda respecto de q podemos razonar para
obtener la varianza a través de la esperanza de X(X–1)
Var( X ) = E[ X ( X − 1)] + E( X ) − E( X ) 2 =
q
p2
8.5. Distribución Binomial Negativa.
Esta distribución es una generalización de la anterior. Para obtenerla, y bajo las
mismas condiciones que para la distribución geométrica, supongamos que un
experimento se repite hasta que un suceso particular A se repite r veces. Sea la variable
aleatoria
X = número de repeticiones necesarias para que A suceda exactamente r veces.
Esta distribución recibe el nombre de Distribución Binomial Negativa de Parámetros
r y p.
Es evidente que para r=1 obtenemos la distribución geométrica de parámetro p. El
suceso X=K ocurre si y sólo si el suceso A ocurre en la k-ésima repetición,
verificándose que A ya sucedió r-1 veces en los k-1 experimentos anteriores. Por ello, la
probabilidad de este suceso es
 k − 1
P( X = k ) = 
 p r q k − r para k = r, r+1, ...
 r −1 
PROP La media y la varianza de una distribución binomial negativa son
E( X ) =
r
p
Var( X ) =
rq
p2
Dem.
Para comprobarlo, definamos las siguientes variables aleatorias.
Z1 =
Nº de repeticiones necesarias hasta la primera ocurrencia de A
15/17
Z2 =
.......
Zr =
Nº de repeticiones necesarias desde la primera ocurrencia de A hasta incluir
la segunda ocurrencia de A.
Nº de repeticiones necesarias desde la ocurrencia r–1 de A hasta incluir la résima ocurrencia de A.
Todas las Zi son variables aleatorias independientes, teniendo cada una de ellas una
distribución geométrica de parámetro p. Además, la variable aleatoria X es suma de
todas ellas. Por tanto
E( X ) = E(Z + Z +
1
+ Z ) = E(Z ) + E(Z ) +
2
r
1
2
+ E(Z ) = 1 + 1 +
r
p p
+
1
=
p
r
p
de manera análoga, tomando varianzas
Var( X ) = Var(Z1 + Z 2 +
+ Z r ) = Var(Z1 ) + Var(Z2 ) + + Var(Zr ) =
rq
p2
BIBLIOGRAFÍA RECOMENDADA.
Estadística Teórica. Aut. J.M.Doblado y M.C. Nieto. Edit. UNED
Introducción a la Estadística Teórica. Aut.: G Arnáiz. Edit.: Lex Nova
Estadística Teórica y Aplicada. Aut.: A. Nortes. Edit.: S. Rodríguez.
Introducción a la Probabilidad y la Medida (I). Aut.: P Zoroa y N. Zoroa.
DM.
Edit.: Maior
Introducción a la Teoría de la Estadística. Aut.: Mood, Graybill. Edit.: Aguilar.
16/17