Download Tema 5: Modelos de probabilidad.

Document related concepts
no text concepts found
Transcript
52
Estadı́stica
Tema 5: Modelos de probabilidad.
5.1 Modelos discretos.
(a) Distribución uniforme discreta:
La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos
por U(n), si su ley de probabilidad viene dada por:
SX = {x1 , x2 , . . . , xn }
p(X = xi ) =
1
, para cada i = 1, 2, . . . , n.
n
(b) Distribuciones definidas sobre un experimento de Bernouilli
Un experimento aleatorio se denomina de Bernouilli si verifica las tres condiciones siguientes:
1 El experimento consiste en observar elementos de una población y clasificarlos en dos categorı́as:
éxito y fracaso (que denominaremos E y F).
2 Llamaremos p a la probabilidad de que un elemento esté en E y q = 1 − p a la probabilidad
de que esté en F.
3 Las observaciones son independientes.
Sobre los experimentos de Bernouilli se pueden definir varios modelos de variables aleatorias:
• Distribución de Bernouilli.
La variable aleatoria X que modeliza la clasificación de un elemento observado en un experimento
de Bernouilli como E ó F, tiene una distribución que llamaremos Bernouilli de parámetro p.
Lo denotaremos por X ; B(p). Su ley de probabilidad viene dada por:
SX = {0, 1}
p(X = 1) = p,
p(X = 0) = 1 − p
Sus medidas principales son:
E(X) = p V ar(X) = pq.
• Distribución binomial.
La variable aleatoria X que modeliza el número de elementos, entre n observados que tienen
la caracterı́stica E, tiene una distribución que llamaremos binomial de parámetros n y p. Lo
denotaremos por X ; B(n, p); su ley de probabilidad viene dada por:
SX = {0, 1, . . . , n}
53
Estadı́stica
p(X = k) =
n
k
!
pk (1 − p)n−k
Sus medidas principales son:
E(X) = np V ar(X) = npq.
Propiedades 1 i. Si X ; B(n, p), entonces X es la suma de n variables de Bernouilli
independientes y de parámetro p.
ii. Si X1 , X2 , . . . , Xk son variables binomiales independientes de parámetros ni y p, i =
1, 2, . . . , k, entonces X1 + . . . + Xk tiene distribución B(n1 + . . . + nk , p).
iii. Si X ; B(n, p) entonces Y = n − X ; B(n, 1 − p).
iv. La distribución es simétrica si y sólo si p = 21 . Si p < 12 , entonces existe asimetrı́a a la
derecha y en caso contrario hay asimetrı́a a la izquierda.
Observación 1 – Los valores de la media y de la varianza de X se deducen fácilmente a
partir de la propiedad (i).
– La propiedad (ii) se denomina propiedad de aditividad y no es cierta en general para
cualquier modelo de distribución: por ejemplo, si X e Y son las variables que modelizan
el resultado de dos dados normales, ambas son uniformes discretas, pero su suma, que
modelizarı́a la suma de resultados, no lo es.
• Distribución geométrica:
La variable aleatoria X que modeliza el número de observaciones (o ensayos) necesarias
para obtener el primer éxito en un experimento de Bernouilli, tiene una distribución que
llamaremos geométrica de parámetro p. Lo denotaremos por X ; G(p); su ley de probabilidad
viene dada por:
SX = {1, 2, . . .}
p(X = k) = p(1 − p)k−1 ∀k = 1, 2, . . .
Sus medidas principales son:
E(X) =
1
p
V ar(X) =
1−p
p2
Observación 2 En ocasiones conviene utilizar la variable Y que modeliza el número de
fracasos necesarios hasta obtener el primer éxito en un experimento de Bernouilli; esta
variable está relacionada con la anterior por la igualdad Y = X − 1; a partir de esta relación
se deduce la ley de probabilidades, media y varianza de la variable Y (calcúlalas).
• Distribución binomial negativa.
La variable aleatoria X que modeliza el número de ensayos necesarios para obtener el résimo éxito, tiene una distribución que llamamos binomial negativa de parámetros r y p. Lo
denotaremos por X; BN (r, p). Su ley de probabilidad viene dada por:
SX = {r, r + 1, . . .}
54
Estadı́stica
p(X = k) =
!
k−1
r−1
pr (1 − p)k−r
Sus medidas principales son:
E(X) =
r
p
V ar(X) =
r(1−p)
p2
Observación 3 EL siguiente cuadro seãla las diferencias entre las variables binomial y binnomial
negativa, indicando qué es lo que permanece fijo y cuáles son los valores (aleatorios) de la variable:
No de ensayos
No de éxitos
Binomial
fijo
aleatorio
Binomial negativa
aleatorio
fijo
(c) Distribución hipergeométrica.
La variable aleatoria X cuya distribución se denomina hipergeométrica de parámetros N, n y Q,
se define sobre experimentos que consisten en observar elementos de una población y clasificarlos
en dos categorı́as, éxito y fracaso, (es decir, que cumplen la condición 1) de los experimentos de
Bernouilli), pero en los que las observaciones no son independientes. Corresponde a modelizar el
número de individuos que tienen la caracterı́stica de interés, de n (diferentes) observados de una
población finita, de tamaño N, cuándo en la población hay Q individuos con esa caracterı́stica.
La denotaremos por X; H(N, n, Q); su ley de probabilidad viene dada por:
SX = [máx{0, n − (N − Q)}, . . . , mı́n{Q, n}]
p(X = i) =
Q
i
!
N −Q
n−i
N
n
!
!
Sus medidas principales son:
E(X) =
nQ
N
V ar(X) =
nQ
N
1−
Q
N
N −n
N −1
Aproximación de la distribución hipergeométrica por la binomial.
Si X es una variable aleatoria con distribución hipergeométrica H(N, n, Q), se puede demostrar
Q
que cuando N 7→ ∞, Q 7→ ∞ y N
7→ p, la distribución hipergeométrica tiende a una distribución
binomial B(n, p). Esto permite aproximar la hipergeométrica H(N, n, Q) por una binomial de
Q
cuando N es suficientemente grande. En general, la aproximación se considera
parámetros n y N
n
satisfactoria si N > 50 y N
≤ 0.1.
(d) Distribuciones discretas definidas sobre un proceso de Poisson.
Un proceso de Poisson es un experimento en el que se observa la aparición de sucesos puntuales
sobre un soporte continuo (intervalo de tiempo, de longitud, superficie, etc) y que cumple las
siguientes condiciones:
55
Estadı́stica
1 El número de resultados que ocurren en un intervalo de tiempo o región especı́fica es independiente del número que ocurre en cualquier otro intervalo disjunto, es decir, no depende del
número de resultados que ocurren fuera de él.
2 La probabilidad de que un suceso ocurra en un intervalo o región muy pequeña es proporcional
a la longitud del intervalo o área de la región.
3 La probabilidad de que ocurra más de un resultado en un intervalo corto es despreciable.
Como consecuencia de las propiedades anteriores el promedio de sucesos por unidad de soporte
se mantiene constante y lo denotaremos por λ.
• Distribución de Poisson.
La variable aleatoria X que modeliza el número de sucesos en una unidad de soporte, en un
proceso de Poisson, tiene una distribución que llamaremos de Poisson de parámetro λ. La
denotaremos por X; P(λ). Su ley de probabilidad viene dada por:
SX = {0, 1 . . .}
p(X = k) =
(λ)k e−λ
k!
Sus medidas principales son:
E(X) = λ
V ar(X) = λ.
Observación 4 Si Y es la variable que modeliza el número de sucesos en t unidades de
soporte (t > 0), la variable Y es también de Poisson y su parámetro es λt, pues por las
propiedades de los procesos de Poisson se deduce que el número medio de sucesos en t unidades
de soporte es λt.
Proposición 1 Si X1 , . . . , Xk son variables aleatorias independientes, con distribución de
Poisson, con parámetros λi , i = 1, 2, . . . , k entonces la variable aleatoria X =
k
P
Xi tiene
i=1
distribución de Poisson de parámetro λ =
k
P
λi .
i=1
Teorema 1 Teorema de Poisson
Sea {Xn }∞
npn = λ y X es una
n=1 una sucesión de v. a., tales que Xn ; B(n, pn ). Si n7lim
→∞
v.a. con distribución P(λ), se tiene que:
lim p(Xn ≤ x) = p(X ≤ x), para cada x ∈ IR.
n7→∞
Observación 5 Este último resultado se utiliza en la práctica para aproximar las probabilidades
relativas a una variable B(n, p) con n grande y p peque o por probabilidades relativas a una
variable de Poisson de parámetro λ = np. Utilizaremos esta aproximación cuando n ≥ 25 y
p < 0.01.
56
Estadı́stica
5.2 Modelos continuos.
(a) Distribución exponencial
La variable aleatoria T que en los procesos de Poisson modeliza el tiempo entre la ocurrencia de
dos sucesos consecutivos, tiene una distribución que llamaremos exponencial de parámetro λ > 0;
la denotaremos por T; Exp(λ). Su ley de probabilidades es:
SX = (0, ∞)
(
0
si t < 0
−λt
λe
si t ≥ 0
f (t) =
Su función de distribución viene dada por:
F (t) = 1 − e−λt
Sus medidas principales son:
E(X) =
1
λ
V ar(X) =
1
.
λ2
Es el ejemplo más simple de las distribuciones utilizadas en fiabilidad.
Proposición 2 Propiedad de pérdida de memoria de la distribución exponencial.
Si X es una v.a. con distribución Exp(λ), entonces
p(X ≥ x + h/(X > x)) = p(X ≥ h)para cada x, h ≥ 0.
Demostración
Para cada x > 0 y cada h ≥ 0,
p(X ≥ x + h/(X > x)) =
=
p(X ≥ x + h)
=
p(X > x)
e−λ(t+h)
= e−λh = p(X ≥ h)
e−λt
(b) Distribución uniforme continua
La variable aleatoria X tiene una distribución uniforme continua de parámetros a y b, que
denotaremos por U(a, b), si su ley de probabilidades es:
SX = [a, b] (ó
(a, b], [a, b), (a, b); denotaremos al intervalo por I)
(
f (x) =
1
b−a
0
si x ∈ I
en otro caso
Sus medidas principales son:
E(X) =
a+b
2
V ar(X) =
(b − a)2
.
12
57
Estadı́stica
(c) Distribución normal
La variable aleatoria X tiene una distribución normal de parámetros µ y σ, X ; N (µ, σ) si su
ley de probabilidades es:
SX = IR
(
1
1
f (x) = √ exp −
2
σ 2π
Propiedades 2
ii. V ar(X) =
x−µ
σ
2 )
, para cada x ∈ IR.
i. E(X) = µ
σ2
iii. Es simétrica respecto de media, mediana y moda, que coinciden con µ.
iv. La función de densidad tiene puntos de inflexión en µ ± σ.
v. La función de densidad tiende asintóticamente a 0 en ±∞.
vi. Q1 = µ − 0.675σ, Q3 = µ + 0.675σ y por tanto, el IRQ es 1.35σ.
vii. En µ ± 2σ se encuentra el 95.5% de la distribución y en µ ± 3σ se encuentra el 99.7% de la
misma.
viii. Si X ; N (µ, σ), entonces la variable estandarizada, Z =
X−µ
σ
tiene distribución N (0, 1).
ix. Dos distribuciones normales cualesquiera están relacionadas mediante una transformación
lineal.
x. Si X1 , X2 , . . . , Xn son variables aleatorias independientes, tales s
que Xi ; N (µi , σi ), i =
1, . . . , n, entonces la v.a. X =
n
P
Xi tiene distribución N (
i=1
n
P
i=1
µi ,
n
P
i=1
σi2 ).
5.3 Teorema Central del Lı́mite.
El modelo normal es uno de los utilizados más frecuentemente, debido a que en muchas situaciones, los
resultados de un experimento son consecuencia de ”múltiples causas de pequeã incidencia individual,
pero cuyos efectos se suman, dando lugar a los resultados del experimento” (por ejemplo, los errores
de medida, en muchas situaciones); en estas situaciones, el modelo normal suele aproximar bien el
comportamiento de los resultados del experimento. El siguiente teorema explica el buen funcionamiento
del modelo normal:
Teorema 2 Sea {Xn }∞
n=1 una sucesión de variables aleatorias independientes con E(Xi ) = µi y
2
V ar(Xi ) = σi . Entonces la sucesión de variables aleatorias definida por:
n
P
Xi −
Zn = i=1
n
P
i=1
σi2
n
P
µi
i=1
1/2
converge asintóticamente a una variable aleatoria con distribución N (0, 1), es decir, si Fn es la función
de distribución de la variable Zn , n = 1, 2, . . ., y φ es la función de distribución de una variable N (0, 1),
entonces para cada x ∈ IR,
lim Fn (x) = φ(x).
n7→∞
58
Estadı́stica
También se dice que
n
P
Xi es asintóticamente una variable N (
i=1
n
P
i=1
s
µi ,
n
P
i=1
σi2 )
Observación 6
• Si {Xn }∞
n=1 es una sucesión de variables aleatorias independientes e idénticamente
distribuidas, todas ellas tendrán la misma media (µ) y la misma desviación tı́pioca (σ), y en ese
n
√
P
caso, la variable
Xi es asintóticamente una variable N (nµ, σ n)
i=1
• El teorema anterior nos dice que si X1 , X2 , . . . Xn son variables aleatorias independientes, las
n
P
probabilidades p(X ≤ x) de la variable X =
Xi se pueden aproximar por valores de la función
i=1
n
P
de distribución de la variable Y ; N (
s
n
P
E(Xi ),
i=1
σ 2 (Xi )), si n es suficientemente grande.
i=1
En general, la aproximación es válida para valores n ≥ 30.
• Corrección de continuidad: Si la variable X =
la variable X por la variable Y ; N (
n
P
i=1
n
P
Xi es discreta, para que la aproximación de
i=1
s
E(Xi ),
n
P
σ 2 (Xi )) resulte más precisa se utiliza la
i=1
llamada corrección de medio punto o de continuidad, que asigna a FX (b) el valor FY (b + 0.5) si
b ∈ SX .
Si aplicamos el teorema anterior a una sucesión de variables con distribución B(p) (Bernouilli de
parámetro p), se obtiene el siguiente resultado:
Teorema 3 Teorema de De Moivre
Sea {Xn }∞
n=1 una sucesión de variables aleatorias independientes con distribución B(n, p). Entonces
√
Xn es asintóticamente normal, con parámetros µ = np y σ = npq.
Observación 7
• Como la distribución binomial es discreta y la normal es continua, hay que
aplicar la corrección de medio punto o de continuidad, para aproximar p(X ≤ b).
• La aproximación de la probabilidad p(X ≤ b) de una binomial X ; B(n, p) por la probabilidad
√
p(Y ≤ b + 0.5) de una normal Y ; N (np, npq) no es adecuada para valores b ∈ SX en las colas
√
de la distribución binomial. En concreto, para valores fuera de un intervalo np ± 3 npq.
• Tampoco es, en general, adecuada la aproximación para valores p <
1
n+1
ó p >
n
n+1 .
• Si p es próximo a 0.5, con n > 10 la aproximación es satisfactoria.
• Si 0.1 ≤ p ≤ 0.9 y n ≥ 25 la aproximación es satisfactoria.
• Como consecuencia del teorema de Poisson y del teorema de De Moivre, se puede demostrar
que una distribución de Poisson de parámetro λ se puede aproximar por medio de una variable
√
aleatoria N (λ, λ). Generalmente, esta aproximación es satisfactoria si λ > 5.
59
Estadı́stica
5.4 Otras distribuciones continuas.
(a) Distribución gamma:
La variable aleatoria X tiene una distribución gamma de parámetros α y β(ambos positivos) si
su ley de probabilidades es:
SX = (0, ∞)

 0
f (x) =
 β (βx)α−1 e−βx
Γ(α)
si x ≤ 0
si x > 0
Su función de distribución viene dada por:
F (t) = 1 −
r−1
X
e−βx
i=0
(βx)i
i!
Sus medidas principales son:
E(X) =
α
β
V ar(X) =
α
.
β2
En general, esta variable se utiliza para modelizar el tiempo hasta el fallo en distintos componentes.
En el caso particular de que α = 1, entonces la distribución gamma es una exponencial de
parámetro β.
En el caso particular de que α sea un número natural, la variable X es suma de α v. a.
independientes con distribución exponencial, de parámetro β
(b) Distribución de Weibull.
La variable aleatoria X tiene una distribución de Weibull de parámetros α y β (ambos positivos)
si su ley de probabilidad es:
SX = (0, ∞)

 0
si x ≤ 0
h α i
f (x) =
 αα exp − x
si x > 0
β
β
Su función de distribución viene dada por:
F (t) = 1 − exp −
α x
β
Sus medidas principales son:
E(X) = βΓ 1 +
1
α
V ar(X) = β 2 Γ 1 +
2
α
−Γ 1+
1
α
2 En general, esta variable se utiliza para modelizar el tiempo hasta el fallo en distintos componentes.