Download Distribución de Probabilidad - Escuela de Negocios Mineros

Document related concepts
no text concepts found
Transcript
Universidad Católica del Norte
Escuela de Negocios Mineros
Magíster en Gestión Minera
Análisis de Datos y Métodos
Cuantitativos para la Toma de
Decisiones
7ma versión MGM
Antofagasta, Junio de 2014
Freddy Higuera Cartes
Doctor en Ciencias de la Ingeniería, Mención
Ingeniería Civil de Industrias
Los experimentos aleatorios originan resultados y los
resultados nos permiten tomar decisiones
Por ejemplo, en un partido de fútbol si se lanza una moneda y
sale cara parte la visita, de lo contrario parte el local
Por otro lado, del resultado del lanzamiento de una moneda
se puede definir qué candidato debe declararse ganador en
caso de que hayan obtenido igual votación
Sin embargo, a pesar de que el propósito sea distinto cuando
se lleva a cabo un experimento aleatorio, éste no cambia su
comportamiento por el simple hecho que los propósitos
cambien
Así, al llevar a cabo un experimento aleatorio, nuestro interés
está en lo que denominaremos variable aleatoria
Una variable aleatoria es aquella que asume valores de
acuerdo con los resultados de un experimento aleatorio
Por ejemplo, si lanzamos una moneda dos veces sabemos que
el espacio muestral correspondiente a este experimento
aleatorio es S = {cc, cs, sc, ss}
Si de los resultados del lanzamiento de la moneda nos
interesa el número de caras que se obtienen en los
lanzamientos, entonces, definimos la variable aleatoria X =
número de caras en los dos lanzamientos
Los valores posibles de esta variable son:
X = 0, que se identifica con ss o lo que es lo mismo con el
evento, A: se obtienen dos sellos
X = 1, que se identifica con cs, sc o lo que es lo mismo con el
evento, B: se obtiene una cara
X = 2, que se identifica con cc o lo que es lo mismo con el
evento, C: se obtienen dos caras
Por lo anterior, se tiene que P(X = 0) = P(A) = 1/4, P(X = 1) =
P(B) = 1/2, P(X = 2) = P(C) = 1/4
Estos resultados se pueden resumir en una tabla denominada
distribución de probabilidad
En general, una distribución de probabilidad relaciona los
valores que toma la variable aleatoria (X) con sus
probabilidades respectivas (P)
X
P = P(X = x)
0
1
2
1/4
1/2
1/4
En general, para cualquier distribución de probabilidad
discreta, la suma de las probabilidades de todos los valores
que pueda asumir la variable debe ser igual a 1
Una variable aleatoria discreta es aquella asociada a
experimentos en que los distintos resultados se pueden dar
de manera discreta, por lo tanto, sólo puede tomar algunos
valores entre dos números dados
Por ejemplo, son variables aleatorias discretas:
X = número de puntos que muestra la cara superior de un dado
después de su lanzamiento
Y = número de trabajadores que registran atrasos durante un
mes determinado
La distribución de probabilidad de una variable aleatoria
discreta es una tabla, gráfica, fórmula o cualquier otro medio
que se usa para especificar todos los valores posibles de la
variable, junto con sus respectivas probabilidades
La tabla del ejemplo de la moneda que se lanza dos veces es
una ilustración de este tipo de distribuciones
Una distribución de probabilidad de una variable aleatoria
discreta X, que puede tomar los valores xi, i = 1,..., n; debe
satisfacer lo siguiente:
Todos los Pi = P(X = xi) ≥ 0
n
Y, como ya se había planteado, ∑i=1 Pi = 1
La probabilidad P( X ≤ x i ) = ∑k P( X = x k ) ;∀x k ≤ x i
Por ejemplo, la probabilidad de obtener 1 cara o menos es P(X
≤ 1) = P(X = 0) + P(X = 1) = 1/4 + 1/2 = 3/4
Esta probabilidad motiva el concepto de función de
distribución acumulada (FX(x)), que es de suma importancia,
especialmente cuando se estudian variables aleatorias
continuas, y se define como: FX(x) = P(X ≤ x)
La distribución de las variables discretas que se
emplean en el estudio de problemas de interés se da
generalmente mediante una fórmula y, en particular, la
más frecuentemente usada es la distribución binomial
Una variable aleatoria continua es aquella asociada a
experimentos cuyos resultados se pueden dar de forma
continua, por ejemplo, el peso de los seres humanos
Por lo tanto, a diferencia de una variable aleatoria
discreta, que puede tomar un número finito de valores,
una variable aleatoria continua puede tomar cualquier
valor dentro de un intervalo dado
Para el ejemplo de los pesos de los seres humanos, al
tomar X como la variable aleatoria que representa el
peso de una persona escogida al azar, su peso real
puede ser cualquier número perteneciente al rango
entre 0 y 200 kg. (problemas de medición)
Como la variable aleatoria continua puede tomar un
infinito número de valores, la probabilidad no se puede
obtener por conteo (n = ∞ ⇒ P(X = x) = 0)
Así, es necesario recurrir a otros niveles superiores de
la matemática para estudiar el comportamiento de la
variable, con lo cual se obtienen distintos modelos
Estos modelos indican que para hacer tales cálculos debemos
evaluar la integral definida de una cierta función (una
diferente para cada modelo) llamada función de densidad
La función de densidad (fX(x)) se dice que es la distribución de
probabilidad de la variable aleatoria continua X
La función de densidad fX(x) de una variable aleatoria
continua X ∈ [a, b] debe satisfacer las siguientes propiedades
básicas:
No puede tomar valores negativos, i.e. fX(x) ≥ 0; ∀x
El área total bajo la curva debe igualar a 1, i.e.
P(a ≤ X ≤ b) = 1
c
P(X = c) = ∫ fX ( x )dx = 0
c
∫
b
a
fX ( x )dx =
c
P(X ≤ c) = P(X < c) = ∫ fX ( x )dx = FX(c)
a
P(c < X < d) = P(c ≤ X ≤ d) = P(c < X ≤ d) = P(c ≤ X < d) = P(X ≤ d) d
P(X ≤ c) = FX(d) - FX(c) = fX ( x )dx
∫
c
Cuando trabajamos con variables aleatorias continuas, sólo
tiene sentido la probabilidad que X caiga dentro de algún
rango particular y no que tome un valor dado
Es importante resaltar que la distribución de probabilidad de
una población es análoga a la distribución de frecuencia
relativa de los datos muestrales
Por lo tanto, cada distribución de probabilidad tiene asociada
medidas (parámetros) similares a las medidas descriptivas
que se han señalado para los datos muestrales (estadísticas)
Así, la distribución de probabilidad de una población posee
una medida que es equivalente al concepto de media
muestral y se denomina valor esperado, además, el
equivalente de la varianza también existe y la llamamos
varianza poblacional
El valor esperado de una variable aleatoria discreta X que
asume los valores x1, ..., xn con probabilidades respectivas P1,
...,Pn es: E( X) = µ X = ∑n x i ⋅ P( X = x i )
i=1
En el ejemplo del lanzamiento de la moneda dos veces se
tiene que µX = 0(1/4) + 1(1/2) + 2(1/4) = 1
La interpretación de este valor esperado es: “Si lanzamos dos
veces la moneda un número grande de veces y tomamos la
media del número de caras que se van obteniendo, entonces
la media tenderá a 1”
Por otro lado, la varianza de una variable aleatoria discreta X
que asume los valores x1, ..., xn con probabilidades respectivas
P1, ...,Pn es:
n
2
2
σ X = V( X) = E[( X − µ X ) ] = ∑i=1 ( x i − µ X )2 ⋅ P( X = x i )
La desviación estándar (σX ) está dada por σ X = σ X2
En el ejemplo del lanzamiento de la moneda dos veces
tenemos que la varianza de X es:
V(X) = (0-1)2(1/4) + (1-1)2(1/2) + (2-1)2(1/4) = 0,5
La desviación estándar es σX = 0,5 = 0,71
La varianza es una medida del grado de concentración de los
valores de la variable aleatoria alrededor de su media µX,
mientras más dispersos estén éstos respecto de la media,
mayor será la varianza
La distribución binomial está ligada los experimentos
aleatorios llamados ensayos de Bernoulli, los cuales pueden
sólo concluir de 2 formas distintas mutuamente excluyentes e
independientes (éxito o fracaso)
Ejemplos de ensayos de Bernoulli son:
Seleccionar un artículo para clasificarlo como bueno o
defectuoso
Seleccionar una persona para clasificarla como apta o no apta
para algún trabajo de acuerdo con algún criterio
Los ensayos de Bernoulli dan origen a un variable aleatoria
(Y) que sólo toma dos valores y cuyas probabilidades
(distribución de Bernoulli) son:
p, y = 1

P( Y = y ) = q = 1 − p, y = 0
0, otro caso

Donde, p es la probabilidad de que se dé un éxito y q la
probabilidad de que ocurra un fracaso
Un proceso de Bernoulli es una sucesión de ensayos de
Bernoulli con las características siguientes:
En cada ensayo, el éxito tiene una probabilidad p y el fracaso
una probabilidad q = 1 - p de ocurrir
Las probabilidades de éxito y fracaso permanecen constantes
durante el proceso
Los ensayos son independientes, es decir, el resultado de un
ensayo no es afectado por el resultado de otro
Supongamos que se lleva a cabo un proceso de Bernoulli y sea
la variable X = número de éxitos en n ensayos
Como la sucesión de éxitos (E) y fracasos (F) puede expresarse
mediante la sucesión y1,..., yn de valores de una variable con
distribución de Bernoulli, se tiene que X = Y1 +...+ Yn =
Número de veces que se da 1 (i.e., el número de éxitos)
Pero, existen distintas formas en que x “unos” pueden
aparecer al realizar n experimentos
Por ejemplo, si tenemos n = 2 y x = 1, existen 2 resultados
posibles, éstos son EF y FE
Por lo tanto, debemos determinar ¿de cuántas formas pueden
aparecer x “unos” en n experimentos?
Así, en general, se puede determinar que el número de
formas como pueden colocarse x “unos” dentro de n espacios
está dado por:
n
n!
  =
 x  (n − x )! ( x )!
Donde, n! = n ⋅ n − 1 ⋅ n − 2 ⋅ ... ⋅ 1
Por ejemplo, si x = 3 y n = 10 se tiene que:
10 
10!
10 ⋅ 9 ⋅ 8 ⋅ (7)! 720
  =
=
=
= 120
6
 3  (10 − 3)! (3)! (7)! (3 ⋅ 2 ⋅ 1)
Por lo tanto, existen 120 resultados posibles en que x = 3
cuando n = 10
Cada uno de estos resultados del proceso son
independientes entre sí y tienen asignada una probabilidad,
resultante del producto de x factores iguales a p y (n - x)
factores iguales a q
Así, la variable aleatoria, X = número de éxitos en los n
ensayos de Bernoulli, tiene una distribución binomial, dada
como sigue:
 n  x n− x
 p q , x = 0,1, K , n
P( X = x ) =  x 
0, para cualquier otro valor de x

Por ejemplo, si el 10% de las piezas que produce una máquina
automática es defectuoso y se toma al azar una muestra de 20
piezas ¿cuál es la probabilidad de encontrar 2 piezas
defectuosas?
Definiendo la variable aleatoria X = número de piezas
defectuosas y dado que p = 0,1, la respuesta es:
 20 
P( X = 2) =  (0,1)2 (0,9)20 −2 = 190 ⋅ 0,12 ⋅ 0,918 = 0,285
2
La media y la varianza de una variable que sigue una
distribución binomial son µX = np y σ X2 = npq = np(1 − p)
respectivamente
Respecto del ejemplo anterior, ¿cuántas piezas defectuosas se
espera encontrar en la muestra?
Esta información la proporciona el valor esperado, por lo
tanto, la respuesta es np = 20(0,1) = 2
Ya vista la distribución binomial, en el contexto de las
variables aleatorias discretas, ahora dirigimos la mirada hacia
las variables aleatorias continuas
Una de las distribuciones continuas, y tal vez la más
importante, es la distribución normal, la cual ocupa un lugar
destacado en la inferencia estadística
La gráfica de la función de densidad normal se llama curva
normal y tiene forma de campana
La curva normal describe de forma aproximada muchos
fenómenos que suceden en la naturaleza, tales como la
estatura de los seres humanos y el cociente de inteligencia de
los niños, la industria y la investigación
Respecto a la inferencia estadística, las distribuciones de
muchas estadísticas muestrales tienden a la distribución
normal conforme crece el tamaño de la muestra
Así, muchas distribuciones en economía, control de calidad y
ciencias sociales, no se asemejan a la normal; pero en todo
caso la distribución de la media muestral se puede tratar
como normal, y así se hace por lo general siempre y cuando la
muestra sea grande
La función de densidad de la variable aleatoria normal X, con
media µ y varianza σ2, es:
1
−( x − µ ) 2 2σ 2
fX ( x ) =
e
; x ∈R
2π σ
Cuando nos referimos a una variable aleatoria con
distribución normal de media µ y varianza σ2, escribimos de
manera simbólica X ~ N(µ, σ2)
La curva normal presenta la siguiente apariencia:
σ
µ
x
La curva normal posee las siguientes propiedades:
La moda, que es el punto sobre el eje horizontal donde la
curva tiene su máximo, ocurre en x = µ
La curva es simétrica, por lo tanto, en x = µ también se
encuentra la mediana
La curva tiene sus puntos de inflexión en x = µ ± σ, fuera del
intervalo [µ - σ, µ + σ] es convexa, y es cóncava dentro de ese
intervalo
La curva normal se acerca al eje horizontal en forma
asintótica en cualquiera de las dos direcciones
El área total limitada por la curva y el eje horizontal es igual a
1
Aunque teóricamente el dominio de la función de densidad
normal es infinito, en la práctica los valores de la variable se
consideran reducidos a un intervalo finito
De hecho el 99,73% de las observaciones quedan incluidas en
el intervalo [µ - 3σ, µ + 3σ], esto es, P(µ - 3σ < X < µ + 3σ) =
0,9973
Además, el 68,45% de las observaciones quedan incluidas en
el intervalo [µ - σ, µ + σ], mientras que el intervalo [µ - 2σ, µ
+ 2σ] incluye el 95,45% de ellas
Como la curva normal depende de µ y σ, las probabilidades
asociadas a cada distribución normal dependerán del valor de
estos parámetros
Sin embargo, esta tarea se ve simplificada por la
estandarización
Es decir, una variable aleatoria X distribuida normalmente con
media µ y varianza σ2 (X ~ N(µ, σ2)) siempre puede
transformarse en una Z que posea una distribución normal
estándar, esto es, Z ~ N(0, 1)
La estandarización consiste en la transformación:
X−µ
Z=
σ
De esta forma, todo cálculo de probabilidades puede ser
realizado usando la distribución normal estándar solamente,
una vez hecha la estandarización requerida
Por ejemplo, supongamos que cierta pieza de automóvil
tiene un promedio de duración de 3 años, con desviación
estándar de 0,5 años. Si las duraciones de las piezas son
normalmente distribuidas ¿cuál es la probabilidad de
que una pieza tenga una duración mayor a 3,5 años?
Definiendo la variable aleatoria X = años de duración de
una pieza, se pide P(X > 3,5) dado que X ~ N(3, 0,5)
P(X > 3,5)
3
3,5
x
Si empleamos la distribución normal estándar debemos
encontrar el valor estandarizado Z = (3,5 - 3)/0,5 = 1
Ahora el problema se reduce a encontrar P(Z > 1), dado que Z
~ N(0, 1)
Luego, la probabilidad P(Z ≤ 1) = 0,8413, por lo tanto, P(Z > 1)
= 1- 0,8413 = 0,1587
¿Cuál es la probabilidad de que una pieza tenga una duración
entre 2,5 y 3,75 años?
Se está pidiendo P(2,5 < X < 3,75) = P(X < 3,75) - P(X < 2,5) =
0,9332 - 0,1587 = 0,7745
En términos de la distribución normal estándar tenemos P(-1
< X < 1,5) = P(X < 1,5) - P(X < -1) = 0,7745
Gráficamente se tiene:
P(2,5 < X < 3,75)
2,5
3
3,75
x
¿Qué duración debe tener una pieza que dura más
que el 80% de las piezas actuales?
En este caso no se pregunta la probabilidad a partir
de un valor de la variable, sino por el contrario,
partiendo de una probabilidad se debe determinar el
valor de la variable
Es decir, se pide P(X < xp) = 0,80 ⇒ xp = 3,42, por lo
tanto, una pieza debe tener una duración de 3,42
años para durar más que el 80% de las piezas
Empleando la distribución normal estandarizada
tenemos que resolver P(Z < zp) = 0,80 ⇒ zp = 0,84 y,
dado que xp = zpσ + µ, se tiene que xp = 3,42
En términos gráficos se tiene:
P(X < xp)
3
3,42
x
Las probabilidades asociadas con experimentos binomiales se
pueden obtener fácilmente cuando n es pequeño, mediante la
distribución binomial
Cuando n es grande resulta más práctico calcular las
probabilidades asociadas a una variable aleatoria binomial
por procedimientos de aproximación, empleando la
distribución normal
Si X es una variable aleatoria con distribución binomial de
media µ = np y varianza σ2 = npq, entonces la distribución
límite (cuando n→∞) de X está dada por:
Z=
X − np
npq
~ N(0,1)
Por ejemplo, si se seleccionan aleatoriamente 100
artículos de un proceso que produce el 10% de
artículos defectuosos, ¿cuál es la probabilidad de que
el número de defectuosos exceda de 10?
Dado que n = 100, se tiene que µ = np = 100(0,1) =
10 y σ2 = npq = 100(0,1)(0,9) = 9
Así, el valor de la variable normal estandarizada,
considerando la corrección por continuidad (P(X = a)
es aproximada por P(a - 0,5 < X < a + 0,5)), es:
z=
10,5 − 10
9
0,5
=
= 0,17 ⇒ P(Z > 0,17) = 1 − P(Z ≤ 0,17) = 0,43
3
Universidad Católica del Norte
Escuela de Negocios Mineros
Magíster en Gestión Minera
Análisis de Datos y Métodos
Cuantitativos para la Toma de
Decisiones
7ma versión MGM
Antofagasta, Junio de 2014
Freddy Higuera Cartes
Doctor en Ciencias de la Ingeniería, Mención
Ingeniería Civil de Industrias