Download Distribución de Probabilidad Archivo

Document related concepts
no text concepts found
Transcript
06. FUNCION DE PROBABILIDAD
Funciones de Probabilidad, f(x) y F(x). Consideremos una Variable Aleatoria.
discreta X, que toma los valores x1, x2, ..., xn y supongamos que conocemos la
probabilidad de que la variable X tome dichos valores, es decir, se conoce que
P(X=x1)=P1, P(X=x2)=P2, P(X=x3)=P3,..., P(X=xn)=Pn y en general, P(X=xi)=Pi. La
función de probabilidad f(x) de la Variable Aleatoria X es la función que asigna a
cada valor xi de la variable su correspondiente probabilidad Pi.
Cuando la variable X es discreta, esto es, cuando solo toma valores en un conjunto
numerable de valores, (xi), finito o infinito, entonces la relación es
F( x ) 
 f(x )
i
x j  xi
Entre las distribuciones discretas más importantes tenemos,
Uniforme discreta,
Bernoulli,
Binomial,
Binomial Negativa,
Poisson,
Geométrica,
Hipergeométrica, y
Triangular,
que estudiarán más adelante
Función de Distribución, F(x). En muchas ocasiones no nos interesa tanto conocer
la probabilidad de que la Variable Aleatoria X tome exactamente un determinado
valor xi, cuanto la probabilidad de que tome valores menores o iguales que un cierto
valor xi. En tales casos es necesario acumular los distintos valores de la función de
probabilidad hasta el valor deseado. Se trata de una nueva aplicación llamada función
de distribución.
Sea X una Variable Aleatoria discreta, cuyos valores se suponen ordenados de menor
a mayor. es decir, asocia a cada valor de la Variable Aleatoria discreta la probabilidad
acumulada hasta ese valor (la probabilidad de que la Variable Aleatoria tome valores
menores o iguales a xi). Se deben cumplir las siguientes condiciones,
-
F(x) es una probabilidad tal que 0  F( x )  1
F(x)=0 se cumple para todo x<xi
F(x)=1 se cumple para todo x>xi
F(x) es constante en el Intervalo (xi,xi+1)
F(x) es continua y creciente por la derecha de todo punto
F(a  x  b)  F(b)  F(a)
Distribuciones de Probabilidad. También se puede definir como el comportamiento
estocástico de una magnitud o variable aleatoria X queda determinado por su función
de distribución F( x )  P( X  x ) , que representa la probabilidad de que una
observación de X tenga un valor menor o igual que el número real x. La probabilidad
de que X se encuentre dentro del intervalo (x1, x2] es P( x1  X  x 2 )  F( x 2 )  F( x1 ) .
Es habitual caracterizar F mediante su función de densidad f. En el caso de variables
absolutamente continuas, la relación entre F y f es
x
F(x)   f (t )dt

x 
Entre otras, las distribuciones continuas de probabilidad se pueden mencionar como
más importantes,
Normal o Gauss,
Lognormal,
Chi2 de Pearson,
t-Student,
F-Snedecor,
Exponencial,
Gamma,
Beta,
Weibull,
Rayleigh,
Gumbel,
Logística,
Pareto,
Laplace, y
Cauchy,
que estudiarán más adelante
Parámetros. La media o esperanza matemática es una medida de localización, que
indica el valor alrededor del cual fluctúa la variable aleatoria X; si ésta es continua, la
media se define como
E(X)   x i f ( x i ) en el caso discreto
xi

E(X)   t  f (t )dt en el caso continuo

Similarmente se calcula la varianza y demás parámetros. El método de momento y
esperanza matemática se estudiará mas adelante.
La función de distribución F, es una función no decreciente, es decir, Si x1<x2,
entonces, F(x1)≤F(x2).
Es continua a la derecha, esto es,
Lim F( x )  F(a ) .
x a 
De otra parte,
F()  Lim F( x i )  0
x i  
F()  Lim F( x i )  1
x i  
Variables aleatorias continuas. Si una variable toma los valores x1, ..., xk. Cuando la
variable es continúa, no tiene sentido hacer una suma de las probabilidades de cada
uno de los términos en el sentido anterior, ya que el conjunto de valores que puede
tomar la variable es no numerable.
Este concepto es el de función de densidad de una Variable Aleatoria continua,
que se define como una función en el conjunto de los números reales y es integrable,
que verifica las dos propiedades siguientes:
b
 f (x)dx  1
f (x)  0
a
y que además verifica que dado a<b, se tiene que
b
P(a  X  b)   f(x)dx  ârea bajo la curva
a
Por ser f una función integrable, la probabilidad de un punto es nula,
a
P(X  a)  P(a  X  a)   f(x)dx  0
a
La función de distribución de la Variable Aleatoria continua, F, se define de
modo que dado x que pertenezca al conjunto de los reales, F(x) es la probabilidad de
que X sea menor o igual que x, es
x
F(x)  P(X  x)   f (t )dt

Ahora bien, dado un intervalo de la forma (a,b], tenemos que
PX  a , b 
Def

b
a
b
a


def
f ( x )dx   f ( x )dx   f ( x )dx  F(b)  F(a )
Es decir, la cantidad F(b)-F(a) representa la masa de probabilidad extendida a lo
largo de dicho intervalo. Si dividimos esta cantidad por la longitud del intervalo,
tenemos la masa media de probabilidad por unidad de longitud en (a,b], es decir, su
densidad media de probabilidad. Si hacemos tender a hacia b, entonces,
F(b)  F(a )
Lim
 F(B)  f (b)
a b
ba
Y es la densidad de probabilidad del punto b (que como hemos mencionado no se ha
de confundir con la probabilidad de b).
La función de distribución F, es no decreciente: si x1<x2, entonces, F(x1)≤F(x2).
Además, es una función absolutamente continua
F()  Lim F( x )  0
F()  Lim F( x )  1
x  
x  
Función de Masa de Probabilidad Discreta. FMP: p x (x)  P[X  x] , es una ley de
probabilidad que cumples tres axiomas:
- 0  p x (x)  1 , para todo x
-  p x (x)  1
x i
- P[a  X  b]  x i a p x ( x )
x b
i
Función de Distribución Acumulada. FDA: Fx ( x) es la probabilidad del suceso de
que la variable aleatoria tome valores menores o iguales a x
Fx (x)  P[X  x]   p x (x) en el caso discreto. Y para el caso continuo,
x i
x2
P[ x 1  X  x 2 ]   f x ( x )dx
x1
x
Fx ( x )  P[  X  ]   f x (u )du

se sabe que,
dFx (x) d x

f x (x)dx  f x (x)
dx
dx 
Propiedades:
- 0  Fx (x)  1
- Fx ()  0 y Fx ()  1
- Fx (x  )  Fx (x) para cualquier  >0
- Fx (x 2 )  Fx (x1 )  P[x1  X  x 2 ]
La FDA es una función monótona creciente.
DISTRIBUCIONES CONJUNTA, MARGINAL Y CONDICIONAL
FMP Conjunta: Cuando dos o mas variables tienen comportamientos conjuntos
Pxy ( x, y)  P[( X  x )  (Y  y)]
Fxy ( x, y)  x  x y  y p xy ( x i , y i ) lo cual es igual a P[( X  x )  (Y  y)]
i
i
FMP Marginal: Comportamiento de una variable sin considerar otra.
Para la variable aleatoria Y:
Px ( x )  P[X  x ]  y p xy ( x, y i )
i
Fx ( x )  P[X  x ]  x  x p x ( x i )  Fxy ( x, ) lo cual es igual a
 
xi x
y i
i
p xy ( x i , y i )
Similarmente se hace para la variable aleatoria X
FMP Condicional: Si se conoce el valor de una de las variables aleatorias Y=y0, las
probabilidades relativas de los diferentes valores de la otra variable están dados por
p xy ( x, y 0 ) , se tiene una fmp condicional de X dado Y
P[( X  x )  (Y  y)]
, lo cual equivale a
P[Y  y]
p xy ( x, y)
p xy ( x, y)
Px / y ( x, y) 

.
p y ( y)]
x p xy (x i , y)
Px / y ( x, y)  P[X  x / Y  y] 
i
Se cumple además lo señalado anteriormente
0  o x / y  1 y x p x / y ( x i , y)  1 .
i
Idem para Y dado X
FMP Conjunta a partir de las probabilidades Marginales y Condicionales
Pxy ( x, y)  p x / y ( x, y)p y ( y)  p y / x ( y, x )p x ( x )
función de distribución de probabilidad:
P[ x1  X  x 2]  
x2
x1

y2
y1
f xy ( x, y)dydx
La Función de distribución de probabilidad satisface:
f xy ( x , y)  0 y  f xy ( x, y)dxdy  1 para todo el intervalo
Y la cumulada,
Fxy ( x, y)  P[( X  x )  (Y  y)]  P[   X  x      Y  y ] 
x
 
y
 
f xy ( x 0 , y 0 )dy 0 dx 0
de donde, f xy ( x , y) 

FXY ( x , y)
xy
Función de distribución de probabilidad marginal y Condicional. Densidad
conjunta se integra sobre valores de Y y se tiene función de distribución de
probabilidad marginal de X:

f X (x)   f
  XY
( x, y)dy
x
FX ( x )   f ( x 0 )dx 0  FXY ( x, ) o sea, f X ( x ) 
 X

FXY ( x, )
x

Y para la Condicional: f Y ( y 0 )   f XY (x, y 0 )dx

por lo cual, f X / Y ( x, y) 
f XY (x, y)
f Y ( y)
x
FX / Y (x, y)  P[X  x / Y  y]   f X / Y (u, y)du

Variables Independientes. Si Función distribución condicional es igual a Función
distribución marginal, entonces, X y Y son variables aleatorias independientes
p x / y ( x, y)  p X ( x ) , entonces, X y Y son independientes.
P[X  x / Y  y]  P[X  x ]
Por lo tanto, lo siguiente es válido:
f x / y ( x , y)  f X ( x )
f X / Y ( y, x )  f Y ( y)
f XY ( x, y)  f X ( x )f Y ( y)
FXY ( x , y)  FX ( x )FY ( y)
FX / Y ( x, y)  FX ( x )
Distribuciones Derivadas. Se trata de determinar la ley de probabilidad de una
variable aleatoria funcional. Hallar FY(y) dado que Y=g(X) y dado que X tiene
Función distribución acumulada fX(x), entonces,
FY ( y)  P[Y  y] pero,
P[Y  y]  P[X solamente tomando un valor de x : g(x)  y]
lo cual es,

RY
f X ( x )dx , para R Y la región en la cual g(x)  y
Función de Distribución Acumulada. Sea X una variable aleatoria discreta o
continua, F es la función de distribución acumulada de X se define como
F(x)=P(X=x),
X es variable aleatoria discreta,
F( x )   j p( xj), x j  x
X es variable aleatoria continua,

F(x)   f (s)ds

Si F es no decreciente, esto es, x1  x 2 , entonces, F(x1 )  F(x 2 )
d
F( x )
dx
para la función de densidad acumulada de variables aleatorias continuas con función
de densidad de probabilidad f
f (x) 
Sea X una variable aleatoria discreta con valores x1 ,..., x n y son x1  x 2  .... . Será F
la función de distribución acumulada de frecuencias, entonces,
p( x j )  P(X  x j )  F( x j )  F( x j1 )
Distribución de Probabilidad Marginal y Condicional
-
Discreto: Si X=xi debe ocurrir Y=yj tenemos
p( x i )  P(X  x i )  P(X  x i , Y  y1 o X  x i , Y  y 2 o...)  j1 p( x i , y j ) ,

entonces, p es la distribución marginal de probabilidad de X.

Idem para Y: p( y j )  P(Y  y j )  i 1 p(x i , y j )
-
Continuo: Sea f una función de densidad de probabilidad conjunta de la variable
aleatoria continua (X,Y). Definimos g y h como las funciones de probabilidad
marginal de X y Y así,

g(x)   f (x, y)dy


h( y)   f (x, y)dx

De otra forma,
P(c  X  d)  P[c  X  d,    Y  ]  
d
c



d
f (x, y)dydx   g(x)dx
c
Sea (X,Y) una variable bidimensional continua con función de distribución de
probabilidad conjunta f. Y sean g y h son las funciones de probabilidad marginal de X
y Y respectivamente. Entonces, la función de distribución de probabilidad
condicional de X para Y=y es,
f ( x , y)
g ( x / y) 
, h ( y)  0
h ( y)
similarmente
f ( x , y)
h( y / x) 
, g( x )  0
g( x )
Variable Aleatoria Independiente
-
Discreta: Sea (X,Y) una variable aleatoria bidimensional, Y y Y son
independientes, si y solo sí, p(xi,yj)=p(xi)q(yj), para todo i,j
-
Continua: f(x,y)=g(x)h(y), para todo (x,y), f es la función de distribución de
probabilidad conjunta y g y h son las funciones de probabilidad marginales de X y
Y respectivamente
(X,Y) es variable aleatoria discreta, X y Y son independientes si y solo sí,
p( x i / y j )  p( x i ), i, j
q( y j / x i )  q( y j ), i, j
Y si (X,Y) es continua, entonces,
g( x / y)  g( x ), ( x, y)
h ( y / x )  h ( y), ( x, y)
Funciones de una Variable Aleatoria Bidimensional. Sea (X,Y) una variable
aleatoria bidimensional continua con función de distribución de probabilidad conjunta
f.
Sea Z=H1(X,Y) y W=H2(X,Y), donde H1 y H2 satisfacen:
z=H1(x,y) y w=H2(x,y),
se pueden resolver únicamente para x y y, y en función de z y w, digamos
x=G1(z,w) y
y=G2(z,w)
x x y y
,
, ,
y son continuas,
z w z w
luego la función de distribución de probabilidad conjunta (Z.W) esta dada por:
f [G 1 (z, w ), G 2 (z, w )]
k ( z, w ) 
J ( z, w )
Existe
en donde, J(z,w) es el Jacobiano,
x x
J(z, w )  z w
y y
z w
Sea la variable aleatoria (X,Y) continua, entonces X y Y son independientes,
entonces, la función de distribución de probabilidad f se puede escribir
f(x,y)=g(x)h(y).
Sea W=XY, luego la función de distribución de probabilidad de W, digamos p, está
dada por

w1
p( w )   g(u )h  du

u u
La función de densidad de probabilidad de
W=XY y U=X es
w1
s( w , u )  g (u )h   , con w=x, y , u=x, Y0w/u
 u u
Con igual enunciado, para aplicar a Z=X/Y, en donde la función de distribución de
probabilidad de Z es,

q(z)   g(vz )h(v) v dv , z=x/y, v=y

Cambios de variables. Sea X una Variable Aleatoria cualquiera. Si realizamos el
cambio de variable Y=h(X), tenemos una nueva Variable Aleatoria de modo que las
probabilidades sobre la misma se calculan del modo:
F( y)  P(Y  y)  P X  h 1 ( y)


Si X es una Variable Aleatoria continua e Y=h(X), donde h es una función derivable e
inyectiva, entonces se tiene que para los elementos y de su imagen,
dx
f y (f )  f x (h 1 ( y)) 
dy
En el caso en que la aplicación no sea inyectiva, podemos tener para un y dado ciertos
x1, x2, ..., xn tales que f(xi)=y. En este caso:
n
dx
f y ( y)   f ( x i )  i
dy
i 1
Una aplicación interesante del cambio de Variable Aleatoria es la siguiente:
Sea X una Variable Aleatoria continua cualquiera con función de distribución
derivable, con derivada no nula, Fx. Veamos cual es la distribución de la nueva
Variable Aleatoria
Y=Fx-1(X)
La distribución de Y aparecerá más adelante con el nombre de distribución uniforme
en [0,1], y como justificación del método de Montecarlo.
Otro cambio de variable importante es Y=X2. En este caso la relación entre los puntos
no es inyectiva. Aplicando la proposición anterior se tiene entonces que
1
1
f y ( y)  f x ( y )
 f x ( y )
2 y
2 y
Esta última relación será de interés cuando más adelante definamos la distribución
Chi Cuadrado.