Download Funciones y Transformaciones de Variables Aleatorias Archivo

Document related concepts
no text concepts found
Transcript
12. FUNCIONES Y TRANSFORMACIONES DE VARIABLES ALEATORIAS
LA VARIABLE ALEATORIA
Uno de los problemas que enfrenta el estadístico es el de evaluar funciones de
distribución o densidad de probabilidad de alguna variable aleatoria y=u(x 1,x2,…,xn),
lo que requiere técnicas especiales mediante las cuales se puedan transformar éstas de
forma que los resultados sean objetivos. Se aplicarán varios métodos, pero
recomendamos al lector estar atento al método de la función de generación de
momentos, el cual no siendo aplicado correctamente conduce a errores importantes,
cuando no hay completa linealidad en el modelo o función escogida
Variable Aleatoria. Repasando, es una variable numérica cuyo valor no puede
predecirse con certeza antes de la ocurrencia del experimento. Y su comportamiento
se describe mediante una ley de Probabilidad. Sea el experimento  y S el espacio
muestral asociado. Una función X que asigna a cada uno de los elementos s  S un
número real X(s), se llama Variable Aleatoria
S
X(s)
s
Sea  un experimento y S su espacio muestral asociado. Sea X una variable aleatoria
definida en S, y Rx su recorrido. Sean B un suceso respecto a Rx, esto es, B  R x .
Sea A definida como A  {s  S / X(s)  B} . Entonces, A y B son sucesos
equivalentes.
A
B
Rx
s
X(s)
X es una variable aleatoria del espacio S, Rx es el recorrido de X. Sea H una función
real, la variable aleatoria Y=H(X) con recorrido Ry. Para cualquier suceso C  R y se
define P(C)  P[{x  R x : H(x)  C}] . Por tanto, la probabilidad de un suceso
asociado con el recorrido de Y es la probabilidad del suceso equivalente (en función
de X)
1
Variable Aleatoria Discreta. Si el número de valores posibles de X es finito, esto es,
se pueden anotar los valores de X como, x1,..., xn
Sea X una variable aleatoria discreta, entonces Rx consta de un número de valores de
x1,..., xn como resultado posible de xi asociamos un número p(xi) = P(X=xi) llamado
probabilidad de xi, y se satisface,
P( x i )  0


i 1
i
p( x i )  1
donde, p es la probabilidad de la variable aleatoria X. La colección de pares
( xi , p( xi )), i  1,... es, algunas veces, la distribución de probabilidad de X
Dadas las variables aleatorias X y Y y ocurre:
- Caso 1: Si X es una variable aleatoria discreta, Y=H(x), entonces, Y es variable
aleatoria discreta
- Caso 2: Si X es variable aleatoria continua, Y es variable aleatoria discreta, la
función de distribución de probabilidades de Y se determina el suceso equivalente
que corresponde a los valores de Y. Si se conoce la función de distribución de
probabilidad de X. En general, si {Y=yi} es equivalente a un suceso, sea x el
recorrido de X, entonces, q( y i )  P( Y  y i )   f ( x)dx
k
Variable Aleatoria Continua. La variable aleatoria continua es X, si existe una
función f o una función de densidad de probabilidad de X que satisface
f (x)  0
x

 f (x)dx  1
Ahora bien, para
cualquier a
y b,
tal que,
   a  b   , tenemos
b
P(a  X  b)   f (x)dx
a
Funciones de variables Aleatorias. Sean B y C sucesos equivalente. Si B es el
conjunto de valores de X tales que H( x)  C , entonces,
B  {x  R x : H(x)  C}, B  R x
Sea X una variable aleatoria continua con función de distribución de probabilidad f y
H una función continua, entonces, Y=(H(x)) es variable aleatoria continua con
función de distribución de probabilidad g, con los siguientes pasos:
G ( y)  P ( Y  y)
2
derivar G(y) respecto a y y obtener g(y),
hallar los valores de y en le recorrido de Y para g(y)>0
Sea X una variable aleatoria continua con función de distribución de probabilidad f,
f(x)>0 para a<x<b. Sea y=H(x) monótona estrictamente y sea derivable para todo x,
luego la variable aleatoria Y=H(X) tiene la función de distribución de probabilidad:
dx
g ( y)  f ( x )
dy
X es variable aleatoria del espacio S, Rx es el recorrido de X, H es una función real, la
variable aleatoria Y=H(X) con recorrido en Ry. Para cualquier suceso
C  R y se define
P(C)  P(x  R x : H( x )  C]
Por tanto, la probabilidad de un suceso asociado con el recorrido de Y es la
probabilidad del suceso equivalente (en función de X)
Variables Aleatorias Bidimensionales. Sea un experimento  con espacio muestral
asociado S, X1=X1(s), ..., Xn=Xn(s)
X=X(s) y Y=(Ys) son dos funciones que asignan un número real a cada uno de los
resultados s  S , entonces, (X,Y) es la variable aleatoria bidimensional
- En el caso discreto, (X,Y) tiene valores posibles finitos o infinitamente numerables
- En el caso continuo, (X,Y) puede tener todos los valores en un conjunto no
numerable del plano Euclidiano
Sea (X,Y) una variable aleatoria bidimensional con cada resultado posible (x i,yj)
asociamos un número p(xi,yj) que representa P(X=xi,Y=yj) que satisface
p ( x i , y j )  0 ( x , y )


  p( x , y )  1
j1 i 1
i
j
La función p definida para todo (xi,yj) en el recorrido de (X,Y) es la función de
probabilidad de (X,Y) y la terna (xi,yj,p(xi,yj)) es la distribución de probabilidad de
(X,Y)
Sea (X,Y) una variable aleatoria continua que toma todos los valores de la región R
del plano Euclideo, la función de distribución de probabilidad conjunta f es la función
que satisface,
3
f ( x, y)  0 ( x, y)  R
 f (x, y)dxdy  1
R
La función de distribución acumulada de F de la variable aleatoria (X,Y) está definida
F( x, y)  P(X  x, Y  y)
Si F es la función de distribución acumulada de una variable bidimensional con
función de distribución de probabilidad conjunta f, entonces
 2 F( x, y)
 f ( x , y)
xy
Función de Distribución Acumulativa. Sea X una variable aleatoria discreta o
continua, F es la función de densidad acumulada de X,
F( x )  P(X  x ) , si
Si X es variable aleatoria discreta,
F( x )   p( x j ), x j  x
j
Si X es variable aleatoria continua,

F(x)   f (s)ds

F es no decreciente, por tanto, x 1  x 2 , entonces , F( x 1 )  F( x 2 )
Lim F( x )  0 Lim F( x )  1
x 
x 
d
F( x ) con valores x1,x2,... y son x1<x2<x3<...
Se cumple, también, f ( x ) 
dx
Sea F la función de distribución acumulada, entonces
p( x i )  P(X  x i )  F( x i )  F( x j1 )
Función de Masa de Probabilidad Discreta. FMP: p x ( x)  P[ X  x] , es una ley de
probabilidad que cumples tres axiomas:
- 0  p x (x)  1 , para todo x
-
p
x i
x
(x)  1
- P[a  X  b]  x i a p x ( x )
x b
i
4
Función de Distribución Acumulada. FDA: Fx ( x) es la probabilidad del suceso de
que la variable aleatoria tome valores menores o iguales a x
Fx (x)  P[X  x]   p x (x) en el caso discreto
x i
x2
P[ x 1  X  x 2 ]   f x ( x )dx
x1
x
Fx ( x )  P[  X  ]   f x (u )du

dF (x) d x
se sabe que, x

f x (x)dx  f x (x)
dx
dx 
Propiedades:
- 0  Fx (x)  1
- Fx ()  0 y Fx ()  1
- Fx (x  )  Fx (x) para cualquier  >0
- Fx (x 2 )  Fx (x1 )  P[x1  X  x 2 ]
La FDA es una función monótona creciente.
Variables Aleatorias de Distribución Conjunta.
FMP Conjunta: Cuando dos o mas variables tienen comportamientos conjuntos
Pxy ( x, y)  P[( X  x )  (Y  y)]
Fxy ( x, y)  x  x y  y p xy ( x i , y i ) lo cual es igual a P[( X  x )  (Y  y)]
i
i
FMP Marginal: Comportamiento de una variable sin considerar otra.
Para la variable aleatoria Y:
Px ( x )  P[X  x ]  y p xy ( x, y i )
i
Fx ( x)  P[ X  x]  x  x p x ( xi )  Fxy ( x, ) lo cual es igual a
i
 
xi x
y i
p xy ( x i , y i )
Similarmente se hace para la variable aleatoria X
FMP Condicional: Si se conoce el valor de una de las variables aleatorias Y=y0, las
probabilidades relativas de los diferentes valores de la otra variable están dados por
p xy ( x, y 0 ) , se tiene una fmp condicional de X dado Y
P[( X  x )  (Y  y)]
, lo cual equivale a
P[Y  y]
p xy ( x, y)
p xy ( x, y)
Px / y ( x, y) 

. Se cumple además lo
p y ( y)]
x p xy (x i , y)
Px / y ( x, y)  P[X  x / Y  y] 
señalado
i
anteriormente
0  ox / y  1 y

x i
p x / y ( x i , y)  1 .
5
Idem para Y dado X
FMP Conjunta a partir de las probabilidades Marginales y Condicionales
Pxy ( x, y)  p x / y ( x, y)p y ( y)  p y / x ( y, x )p x ( x )
función de distribución de probabilidad: P[ x1  X  x 2]  
x2
x1
función
La
 f
xy
de
distribución
de
probabilidad

y2
y1
f xy ( x, y)dydx
satisface:
f xy ( x , y)  0
y
( x, y)dxdy  1 para todo el intervalo
Y la acumulada,
Fxy (x, y)  P[(X  x)  (Y  y)]  P[   X  x      Y  y]  
x

y
 
de donde, f xy ( x , y) 
f xy (x 0 , y 0 )dy 0 dx 0

FXY ( x , y)
xy
Variables Independientes. Si función de distribución condicional es igual a función
de distribución marginal, entonces, X y Y son variables aleatorias independientes
p x / y ( x , y)  p X ( x ) ,
entonces,
X
y
Y
son
independientes.
P[X  x / Y  y]  P[X  x ]
Por lo tanto, lo siguiente es válido:
f x / y ( x , y)  f X ( x )
f X / Y ( y, x )  f Y ( y)
f XY ( x, y)  f X ( x )f Y ( y)
FXY ( x , y)  FX ( x )FY ( y)
FX / Y ( x, y)  FX ( x )
Si la función de densidad condicional es igual a la función de densidad marginal,
entonces, X y Y son variables aleatorias independientes. Mucho cuidado, la
dependencia funcional implica dependencia estocástica, pero ésta no necesariamente
implica la dependencia funcional.
- Discreta: Sea (X,Y) una variable aleatoria bidimensional, Y y Y son
independientes, si y solo sí, p(xi,yj)=p(xi)q(yj), para todo i,j
- Continua: f(x,y)=g(x)h(y), para todo (x,y), f es la función de distribución de
probabilidad conjunta y g y h son las funciones de probabilidad marginales de X y Y
respectivamente
(X,Y) es variable aleatoria discreta, X y Y son independientes si y solo sí,
6
p( x i / y j )  p( x i ), i, j
q( y j / x i )  q( y j ), i, j
Y si (X,Y) es continua, entonces,
g( x / y)  g( x ), ( x, y)
h ( y / x )  h ( y), ( x, y)
Funciones de Variables Aleatorias. Sean B y C sucesos equivalente. Si B es el
conjunto de valores de X tales que H( x )  C , entonces,
B  {x  R x : H(x)  C}, B  R x
Función de Distribución Acumulada.
Sea X una variable aleatoria discreta o continua, F es la función de distribución
acumulada de X se define como F(x)=P(X=x),
X es variable aleatoria discreta, F( x )   j p( xj), x j  x

X es variable aleatoria continua, F(x)   f (s)ds

Si F es no decreciente, esto es, x1  x 2 , entonces, F(x1 )  F(x 2 )
Lim F( x )  0
Lim F( x )  1
x  
x  
d
F( x ) para la función de densidad acumulada de variables aleatorias
dx
continuas con función de densidad de probabilidad f
f (x) 
Sea X una variable aleatoria discreta con valores x1,..., xn y son x1  x 2 .... . Será F
la función de distribución acumulada de frecuencias, entonces,
p( x j )  P(X  x j )  F( x j )  F( x j1 )
Distribución de Probabilidad Marginal y Condicional
Densidad conjunta se integra sobre valores de Y y se tiene función de distribución de
probabilidad marginal de X:

f X (x)   f
  XY
( x, y)dy
x
FX ( x )   f ( x 0 )dx 0  FXY ( x, ) o sea, f X ( x ) 
 X

FXY ( x, )
x
Y para la Condicional:
7

f Y ( y 0 )   f XY (x, y 0 )dx

por lo cual, f X / Y ( x, y) 
f XY (x, y)
f Y ( y)
x
FX / Y (x, y)  P[X  x / Y  y]   f X / Y (u, y)du

-
Discreto: Si X=xi debe ocurrir Y=yj tenemos
p( x i )  P(X  x i )  P(X  x i , Y  y1 o X  x i , Y  y 2 o...)   j1 p( x i , y j ) ,

entonces, p es la distribución marginal de probabilidad de X.

Idem para Y: q( y j )  P(Y  y j )  i 1 p(x i , y j )
-
Continuo: Sea f una función de densidad de probabilidad conjunta de la variable
aleatoria continua (X,Y). Definimos g y h como las funciones de probabilidad
marginal de X y Y así,

g(x)   f (x, y)dy


h( y)   f (x, y)dx

De otra forma,
P(c  X  d)  P[c  X  d,    Y  ]  
d
c



d
f (x, y)dydx   g(x)dx
c
Sea (X,Y) una variable bidimensional continua con función de distribución de
probabilidad conjunta f. Y sean g y h son las funciones de probabilidad marginal de X
y Y respectivamente. Entonces, la función de distribución de probabilidad
condicional de X para Y=y es,
f ( x , y)
g ( x / y) 
, h ( y)  0
h ( y)
similarmente
f ( x , y)
h( y / x) 
, g( x )  0
g( x )
Funciones de una Variable Aleatoria Bidimensional.
Sea (X,Y) una variable aleatoria bidimensional continua con función de distribución
de probabilidad conjunta f. Sea Z=H1(X,Y) y W=H2(X,Y), donde H1 y H2 satisfacen:
z=H1(x,y) y w=H2(x,y), se pueden resolver únicamente para x y y, y en función de z y
w, digamos x=G1(z,w) y y=G2(z,w)
8
x x y y
y son continuas, luego la función de distribución de
,
, ,
z w z w
probabilidad conjunta (Z.W) esta dada por:
f [G 1 (z, w ), G 2 (z, w )]
k ( z, w ) 
J ( z, w )
Existe
en donde, J(z,w) es el Jacobiano,
x x
J(z, w )  z w
y y
z w
Sea la variable aleatoria (X,Y) continua, entonces X y Y son independientes,
entonces, la función de distribución de probabilidad f se puede escribir
f(x,y)=g(x)h(y).
Sea W=XY, luego la función de distribución de probabilidad de W, digamos p, está
dada por

w1
p( w )   g(u )h  du

u u
La función de densidad de probabilidad de W=XY y U=X es
w1
s( w , u )  g (u )h   , con w=x, y , u=x, Y=w/u
 u u
Con igual enunciado, para aplicar a Z=X/Y, en donde la función de distribución de
probabilidad de Z es,

q(z)   g(vz )h(v) v dv , z=x/y, v=y

TÉCNICA DE FUNCIÓN DE DISTRIBUCIONES
El método consiste en obtener primero la función de distribución y luego la función
de densidad por medio de la diferenciación. Sea X1,X2,…,Xn variables aleatorias
continuas con una densidad de probabilidad conjunta dada, la densidad de
probabilidad de Y=u(x1,...,xn) se determina obteniendo
F(y)=P(Y≤y)=P[u(x1,…,xn)]
Y después,
dF( y)
f ( y) 
dy
9
Ejemplo, Si la densidad de probabilidad de X está dada por
0  x 1
6x (1  x )
f (x)  
otro
0
Determine la densidad de probabilidad de Y=X3
Solución, Sea G(y)=P(Y≤y)=P(X3≤y)=P(X≤y1/3)
G ( y)  
y1 / 3
0
6x (1  x )dx 3y 2 / 3  2 y
Entonces, g(y)=2(y-1/3-1) para 0<y<1
Ejemplo, Si la densidad de X1 y X2 está dada por
6e 3x1 2 x 2
x 1  0, x 2  0
f ( x1, x 2)  
otro
0
Obtenga la función de densidad de la variable Y=X1+X2
Solución, integrando la función conjunta
F( y)  
y
0

yx 2
0
6e 3x1 2 x 2 dx1dx 2 1  2e 3y  3e 2 y
Y al diferenciar con respecto a y tenemos,
f ( y)  6(e 2 y e 3y ), y  0
TÉCNICA TRANSFORMACIÓN DE VARIABLES
Una Variable. Se trata de aplicar el primer método sin desarrollar la obtención
primero la función de distribución. En el caso discreto no hay problema real, en tanto
que X y Y=u(X) se relacionen biunivocamente. Por tanto, la sustitución debe ser
adecuada.
Ejemplo, sea X el número de caras obtenidas en 4 lanzamientos de una moneda.
Determina la distribución de probabilidad de y=(1+x)-1
Solución, Si aplicamos la Binomial con n=4 y p=1/2 obtenemos que la distribución de
probabilidad de X está dada por,
x
0
1
2
3
4
f(x)
1/16 4/16 6/16 4/16 1/16
y luego aplicando y=(1+x)-1 para sustituir los valores de Y por los de X, se tiene
y
0
1/2
1/3
1/4
1/5
10
G(y)
1/16
4/16
6/16
4/16
1/16
O También habiendo sustituido x=(1/y)-1 por x en
4
 4  1 
f ( x )    
para x  0,1,2,3,4
 x  2 
obteniéndose,
4
4
 1    1 
g( y)  f   1   1 1  
 y   y  2 
para
y  1,1 / 2,1 / 3,1 / 4,1 / 5
Teorema. g( y)  f w( y) w( y) siempre que u(x)  0
Ejemplo, Si la flecha doble de la figura se hace oscilar, la variable aleatoria  tenga
la densidad
1 /    / 2     / 2
f ()  
otro
0
Hallar la densidad de probabilidad de X, la abscisa sobre el eje x al cual apuntará la
flecha.
Solución, La relación entre x y  es, x=a.tan
d
a
 2
dx a  x 2
y se deduce que
1
a
1
a
g( x ) 

para    x  
2
2
2
 a x
 a  x2
Ejemplo, Si X tiene una distribución N(0,1), determine la densidad de probabilidad
de Z=X2
11
Solución, g( y) 
h (z) 
2
2
2
2
e y
2
/2

dy 1 1 / 2
, entonces,
 z
dz 2
e z / 2
Dos Variables. Se trata del método anterior pero considerando dos variables. Sean la
distribución conjunta Y=u(X1,X2), si las relaciones entre y y x1 con x2 y entre y y x2
con x1 se mantienen constantes, entonces,
x
x
g( y, x 2 )  f ( x 1 , x 2 )  1
g ( x 1 , y)  f ( x 1 , x 2 )  2
y
y
Ejemplo, Sean x1 y x2 variables aleatorias independientes que tienen distribuciones
de Poisson con parámetros 1 y2, determine la distribución de probabilidad de la
variable aleatoria Y=X1+X2
Solución, Por la independencia de X1 y X2, la función conjunta es,
x
x
e  1  1 1 e   2  2 2
f (x1 , x 2 ) 

x 1!
x 2!
Para x1=0,1,… y x2=0,1,… y ya que y=x1+x2, entonces x1=y-x2, entonces,
x
x
x
yx
e  ( 1   2 )  1 1  2 2
e  ( 1   2 )  2 2  1 2
f (x1 , x 2 ) 
 g ( y, x 2 ) 
x 1!*x 2 !
x 1!*x 2 !
e ( 1   2 )  1 1  2 2 e ( 1   2 )  1   2 
h ( y)  

y!
x 2  0 x 2 !*( y  x 2 )!
y
x
x
y
Teorema. La función de distribución conjunta f(x1,x2) de las variables aleatorias X1 y
X2, y si se tiene que
y1=u(x1,x2) y y2=u(x1,x2),
entonces se puede hacer la transformación g(y1,y2)=f(w1(y1,y2),w2(y1,y2))*│J│,
donde w1 y w2 son soluciones de las ecuaciones simultaneas en derivadas parciales de
y1 y y2. J es el Jacobiano de la transformación,
x 1 x 1
y1 y 2
J
x 2 x 2
y1 y 2
TÉCNICA FUNCIÓN GENERATRIZ DE MOMENTO
12
Teorema. Si X1,X2,…,Xn son variables aleatorias independientes y Y=X1+…+Xn,
entonces,
n
M Y (t )   M Xi (t )
i 1
Donde Mxi(t) es el valor de la función de generación de momentos de xi en t
Ejemplo, Obtenga la distribución de probabilidades de la suma de n variables
aleatorias independientes X1,…,Xn que tengan distribución Poisson con parámetros
1,…,n, respectivamente
Solución, Sabemos que M X i (t)  e  i ( e 1)
Y por tanto, siendo y=x1+…,xn, se tiene
t
n
M Y ( t )   e  i ( e 1)  e ( 1  i ) e 1)
t
t
i 1
13