Download Esperanza Matemática Archivo

Document related concepts
no text concepts found
Transcript
07. ESPERANZA MATEMATICA
VALOR ESPERADO
Valor Medio. Sea X una Variable Aleatoria discreta o continua. Se denomina
esperanza matemática de X o valor esperado, E ( X ) o bien , a la cantidad que se
expresada como,
E(X)   x i  f(x i )
x

E(X)   x i  f(x i )dx

respectivamente.
Ahora bien, ello es válido para transformaciones de la variable aleatoria, de forma
que

E(h(X))   h(x)  f (x)dx

En el caso continuo y similarmente para el caso discreto
Por las analogías existentes entre la definición de media aritmética y esperanza
matemática, las propiedades de linealidad de la primera se trasladan a la segunda, de
forma que se puede obtener,
E(a  bX)  a  bE(X)
E(X  E(X))  E(X)  E(X)  0
Ejemplo. Si X es el número de puntos obtenidos al lanzar un dado de seis caras,
encontremos el valor esperado de la variable aleatoria Y = X2 .
La función de probabilidad de X es f(x) = 1/6 si x{1,2,3,4,5,6}. La función de
probabilidad
de Y = X2 es entonces f(y) = 1/6 si y{1,4,9,16,25,36}, así E(Y) = 1/*1 + 1/*4 +
1/*9 + 1/*16 + 1/*25 + 1/*36 = *P(X=1) + 22*P(X= 2) + 32*P(X= 3) +
42*P(X= 4) + 52*P(X= 5) + 62*P(X= 6) =  X2*P(X=x)

Ejemplo. Supongamos ahora que X es una v.a. que tiene función de probabilidad f(x)
= 1/6 si x{-2,-1,0,1,2,3}y Y = X2 . La función de probabilidad de Y es f(y) = 2/6 si
y{1, 4} y f(y) = 1/6 si y{0, 9}. Entonces E(Y) = 2/*1 + 2/*4 + 1/*0 + 1/*9.
Esta ecuación puede escribirse de la siguiente manera: E(Y) = 2/*1 + 2/4 + 1/*0
+ 1/*9 = *P(Y=1) + *P(Y=4) + *P(Y=0) + *P(Y=1) = 12*P(X=1 ó X=-1) +
22*P(X=2 ó X=-2) + 02*P(X=0) + 32*P(X=3) =  X2*P(X=x)
1
A través de estos ejemplos vemos que no es necesario calcular la función de
probabilidad de Y, sólo tenemos que usar la función de probabilidad de X y los
valores obtenidos al aplicar la
función Y = g(X) = X2 . Esto es cierto aún en el caso en que la función no es uno-uno.
LA VARIANZA
La varianza la denotamos mediante V(X) o VAR(X) o 2, y se calcula como,
 x i  E(X) 2 .f(x i )  X Discreta

2
V(X)  EX  E(X)    x

 x  E(X) 2 .f(x)dx  X Continua

Obsérvese que del mismo modo en que se demuestra la relación se comprueba que
V(X)=E(X2)-(E(X))2
Similarmente, V(a+bX)=b2.V(X)=b22
Ejemplo. Consideramos una variable aleatoria discreta con función de probabilidad,
c
x 1
f(x)  4 x
0 otro caso
Obtener el valor de la constante c para que sea una función de probabilidad, los
valores de las funciones de probabilidad y distribución para todos los valores de x, y
P(x=3), y P(x≤3).
Solución: Para ello consideramos,

c
1
1
1
 c
 c 1  2  3    ,

x
4
4
4
 3
x 1 4
ya que tenemos la suma de una progresión geométrica de razón menor que la unidad:
Calculemos sucesivos valores de f(x) y F(x),
x
2
3
4
5
…
f(x)
3/4
3/16
3/64
3/256
…
F(x)
0.75
0.94
0.987
0.999
….
Y como se observa que: si x crece, f(x) decrece y F(x) crece hasta llegar a su máximo
valor 1
P(X=3)=f(3)=0.047
P(X≤3)=0.987
2
Ejemplo para la variable aleatoria continua, función de densidad
cx 3 0  x  1
f(x) 
0 otro caso
Hallar: El valor de la constante c para que sea una función de densidad, la función de
distribución, el valor medio, y la probabilidad de que la variable este comprendida
entre 0,2 y 0,7
Solución. Consideremos,
1
x4
c
cx
dx

c

0
4 0 4
La cual debe ser de valor 1, entonces c/4=1, esto es, c=4
1
3
x
x4
F( x )   f ( x )dx   4 x dx  4
 x4


4 0
luego, la función de distinción acumulada es F(x)=x4 para 0<x≤1, 0 en valores x≤0 y
1 para x≥1
x
x
3
El valor medio es
1
x5
E(X)   x  f ( x )dx   x  4x dx  4
 0.8

0
5 0
P(0.2≤x≤0.7)=F(0.7)-F(0.2)=0.72-0.22=0.24

1
3
Ejemplo, Calcule la varianza de la variable aleatoria x, que representa el número de
puntos obtenidos con un dado.
=E(X)=1*1/6+2*1/6+3*1/6+4*1/6+5*1/6+6*1/6
`2=E(X2)=12*1/6+22*1/6+32*1/6+42*1/6+52*1/6+62*1/6
Sabemos que 2=`2-2=((91/6)-(7/2)2=35/12
Teorema:  2  2   2
Teorema. Si X es una v.a. discreta y f(x) es su función de probabilidad, Y = g(X) es
una función a valores reales, es decir, Y es una v.a., entonces su valor esperado es
E(Y)= E(g(X))=f (x) g(x) .
Teorema. Si a y b son constantes reales y g(X) = aX + b es una función a valores
reales, entonces E(aX + b) = aE(X) + b.
3
Corolario. Si a es una constante real, entonces E(aX) = aE(X).
Corolario. Si b es una constante real, entonces E(b) = b.
Estos resultados se pueden generalizar de la siguiente forma:
Teorema. Si c1, c2, ...., cn son constantes reales, y g1(X), g2(X) ,...., gn(X), son
funciones reales de X, entonces E(ci*gi(x))ci*E(gi(x))
Teorema. Var( X) = 2 = E(X2) – [E(X)]2 = E(X2) – 2
MOMENTOS
La esperanza matemática y la varianza pueden ser calculadas a partir de otras
medidas: el momento de orden r (r pertenece al conjunto de los naturales): r
  x r  f(x)  X Continua

 r  E(X r )  
r
 x  f(x)  X Discreta
x
Asimismo se denomina momento central de orden r, mr,
 x i  E(X) r  f(x i )  X Discreta

r
m r  EX  E(X)    x

 x  E(X) r  f(x)dx  Continua

 
De este modo, es claro que la esperanza matemática es el momento de primer orden y
que la varianza es el momento central de segundo orden
μ  E(X 1 )  μ1
σ 2  V(X)  m 2
Ejemplo, Ciertas mediciones codificadas del diámetro del avance de la cuerda de un
ajuste tienen la densidad de probabilidad
4

0  x 1

f ( x )   (1  x 2 )
0
otro

Determine el valor esperado y la varianza
1
Aplicando la definición, E(X)   x 
0
4
ln 4
dx 
 0.4413
2

(1  x )
4
2  E(X 2 ) 
4 1 x2
4
dx   1  0.2732
2

 0 1 x

En muchas ocasiones puede ser complicado computar directamente los momentos de
algunas variables aleatorias por lo cual debemos usar otras técnicas más
convenientes. En particular podemos usar la función generatriz de momentos. La
función generatriz de momentos de una v.a. X, donde existe, está definida por
Mx(t)= E(etX)=etX*f(x)
d r M x (t)
Teorema.
 E(X r )
r
dt
DESIGUALDAD DE TCHEBYCHEFF
Variable Aleatoria tipificadas. Si X es una variable aleatoria con esperanza E(X)=
y varianza V(X)=2, se puede demostrar que en general, una gran parte de la masa se
encuentra en un intervalo centrado en  y que tiene por amplitud varias veces . Más
precisamente, la desigualdad de Thebycheff afirma que si consideramos un intervalo
de centro  y radio k veces , la probabilidad de realizar una observación de la
variable y que esta no esté en dicho intervalo es inferior o igual a 1/k2: Si X es
Variable Aleatoria con E(X)= y V(X)=2, entonces para todo valor de k positivo,
1
P X  μ  kσ   2
k
Este importante resultado, por si sólo, justifica el que  sea una medida central y  la
medida de dispersión respecto a ese valor medio y motiva la introducción del
concepto de tipificación de variables aleatorias, así, dada una Variable Aleatoria X,
definimos su Variable Aleatoria tipificada, z, como,
X
z

que es una Variable Aleatoria que presenta la característica de tener valor medio cero
y varianza unitaria: E(X)=0 y V(X)=1
Ejemplo, Si la densidad de probabilidad de la variable aleatoria x está dada por
630x 4 (1  x ) 4
0  x 1
f (x)  
otro
0
Determine la probabilidad de que x tome un valor contenido en dos desviaciones
estándar de la media y compárela con el límite inferior proporcionado por el teorema
de Chebyshev
5
Integrando directamente, obtenemos que =1/2 y 2=1/44 o sea =0.15
Por tanto, la probabilidad de que x tome un valor contenido en dos desviaciones de la
media es la probabilidad de que tome un valor entre 0.20 y 0.80,
P(0.20  x  0.80)  
0.80
0.20
630x 4 (1  x) 4 dx  0.96
Comparando: la probabilidad de 0.96 es mucho mas especifico que la probabilidad es
cuando menos 0.75, enunciado por el teorema de Shebyshev
MOMENTO PRODUCTO
El r-ésimo y s-ésimo momento producto con respecto al origen de las variables
aleatorias x y y, representado por `r,s es el valor esperado de xrys,
r ,s  E( x r y s )   x r y s  f ( x, y)
r  0,.., s  0,...
x
r ,s  E( x r y s )  

0
y


0
x r y s  f ( x, y)dxdy
Y con respecto al valor medio
r ,s  E ( x   x ) r ( y   y ) s   ( x   x ) r ( y   y ) s  f ( x, y)


x


r ,s  E ( x   x ) r ( y   y ) s  

0
r  0,.., s  0,...
y


0
( x   x ) r ( y   y ) s  f ( x, y)dxdy
Teorema,  xy  cov( x, y)  1,1
Teorema,  xy  1,1   x  y
TEORÍA DE LOS GRANDES NÚMEROS Y TEOREMA DEL LÍMITE
CENTRAL
Sea  un experimento y A un suceso asociado. En n repeticiones independientes de
 , se nA el número de veces que ocurre A en las n repeticiones y f A=nA/n. Sea
P(A)=p, igual para cualquier repetición, entonces, para cualquier número  positivo:
p(1  p)
y
P f A  p   
n 2
p(1  p)
P f A  p     1 
n 2
6
Por lo anterior se puede demostrar que para grandes números la función de
distribución binomial tiende a ser Normal
Teorema del Límite Central: Sea X1,...,Xn sucesos de variables aleatorias
independientes con E[X i ]   i y V[X i ]   i2 . Sea X  i1 X n . Entonces,
n
X  i 1  i
n
Zn 
i1  i2
n
 N(0,1) , es decir,
Si Gn es la fda de Zn, entonces, Lim G n ( Z)  (z)
n 
Teorema: Si X1,...,Xn son variables aleatorias independientes y tienen igual
distribución y sean   E[X i ] y  2  V[X i ] , los valores esperados de media y
varianza. Sea S  i 1 X i , entonces, E[S]  n y V[S]  n 2 . Ahora bien, para
n
valores grandes de n,
S  n
Tn 
 N(0,1)
n
considerando, Lim P[Tn  t ]  ( t )
n 
|
Teorema: Sean X y Y variables aleatorias independientes con funciones de
distribución de probabilidad g y h, respectivamente. Sea Z=X+Y con Función de

distribución de probabilidad s definida como, s(z)   g(w)h(z  w)dw . Usando la

transformación w=x, y z=x+y
Teorema: Si X y Y son variables aleatorias independientes con valores solo enteros
positivos. Sea p(k)=P[X=x] y q(r)=[Y=r], siendo k=1,..., y r=1,.... sea Z=X+Y y sea
w(i)=P[Z=z], entonces,
w(i)  k 0 p(k)r(i  k)
i
ESPERANZA CONDICIONAL
Si x es una variable aleatoria discreta o continua y f(x/y) es el valor de la distribución
de probabilidad condicional de x dada y, la esperanza condicional, de u(x) dada y es,
respectivamente
Eu ( x ) / y    u ( x )  f ( x / y)
x

Eu ( x ) / y    u ( x )  f ( x / y)dx

7
Ejemplo, Si la densidad conjunta de dos variables aleatorias x y y está dada por
2
f ( x )  ( x  2 y) para valores 0  x  1 y 0  y  1
3
Determine la media y la varianza condicionales de x dada y=1/2

2 1
1
( x  2 y)dx  (1  4 y)


3 0
3
f ( x , y) 2 / 3( x  2 y)
f ( x / y) 

h ( y)
1 / 3(1  4 y)
h ( y)   f ( x , y)dx 
12
5

E
(
x
/
1
/
2
)

x
(
x

1
)
dx


0 3

 1 2
9
f  x /   ( x  1)  
1
 2 3
E( x 2 / 1 / 2)  2 x 2 ( x  1)dx  7
0 3

18
TEOREMA DE FOURIER – FUNCION GENERATRIZ
Si X es una Variable Aleatoria cuya función característica es  X , su función de
probabilidad (o densidad de probabilidad) es,
1   itx
f(x) 
e Φ X (t)dt
2π 
Esta propiedad de  X es fundamental, ya que en una gran cantidad de casos es
mucho más fácil trabajar con la función característica que con la propia función de
probabilidad (o densidad). La razón de ello estriba en una serie de propiedades de la
función característica que la hacen muy manejable desde el punto de vista
matemático. Para esta función se verifican las relaciones
 X (0)  1
 X (t)  1
t  
 X ( t )   X ( t )
t  
Lo cual se puede verificar con,

Φ X (0)  E(e i0x )  E(1)   1  f(x)dt  1

Φ X (t) 







e itx f(x)dx   e itx f(x) dx   1  f(x)dx  1
Φ X ( t)  E(e
-itX
)  Ecos(  tX)   iE sen(  tX)   Ecos(tx)   iE sen(tx)   Φ X (t)
8
Aplicando a una recta, Sea Y  a  bX  Φ Y (t)  e ita Φ X (bt) , lo que se demuestra
como,
Φ Y (t)  E(e itX )  E e it(a bX  E e ita e itbX  e ita Φ X (bt)

 

Una propiedad de  que es muy usada es que la suma de Variable Aleatoria
independientes tiene por función característica el producto de las respectivas
funciones características. Es decir, Sean X e Y Variables Aleatorias independientes,
entonces,  XY (t )   X (t )   Y (t )
La última propiedad de  que enunciamos es que al igual que la función generatriz
de momentos, esta nos permite calcular los momentos de la variable (y por tanto su
esperanza y su varianza), veamos,
Φ (r) (0)
E(X r )  X r
i
Lo que se puede observar como,
Φ (r)X (0) r  r itx
Φ (t)   i x e f(x)dx Φ (0)  i  x e f(x)dx  r  i  x e f(x)dx



i
(r)
X

r
r itx
(r)
X
r

r itx
Función característica. Para una Variable Aleatoria X se define su función
característica como
 e itx  f(x i )

Φ X (t)  E(e itX )   x
 e itx  f(x)dx
 
Pero e itx  cos(tx)  isen(tx) , lo cual nos conduce a la Tansformada de Fourier de f.
Su denominación proviene del hecho de que una vez conocida la función
característica podemos determinar la función de distribución de la Variable Aleatoria
y recíprocamente. siendo i  1 , y esta función siempre existe para todo t
Las principales funciones generadoras de momentos son:
9
Uniforme : M x ( t )  
b
a
e tx
e bt  e at
dx 
, t0
ba
(b  a ) t


n
n
n
Binomial : M x ( t )  k 0 e tk  p k (1  p) n  k  pe t  (1  p)
k
 k
t
t

tk e 
Poisson : M x ( t )  k 0 e
 e  e e  e  ( e 1)
k!

Exponencia l : M x ( t )   e tx e x dx , parametro 
0
Propiedades: Sea la serie de MacLaurin de e x : e x  1  x 
x2
xn
  
2!
n!

( tx ) 2
( tx ) n 
M x ( t )  E e  1  tx 
  
 , lo que es igual a
2!
n! 


t 2 E[ x 2 ]
t n E[ x n ] 
M x ( t )  1  tE[ x ] 
  

2!
n! 

 
tx
Derivando tenemos,

t 2 E[ x 3 ]
t n 1 E[ x n ] 
2

M x ( t )  E[ x ]  tE[ x ] 
  

2!
(n  2)! 

Ahora bien, si t=0, entonces, Mx (0)  E[x]
Volviendo a derivar,

t n 2 E[ x n ] 
Mx ( t )  E[ x 2 ]  tE[ x 3 ]     

(n  2)! 

Si t=0, entonces, Mx (0)  E[x 2 ]
En general, M (xn ) (0)  E[ x n ]
Teorema: La variable aleatoria X tiene una fgm Mx, y sea Y  X   , entonces,
M y (t )  e t M x (t )
Teorema: Si Mx(t) y My(t) son las fgm de X y Y que son variables aleatorias
respectivamente y si Mx(t)=My(t), para todo t, entonces X y Y tienen igual
distribución de probabilidad.
10
Teorema: Si X y Y son variables aleatorias independientes y Z=X+Y, y tienen fgm
Mx(t), My(t) y Mz(t), respectivamente, entonces, Mz(t)=Mx(t)My(t)
Ejemplo, Determine la función generatriz de momentos de la variable aleatoria x,
cuya densidad de probabilidad está dada por,
e  x
x0
f(x)  
otro
0
Utilícela para hallar `r


0
0
M x ( t )  E(e tx )   e tx  e  x dx   e  x (1 t ) dx 
1
1 t
Expandiendo en la serie de McLaurin,
t
t2
tr
M x ( t )  1  t  t 2    t r    1  1!  2!    r!  
1!
2!
r!
Por consiguiente, r  r! r
Transformada Lineal de una Variable Aleatoria
X *  c1X  c 2 c1  0
*  E[X* ]  c1E[X]  c 2 E[1]  c1X  c 2
X*  *  (c1X  c 2 )  (c1  c 2 )  c1 (X  )
En general, se tiene,
E[(X*  * )k ]  E[ck1 (X  ) k ]  ck1 (X  ) k ]
*2  c1 2 que es un caso particular para k=2
La varianza es invariante bajo una traslación del origen, esto es, una transformación
1

y c2   ,
de la forma X *  X  c 2 . Si entonces, X* toma la expresión c1 


X
 Z , que tiene media 0 y varianza 1
entonces

Si una variable aleatoria X tiene media  y varianza  2 , entonces Z 
X
tiene

media 0 y varianza 1
11
Teorema,
d r M x (t)
 r
dt r
De este teorema se desprende,
M x  a ( t )  Ee ( x  a ) t   e at  M x ( t )
 
M bx ( t )  E e bxt  M x (bt )
a
  x  a  t 
t
t
M x  a ( t )  E e  b    e b  M x  


b
b


ESPERANZA BIDIMENSIONAL
E[g(X,Y)] se define como
  g ( x , y)f ( x , y)  Discreto

E[g (X, Y)]    x y
  g ( x , y)f ( x , y)dxdy  Continuo
  
E[ag (X, Y )  bh (X, Y)]  aE[g ( x , y)]  bE[h ( x , y)]
E[g (X, Y)]   g ( x ) f ( x , y)   g ( x )f 1 ( x )  depende de X
x
y
x
E[X+Y]=E[X]+E[Y]
El valor medio de una suma de variables aleatorias es igual a la suma de los valores
medios
de
las
variables
aleatorias,
esto
es,
E  X i   E[X i ] y E[XY]  E[X]E[Y] si X e Y son independientes


Si
X1,X2,...Xn
son


E  X n    E[X n ]
n
 n

variables
aleatorias
Varianza: Si se tiene Z=X+Y, entonces
 2  E[Z 2 ]  (E[ Z]) 2 de donde
E[Z 2 ]  E[X 2  2XY  Y 2 ]  (E[X]  E[Y]) 2 ,
 XY  E[XY]  E[X]E[Y] , o sea,
 2   2X   2Y  2 XY ,
lo
independientes,
que
conduce
entonces
a
,
y si X e Y son independientes,  XY  0
12
La varianza de una suma de variables aleatorias independientes cuyas varianzas
existan, es igual a la suma de esas varianzas
Si X1,X2,...Xn son variables aleatorias independientes, con varianza común  2 ,
entonces Si X1,X2,...Xn son variables aleatorias independientes, entonces
1
X  (X1  Xn )
n
y tienen varianza Si X1,X2,...Xn son variables aleatorias independientes, entonces
2
 2X 
n
La fgm se define como: Sea X una variable aleatoria con dp p(xi)=P[X=xi], la función
Mx es la fgm de X y se define como
M x ( t)   j1 e j p( x j ) para el caso discreto, y

tx

Mx ( t)   dtx f ( x)dx para el caso continuo,

siendo f(x) la función de distribución de probabilidades
13