Download Variable aleatoria: definiciones básicas

Document related concepts
no text concepts found
Transcript
Variable aleatoria: definiciones
básicas
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Variable Aleatoria
•
Hasta ahora hemos discutido eventos elementales y sus
probabilidades asociadas [eventos discretos]
•
Considere ahora la idea de asignarle un valor al resultado
de un evento
Ejemplo: Considere una vez más el evento de tirar dos dados.
Entonces la suma de los resultados de ambos dados, el
cual es un valor k tal que k Є [2, 12] puede definirse como
una variable aleatoria S. Utilizaremos la siguiente
notación:
Pr{S=k}
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Variable Aleatoria
•
Se entiende que S es una variable aleatoria que puede
tomar valores entre 2 y 12 con diversas probabilidades.
•
Más técnicamente S es visto como una función sobre los
subconjuntos del espacio de muestreo y Pr{S=k}
representa la suma de las probabilidades de todos los
resultados a los que les corresponde la suma k.
Nota: No se preocupe si la idea es un poco difusa al principio,
quedara más clara con los ejemplos.
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Variable Aleatoria
•
Normalmente, estaremos interesados en conocer la
distribución que la variable aleatoria S, la cual toma
valores enteros k = 0, 1, …, n con probabilidades
P(k) = Pr(K = k)
•
Generalmente, necesitaremos definir un conjunto de
atributos
que
sumaricen
las
descripciones
de
la
distribución de la variable aleatoria.
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Valor esperado
•
El primer valor que sumariza el comportamiento de una
variable aleatoria es el valor esperado, definido como:
n
! kp(k )= 0 p(0) + 1 p(1) + 2 p(2) + L + np(n) = µ
k =0
•
Intuitivamente, el promedio mide la posición del “centro
de la distribución”
•
También se conoce al promedio como el valor esperado
de la variable aleatoria, o de la distribución de ésta.
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Valor esperado
Ejemplo: Promedio de tirar un dado.
•
Tirar un dado puede resultar en obtener cualquiera de los
6 valores 1, 2, 3, 4, 5, 6 cada uno con probabilidad 1/6.
•
Entonces el promedio está dado por:
1
1
µ = [1 + 2 + 3 + 4 + 5 + 6]= [6 ! 7 / 2]= 3.5
6
6
•
Note que el promedio no es ninguno de los resultados
legales de un dado
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Valor esperado
Ejemplo: Promedio de un volado.
•
Si se le asigna los valores, águila = 0, sol = 1, entonces el
valor esperado de tirar un dado (con probabilidad p=1/2)
es:
1
1
µ = [1 + 0]=
2
2
Sin embargo si asignamos águila = -1, sol = 1, el valor
esperado sería
µ=
Introducción a la Probabilidad
1
[! 1 + 1]= 0
2
Francisco Rodríguez Henríquez
Valor esperado: definición formal
Dada una variable X, cuyos resultados tienen probabilidades
p(i) para los valores xi (i=1, 2,…, n), entonces el valor
esperado de la variable aleatorio X se define como:
n
E{X }= ! xi p(i )
i =1
El valor esperado toma cada posible valor xi y lo pesa por su
probabilidad p(i).
El valor esperado es un operador lineal
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Valor esperado: definición formal
Muchas veces conviene ordenar los pares (xi, f(xi)) en forma
tabular,
x
x1
x2
x3
….
xn
f(x)
f(x1)
f(x2)
f(x3)
…
f(xn)
n
E{X }= ! xi p(i )
i =1
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Promedio: producto de dos variables
•
Valor esperado del producto de dos variables aleatorias
independientes X, Y.
E{XY }= ! kp(XY = k ) = !! xi y j p X (i ) pY ( j ) =
k
i
j
! x p (i )! y p ( j )= E{X }E{Y }
i
i
X
j
Y
j
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Promedio: suma de dos variables
•
Valor esperado de la suma de dos variables aleatorias
independientes X, Y.
E{X + Y }= ! (xi + yi )p(i, j ) = ! xi ! p(i, j )+ ! y j ! p(i, j ) =
i
j
j
i
! x p (i )+ ! y p ( j )= E{X }+ E{Y }
i
i
X
j
Y
j
•
Lo cual implica que:
•
En general, el valor esperado es un operador lineal, esto
es,
Introducción a la Probabilidad
E{X + Y }= E{X }+ E{Y }
E{aX + bY }= aE{X }+ bE{Y }
Francisco Rodríguez Henríquez
Promedio
•
Suma de variables aleatorias Xi.
E {! ci X i }= ! ci E{X i }
•
Producto de variables aleatorias independientes
'
$
E &! [X i ]# = ! [E{X i }]
% i
" i
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Varianza
•
Si el promedio nos indica dónde está el centro de nuestra
distribución, la varianza explica cuál es la dispersión de
una determinada distribución probabilística.
2
Varianza{X }= V {X }= # (xi " µ ) p(i ) = ! 2
i
•
Es fácil demostrar que:
V {c}= 0;V {cX }= c 2V {X }
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Varianza de un dado
•
Recuerde que el valor esperado de un dado es E{X}=7/2.
Para los 6 valores del dado, las diferencias de Xi con µ son:
-5/2, -3/2, -1/2, ½, 3/2, 5/2
•
Debemos elevar al cuadrado las diferencias, multiplicarlas
por las probabilidades pi y sumarlas:
V{dado} = (1/6)[25+9+1+1+9+25]/4=70/24=35/12
•
Note que un método alternativo es:
2
1 6 2 '7$
V {dado}= ( i ! % " = 91 / 6 ! 49 / 4 = 35 / 12
6 i =1
&2#
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Ejemplo de valor esperado y varianza
Ejemplo: Sean X, Y dos variables aleatorias del espacio de
muestreo formado por los posibles resultados de tirar dos
dados, de tal manera que siendo a, b tales resultados
entonces: X(a, b) = max(a, b) y Y(a, b) = a + b.
Note que si f es la distribución de probabilidad de X, entonces,
f(1) = 1/36 (La unica posibilidad que el máximo sea 1 es que
los dados hayan caído en (1,1). Similarmente, los tres
resultados (1,2), (2,1), (2,2) hacen que f(2) = 3/36.
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Ejemplo de valor esperado y varianza
En general, se tiene que
x
1
2
3
4
5
6
f(x)
1/36
3/36
5/36
7/36
9/36
11/36
E ( X ) = ! xf (x ) = 4.47
i
( )
E X 2 = ! x 2 f (x ) = 21.97
i
( )
Var (x ) = " X2 = E X 2 ! µ X2 = 1.99
! X = 1.4
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Ejemplo de valor esperado y varianza
La distribución g de la variable aleatoria Y sería como sigue:
y
g(y)
2
3
4
5
6
7
8
9
10
1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36
11
12
2/36
1/36
E (Y ) = ! yg (y ) = 7
i
( )
E Y 2 = ! y 2 g (yi ) = 54.83
i
( )
Var (y ) = " Y2 = E Y 2 ! µY2 = 5.83
! Y = 2.4
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Variable aleatoria en el dominio
continuo
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Variable Aleatoria continua
Definición: La función de distribución acumulativa (cdf) de X
se define como:
FX (x ) = P(X # x ), " ! < x < !
Con las siguientes propiedades:
0 ! FX (x )! 1
1.
3.
FX (x1 )! FX (x2 ) if x1 < x2
lim FX (x ) = FX (! ) = 1
4.
lim FX (x ) = FX (" ! ) = 0
2.
5.
x "!
x # "!
( )
lim+ FX (x ) = FX a + = FX (a )
x"a
Introducción a la Probabilidad
a + = lim a + !
0 <! " 0
Francisco Rodríguez Henríquez
Variable Aleatoria continua
equivalentemente, podemos determinar la probabilidad de
ciertos eventos en función de la cdf.
1.
P(X > a ) = 1 ! FX (a )
2.
P(a < X " b ) = FX (b )! FX (a )
3.
P(X < b )= FX b -
()
Introducción a la Probabilidad
b " = lim b " !
0 <! # 0
Francisco Rodríguez Henríquez
Variable Aleatoria
Definición: Sea X una variable aleatoria con cdf FX(x). Si
FX(x) es continua y si tiene existe su derivada dFX(x)/dx
como una función continua para toda x, excepto quizás
por un número finito de puntos, entonces se dice que X es
una variable aleatoria continua.
De esta manera, si X es una variable aleatoria continua,
entonces,
P(X = x) = 0
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Variable Aleatoria: función de densidad
de probabilidad
Definición: Sea f (x ) = dFX (x )
X
dx
La función fX(x) es conocida como la función de densidad de
probabilidad de la variable aleatoria continua X.
Con las siguientes propiedades:
1.
2.
3.
4.
5.
f X (x )! 0
!
"
#"
f X (x )dx = 1
fX(x) es una función continua bien comportada
b
P(a < X " b ) = ! f X (x )dx
a
x
FX (x ) = P(X % x ) = " f X (! )d!
$#
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Variable Aleatoria: Promedio y variancia
Definición: El valor esperado (promedio) de una variable aleatoria
está dado como:
$& xk p X (xK ) X : discreta
!
µ X = E (X ) = # k'
!" %(' xf X (x )dx X : continua
Definición: La varianza de una variable aleatoria se define como:
$' (xk % µ X )2 p X (xK ) X : discreta
!
) X2 = # k(
2
!& (x % µ X ) f X (x )dx X : continua
" %(
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Varianza
•
Note también que:
{ }
{ }
V {X }= E X 2 ! 2 µE{X }+ µ 2 = E X 2 ! E 2 {X }
•
Es fácil probar que en el caso de la suma de variables
aleatorias independientes Xi, la varianza es lineal:
V {! X i }= ! V {X i }
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribuciones de Probabilidad
famosas
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Uniforme
Una variable aleatoria X es llamada variable aleatoria uniforme sobre
el rango (a, b), si su pdf está dado por:
$! 1
f X (x ) = # b % a
!" 0
a< x<b
de otra manera
a+b
µ X = E (X ) =
2
" 2X
Introducción a la Probabilidad
2
(
b ! a)
=
12
Francisco Rodríguez Henríquez
Distribución Uniforme
Una variable aleatoria X es llamada variable aleatoria uniforme sobre
el rango (a, b), si su pdf está dado por:
$! 1
f X (x ) = # b % a
!" 0
a< x<b
de otra manera
a+b
µ X = E (X ) =
2
" 2X
Introducción a la Probabilidad
2
(
b ! a)
=
12
Francisco Rodríguez Henríquez
Distribución Uniforme
Una variable aleatoria X es llamada variable aleatoria uniforme sobre
el rango (a, b), si su pdf está dado por:
$! 1
f X (x ) = # b % a
!" 0
a< x<b
de otra manera
a+b
µ X = E (X ) =
2
" 2X
Introducción a la Probabilidad
2
(
b ! a)
=
12
Francisco Rodríguez Henríquez
Distribución Bernoulli
Una variable aleatoria X es llamada variable aleatoria Bernoulli con
parámetro p si,
k
1!k
p X (k ) = P(X = k ) = p (1 ! p )
,
k = 0,1
La distribución Bernoulli modela experimentos en que el resultado
sólo puede ser éxito o fracaso. El ejemplo tradicional es tirar
volados.
µ X = E (X ) = p
" 2X = p(1 ! p )
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Binomial
Una variable aleatoria X es llamada variable aleatoria binomial
con parámetros (n, p) si,
'n$
n!k
p X (k ) = P(X = k ) = %% "" p k (1 ! p )
&k #
k = 0,1, K , n
La distribución binomial modela el número total de exitos tras
varios intentos hechos sobre una población infinita bajo los
siguientes supuestos:
•
Únicamente dos resultados puede ocurrir en cada intento.
•
La probabilidad de éxito en cada intento es constante e
independiente de otros intentos.
James Bernoulli derivó la distribución binomial en 1713 (Ars
Conjectandi).
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Binomial
µ X = E (X ) = np
" 2X = np(1 ! p )
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución binomial Bernoulli
k
b(k ; n, p ) = C (n, k ) p q
n!k
' n $ k n!k
= %% "" p q
&k #
N = 10;
P= 2/3.
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución binomial Bernoulli
k
b(k ; n, p ) = C (n, k ) p q
Introducción a la Probabilidad
n!k
' n $ k n!k
= %% "" p q
&k #
Francisco Rodríguez Henríquez
Comportamiento asintótico de la
ley binomial
Suponga que en la función binomial b(k;n, p), n >>1, p << 1, pero
de tal manera que np permanece constante, digamos, np = a.
n(k
"
%
n
"
%
1
a
n(k
Dado que q = 1-p, se tiene que: $ ' p k (1( p) ) a k $1( '
#k&
k!
#
n&
Donde n( n "1)L ( n " k + 1) # n k si n es suficientemente grande y si k está
! cuando n " #, p " 0,k << n
fijo. De aquí que en el límite
se tiene,
!
!
n#k
1 k$ a '
a k #a
b( k;n, p) " a &1# ) * e
k! % n (
k!
Introducción a!
la Probabilidad
Francisco Rodríguez Henríquez
Binomial asintótica = Poisson
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Poisson
La distribución de Poisson es una distribución de probabilidad
discreta. Expresa la probabilidad que un número de
eventos ocurra en un tiempo fijo suponiendo que:
a. Los eventos ocurren a una razón [velocidad]
conocida.
b. La ocurrencia de eventos es independiente de
cuándo ocurrió el último evento.
Poissonfrancés = pescado
Poisoninglés
= Veneno
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Poisson λ = 1,3, 5, 10
"k e# "
P[x = k] =
k!
µ X = E (X ) = !
!
Introducción a la Probabilidad
" 2X = !
Francisco Rodríguez Henríquez
Distribución Poisson λ = 1,3, 5, 10
"k e# "
P[x = k] =
k!
µ X = E (X ) = !
!
Introducción a la Probabilidad
" 2X = !
Francisco Rodríguez Henríquez
Poisson asintótica = Gaussiana
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Exponencial
Una variable aleatoria X es llamada variable aleatoria exponencial
con parámetro λ>0 si,
#%e $ %x x > 0
•
•
•
f X (x ) = "
! 0
x<0
La distribución exponencial es especial porque modela eventos
que ocurren aleatoriamente en el tiempo.
La principal aplicación es en el estudio de tiempos de vida útil
de componentes
Quizás la propiedad más interesante de la distribución
exponencial es su característica de “amnesia”. Por ejemplo, si
un componente tiene un tiempo de vida útil distribuido
exponencialmente, entonces un item que ha funcionado por
horas es tan bueno como un item nuevo
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Exponencial
Una variable aleatoria X es llamada variable aleatoria exponencial
con parámetro λ>0 si,
#%e $ %x
f X (x ) = "
! 0
µ X = E (X ) =
x>0
x<0
1
!
1
"X = 2
!
2
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Exponencial
Una variable aleatoria X es llamada variable aleatoria exponencial
con parámetro λ>0 si,
#%e $ %x
f X (x ) = "
! 0
µ X = E (X ) =
x>0
x<0
1
!
1
"X = 2
!
2
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Exponencial
Una variable aleatoria X es llamada variable aleatoria exponencial
con parámetro λ>0 si,
#%e $ %x
f X (x ) = "
! 0
µ X = E (X ) =
x>0
x<0
1
!
1
"X = 2
!
2
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Normal o Gaussiana
Una variable aleatoria X es llamada variable aleatoria normal
(guassiana) si su pdf está dado por,
1
# (x # µ )2 / (2! 2 )
f X (x ) =
e
2"!
• La distribución gaussiana es la reina de las distribuciones. En
este universo, la naturaleza se comporta gaussianamente.
• El teorema del límite central garantiza que cualquier otra
distribución se comporta como una gaussiana cuando se hacen
un número suficiente de experimentos: “la suma de muestras
independientes para cualquier distribución con valor esperado
y varianzas finitos converge a la distribución normal conforme
el tamaño de muestras tiende a infinito”.
•
El primer uso de la distribución normal fue la de hacer una
aproximación continua a la distribución binomial.
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Normal o Gaussiana
Una variable aleatoria X es llamada variable aleatoria normal
(guassiana) si su pdf está dado por,
1
# (x # µ )2 / (2! 2 )
f X (x ) =
e
2"!
µ X = E (X ) = µ
! 2X = ! 2
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Normal o Gaussiana
Una variable aleatoria X es llamada variable aleatoria normal
(guassiana) si su pdf está dado por,
1
# (x # µ )2 / (2! 2 )
f X (x ) =
e
2"!
µ X = E (X ) = µ
! 2X = ! 2
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Distribución Normal o Gaussiana
•
Se usa la notación N(µ; σ2) para denotar que la variable aleatoria
X es normal con promedio µ y varianza σ2.
•
A una variable aleatoria normal Z con promedio cero y varianza
1 se le llama variable aleatoria normal estándar:
f X (x ) =
•
1 "(x )2 / 2
e
! N (0;1)
2#
Como se ha mencionado, la distribución normal es la más
utilizada en el estudio de fenómenos aleatorios, pues ocurre con
harta frecuencia en una amplísima variedad de fenómenos de la
naturaleza
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Ruido Gaussiano
µ X = E (X ) = µ
! 2X = ! 2
1
# (x # µ )2 / (2! 2 )
f X (x ) =
e
2"!
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
La ley débil de números grandes
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Ley débil de números grandes
•
La ley débil de números grandes es uno de los resultados
más importantes de la probabilidad, además de ser el
fundamento teórico de la estadística.
•
Contesta la pregunta: “¿Cuál es el valor esperado del
promedio de n muestras independientes de la misma
variable X?”
•
Se conoce como la ley débil debido a que existe una versión
fuerte, conforme el número n de muestras tiende a infinito.
•
Antes de revisar este importante resultado es necesario
estudiar la desigualdad de Chebyshev.
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Desigualdad de Chebyshev
•
Dada una variable aleatoria X con promedio cero cuyos
valores, positivos o negativos, son xi con probabilidades
p(i), considere la suma:E {X 2 }= ! xi2 p(i )
i
•
Ahora de esa suma, excluya aquellos valores que están a
una distancia ε del promedio (origen).
{ } # x p(i )" ! # p(i )= ! P{x
E X2 "
2
i
xi "!
Introducción a la Probabilidad
2
2
i
xi "!
" !}
Francisco Rodríguez Henríquez
Desigualdad de Chebyshev
•
Por lo que,
•
Razonando de la misma manera se puede demostrar que:
[ ]
P{xi # ! }" E X 2 / ! 2
P{x $ !" }# E [X ]/(!" )
2
2
i
•
Tomando en cuenta que el promedio es cero se llega al
resultado conocido como la desigualdad de Chebyshev,
1
P{xi $ "! }# 2
!
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Ley débil de números grandes
•
Regresando a la pregunta inicial: “¿Cuál es el valor
esperado del promedio de n muestras independientes de la
misma variable X?”, considere el experimento el el cual se
han tomado n muestras independientes de una variable
aleatoria X, obteniendo valores xi.
•
Suponga que las n muestras corresponden a n variables
aleatorias Xi, (i=1,2,…,n). Definimos la función promedio
S(n)/n tal que, S(n) = [X1 +X2 +…+Xn]/n.
Pregunta: ¿Cuál es el valor esperado y variancia del promedio?
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Ley débil de números grandes
Pregunta: ¿Cuál es el valor esperado y variancia del promedio
de n muestras?
E{S (n )/ n}= [E{X 1}+ L + E{X n }]/ n = [ µ + µ + µ + L + µ ] / n = µ
Es decir que el valor esperado del promedio de n muestras es
exactamente el valor esperado de la variable aleatoria
original X.
Para hallar la varianza del promedio de n muestras con
promedio cero, se tiene,
V {S (n )/ n}= [V {X 1}+ L + V {X n }]/ n 2 = n! 2 / n 2 = ! 2 / n
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Ley débil de números grandes
Utilizando el resultado anterior y la desigualdad de Chebyshev
se tiene que:
P{S (n) / n % µ $ ! }# E [( S (n) / n)] / ! 2 # " 2 / n! 2
2
Este es el resultado buscado. La probabilidad que el promedio
de n independientes muestras de una variable aleatoria X
difiera de su valor µ esperado por más que una constante
arbitraria prefijada ε es controlada por la función de la
derecha.
Equivalentemente escribimos,
Introducción a la Probabilidad
P{S / n ! µ < k# }" 1 ! 1 / k
2
Francisco Rodríguez Henríquez
Ley débil de números grandes
Tres mitos de la ley débil de números grandes:
1.
Esta ley no dice que una mala (o buena) racha de valores que
significativamente se desvían del valor esperado será
compensada con futuros experimentos: esta ley NO tiene
memoria, asume independencia en las muestras.
2.
La ley no dice que el valor esperado estará cerca del promedio
para un número suficiente de muestras. La ley dice que
probablemente estaremos cerca.
3.
La ley es una desigualdad no una aproximación. Puede ocurrir
que la estimación sea de pobre calidad (considere el caso k = 1
en la última ecuación).
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Teorema del límite Central
Acaso el teorema del límite central sea el resultado más famoso, el
más celebrado de la teoría de la probabilidad. En su forma
más simple, puede ser formulado como sigue:
“Sea X1,…,Xn una secuencia de variables aleatorias
independientes, idénticamente distribuidas, cada una con
promedio µ y varianza σ2. Defina entonces
Donde,
X 1 + L + X n " nµ X n " µ
Zn =
=
! n
!/ n
1 n
1
X n = ! X i = (X 1 + L + X n )
n i =1
n
Entonces
”
Introducción a la Probabilidad
lím = N (0;1)
n "!
Francisco Rodríguez Henríquez
Métodos de Montecarlo
Experimento: Sean X1, X2,…,Xn una muestra de variable aleatoria
Bernoulli X con promedio µ y varianza σ2. ¿Cuántas
muestras de X deben ser tomadas si se quiere que la
probabilidad que el valor esperado del promedio de las
muestras no se desvíe de su valor teórico µ por más de σ
/10?
En una variable aleatoria Bernoulli, se tiene que: µ = p;
σ2 =(0- µ)2(1-p)+(1- µ)2p=p2(1-p)+(1-p)2p=p-p2=p(1-p). Si
hacemos,
µ = p=1/2; implica σ2 =1/4.
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Métodos de Montecarlo
Utilizando la ley débil de números grandes se tiene:
P{S (n) / n % µ $ ! }# " 2 / n! 2
Sustituyendo los valores pedidos se llega a:
$2
100
P{S (n) / n # 1 / 2 " $ / 10}!
=
2
n
n($ / 10 )
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Métodos de Montecarlo
Experimento: Utilizando
un generador de
números aleatorios,
se asigna a los
valores por encima
de ½ el valor de 1 y
a los otros el valor
de 0.
Introducción a la Probabilidad
n
exp 1
desv
σ/10
100/n
100
45
-0.05
0.05
1
200
106
0.03
0.05
0.5
400
173
0.07
0.05
0.25
800
0.05
0.125
1000
0.05
0.1
1200
0.05
0.083
1400
0.05
0.071
2000
0.05
0.05
Francisco Rodríguez Henríquez
Problema del Chevalier de Mere
Problema:
Se dice que el Chevalier de Mere retó por
correspondencia a sus buenos amigos y mejores matemáticos,
Pierre de Fermat y Blas Pascal a mediados del ancestral siglo
XVII. El reto consistía en calcular cuál probabilidad de éxito
era más alta entre los siguientes dos experimentos:
1. La probabilidad de obtener al menos un 6 tras tirar 4
veces un solo dado o;
2. La probabilidad de obtener un doble seis tras tirar 24
veces dos dados.
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Problema del Chevalier de Mere
La probabilidad de no obtener un seis en 4 intentos es (1-1/6)4, por
lo que la probabilidad de obtener al menos un seis es, 1- (11/6)4 =0.517.
La probabilidad de obtener al menos un doble seis en 24 intentos es,
1-(1-1/36)24 = 1-(35/36)24 =0.49140 [¿Cómo se compara este
resultado con la distribución binomial?]
Se sabe que el chevalier de mere conocía la respuesta correcta.
Suponiendo que no sabía nada de probabilidad, ¿cuántos dados
tuvieron que ver rodar los cansados ojos del chevalier de mere
para penosamente obtener ese resultado de manera empírica?
Introducción a la Probabilidad
Francisco Rodríguez Henríquez
Problema del Chevalier de Mere
Considere la diferencia del promedio de ambos experimentos, esto
es, Δ=0.51775-0.49140=0.02635. Suponga que permitimos una
tolerancia de la mitad de ese valor, esto es, ε=0.0132.
Por lo que se tiene que:
$2
100
P{[ Exp1 # Exp 2] # µ " $ / 10}!
=
2
n
n($ / 10 )
Lo cual implica que se necesitan
100
n=
! 7576 experimentos
"
[¡Note que un experimento consiste en tirar 4 veces un dado y 24
veces dos dados!]
Introducción a la Probabilidad
Francisco Rodríguez Henríquez