Download Variable aleatoria: definiciones básicas
Document related concepts
no text concepts found
Transcript
Variable aleatoria: definiciones básicas Introducción a la Probabilidad Francisco Rodríguez Henríquez Variable Aleatoria • Hasta ahora hemos discutido eventos elementales y sus probabilidades asociadas [eventos discretos] • Considere ahora la idea de asignarle un valor al resultado de un evento Ejemplo: Considere una vez más el evento de tirar dos dados. Entonces la suma de los resultados de ambos dados, el cual es un valor k tal que k Є [2, 12] puede definirse como una variable aleatoria S. Utilizaremos la siguiente notación: Pr{S=k} Introducción a la Probabilidad Francisco Rodríguez Henríquez Variable Aleatoria • Se entiende que S es una variable aleatoria que puede tomar valores entre 2 y 12 con diversas probabilidades. • Más técnicamente S es visto como una función sobre los subconjuntos del espacio de muestreo y Pr{S=k} representa la suma de las probabilidades de todos los resultados a los que les corresponde la suma k. Nota: No se preocupe si la idea es un poco difusa al principio, quedara más clara con los ejemplos. Introducción a la Probabilidad Francisco Rodríguez Henríquez Variable Aleatoria • Normalmente, estaremos interesados en conocer la distribución que la variable aleatoria S, la cual toma valores enteros k = 0, 1, …, n con probabilidades P(k) = Pr(K = k) • Generalmente, necesitaremos definir un conjunto de atributos que sumaricen las descripciones de la distribución de la variable aleatoria. Introducción a la Probabilidad Francisco Rodríguez Henríquez Valor esperado • El primer valor que sumariza el comportamiento de una variable aleatoria es el valor esperado, definido como: n ! kp(k )= 0 p(0) + 1 p(1) + 2 p(2) + L + np(n) = µ k =0 • Intuitivamente, el promedio mide la posición del “centro de la distribución” • También se conoce al promedio como el valor esperado de la variable aleatoria, o de la distribución de ésta. Introducción a la Probabilidad Francisco Rodríguez Henríquez Valor esperado Ejemplo: Promedio de tirar un dado. • Tirar un dado puede resultar en obtener cualquiera de los 6 valores 1, 2, 3, 4, 5, 6 cada uno con probabilidad 1/6. • Entonces el promedio está dado por: 1 1 µ = [1 + 2 + 3 + 4 + 5 + 6]= [6 ! 7 / 2]= 3.5 6 6 • Note que el promedio no es ninguno de los resultados legales de un dado Introducción a la Probabilidad Francisco Rodríguez Henríquez Valor esperado Ejemplo: Promedio de un volado. • Si se le asigna los valores, águila = 0, sol = 1, entonces el valor esperado de tirar un dado (con probabilidad p=1/2) es: 1 1 µ = [1 + 0]= 2 2 Sin embargo si asignamos águila = -1, sol = 1, el valor esperado sería µ= Introducción a la Probabilidad 1 [! 1 + 1]= 0 2 Francisco Rodríguez Henríquez Valor esperado: definición formal Dada una variable X, cuyos resultados tienen probabilidades p(i) para los valores xi (i=1, 2,…, n), entonces el valor esperado de la variable aleatorio X se define como: n E{X }= ! xi p(i ) i =1 El valor esperado toma cada posible valor xi y lo pesa por su probabilidad p(i). El valor esperado es un operador lineal Introducción a la Probabilidad Francisco Rodríguez Henríquez Valor esperado: definición formal Muchas veces conviene ordenar los pares (xi, f(xi)) en forma tabular, x x1 x2 x3 …. xn f(x) f(x1) f(x2) f(x3) … f(xn) n E{X }= ! xi p(i ) i =1 Introducción a la Probabilidad Francisco Rodríguez Henríquez Promedio: producto de dos variables • Valor esperado del producto de dos variables aleatorias independientes X, Y. E{XY }= ! kp(XY = k ) = !! xi y j p X (i ) pY ( j ) = k i j ! x p (i )! y p ( j )= E{X }E{Y } i i X j Y j Introducción a la Probabilidad Francisco Rodríguez Henríquez Promedio: suma de dos variables • Valor esperado de la suma de dos variables aleatorias independientes X, Y. E{X + Y }= ! (xi + yi )p(i, j ) = ! xi ! p(i, j )+ ! y j ! p(i, j ) = i j j i ! x p (i )+ ! y p ( j )= E{X }+ E{Y } i i X j Y j • Lo cual implica que: • En general, el valor esperado es un operador lineal, esto es, Introducción a la Probabilidad E{X + Y }= E{X }+ E{Y } E{aX + bY }= aE{X }+ bE{Y } Francisco Rodríguez Henríquez Promedio • Suma de variables aleatorias Xi. E {! ci X i }= ! ci E{X i } • Producto de variables aleatorias independientes ' $ E &! [X i ]# = ! [E{X i }] % i " i Introducción a la Probabilidad Francisco Rodríguez Henríquez Varianza • Si el promedio nos indica dónde está el centro de nuestra distribución, la varianza explica cuál es la dispersión de una determinada distribución probabilística. 2 Varianza{X }= V {X }= # (xi " µ ) p(i ) = ! 2 i • Es fácil demostrar que: V {c}= 0;V {cX }= c 2V {X } Introducción a la Probabilidad Francisco Rodríguez Henríquez Varianza de un dado • Recuerde que el valor esperado de un dado es E{X}=7/2. Para los 6 valores del dado, las diferencias de Xi con µ son: -5/2, -3/2, -1/2, ½, 3/2, 5/2 • Debemos elevar al cuadrado las diferencias, multiplicarlas por las probabilidades pi y sumarlas: V{dado} = (1/6)[25+9+1+1+9+25]/4=70/24=35/12 • Note que un método alternativo es: 2 1 6 2 '7$ V {dado}= ( i ! % " = 91 / 6 ! 49 / 4 = 35 / 12 6 i =1 &2# Introducción a la Probabilidad Francisco Rodríguez Henríquez Ejemplo de valor esperado y varianza Ejemplo: Sean X, Y dos variables aleatorias del espacio de muestreo formado por los posibles resultados de tirar dos dados, de tal manera que siendo a, b tales resultados entonces: X(a, b) = max(a, b) y Y(a, b) = a + b. Note que si f es la distribución de probabilidad de X, entonces, f(1) = 1/36 (La unica posibilidad que el máximo sea 1 es que los dados hayan caído en (1,1). Similarmente, los tres resultados (1,2), (2,1), (2,2) hacen que f(2) = 3/36. Introducción a la Probabilidad Francisco Rodríguez Henríquez Ejemplo de valor esperado y varianza En general, se tiene que x 1 2 3 4 5 6 f(x) 1/36 3/36 5/36 7/36 9/36 11/36 E ( X ) = ! xf (x ) = 4.47 i ( ) E X 2 = ! x 2 f (x ) = 21.97 i ( ) Var (x ) = " X2 = E X 2 ! µ X2 = 1.99 ! X = 1.4 Introducción a la Probabilidad Francisco Rodríguez Henríquez Ejemplo de valor esperado y varianza La distribución g de la variable aleatoria Y sería como sigue: y g(y) 2 3 4 5 6 7 8 9 10 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 11 12 2/36 1/36 E (Y ) = ! yg (y ) = 7 i ( ) E Y 2 = ! y 2 g (yi ) = 54.83 i ( ) Var (y ) = " Y2 = E Y 2 ! µY2 = 5.83 ! Y = 2.4 Introducción a la Probabilidad Francisco Rodríguez Henríquez Variable aleatoria en el dominio continuo Introducción a la Probabilidad Francisco Rodríguez Henríquez Variable Aleatoria continua Definición: La función de distribución acumulativa (cdf) de X se define como: FX (x ) = P(X # x ), " ! < x < ! Con las siguientes propiedades: 0 ! FX (x )! 1 1. 3. FX (x1 )! FX (x2 ) if x1 < x2 lim FX (x ) = FX (! ) = 1 4. lim FX (x ) = FX (" ! ) = 0 2. 5. x "! x # "! ( ) lim+ FX (x ) = FX a + = FX (a ) x"a Introducción a la Probabilidad a + = lim a + ! 0 <! " 0 Francisco Rodríguez Henríquez Variable Aleatoria continua equivalentemente, podemos determinar la probabilidad de ciertos eventos en función de la cdf. 1. P(X > a ) = 1 ! FX (a ) 2. P(a < X " b ) = FX (b )! FX (a ) 3. P(X < b )= FX b - () Introducción a la Probabilidad b " = lim b " ! 0 <! # 0 Francisco Rodríguez Henríquez Variable Aleatoria Definición: Sea X una variable aleatoria con cdf FX(x). Si FX(x) es continua y si tiene existe su derivada dFX(x)/dx como una función continua para toda x, excepto quizás por un número finito de puntos, entonces se dice que X es una variable aleatoria continua. De esta manera, si X es una variable aleatoria continua, entonces, P(X = x) = 0 Introducción a la Probabilidad Francisco Rodríguez Henríquez Variable Aleatoria: función de densidad de probabilidad Definición: Sea f (x ) = dFX (x ) X dx La función fX(x) es conocida como la función de densidad de probabilidad de la variable aleatoria continua X. Con las siguientes propiedades: 1. 2. 3. 4. 5. f X (x )! 0 ! " #" f X (x )dx = 1 fX(x) es una función continua bien comportada b P(a < X " b ) = ! f X (x )dx a x FX (x ) = P(X % x ) = " f X (! )d! $# Introducción a la Probabilidad Francisco Rodríguez Henríquez Variable Aleatoria: Promedio y variancia Definición: El valor esperado (promedio) de una variable aleatoria está dado como: $& xk p X (xK ) X : discreta ! µ X = E (X ) = # k' !" %(' xf X (x )dx X : continua Definición: La varianza de una variable aleatoria se define como: $' (xk % µ X )2 p X (xK ) X : discreta ! ) X2 = # k( 2 !& (x % µ X ) f X (x )dx X : continua " %( Introducción a la Probabilidad Francisco Rodríguez Henríquez Varianza • Note también que: { } { } V {X }= E X 2 ! 2 µE{X }+ µ 2 = E X 2 ! E 2 {X } • Es fácil probar que en el caso de la suma de variables aleatorias independientes Xi, la varianza es lineal: V {! X i }= ! V {X i } Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribuciones de Probabilidad famosas Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Uniforme Una variable aleatoria X es llamada variable aleatoria uniforme sobre el rango (a, b), si su pdf está dado por: $! 1 f X (x ) = # b % a !" 0 a< x<b de otra manera a+b µ X = E (X ) = 2 " 2X Introducción a la Probabilidad 2 ( b ! a) = 12 Francisco Rodríguez Henríquez Distribución Uniforme Una variable aleatoria X es llamada variable aleatoria uniforme sobre el rango (a, b), si su pdf está dado por: $! 1 f X (x ) = # b % a !" 0 a< x<b de otra manera a+b µ X = E (X ) = 2 " 2X Introducción a la Probabilidad 2 ( b ! a) = 12 Francisco Rodríguez Henríquez Distribución Uniforme Una variable aleatoria X es llamada variable aleatoria uniforme sobre el rango (a, b), si su pdf está dado por: $! 1 f X (x ) = # b % a !" 0 a< x<b de otra manera a+b µ X = E (X ) = 2 " 2X Introducción a la Probabilidad 2 ( b ! a) = 12 Francisco Rodríguez Henríquez Distribución Bernoulli Una variable aleatoria X es llamada variable aleatoria Bernoulli con parámetro p si, k 1!k p X (k ) = P(X = k ) = p (1 ! p ) , k = 0,1 La distribución Bernoulli modela experimentos en que el resultado sólo puede ser éxito o fracaso. El ejemplo tradicional es tirar volados. µ X = E (X ) = p " 2X = p(1 ! p ) Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Binomial Una variable aleatoria X es llamada variable aleatoria binomial con parámetros (n, p) si, 'n$ n!k p X (k ) = P(X = k ) = %% "" p k (1 ! p ) &k # k = 0,1, K , n La distribución binomial modela el número total de exitos tras varios intentos hechos sobre una población infinita bajo los siguientes supuestos: • Únicamente dos resultados puede ocurrir en cada intento. • La probabilidad de éxito en cada intento es constante e independiente de otros intentos. James Bernoulli derivó la distribución binomial en 1713 (Ars Conjectandi). Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Binomial µ X = E (X ) = np " 2X = np(1 ! p ) Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución binomial Bernoulli k b(k ; n, p ) = C (n, k ) p q n!k ' n $ k n!k = %% "" p q &k # N = 10; P= 2/3. Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución binomial Bernoulli k b(k ; n, p ) = C (n, k ) p q Introducción a la Probabilidad n!k ' n $ k n!k = %% "" p q &k # Francisco Rodríguez Henríquez Comportamiento asintótico de la ley binomial Suponga que en la función binomial b(k;n, p), n >>1, p << 1, pero de tal manera que np permanece constante, digamos, np = a. n(k " % n " % 1 a n(k Dado que q = 1-p, se tiene que: $ ' p k (1( p) ) a k $1( ' #k& k! # n& Donde n( n "1)L ( n " k + 1) # n k si n es suficientemente grande y si k está ! cuando n " #, p " 0,k << n fijo. De aquí que en el límite se tiene, ! ! n#k 1 k$ a ' a k #a b( k;n, p) " a &1# ) * e k! % n ( k! Introducción a! la Probabilidad Francisco Rodríguez Henríquez Binomial asintótica = Poisson Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Poisson La distribución de Poisson es una distribución de probabilidad discreta. Expresa la probabilidad que un número de eventos ocurra en un tiempo fijo suponiendo que: a. Los eventos ocurren a una razón [velocidad] conocida. b. La ocurrencia de eventos es independiente de cuándo ocurrió el último evento. Poissonfrancés = pescado Poisoninglés = Veneno Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Poisson λ = 1,3, 5, 10 "k e# " P[x = k] = k! µ X = E (X ) = ! ! Introducción a la Probabilidad " 2X = ! Francisco Rodríguez Henríquez Distribución Poisson λ = 1,3, 5, 10 "k e# " P[x = k] = k! µ X = E (X ) = ! ! Introducción a la Probabilidad " 2X = ! Francisco Rodríguez Henríquez Poisson asintótica = Gaussiana Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Exponencial Una variable aleatoria X es llamada variable aleatoria exponencial con parámetro λ>0 si, #%e $ %x x > 0 • • • f X (x ) = " ! 0 x<0 La distribución exponencial es especial porque modela eventos que ocurren aleatoriamente en el tiempo. La principal aplicación es en el estudio de tiempos de vida útil de componentes Quizás la propiedad más interesante de la distribución exponencial es su característica de “amnesia”. Por ejemplo, si un componente tiene un tiempo de vida útil distribuido exponencialmente, entonces un item que ha funcionado por horas es tan bueno como un item nuevo Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Exponencial Una variable aleatoria X es llamada variable aleatoria exponencial con parámetro λ>0 si, #%e $ %x f X (x ) = " ! 0 µ X = E (X ) = x>0 x<0 1 ! 1 "X = 2 ! 2 Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Exponencial Una variable aleatoria X es llamada variable aleatoria exponencial con parámetro λ>0 si, #%e $ %x f X (x ) = " ! 0 µ X = E (X ) = x>0 x<0 1 ! 1 "X = 2 ! 2 Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Exponencial Una variable aleatoria X es llamada variable aleatoria exponencial con parámetro λ>0 si, #%e $ %x f X (x ) = " ! 0 µ X = E (X ) = x>0 x<0 1 ! 1 "X = 2 ! 2 Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Normal o Gaussiana Una variable aleatoria X es llamada variable aleatoria normal (guassiana) si su pdf está dado por, 1 # (x # µ )2 / (2! 2 ) f X (x ) = e 2"! • La distribución gaussiana es la reina de las distribuciones. En este universo, la naturaleza se comporta gaussianamente. • El teorema del límite central garantiza que cualquier otra distribución se comporta como una gaussiana cuando se hacen un número suficiente de experimentos: “la suma de muestras independientes para cualquier distribución con valor esperado y varianzas finitos converge a la distribución normal conforme el tamaño de muestras tiende a infinito”. • El primer uso de la distribución normal fue la de hacer una aproximación continua a la distribución binomial. Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Normal o Gaussiana Una variable aleatoria X es llamada variable aleatoria normal (guassiana) si su pdf está dado por, 1 # (x # µ )2 / (2! 2 ) f X (x ) = e 2"! µ X = E (X ) = µ ! 2X = ! 2 Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Normal o Gaussiana Una variable aleatoria X es llamada variable aleatoria normal (guassiana) si su pdf está dado por, 1 # (x # µ )2 / (2! 2 ) f X (x ) = e 2"! µ X = E (X ) = µ ! 2X = ! 2 Introducción a la Probabilidad Francisco Rodríguez Henríquez Distribución Normal o Gaussiana • Se usa la notación N(µ; σ2) para denotar que la variable aleatoria X es normal con promedio µ y varianza σ2. • A una variable aleatoria normal Z con promedio cero y varianza 1 se le llama variable aleatoria normal estándar: f X (x ) = • 1 "(x )2 / 2 e ! N (0;1) 2# Como se ha mencionado, la distribución normal es la más utilizada en el estudio de fenómenos aleatorios, pues ocurre con harta frecuencia en una amplísima variedad de fenómenos de la naturaleza Introducción a la Probabilidad Francisco Rodríguez Henríquez Ruido Gaussiano µ X = E (X ) = µ ! 2X = ! 2 1 # (x # µ )2 / (2! 2 ) f X (x ) = e 2"! Introducción a la Probabilidad Francisco Rodríguez Henríquez La ley débil de números grandes Introducción a la Probabilidad Francisco Rodríguez Henríquez Ley débil de números grandes • La ley débil de números grandes es uno de los resultados más importantes de la probabilidad, además de ser el fundamento teórico de la estadística. • Contesta la pregunta: “¿Cuál es el valor esperado del promedio de n muestras independientes de la misma variable X?” • Se conoce como la ley débil debido a que existe una versión fuerte, conforme el número n de muestras tiende a infinito. • Antes de revisar este importante resultado es necesario estudiar la desigualdad de Chebyshev. Introducción a la Probabilidad Francisco Rodríguez Henríquez Desigualdad de Chebyshev • Dada una variable aleatoria X con promedio cero cuyos valores, positivos o negativos, son xi con probabilidades p(i), considere la suma:E {X 2 }= ! xi2 p(i ) i • Ahora de esa suma, excluya aquellos valores que están a una distancia ε del promedio (origen). { } # x p(i )" ! # p(i )= ! P{x E X2 " 2 i xi "! Introducción a la Probabilidad 2 2 i xi "! " !} Francisco Rodríguez Henríquez Desigualdad de Chebyshev • Por lo que, • Razonando de la misma manera se puede demostrar que: [ ] P{xi # ! }" E X 2 / ! 2 P{x $ !" }# E [X ]/(!" ) 2 2 i • Tomando en cuenta que el promedio es cero se llega al resultado conocido como la desigualdad de Chebyshev, 1 P{xi $ "! }# 2 ! Introducción a la Probabilidad Francisco Rodríguez Henríquez Ley débil de números grandes • Regresando a la pregunta inicial: “¿Cuál es el valor esperado del promedio de n muestras independientes de la misma variable X?”, considere el experimento el el cual se han tomado n muestras independientes de una variable aleatoria X, obteniendo valores xi. • Suponga que las n muestras corresponden a n variables aleatorias Xi, (i=1,2,…,n). Definimos la función promedio S(n)/n tal que, S(n) = [X1 +X2 +…+Xn]/n. Pregunta: ¿Cuál es el valor esperado y variancia del promedio? Introducción a la Probabilidad Francisco Rodríguez Henríquez Ley débil de números grandes Pregunta: ¿Cuál es el valor esperado y variancia del promedio de n muestras? E{S (n )/ n}= [E{X 1}+ L + E{X n }]/ n = [ µ + µ + µ + L + µ ] / n = µ Es decir que el valor esperado del promedio de n muestras es exactamente el valor esperado de la variable aleatoria original X. Para hallar la varianza del promedio de n muestras con promedio cero, se tiene, V {S (n )/ n}= [V {X 1}+ L + V {X n }]/ n 2 = n! 2 / n 2 = ! 2 / n Introducción a la Probabilidad Francisco Rodríguez Henríquez Ley débil de números grandes Utilizando el resultado anterior y la desigualdad de Chebyshev se tiene que: P{S (n) / n % µ $ ! }# E [( S (n) / n)] / ! 2 # " 2 / n! 2 2 Este es el resultado buscado. La probabilidad que el promedio de n independientes muestras de una variable aleatoria X difiera de su valor µ esperado por más que una constante arbitraria prefijada ε es controlada por la función de la derecha. Equivalentemente escribimos, Introducción a la Probabilidad P{S / n ! µ < k# }" 1 ! 1 / k 2 Francisco Rodríguez Henríquez Ley débil de números grandes Tres mitos de la ley débil de números grandes: 1. Esta ley no dice que una mala (o buena) racha de valores que significativamente se desvían del valor esperado será compensada con futuros experimentos: esta ley NO tiene memoria, asume independencia en las muestras. 2. La ley no dice que el valor esperado estará cerca del promedio para un número suficiente de muestras. La ley dice que probablemente estaremos cerca. 3. La ley es una desigualdad no una aproximación. Puede ocurrir que la estimación sea de pobre calidad (considere el caso k = 1 en la última ecuación). Introducción a la Probabilidad Francisco Rodríguez Henríquez Teorema del límite Central Acaso el teorema del límite central sea el resultado más famoso, el más celebrado de la teoría de la probabilidad. En su forma más simple, puede ser formulado como sigue: “Sea X1,…,Xn una secuencia de variables aleatorias independientes, idénticamente distribuidas, cada una con promedio µ y varianza σ2. Defina entonces Donde, X 1 + L + X n " nµ X n " µ Zn = = ! n !/ n 1 n 1 X n = ! X i = (X 1 + L + X n ) n i =1 n Entonces ” Introducción a la Probabilidad lím = N (0;1) n "! Francisco Rodríguez Henríquez Métodos de Montecarlo Experimento: Sean X1, X2,…,Xn una muestra de variable aleatoria Bernoulli X con promedio µ y varianza σ2. ¿Cuántas muestras de X deben ser tomadas si se quiere que la probabilidad que el valor esperado del promedio de las muestras no se desvíe de su valor teórico µ por más de σ /10? En una variable aleatoria Bernoulli, se tiene que: µ = p; σ2 =(0- µ)2(1-p)+(1- µ)2p=p2(1-p)+(1-p)2p=p-p2=p(1-p). Si hacemos, µ = p=1/2; implica σ2 =1/4. Introducción a la Probabilidad Francisco Rodríguez Henríquez Métodos de Montecarlo Utilizando la ley débil de números grandes se tiene: P{S (n) / n % µ $ ! }# " 2 / n! 2 Sustituyendo los valores pedidos se llega a: $2 100 P{S (n) / n # 1 / 2 " $ / 10}! = 2 n n($ / 10 ) Introducción a la Probabilidad Francisco Rodríguez Henríquez Métodos de Montecarlo Experimento: Utilizando un generador de números aleatorios, se asigna a los valores por encima de ½ el valor de 1 y a los otros el valor de 0. Introducción a la Probabilidad n exp 1 desv σ/10 100/n 100 45 -0.05 0.05 1 200 106 0.03 0.05 0.5 400 173 0.07 0.05 0.25 800 0.05 0.125 1000 0.05 0.1 1200 0.05 0.083 1400 0.05 0.071 2000 0.05 0.05 Francisco Rodríguez Henríquez Problema del Chevalier de Mere Problema: Se dice que el Chevalier de Mere retó por correspondencia a sus buenos amigos y mejores matemáticos, Pierre de Fermat y Blas Pascal a mediados del ancestral siglo XVII. El reto consistía en calcular cuál probabilidad de éxito era más alta entre los siguientes dos experimentos: 1. La probabilidad de obtener al menos un 6 tras tirar 4 veces un solo dado o; 2. La probabilidad de obtener un doble seis tras tirar 24 veces dos dados. Introducción a la Probabilidad Francisco Rodríguez Henríquez Problema del Chevalier de Mere La probabilidad de no obtener un seis en 4 intentos es (1-1/6)4, por lo que la probabilidad de obtener al menos un seis es, 1- (11/6)4 =0.517. La probabilidad de obtener al menos un doble seis en 24 intentos es, 1-(1-1/36)24 = 1-(35/36)24 =0.49140 [¿Cómo se compara este resultado con la distribución binomial?] Se sabe que el chevalier de mere conocía la respuesta correcta. Suponiendo que no sabía nada de probabilidad, ¿cuántos dados tuvieron que ver rodar los cansados ojos del chevalier de mere para penosamente obtener ese resultado de manera empírica? Introducción a la Probabilidad Francisco Rodríguez Henríquez Problema del Chevalier de Mere Considere la diferencia del promedio de ambos experimentos, esto es, Δ=0.51775-0.49140=0.02635. Suponga que permitimos una tolerancia de la mitad de ese valor, esto es, ε=0.0132. Por lo que se tiene que: $2 100 P{[ Exp1 # Exp 2] # µ " $ / 10}! = 2 n n($ / 10 ) Lo cual implica que se necesitan 100 n= ! 7576 experimentos " [¡Note que un experimento consiste en tirar 4 veces un dado y 24 veces dos dados!] Introducción a la Probabilidad Francisco Rodríguez Henríquez