Download probabilidad
Document related concepts
no text concepts found
Transcript
PROBABILIDAD Asignatura Clave: FIM018 Número de Créditos: 5 Teóricos: 4 Prácticos: 1 Asesores Responsables: M. en A. Eduardo Suárez Mejía INSTRUCCIONES PARA OPERACIÓN ACADÉMICA: El sumario representa un reto. Los contenidos son los ejes temáticos. Los activos una orientación inicial para resolverlos y la síntesis concluyente como posibilidad de integración conceptual corresponderá a lo factible de un punto de vista temático amplio. La visión global de los asuntos resueltos como titular académico, te ofrecerá oportunidad de discusión que se enriquecerán en la medida que intensificas las lecturas, asistes a tu comunidad de estudio te sirves de los asesores y analizas la ciberinformación disponible posicionándote de los escenarios informativos adecuados. Los periodos de evaluación son herramientas de aprendizaje. Mantén informado al Tutor de tus avances académicos y estado de ánimo. Selecciona tus horarios de accesoria. Se recomienda al titular académico (estudiante) que al iniciar su actividad de dilucidación, lea cuidadosamente todo el texto guión de asignatura. Para una mejor facilitación. El documento lo presentamos en tres ámbitos: 1.- relación de las unidades. 2.- relación de activos. 3.- Principia Temática consistente en información inicial para que desarrolles los temas. COMPETENCIAS: Al finalizar el curso el estudiante podrá manejar la teoría de la probabilidad desde la perspectiva científico axiomática, para que a partir de aquí pueda diseñar experimentos matemáticos en el área del control estadístico de calidad. SUMARIO: En este curso se analizan los principios básicos de probabilidad, las técnicas de conteo y de combinatoria, las propiedades de las principales distribuciones de probabilidad así como la ley de los grandes números explicada en el teorema del límite central. PROBABILIDAD CONTENIDOS: UNIDAD I.- Conceptos Básicos de Probabilidad UNIDAD II.- Combinatoria Elemental UNIDAD III.- Distribuciones de Probabilidad UNIDAD IV.- Distribuciones de Probabilidad Discretas UNIDAD V.- Distribuciones Continuas UNIDAD VI.- Teorema del Límite Central ACTIVOS UNIDAD I Conceptos Básicos de Probabilidad I.1.- Conceptos Preliminares I.2.- Teoría básica de conjuntos I.3.- Algunas definiciones y propiedades I.4.- Conjunto Potencia I.5.- Conjunto Producto I.6.-Cardinalidad I.7.- Medidas de Probabilidad I.8.- Espacios Muestrales Discretos I.9.- Reglas para el Cálculo de Probabilidades I.10.- Regla de Producto I.11.- Probabilidad Condicional I.12.- Probabilidad Total y Regla de Bayes Actividad: 1. Which of the following is the sample space when 2 coins are tossed? {H, T, H, T} {H, T} {HH, HT, TH, TT} None of the above. RESULTS BOX: 2. At Kennedy Middle School, 3 out of 5 students make honor roll. What is the probability that a student does not make honor roll? 65% 40% 60% None of the above. RESULTS BOX: 3. A large basket of fruit contains 3 oranges, 2 apples and 5 bananas. If a piece of fruit is chosen at random, what is the probability of getting an orange or a banana? None of the above. RESULTS BOX: 4. A pair of dice is rolled. What is the probability of getting a sum of 2? None of the above. RESULTS BOX: 5. In a class of 30 students, there are 17 girls and 13 boys. Five are A students, and three of these students are girls. If a student is chosen at random, what is the probability of choosing a girl or an A student? None of the above. RESULTS BOX: 6. In the United States, 43% of people wear a seat belt while driving. If two people are chosen at random, what is the probability that both of them wear a seat belt? 86% 18% 57% None of the above. RESULTS BOX: 7. Three cards are chosen at random from a deck without replacement. What is the probability of getting a jack, a ten and a nine in order? None of the above. RESULTS BOX: 8. A city survey found that 47% of teenagers have a part time job. The same survey found that 78% plan to attend college. If a teenager is chosen at random, what is the probability that the teenager has a part time job and plans to attend college? 60% 63% 37% None of the above. RESULTS BOX: 9. In a school, 14% of students take drama and computer classes, and 67% take drama class. What is the probability that a student takes computer class given that the student takes drama class? 81% 21% 53% None of the above. RESULTS BOX: 10. In a shipment of 100 televisions, 6 are defective. If a person buys two televisions from that shipment, what is the probability that both are defective? None of the above. RESULTS BOX: UNIDAD II Combinatoria Elemental II.13.- Reglas Básicas II.14.- Permutaciones de un Conjunto II.15.- Combinaciones II.16.- Distribución de objetos indistinguibles II.17.- Propiedades Importantes Actividad: 1 Which of the following is a correct statement about a probability? A) It may range from 0 to 1. B) It may assume negative values. C) It may be greater than 1. D) It cannot be reported to more than 1 decimal place. E) All the above are correct. 2 An experiment is a A) Collection of events. B) Collection of outcomes. C) Always greater than 1. The act of taking a measurement or the observation of some activity. E) None of the above are correct. D) 3 Which of the following is not a type of probability? A) Subjective B) Independent C) Relative frequency D) Classical 4 Events are independent if A) By virtue of one event happening another cannot. B) The probability of their occurrence is greater than 1. C) We can count the possible outcomes. The probability of one event happening does not affect the D) probability of another event happening. E) None of the above. 5 The Special Rule of Addition is used to combine A) Independent events. B) Mutually exclusive events. C) Events that total more than one. D) Events based on subjective probabilities. E) Found by using joint probabilities. 6 We use the General Rule of Multiplication to combine A) Events that are not independent. B) Mutually exclusive events. C) Events that total more than 1.00. D) Events based on subjective probabilities. E) Found by using joint probabilities. 7 When we find the probability of an event happening by subtracting the probability of the event not happening from 1, we are using A) Subjective probability. B) The complement rule. C) The general rule of addition. D) The special rule of multiplication. E) Joint probability. 8 When we determine the number of combinations A) We are really computing a probability. B) The order of the outcomes is not important. C) The order of the outcomes is important. D) We multiply the likelihood of two independent trials. E) None of the above. 9 The difference between a permutation and a combination is: A) In a permutation, order is important and in a combination, it is not. In a permutation, order is not important and in a combination, it is B) important. C) A combination is based on the classical definition of probability. D) A permutation is based on the classical definition of probability. E) None of the above. 10 The Greater Bismarck, ND Accounting Association has 15 members, 10 of which are CPAs. The members are to be selected to study ways to increase membership. What is the probability all three selected are CPAs? A) .296 B) .264 C) .736 D) None of the above. UNIDAD III Distribuciones de Probabilidad III.18.- Preliminares III.19.- Definiciones Básicas III.20.- Parámetros en una Distribución III.21.- Función Generadora de Momentos Actividad: 1. Tres máquinas, A, B y C, producen el 45%, 30% y 25%, respectivamente, del total de las piezas producidas en una fábrica. Los porcentajes de producción defectuosa de estas máquinas son del 3%, 4% y 5%. Solucionar a través de Excel lo siguiente: a. Seleccionamos una pieza al azar; calcula la probabilidad de que sea defectuosa. b. Tomamos, al azar, una pieza y resulta ser defectuosa; calcula la probabilidad de haber sido producida por la máquina B. c. ¿Qué máquina tiene la mayor probabilidad de haber producido la citada pieza defectuosa? 2. Para tratar a un paciente de una afección de pulmón han de ser operados en operaciones independientes sus 5 lóbulos pulmonares. La técnica a utilizar es tal que si todo va bien, lo que ocurre con probabilidad de 7/11, el lóbulo queda definitivamente sano, pero si no es así se deberá esperar el tiempo suficiente para intentarlo posteriormente de nuevo. Se practicará la cirugía hasta que 4 de sus 5lóbulos funcionen correctamente. a) ¿Cuál es el valor esperado de intervenciones que se espera que deba padecer el paciente? b) ¿Cuál es la probabilidad de que se necesiten 10 intervenciones?. Solucionar a través de Excel. 3. La probabilidad de tener un accidente de tráfico es de 0,02 cada vez que se viaja, si se realizan 300 viajes, ¿cuál es la probabilidad de tener 3 accidentes?. Solucionar a través de Excel. 4. En un banco, el promedio de llegadas para hacer cola se rige por la ecuación de Poisson: P[n llegadas en le tiempo T] = Si existe un promedio de 6 llegadas aleatorias por hora, ¿Cuál es la probabilidad de que haya sólo 3 llegadas durante una hora? Solucionar a través de Excel. 5. El contenido de siete contenedores similares de ácido sulfúrico son 9.8, 10.2, 10.4, 9.8, 10.0, 10.2, y 9.6 litros. Encuentre un intervalo de confianza del 95% para la media de todos los contenedores si se supone una distribución aproximadamente normal. 6. La renta media de los habitantes de un país es de 4 millones de pesos/año, con una varianza de 1,5. Se supone que se distribuye según una distribución normal. Calcular en Excel: a) El porcentaje de la población con una renta inferior a 3 millones de ptas, b) La renta a partir de la cual se sitúa el 10% de la población con mayores ingresos y c) Los ingresos mínimo y máximo que engloba al 60% de la población con renta media. UNIDAD IV Distribuciones de Probabilidad Discretas IV.22.- Distribución de Probabilidad Binomial. IV.23.- Media y varianza IV.24.- Distribución de Poisson IV.25.- Distribución de probabilidad Hipergeométrica Actividad: The binomial experiment consists of n independent, identical trials, each of which results in either success or a failure and is such that the probability of success on any trial is the same. A) True B) False 2 A Poisson random variable is a continuous variable that can be used to describe the number of occurrences of an event over a specified interval of time or space. A) True B) False If p = .1 and n = 5, then the corresponding binomial distribution is _______________ A) right skewed. B) left skewed. C) symmetric. D) bimodal. 4 If p = .5 and n = 4, then the corresponding binomial distribution is ________________ A) right skewed. B) left skewed. C) symmetric. D) bimodal. 5 The requirement that the probability of success remains constant from trial to trial is a property of the binomial distribution. A) True B) False 6 If the number of surface nonconformities on a specific size of metal piece is the discrete random variable in question, then the appropriate probability distribution that can describe the probability of a specific size metal sheet containing 3 nonconformities is given most likely by binomial distribution. A) True B) False 7 Which of the following distributions can be used to solve the following problem? The average number of cars arriving at a drive-thru fast food restaurant is 3 in ten minutes. What is the probability that exactly 4 cars will arrive in a five-minute interval? A) Binomial B) Poisson C) Both of the above. D) None of the above. 8 The mean of the binomial distribution is equal to A) p. B) (n) (p). C) (1.0K) D) (n)(p)(1-p). E) (1.0K) 9 Which of the following is a valid probability value for a discrete random variable? A) .2 B) 1.01 C) -.7 D) All of the above. 0 Which one of the following is not an assumption of the binomial distribution? A) Each trial results in “success” or “failure.” B) The experiment consists of n identical trials. C) The probability of success changes from trial to trial. D) Trials are independent of each other. E) Each trial results in one of two mutually exclusive outcomes. UNIDAD V Distribuciones Continuas V.26.- La distribución Normal V.27.- ">Algunas Propiedades Importantes V.28.- Las distribuciones Gamma V.29.- La distribución de probabilidad exponencial Actividad: 1. A phone-in poll conducted by a newspaper reported that 73% of those who called in liked business tycoon Donald Trump. The unknown true percentage of American citizens that like Donald Trump is called a: A. statistic B. sample C. parameter D. population 2. A simple random sample of 50 undergraduates at Johns Hopkins University found that 60% of those sampled felt that drinking was a problem among college students. A simple random sample of 50 undergraduates at Ohio State University found that 70% felt that drinking was a problem among college students. The number of undergraduates at Johns Hopkins University is approximately 2000, while the number at Ohio State is approximately 40,000. Which of the following is the best conclusion regarding the above data? A. The sample from Johns Hopkins has much less sampling variability than that from Ohio State. B. The sample from Johns Hopkins has much more sampling variability than that from Ohio State. C. The sample from Johns Hopkins has almost the same sampling variability as that from Ohio State. D. It is impossible to make any statements about the sampling variability of the two samples since the students surveyed were different. 3. Using the above data, suppose the actual proportion of undergraduates at Johns Hopkins University who feel drinking is a problem among college students is 70%. The mean of the sampling distribution of the percentage that feel drinking is a problem in repeated simple random samples of 50 Johns Hopkins undergraduates is what? A. 50% B. 60% C. 65% D. 70% 4. The number of undergraduates at Johns Hopkins University is approximately 2000, while the number at Ohio State University is approximately 40,000. At both schools a simple random sample of about 3% of the undergraduates is taken. Which of the following is the best conclusion? A. The sample from Johns Hopkins has less sampling variability than that from Ohio State. B. The sample from Johns Hopkins has more sampling variability than that from Ohio State. C. The sample from Johns Hopkins has almost the same sampling variability as that from Ohio State. D. It is impossible to make any statements about the sampling variability of the two samples since the students surveyed were different. 5. What is a random variable? A. the particular sample obtained from simple random sampling B. a variable whose value is a numerical outcome of a random phenomenon C. any number that has an unknown and unpredictable value D. the particular variable selected by random sampling from an initial list of possible variables 6. Which of the following random variables would be considered continuous? A. the number of brothers a randomly chosen person has B. the time it takes for a randomly chosen woman to run 100 yards C. the number of cars owned by a randomly chosen adult male D. number of orders received by a mail order company in a randomly chosen week 7. The random variable X denotes the time taken for a computer link to be made between the terminal in an executive's office and the computer at a remote factory site. It is known that X has a normal distribution with mean 15 seconds and standard deviation 3 seconds. Choose the option closest to the value of P(X < 20). A. 0.548 B. 0.952 C. 0.048 D. 0.452 8. Let the random variable X represent the profit made on a randomly selected day by a certain store. Assume X is normal with a mean of $360 and standard deviation $50. The probability is approximately 0.6 that on a randomly selected day the store will make less than A. $347.40 B. $0.30 C. $361.30 D. $372.60 9. The normal distribution is a reasonably good approximation to the binomial distribution provided that A. np > 10 and n(1 - p) > 10 B. np > 10 and n(1 - p) < 10 C. np < 10 and n(1 - p) > 10 D. np < 10 and n(1 - p) < 10 (By the way, the reason why our estimates in class were so far off was that I forgot to use the adjustment moving from a descrete distribution (like the number of "heads") to the continuous Normal Distribution. For example, to estimate 6 or more "Heads", I would find the z score of 5.5 and see the area under the Normal Distribution greater than the z-score of 5.5) 10. Forty-eight percent of the students at a certain state university prefer the semester system over the quarter system. A survey is taken of 200 students (selected at random). Choose the option closest to the probability that more than half of these students prefer semesters. A. 0.3300 B. 0.5000 C. 0.2843 D. 0.7157 UNIDAD VI Teorema del Límite Central VI.30.- Desigualdades de Markov y Chebyshev VI.31.- Leyes de los Grandes Números VI.32.- El Teorema del Límite Central VI.33.- Aproximación Normal Binomial VI.34.- Estimadores VI.35.- Algunos Ejemplos Actividad: 1. Una agencia de encuestas de opinión quiere estimar con un nivel del 90% de confianza la proporción de ciudadanos que votarán por un determinado candidato dentro de ± 0.06 de la proporción real de votantes. ¿Cuál es el tamaño mínimo de la muestra requerido si otras encuestas indican que la proporción de votación por este candidato es 0.30? 2. Una muestra aleatoria de 30 empleados de una gran empresa dio como __ resultado una media X = $180 pesos por hora con una desviación estándar s = $14 pesos por hora. Estimar el intervalo de confianza para el promedio salarial de todos los empleados al 95% de confianza. 3. El ciclo medio de vida operativa de una muestra aleatoria de n = 10 focos es __ X = 4000 horas, con una desviación estándar s = 200 h. Se supone que el ciclo de vida operativa de los focos en general tiene una distribución aproximadamente normal. Estime el ciclo medio de vida operativa de la población de focos de la que fue tomada esta muestra, aplicando un intervalo de confianza de 95%. PROBABILIDAD PRINCIPIA TEMÁTICA I.1.- Dado que los lectores podrían no recordar algunos conceptos básicos se tratará de que esta sección constituya un punto de referencia que le permita refrescar los conocimientos indispensables para el desarrollo del resto del material. Esto no elimina la necesidad de que en el transcurso del estudio de estas notas debamos abordar aspectos periféricos importantes. I.2.- El estudio formal de la teoría de conjuntos no es el interés en estas notas, los resultados que se presentan son básicos y en la mayoría de los casos su demostración o justificación se dejará al lector. Si los temas le parecen conocidos pero no los recuerda bien, se recomienda al menos una lectura rápida. El estudio de la probabilidad está estrechamente ligado con el estudio particular de algunos conceptos sobre conjuntos que se discutirán en esta corta sección. En teoría de conjuntos los términos elemento, conjunto y pertenencia no se definen, se asume que de una u otra manera el lector tiene una idea al respecto. De hecho, cualquier intento por definir alguno de estos conceptos nos llevaría a definiciones circulares, es decir definiciones que reducen el concepto a un término que no es más que un sinónimo del mismo. Por ejemplo en [7] se define un conjunto como una colección de elementos distintos. Esta definición usa dos conceptos que no son claros: elemento y colección. Es usual que los conjuntos se representen por letras mayúsculas A, B, C,... y los elementos por letras minúsculas, a, b, c.... Se usa la notación xЄ A para indicar que el elemento x pertenece al conjunto A, es decir x es uno de los elementos de A. Si bien no existe un conjunto universal [7], usaremos el concepto de conjunto universal o universo restringiéndolo a dominios específicos. Por ejemplo, si hablamos de conjuntos de números enteros entonces el conjunto universo es el conjunto de los enteros. Esta simple aclaración nos facilitará la discusión de algunos de los conceptos que abordaremos posteriormente. Iniciaremos recordando el Principio de comprensión, sumamente importante en el estudio de los conjuntos. Si tenemos un conjunto universo, podemos pensar que cada uno de los elementos de este conjunto debe cumplir o satisfacer alguna condición para estar en ese conjunto y es usual que a los elementos que cumplan con esta condición que los caracteriza les digamos que son de cierto tipo. Por ejemplo si se tiran dos dados, uno azul y uno rojo y se anotan las caras que caen en cada uno de ellos, el conjunto de posibles resultados esta formado por 36 pares ordenados; ese conjunto, el universo para el experimento de tirar dos dados y registrar las caras que caen, tiene un tipo especial, digamos tipo resultado. Este principio nos permite garantizar que para todo tipo de elemento y para todo predicado siempre hay un subconjunto que cumple el predicado, este conjunto puede ser vacío. Otro principio importante es el Principio de extensión que permite establecer la igualdad entre conjuntos. I.3.- Algunas definiciones y propiedades Note que acorde con esta definición se cumple que un conjunto sin elementos, Φ es subconjunto de todo conjunto. Si Ω es un conjunto y A ⊂ Ω se define el conjunto complemento de A respecto a Ω por: ~A=Ω\A Las siguientes propiedades se enuncian sin demostración y resumen algunas de las más importantes acerca de las operaciones definidas previamente. Propiedades de la Unión • Conmutatividad • Asociatividad (A B) • Identidad A Φ = A. • Medio Excluido • Otras B=B A A. C=A =A (B C). (B C). A. A ⊆ AU B Propiedades de la Intersección • Conmutatividad A B=B • Asociatividad (A B) • Identidad A = A. • Contradicción A A = Φ. • Otras A B A. C=A A. Propiedades Conjuntas • • • Distributividad o A (B C) = (A B) (A C). o A (B C) = (A B) (A C). Leyes de De Morgan o (A B) = A B. o (A B) = A B Otras o A \ (B C) = (A \ B) (A \ C). o A \ (B C) = (A \ B) ( A \ C). I.4.- Un conjunto importante asociado con todo conjunto es el conjunto potencia o partes de. Así P( ) es un conjunto cuyos elementos son todos los subconjuntos de . I.5.- Si x y y son elementos, es posible agruparlos en una estructura que se llama par ordenado. Un par ordenado puede verse como un conjunto en cuya definición se refleja de manera clara la idea de dos elementos agrupados en un orden definido. La siguiente definición permite lograrlo. I.6.- Un concepto de vital importancia al estudiar probabilidad radica en la posibilidad de que dado un conjunto A, dentro de un universo , se pueda asignar a este conjunto alguna medida relativa al universo en el cual está inmerso. Existen teorías completas al respecto y si bien podrían ser bastante útiles en el desarrollo que haremos no profundizaremos en ninguna de ellas. Los conjuntos con los que trataremos se dividen en dos grandes grupos: discretos y continuos. En términos simples un conjunto contable (discreto) es aquel en el cual exista una manera de contar sus elementos, puede tener una cantidad finita o infinita de elementos, pero de alguna manera puede encontrarse una estrategia para contarlos. Por ejemplo los naturales son un conjunto discreto, de hecho son el conjunto que se utiliza para poder contar otros. Todo conjunto finito es contable, los enteros son un conjunto contable y los racionales también. Invitamos al lector a encontrar estrategias para contar los enteros y los racionales [8]. Para conjuntos discretos finitos la cardinalidad es una manera de asignarles una medida. A continuación listamos un conjunto de propiedades de la cardinalidad. Propiedades de Cardinalidad • Si AB • Si A • Si | A| = n • Si | A| = n, | B| = m | A| B=Φ |A | B| B| = | A| + | B| | P(A)| = 2n A×B|=mn (1.1) Cuando los conjuntos no son discretos el concepto de cardinalidad carece de sentido y se sustituye por el término de medibilidad, un concepto fuera de los objetivos de estas notas, no obstante hablaremos levemente de algunos términos necesarios en probabilidades. I.7.- Los siguientes resultados son sumamente importantes al tratar de formalizar lo que entenderemos por probabilidades. De alguna forma podríamos prescindir de algunas de estas definiciones y a pesar de ello aprender a resolver problemas que tienen que ver con la probabilidad, pero hemos decidido hacer esta sección suficientemente completa, pues muchos de los estudiantes a los cuales están dirigidas estas notas aprecian el formalismo como una excelente alternativa para luchar contra la imprecisión que puede venir del exceso de informalidad. I.8.- Espacios Muestrales Discretos Las siguientes definiciones constituyen un punto de partida importante para iniciar el estudio de la materia que nos interesa. De hecho constituyen caracterizaciones operacionales de los tipos de probabilidad discutidos, en la sección introductoria. Ejemplo 1 Se lanza un par de dados que no están cargados y se registra la suma de las caras. Determine la probabilidad del evento T : la suma de los números en ambas caras es 6. Solución En este caso, por (1.1) hay 36 posibles resultados, de los cuales (3, 3), (1, 5), (5, 1), (2, 4) y (4, 2) suman 6 así: Ejemplo 2 P[T] = En una caja hay 4 libros de inglés y 3 de ruso. Se escoge al azar un libro de la caja. ¿Cuál es la probabilidad de que el libro escogido sea de ruso? Solución Sea R el evento se escoge un libro de Ruso. Hay 3 casos en los cuales al escoger el libro resulta ser de ruso y un total de 7 escogencias por lo tanto: P[R] = Funciones de Probabilidad Las definiciones (10) y (11), caracterizan la probabilidad de un evento en términos de la frecuencia relativa. La primera permite la asignación de una medida de probabilidad a un evento mediante la experimentación. La segunda es mucho más clara y en el sentido operacional es aceptable, pero requieren que el espacio muestral sea finito. Por otro lado la afirmaciones de que "los resultados pueden ocurrir igualmente, y son mutuamente excluyentes", difícilmente pueden ser demostradas, y es usual que no se cumplan. Esa no es una limitación importante pues esta última definición puede generalizarse para que permita caracterizar cualquier probabilidad. No obstante se hace necesario establecer algunas condiciones a la colección de todos los eventos del espacio muestral. Dado un espacio muestral , se asume que la familia cumple las siguientes propiedades: • Se tiene que Φ y • Si A • Si A1, A2, A3,... son elementos de , entonces de todos los eventos . . A , también lo es Ai. Cualquier conjunto que cumpla con las propiedades anteriores se llama una álgebra. - Con estas propiedades se puede demostrar con alguna facilidad los siguientes hechos, referimos al lector interesado a [2]: • Si los eventos A1, A2, A3,... son elementos de • La unión finita de eventos de • Si A y B están es está en , también lo es A i. . también lo está A \B. Una función de probabilidad definida sobre la -álgebra de todos los eventos de un espacio muestral , debe cumplir las siguientes propiedades: • 0 P[A] para todo evento A. • P[ ] = 1. • Si A y B son eventos mutuamente excluyentes entonces P[A • B] = P[A] + P[B]. Si los eventos A1, A2, A3,... son eventos mutuamente excluyentes ( Ai Φ, i ≠j), entonces P[ An] = Aj = P[An]. El concepto de medida de probabilidad o función de probabilidad juega un rol básico al momento de estudiar las probabilidades, de hecho cuando tenemos un experimento aleatorio y queremos estudiarlo probabilísticamente lo que necesitamos es definir una de tales medidas. Buena parte de lo que haremos en secciones posteriores es definir medidas de probabilidad sobre espacios muestrales. En las siguientes páginas discutiremos los principios básicos de la probabilidad. I.9.- Cuando en un experimento aleatorio se conocen las probabilidades de los eventos simples, es decir las probabilidades de cada uno de los elementos del espacio muestral, se pueden calcular las probabilidades de eventos compuestos y de algunos eventos relacionados utilizando una serie de reglas básicas. El cálculo de probabilidades se basa principalmente en la aplicación de estas reglas básicas. El siguiente teorema, [2], define una serie de propiedades que cumple una medida de probabilidad. 1. P[Φ] = 0. 2. P[A] = 1 - P[ A]. 3. Para cualesquiera eventos A, B P[A 4. Para cualesquiera eventos A, B. Si A B] = P[A] + P[B] - P[A B]. B implica P[A] < P[B]. Demostración y discusión de algunos casos. 1. Esta propiedad se obtiene en forma inmediata pues si P[Φ] = r > 0 se tiene que P[Ω] = P[Ω Φ] = P[Ω] + P[Φ] = 1 + r > 1, lo cual contradice la propiedad 2 del axioma 2. En otras palabras P[Φ] = 0. 2. Esta propiedad también se obtiene en forma sencilla de: 1 = P[Ω] = P[A ~A] = P[A] + P[~A]. Si A es un evento sobre un espacio muestral ocurre A se denota por A. entonces el evento no 3. Esta propiedad se demuestra usando propiedades de conjuntos. Lo primero es notar que A B es una unión de eventos excluyentes: A B = (A ∩B) ( ~A ∩B) (A ∩~B), por lo tanto, P[A B] = P[(A ∩B)] + P[(~A ∩B)] + P[(A ∩~B)], Por otro lado los eventos A así: ByA (1.2) B son excluyentes y su unión es A, P[A] = P[(A ∩B)] + P[(A ∩~B)], (1.3) Similarmente: P[B] = P[(A ∩B)] + P[(~A ∩B)], (1.4) Sumando término a término (1.3) y (1.4) se obtiene: P[A] + P[B] = 2P[(A ∩B)] + P[(A ∩~B)] + P[(~A ∩B)]. (1.5) Restando (1.5) y (1.2) se obtiene el resultado. I.10.- El evento que indica la ocurrencia conjunta de los eventos A y B se denota por A B. Dos eventos se dicen independientes si la ocurrencia de uno de ellos no influye ni se ve influida por la ocurrencia del otro. Por inducción se puede demostrar que si A1, A2,..., An son eventos independientes con probabilidades P[A1], P[A2], ..., P[An] respectivamente, entonces la probabilidad de la ocurrencia del evento compuesto A1 y A2 y ... y An, es decir todos los eventos, cumple: P[A1 ∩A2∩... ∩An] = P[A1]P[A2]...P[An]. (1.6) Ejemplo 3 Suponga que una máquina fabrica un tipo específico de componente, y que la probabilidad de que un componente salga defectuoso es constante p e independiente de los resultados en los componentes tanto anteriores como posteriores. • Estime la probabilidad de que el primer componente defectuoso salga inmediatamente después de los primeros N componentes. • ¿Cuántos componentes deben producirse para tener una probabilidad del 90% de obtener al menos un componente defectuoso? Solución • Sea Di el componente i defectuoso y probabilidad pedida es: P[( • ∩ ∩... ∩ el complemento de Di. La ) ∩ DN + 1] = (1 - p)Np. La probabilidad de ningún componente defectuoso en los primeros k componentes es (1 - p)k entonces la probabilidad de al menos un componente defectuoso se 1 - (1 - p)k. El valor k buscado debe cumplir con 1 - (1 - p)k > 0.9 (1 - p)k < 0.1 k> . • Por ejemplo si la probabilidad de que un componente sea defectuoso es de 0.02 deberían producirse alrededor de 114 componentes para tener una probabilidad del 90% de que haya al menos uno defectuoso. I.11.- Cuando los eventos no son independientes y ocurren en forma sucesiva la ocurrencia de uno de ellos puede influir en la del otro. Este tipo de probabilidad se llama probabilidad condicional. Por ejemplo hay tres cajas c1, c2 y c3 tales que la caja c1 contiene 2 esferas azules y 2 rojas, la caja c2 contiene 3 esferas azules y 1 roja y la caja c3 contiene 2 esferas azules y 3 rojas. Si se va a extraer una esfera de una caja, esta esfera puede ser azul o roja; no obstante la probabilidad de que sea de uno u otro color depende de cual de las cajas se extrae esa esfera. De hecho los eventos B elegir una de las cajas y A extraer una bola azul de la caja seleccionada no son independientes. La probabilidad de que un evento A ocurra dado que un evento B ha ocurrido se llamará probabilidad condicional de A dado B. Se denotará por P[A\B]. Esta probabilidad se puede calcular recurriendo a la regla: (1.7) P[B \A] = Dos eventos A y B son independientes si se cumple: P[B \A] = P[B] y P[A \B] = P[A]. Una manera informal de darle alguna justificación a esta regla es la siguiente. Si en un espacio muestral conocemos de previo que ha ocurrido un evento, B, y queremos calcular la probabilidad de que ocurra otro evento A entonces, simplificando el cálculo de la probabilidad a la razón: total de casos que verifican el evento entre el total de casos, se tiene que como ya ha ocurrido B el espacio muestral ahora puede reducirse a B y los casos que verifican el evento ya no son los elementos de A sino los elementos de A B es decir: (1.8) . P[A \B] = Si A y B son eventos no necesariamente independientes se tiene: P[A ∩B] = P[A]P[A \B]. (1.9) Esta regla se generaliza en el siguiente sentido. Si A1, A2,..., An son eventos entonces la probabilidad de la ocurrencia del evento compuesto A1 y A2 y ... y An, es decir todos los eventos, cumple : P[A1 ∩A2∩... ∩An - 1 ∩An] = P[A1]P[A2 \A1]P[A3 \(A1 ∩A2)]...P[An \(A1 ∩A2∩... ∩An - 1)]. Ejemplo 4 Suponga que se lanzan un par de dados. Calcule la probabilidad de que ocurra cualquiera de los siguientes eventos. A : el primero de los dados cae impar, B : el segundo cae impar y C : la suma de ambas caras es impar. Solución No es difícil comprobar las siguientes probabilidades: P[A] = P[B] = P[A \B] = P[B \A] = P[C] = P[C \A] = P[C \B] = P[A ∩B ∩C] = 0 P[A]P[B]P[C] = Se tiene que los pares de eventos A, C y B, C son independientes, pero A, B y C no lo son. Ejemplo 5 Un carpintero tiene tornillos en dos cajas una azul y otra roja. Él toma al azar tonillos de cualquiera de las dos cajas, pero la caja azul está un poco más cerca por lo que toma tornillos de ella dos de cada tres veces. La caja azul contiene cuatro tornillos de 15 mm y cinco de 20 mm y la caja roja contiene seis de 15 mm y dos de 20 mm. 1. Si en las dos siguientes búsquedas de tornillo el carpintero toma un tornillo de cada caja cuál es la probabilidad de que ambos sean del mismo tipo. 2. Si el carpintero necesita dos tornillos y los toma en forma sucesiva de alguna de la cajas cuál es la probabilidad de que los dos sean del mismo tipo Solución 1. Sea A el evento: toma un tornillo de 15 mm de cada caja y B el evento: toma un tornillo de 20 mm de cada caja. El evento A no es simple de hecho, es el evento compuesto A1 A2 donde A1 es toma un tornillo de 15 mm de la caja 1 y A2 es toma un tornillo de 15 mm de la caja 2, eventos independientes. P[A] = P[A1 ∩A2] = P[A1]P[A2] = = . Similarmente. P[B] = = Como A y B son excluyentes la probabilidad pedida es: P[A B] = P[A] + P[B] = + = . 2. En este caso el evento pedido puede descomponerse como sigue. Sea M el evento toma los tornillos de la caja azul y N toma los tornillos de la caja roja. Sean P1 el primer tornillo es de 15 mm, P2 el segundo tornillo es de 15 mm, Q1 el primer tornillo es de 20 mm y Q2 el segundo tornillo es de 20 mm. La probabilidad buscada es: elegir de la caja azul y tomar 2 tornillos iguales o elegir de la caja roja y tomar 2 tornillos iguales P[{(P1∩ P2) U(Q1 ∩Q2)} ∩M} U{(P1 ∩P2) U(Q1 ∩Q2)} ∩N}] = P[M]P[{(P1 ∩P2) UQ1 ∩Q2}\ M] + P[N]P[{(P1 ∩P2) UQ1 ∩Q2} \N] = P[N]P[{(P1 ∩P2) UQ1 ∩Q2} \N] = + + + = . Ejemplo 6 El siguiente ejemplo resulta interesante porque además de ser un problema en cierta forma clásico de las probabilidades nos muestra que eventualmente nuestra intuición en probabilidades debe ser mucho más cautelosa. Nos referiremos al mismo como el problema de los cumpleaños y aparece en buena parte de los libros de probabilidad. Suponga que hay n estudiantes en un salón de clase, ninguno nacido en 29 de febrero, y que el año en el que estamos no es bisiesto. Por el principio del palomar cualquiera sabe que si n > 365, entonces al menos dos personas tienen la misma fecha de cumpleaños; en el sentido que cumplen el mismo día del mismo mes. Supongamos que 2 ≤n < 365, y demos respuesta a las preguntas siguientes: • Cuál es la probabilidad, C, de que al menos dos personas tengan la misma fecha de cumpleaños. • Cuál es el mínimo valor de n para que esta probabilidad sea mayor que 0.5. Solución Hay en total 365n posibilidades para que ocurran los cumpleaños de los n estudiantes. La probabilidad de que dos personas cumplan en la misma fecha es el complemento de que todos cumplan en días diferentes del año. Tomando 1 para el primero de enero y 365 para el 31 de diciembre se tiene que la probabilidad del evento E: ningún par de personas cumplan el mismo día es: P[E] = = 1- 1- 1- 1- La probabilidad solicitada es … ... 1- 1- . P[C]= 1- P[C] = 1 - 1- 1- 1- … 1- ... 1- . . 1- La segunda pregunta se responde resolviendo la desigualdad 1- 1- 1- 1- … 1- ≥ 0.5, 1- 1- ... 1- 0.5, por ejemplo se pueden tabular algunos valores y obtener la respuesta. n P[C] 15 0.253 25 0.568 30 0.706 40 0.891 I.12.- Si revisamos de nuevo el ejemplo del carpintero y los tornillos podemos notar como característica importante en ese experimento que está constituido de dos estados: Primero se debe elegir una caja y una vez hecho esto se debe sacar un tornillo de la misma. Hay algunas preguntas que plantearse respecto a este experimento que podrían resultar diferentes a lo que hemos explorado hasta ahora. Por ejemplo ¿Cuál es la probabilidad S de sacar un tornillo de 20 mm.? Si se sacó un tornillo de 20 mm., ¿cuál es la probabilidad de que se haya escogido de la caja azul? El esquema para abordar este par de preguntas nos permitirán iniciar el estudio de los temas probabilidad total y Teorema de Bayes, que son los últimos temas de este capítulo. Para resolver el primero de los dos problemas propuestos es importante tener en cuenta que hay dos alternativas para obtener un tornillo de 20 mm. A saber elegir en el primer estado la caja azul y sacar un tornillo de 20 mm o bien elegir en el primer estado la caja roja y sacar un tornillo de 20 mm. Si M es el evento toma el tornillo de la caja azul y N toma el tornillo de la caja roja. Y S es el tornillo es de 20 mm se tiene P[S] = P[(M ∩S) U(N ∩S)] = P[M ∩S] + P[N ∩S] = P[M]P[S\ M] + P[N]P[S\ N] + = + = Para resolver este tipo de problemas necesitamos establecer algunas definiciones y resultados importantes. Si A1, A2,..., An son eventos tales que: Aj = Φ siempre que i ≠ j. • Ai • P[Ai] > 0, i = 1, 2,..., n. Ai = • . Se dice que A1, A2,..., An forman una partición del espacio . Cuando un experimento consiste de la realización de dos etapas y es tal que la primera puede descomponerse en A1, A2,..., An eventos, entonces la ocurrencia de cualquier evento B en la segunda etapa sólo puede darse en forma conjunta con alguno de los eventos de la primera etapa. Es decir el evento B se descompone en la forma B = (B A1) (B A2) ...(B An). Si se tiene además que A1, A2,..., An forman una partición del espacio muestral en la primera etapa entonces los eventos en la descomposición anterior son independientes y obtenemos el siguiente teorema: P[B] = P[(B ∩ A1) U(B ∩A2)U...(B ∩An)] = P[B ∩A1] + P[B ∩A2] + ... + P[B ∩An] = P[A1]P[B \A1] + P[A2]P[B \A2] + ... + P[An]P[B \An] = P[Ai]P[B \Ai]. El segundo de los problemas planteados se resuelve haciendo uso de probabilidades condicionales, interesa conocer la probabilidad condicional siguiente: Si el resultado final de la elección es un tornillo de 20 mm., ¿cuál es la probabilidad de que se haya extraído de la caja azul? Utilizando la representación de eventos del primer ejemplo y utilizando la fórmula 1.7 y el teorema 3 obtenemos: P[M \ S] = = = Este tipo de deducciones propias de experimentos con dos estados y que implica el cálculo de la probabilidad de que ocurra algún conjunto de condiciones o circunstancias del primer estado dado que ocurre un evento del segundo estado se resuelven recurriendo al siguiente teorema, conocido como fórmula de Bayes: Ejemplo 7 Una caja A contiene tres bolas blancas y cuatro negras. Otra caja, B, contiene dos bolas blancas y tres negras. Se extraen bolas, una a una, en forma aleatoria y sin reemplazo. • Si las dos bolas son elegidas de A, ¿cuál es la probabilidad de que ambas sean negras? • Si se eligen dos bolas, una de cada caja, ¿cuál es la probabilidad de que no sean del mismo color? • Si se elige una caja al azar y se extraen dos bolas al azar, ¿cuál es la probabilidad de que sean del mismo color? • Si se elige una de las cajas al azar se extraen dos bolas y son de colores distintos, ¿cuál es la probabilidad de que se hayan extraído de la caja B? Solución • Si se saca la primer bola de la caja A y la segunda de la misma caja la probabilidad de que ambas sean negras es: • Una manera de hacerlo es por complemento, extraer dos bolas de distinto color es el complemento de extraerlas del mismo color. La probabilidad de extraerlas del mismo color es sacar la primera negra y la segunda negra o la primera blanca y la segunda blanca, por lo tanto la probabilidad pedida es: 1- 1- • + . El evento se descompone en elegir la caja A y extraer dos blancas o dos negras o bien elegir caja B y extraer dos blancas o dos negras. = = • + + + + + + + + + == + + = + + = La probabilidad C de extraer las dos bolas de igual color esta calculada para el caso anterior. P[B \C] = . = = Una aplicación interesante de la fórmula de Bayes tiene que ver con el análisis de confiabilidad de ciertos test realizados para detectar la presencia de enfermedades. El problema es básicamente el siguiente: Una persona puede sufrir de una enfermedad y se practica un test para saber si tiene o no la enfermedad. La exactitud del test se mide a través de dos valores probabilísticos. El primero de ellos se llama la sensibilidad, que es la probabilidad de que una persona que este enferma de positivo en el test. Р= P[TestPositivo \ EstaEnfermo]. El otro valor se llama especificidad y es la probabilidad de que una persona no enferma tenga un diagnóstico correcto. = P[TestNegativo \ NoEstaEnfermo]. Lo normal es que ambos valores sean muy cercanos a la unidad. Conociendo la incidencia de la enfermedad, sobre alguna población, se puede calcular la probabilidad de que una persona que haya dado positivo en el diagnóstico no sufra de la enfermedad. Si se sabe que en la población la probabilidad de que una persona elegida al azar este enferma es entonces usando las fórmulas de Bayes se tiene P[NoEstaEnfermo \TestPositivo] = = . Por ejemplo, [2], existe un test llamado ELISA que se utiliza para verificar sangre donada en una problación en la cual la probabilidad de que un individuo tenga los anticuerpos de SIDA es de 0.0001. Suponga que este test tiene una sensibilidad = 0.977 y una especificidad = 0.926. Por ejemplo la probabilidad de que una muestra que contenga los anticuerpos de un diagnóstico de que sí tiene los anticuerpos es: = 0.001319 Este test resulta deficiente, de hecho clasifica como positivos muchos casos que no tienen los anticuerpos. II.13.- Prácticamente todos los problemas de conteo que resolveremos se reducirán a la aplicación cuidadosa de los principios de conteo que se enuncian seguidamente. Principio 1 Regla de la Suma: Si una operación puede realizarse en n formas y otra operación, independiente de la primera, puede realizarse en m formas, hay n + m formas en las que pueden realizarse una de las dos operaciones En Terminología de teoría de conjuntos: Si ( i| 0 ≤i < j ≤n : Ai ∩Aj =Φ) Ai = | Ai|. (2.1) Principio 2 Regla del producto: Si una operación puede realizarse en n formas y otra operación, independiente de la primera, puede realizarse en m formas, hay nm formas en las que pueden realizarse las dos operaciones En Terminología de teoría de conjuntos: |A1×A2×...×An| = | Ai|. (2.2) Ejemplo 8 Para completar su plan de bachillerato un estudiante debe completar algunos cursos optativos. El Plan de estudios contempla 4 cursos de Inteligencia Artificial (IA), 3 cursos de Especificación Formal(EF) y 3 cursos de Sistemas Expertos(SE). De cuántas maneras puede el estudiante tomar los tres cursos si: 1. Debe llevar tres cursos optativos y no hay restricciones. 2. Debe llevar al menos un curso de cada área. 3. Debe llevar dos cursos de áreas distintas. Solución: 1. Al no haber restricciones el estudiante puede llevar el primer curso de 10 maneras, el segundo de 9 y el tercero de 8 maneras, así por (2.2) puede tomar sus cursos optativos en 10×9×8 maneras, si el orden en que los lleva se tiene en cuenta. Si el orden no importa este valor debe dividirse entre 6, ¿Porqué?. 2. Como debe llevar un curso de cada área, entonces puede llevar los tres cursos de 6×(4×3×3) formas. Si el orden es irrelevante son 4×3×3, Invitamos al lector a revisar esta tabla para que compruebe estos resultados. IA1, EF1, SE1 IA2, EF1, SE1 IA3, EF1, SE1 IA4, EF1, SE1 IA1, EF1, SE2 IA2, EF1, SE2 IA3, EF1, SE2 IA4, EF1, SE2 IA1, EF1, SE3 IA2, EF1, SE3 IA3, EF1, SE3 IA4, EF1, SE3 IA1, EF2, SE1 IA2, EF2, SE1 IA3, EF2, SE1 IA4, EF2, SE1 IA1, EF2, SE2 IA2, EF2, SE2 IA3, EF2, SE2 IA4, EF2, SE2 IA1, EF2, SE3 IA2, EF2, SE3 IA3, EF2, SE3 IA4, EF2, SE3 IA1, EF3, SE1 IA2, EF3, SE1 IA3, EF3, SE1 IA4, EF3, SE1 IA1, EF3, SE2 IA2, EF3, SE2 IA3, EF3, SE2 IA4, EF3, SE2 IA1, EF3, SE3 IA2, EF3, SE3 IA3, EF3, SE3 IA4, EF3, SE3 3. En este caso debe llevar una combinación IA,EF con 4×3 posibilidades o IA,SE con 4×3 o bien SE,EF con 3×3, en total 30 posibilidades, sin tomar en cuenta el orden, si fuera necesario considerar el orden, esta cantidad se duplicaría. II.14.- Permutaciones de un Conjunto Una permutación de los elementos de un conjunto es un ordenamiento lineal de sus elementos, por ejemplo si A = {a1, a2, a3} entonces las permutaciones de A son las siguientes: A1, a2, a3 A2, a1, a3 A3, a1, a2 a1, a3, a2 a2, a3, a1 a3, a2, a1 De manera similar una r -permutación de r elementos de un conjunto es un ordenamiento de r de los elementos del conjunto. Por ejemplo si A = {a1, a2, a3, a4} entonces las 2-permutaciones de A son: a1, a2 a1, a4 a2, a4 a2, a1 a4, a1 a4, a2 a1, a3 a2, a3 a3, a4 a3, a1 a3, a2 a4, a3 Para determinar el número de r -permutaciones de los elementos en un conjunto con n elementos se puede recurrir a la regla del producto. Esto pues el proceso de elegir r elementos en un orden específico puede reducirse a elegir un primer elemento entre n, luego elegir un segundo elemento entre los n - 1 que quedan, y así hasta elegir el r -ésimo elemento entre los n - r + 1 restantes. Luego por el principio del producto, (2.2), hay n(n - 1)(n - 2)...(n - r + 1) maneras de elegir r elementos en forma ordenada, de un conjunto con n elementos. Esto nos permite establecer el siguiente teorema: Este teorema merece una explicación especial en el caso de que r = 0. El número de 0-permutaciones, es decir arreglos ordenados con ningún elemento se toma como 1. Sólo hay una forma de elegir 0-permutaciones, no eligiendo ningún elemento. Este problema de las permutaciones tiene algunas variantes que se abordan a continuación. Considérese el problema de hacer una r -permutación de elementos dentro de una estructura que no necesariamente es un conjunto, por ejemplo una estructura que contenga elementos pero se admite que los elementos pueden aparecer más de una vez. Por ejemplo analizar cuántos anagramas, reordenamientos de las letras que forman una palabra, se pueden obtener de la palabra ama. Para resolver este tipo de problema lo más práctico es asumir que en realidad todos los elementos son distintos y realizar el conteo según el teorema 5, una vez hecho esto eliminar los casos que se hayan contado de más. Inicialmente ama tiene tres letras pero una es repetida. Podemos asumir que son tres letras: {a1, m, a2} y en ese casos los posibles anagramas son 6: a1ma2 a2a1m ma1a2 a1a2m a2ma1 ma2a1, No obstante, dado que a1 y a2 son en realidad la misma letra, todo anagrama está dos veces, así que el total posible debe dividirse por dos; y quedan tres anagramas. En general la solución de este tipo de problema es así. Si una estructura contiene r elementos repetidos, k1, k2,..., kr veces, respectivamente entonces para calcular el tipo de permutaciones distintas que se pueden construir primero se calcula el número de permutaciones asumiendo que todos los elementos son distintos, es decir (k1 + k2 + ... + kr)! permutaciones. Luego se procede a analizar y excluir los casos repetidos. Un elemento que aparezca kj veces ocupa kj posiciones dentro de la permutación, como se consideró que los kj elementos son diferentes entonces hay kj! posibles acomodos de esos elementos que se contaron como diferentes pero que en realidad corresponden con una única permutación; por lo tanto para eliminar los elementos contados de más producidos por este elemento el número total debe dividirse entre kj!, y así para cada uno de los elementos. Ejemplo 9 Se van a repartir 3 rosas, 5 dalias y 2 margaritas entre 10 señoras, determine el número de maneras de hacer esta distribución si cada señora debe recibir al menos una flor. Solución Como hay igual número de flores que de señoras cada una recibe una flor, y el problema se reduce a calcular el número de permutaciones posibles. El número de maneras de distribuir estas flores es = 2520. Otro tipo de problema de distribución relacionado con permutaciones tiene que ver con los posibles ordenamientos de r elementos que se pueden hacer de un conjunto de n elementos si se admite la repetición, en este caso el asunto se resuelve recurriendo a la regla del producto. El problema se reduce a elegir un elemento para la primera posición, para la segunda hasta llegar a la posición r. Como cada una de estas escogencias puede hacerse de n formas, se tiene el siguiente resultado Este mismo esquema permite resolver la distribución de k objetos distintos en n celdas, donde cada celda puede contener cualquier número de objetos. Esto pues al final de cuentas este problema se reduce a elegir una celda para poner el primer objeto, y luego elegir con posibilidad de repetición otra celda para el segundo y así hasta colocar todos los objetos. Note que los objetos, en este caso no llevan un orden particular en las celdas. Si el orden en el cual se distribuyen los objetos dentro de las celdas debe tenerse en cuenta entonces el total de maneras cambia. II.15.- A diferencia de una permutación, en la cual el orden es importante, en una r -combinación el orden de los elementos no es importante. Una r -combinación sobre un conjunto A con n elementos es un subconjunto de A con r elementos. Existe un relación directa entre permutaciones y combinaciones, de hecho cada r combinación da lugar a r! r -permutaciones. Como conocemos el número de rpermutaciones (teorema 5) entonces se tiene el siguiente teorema. Este último valor se conoce cono coeficiente binomial pues con alguna cantidad de esfuerzo es posible demostrar que: n (a + b) = n (a + b) = n-i i a b. (2.3) n-i i a b. Muchos problemas de conteo pueden resolverse recurriendo a problemas diferentes pero con la misma solución. Por ejemplo considere una estructura que solo tiene 2 elementos repetidos, uno k veces y el otro n - k veces. El número de permutaciones de los elementos en esta estructura es que es exactamente Esto en realidad no resulta complejo, pues hacer las permutaciones indicadas es equivalente al siguiente problema, dado el conjunto {1, 2,..., n} elegir subconjuntos de tamaño k que correpondan a las posiciones en donde se van a ubicar los k elementos Una última forma se discutirá en estas notas, no sin advertir que con las herramientas discutidas es posible abordar problemas diversos que no se han discutido en estas notas. II.16.- El problema de distribuir r objetos indistinguibles en n celdas, r n, con a lo sumo un objeto en cada celda es básicamente directo, ya que puede reducirse al problema de escoger r entre las n celdas, es decir . El problema de poner r objetos en n celdas donde no hay restricción en el número de objetos en cada celda es ligeramente diferente. Una manera de abordarlo que resulta sencilla es la siguiente: dados los r objetos, una manera de ubicarlos en las celdas es intercalar entre ellos n - 1 banderillas, los objetos antes de la primer banderilla, pueden ser ninguno, corresponden a la primera celda, los objetos entre la primera y segunda corresponden a los objetos en la segunda celda y así sucesivamente. En otras palabras el número de maneras de colocar r objetos indistinguibles en n celdas es: (2.4) Usando adecuadamente esta última forma se obtiene el siguiente teorema: Ejemplo 10 Si n personas se colocan aleatoriamente en n oficinas, ¿cuál es la probabilidad de que quede exactamente una oficina vacía? Solución El total de posibles ubicaciones de las n personas es nn, pero para que exactamente una oficina quede vacía el análisis debe ser cuidadoso. Se debe elegir una oficina para que quede vacía lo cual puede hacerse de n formas. Luego debe elegirse otra para que quede con dos personas; esta puede elegirse de n - 1 maneras. Una vez hecho esto se eligen dos personas para la segunda oficina y las restantes se ubican una en cada una de las n - 2 oficinas restantes. Luego la probabilidad pedida es: = = . Ejemplo 11 Si un arreglo binario de doce elementos contiene 8 unos y 4 ceros, ¿cuál es la probabilidad de que los cuatro ceros queden juntos? Solución Sólo hay 9 arreglos en los cuales los cuatro ceros quedan juntos, y el número de posibles arreglos es 12!/(4!8!), luego la probabilidad pedida es: Ejemplo 12 En un grupo de probabilidad hay inscritas n parejas (hombre, mujer) para hacer una tarea. El profesor decide separar todas las parejas y formar nuevamente n parejas, pero en forma totalmente aleatoria. ¿Cuál es la probabilidad de que se formen las mismas parejas originales? ¿Cuál es la probabilidad de que se formen sólo parejas (hombre, mujer)? Solución Para que se formen las mismas parejas originales solo se necesita calcular cuál es el número total de parejas que se pueden formar. Si se calcula este total de parejas como el número de permutaciones de las 2n personas se tiene un conteo redundante en los dos sentidos siguientes. Primero este conteo está tomando en cuenta el orden en que las n parejas quedan agrupadas y segundo este conteo está tomando en cuenta el orden en que se ubica cada pareja, por lo tanto el número de posibles parejas es La probabilidad solicitada en la primera parte es el inverso de este número. La segunda probabilidad pedida puede resolverse usando el mismo esquema anterior, y se puede razonar así. Si los hombres están fijos en las posiciones 1, 3, 5,..., las mujeres se pueden ubicar en n! formas lo cual da todas las posibles maneras de hacer parejas. Luego la probabilidad pedida es: = = . II.17.- Propiedades Importantes En esta sección se trata de rescatar algunas propiedades importantes acerca de conteo, algunas de las cosas que se expondrán resultarán reiterativas respecto a lo enunciado antes, cosa que no necesariamente es inconveniente. Este primer teorema es importante pues permite diferentes opciones para abordar el mismo tipo de problema = = = + + = Las demostraciones de estos resultados son un ejercicio interesante. Pueden verse en algunos de los textos citados como referencia [5]. III.18.- Es importante, antes de hablar sobre los tipos de distribución hacer un repaso de algunos términos que se utilizan con frecuencia en esta sección. Recordemos que llamamos espacio muestral al conjunto de todos los posibles resultados de un experimento. Un espacio muestral puede ser finito o infinito numerable, o puede ser continuo. Una variable aleatoria es una función de un espacio muestral a los reales, es decir una regla que asigna un único valor real a cada evento del espacio muestral. Si el espacio muestral es finito o discreto entonces la variable se llama variable aleatoria discreta y si es continuo se llama variable aleatoria continua. Una distribución de probabilidad es una función que permite asignar un valor de probabilidad a cada evento del espacio muestral de un experimento. Las distribuciones de probabilidad se dividen en dos casos acorde con las características de la variable aleatoria, discretas o continuas. III.19.- Definiciones Básicas La propiedad más importante de una variable aleatoria es la distribución de probabilidad. Si bien no existe una definición exacta de lo que es una distribución de probabilidad si hay consenso en las propiedades que debe cumplir. Si X es una variable aleatoria discreta con rango RX = {x1, x2, x3,...}, una distribución de probabilidad para X es una función, fX, del Rango(X) a los reales. , que cumple: fX : Rango(X) 1. fX(xi) ≥0, xi ЄRango(X), 2. fX(x) = 1. En general se aceptan ciertas convenciones de notación. Si X es una variable aleatoria y x es un número real se escribe: X = x, para referirse al evento {Є: ЄЄΩ^X(Є) = x}, similarmente se usa la notación X ≤x, para referirse al evento {Є: ЄЄΩ^X(Є) = x}, Si X es una variable aleatoria discreta se puede definir su función de distribución de probabilidad por: fX(x) = P[X = x]. (3.1) Ejemplo 13 Se tiene una caja que contiene 4 bolillas rojas y tres verdes y se empiezan a extraer bolillas, sin reemplazo, hasta obtener una bolilla roja. Sea X la variable aleatoria que indica el número de bolillas que se extraen, tenemos lo siguiente. El espacio muestral para el experimento es roja, verde - verde - verde - roja} Los valores que toma X son = {roja, verde - roja, verde - verde - Una distribución de probabilidad en este ejemplo, fundamentada en asumir que toda bolilla tiene la misma probabilidad de ser tomada, es: Una distribución de probabilidad asigna probabilidades a cada uno de los eventos simples del espacio muestral. Existe otro concepto importante que tiene que ver con el siguiente problema. Dado un espacio muestral , una variable aleatoria discreta definida sobre y un valor x, tiene sentido el calcular la probabilidad de que ocurra alguno de los valores que son menores o iguales a x. En el ejemplo anterior podrá resultar importante responder a cuál es la probabilidad de que haya que hacer dos o menos extracciones para obtener una bolilla roja. En este caso el valor solicitado es la probabilidad de que haya que hacer una o dos extracciones para obtener una bolilla roja. Aplicando el principio de la suma se obtiene que: P[X ≤ 2] = P[X = 1] + P[X = 2] = + Por ejemplo para el caso anterior se tiene que FX(x) cumple = . FX(x) = P[X ≤x] = Ejemplo 14 Se tira un dado que no está cargado, hasta que se obtenga un uno. Si denotamos por Z la ocurrencia de un uno y por W la no ocurrencia, el espacio muestral tiene la forma {Z, WZ, WWZ, WWWZ,...}. Si X es el número de lanzamientos los posibles valores para X son {1, 2, 3, 4...} y la función de probabilidad para X tiene la forma: fX(x) = Para el cálculo de de la función de densidad de masa debe calcularse el valor de: P[X ≤x] = De acuerdo a esta última función se tiene que la probabilidad de que se deban hacer 1,2 o 3 lanzamientos antes de obtener un 1 es de 0.4211 Las siguientes reglas se obtienen de manera directa de la definición 13 y de las propiedades de las probabilidades. P[a ≤ X ≤b] = F(b) - F(a), P[a ≤X < b] = F(b-) - F(a), P[a < X ≤b] = F(b) - F(a+). Como se ha dicho anteriormente una variable aleatoria es continua si cumple que al poder alcanzar cualquier par de valores a < b reales entonces puede alcanzar cualquier valor que esté en el intervalo [a, b]. En el caso de variables aleatorias continuas se tienen las siguientes definiciones: Si X es una variable aleatoria continua una distribución de probabilidad para X es una función fX que cumple las siguientes propiedades: 1. fX(x) ≥0 x. 2. Si a < b se tiene P[a ≤X ≤b] = fX(x) dx. 3. fX(x) dx=1. 4. FX(x)=P[X ≤x] = fX(t) dt. De acuerdo a esta definición se tiene que: (3.2) (3.3) P[a ≤X ≤b] = F(b) - F(a), P[X = b] = 0. Por ejemplo, si una variable aleatoria continua X tiene una distribución de probabilidad de la forma f (x; )= , se dice que la variable X sigue una distribución de tipo exponencial de parámetro . Además no es difícil demostrar que la distribución de probabilidad acumulada tiene la forma (3.4) F(x; )= , Ejemplo 15 El tiempo que tarda un persona en localizar un archivo en su escritorio sigue una distribución normal con parámetro = 2 minutos. La probabilidad de que en la próxima búsqueda dure menos de 3 minutos es F(3) = 1 - e-6 = 0.997. Mientras tanto, la probabilidad de que tarde entre 1.5 y 2.5 minutos es de F(2.5) - F(1.5) = 0.043. III.20.- Cada vez que se logre determinar una distribución existen dos mediciones asociadas con ella que son sumamente importantes: la media y la varianza. La media o esperanza, como se llama a veces, en alguna forma es una medida de localización de los datos, mientras la varianza es una medida de dispersión de los datos. En las distribuciones teóricas, este par de medidas las caracterizan en forma absoluta y en el caso de las distribuciones que no se ajusten a un patrón conocido constituyen el punto de partida para poder estudiarlas en forma adecuada. a. Si X es discreta con rango RX = {x1, x2, x3,...} se definen la media o esperanza de X por = xifX(xi), (3.5) con la condición de que | xi| fX(xi) < . b. Mientras si X es continua. = xfX(x) dx, (3.6) con la condición de que | x| fX(x) dx < La condición que se impone se conoce como convergencia absoluta [8] y se hace necesaria para evitar que el reordenamiento de las sumas pueda producir valores diferentes para la esperanza. De hecho en cada una de las definiciones que sea necesario se indicará. Note que la media, es una generalización del concepto de promedio aritmético. Por ejemplo si X es una variable aleatoria discreta tal que todos los valores en su rango tienen la misma probabilidad entonces: = En realidad la media o esperanza es un promedio ponderado y cuantifica el valor esperado para una variable aleatoria. Ejemplo 16 Sea X la variable aleatoria del ejemplo 13. En ese caso el valor de la esperanza es: = 1( ) + 2( ) + 3( ) + 4( )= , significa que en promedio deberán hacerse 2.27 intentos antes de obtener la bolilla roja. Por ejemplo para la distribución exponencial de parámetro , (3.2), usando un poco de integración por partes y regla de L'Hôpital, se tiene que: Existen ejemplos de variables aleatorias con distribuciones de probabilidad bien definidas y que no tienen media. Se invita al lector a verificar que si X es una variable aleatoria tal que fX(2k) = P[X = 2k] = 1/2k, k = 0, 1,... entonces la distribución de probabilidad está bien definida pero no existe la esperanza. Ejemplo 17 Un sistema de administración de oxígeno está formado por dos bombas idénticas. Estas bombas operan en forma independiente, y tienen una esperanza de funcionamiento continuo que es exponencial con media 20 horas. El sistema de bombeo falla solamente si ambas bombas fallan. Cuál es la probabilidad de que el sistema funcione durante 15 horas. Solución Como la media es 20 horas entonces el parámetro de la distribución es = 1/20. Acorde con (3.4) la probabilidad de que una bomba falle antes de las 15 horas es 1 - e-15/20, así que la probabilidad de que el sistema falle antes de las 15 horas es P[X ≤15] = (1 - e-15/20)2 y la probabilidad de que el sistema trabaje en forma continua por más 15 horas es de 1 - P[X ≤15] = 1 - (1 - e-15/20)2. También es posible calcular la esperanza de una función aplicada a los valores de la variable aleatoria. a. Si X es discreta (X) = (3.7) h(xi)fX(xi), con la condición de que | h(xi)| fX(xi) < . Mientras que para X continua se tiene = (3.8) h(x)fX(x) dx, con la condición de que | h(xi)| fX(xi) dx < . Para calcular la varianza de una variable aleatoria se necesita antes conocer la media de X. a. Si X es discreta: = = )2fX(xi), (xi - (3.9) b. Si es continua = = )2fX(x)dx, (xi - (3.10) Invitamos al lector a verificar en la tabla adjunta posibles distribuciones de probabilidad discretas y analizar los valores de la esperanza y de la varianza. En esta tabla puede introducir valores para la variable y las probabilidades respectivas y ver el comportamiento de la media y la varianza. La siguiente es una propiedad importante de la varianza. Según la definición de esperanza, en el caso discreto se tiene = = (xi - )2fX(xi) = (xi2 - 2xi + xi2fX(xi) - = )fX(xi) 2xi fX(xi) + ( )2fX(xi) = xi2fX(xi) – 2 = -2 xifX(xi) + + = fX(xi) -( )2. De hecho no es difícil verificar que esta propiedad también se cumple en el caso continuo. Se llamará momento de orden k a la esperanza de Xk. Es decir el momento de orden k para la variable aleatoria discreta X es E(Xk) = xikfX(xi), mientras que para una continua es E(Xk) = xkfX(x) dx. Ejemplo 18 Sea X una variable aleatoria continua con distribución de probabilidad dada por f (x) = 1. Determine el valor de k. 2. Calcule P([- 2 < X ≤ 5]). 3. Calcule VAR(X). Solución 1. Dado que 2. 3. Finalizamos esta sección enunciando un teorema que resume las propiedades fundamentales de la esperanza. 1. El valor esperado de una variable aleatoria constante es la misma constante. = c. 2. El valor esperado de una variable aleatoria multiplicada por una constante es la constante por el valor esperado de la variable. = c. 3. El valor esperado de una suma de dos variables aleatorias es la suma de los valores esperados de las variables. = + . Las pruebas de las dos primeras propiedades son bastante sencillas, y para demostrar la tercera se requiere estudiar algunos conceptos que no se han explorado hasta ahora. El lector interesado en la justificación de estos resultados puede consultar [2]. las siguientes afirmaciones. 1. La varianza de una variable aleatoria constante es cero. VAR(c) = 0. 2. La varianza de una variable aleatoria multiplicada por una constante es la constante por la varianza de la variable. VAR(cX) = c2VAR(X). 3. La varianza de una suma de dos variables aleatorias es la suma de las varianzas de las variables. VAR(X+Y) = VAR(X) + VAR(Y). Nuevamente la demostración de los apartados (1.) y (2.) es bastante directa a partir de la definición y la demostración de (3.) es un poco más delicada. El lector interesado puede verla en [2]. III.21.- Si X es una variable aleatoria se llama función generadora de momentos a la esperanza de etX y se denota por mX(t) mX(t) = E(etX). (3.11) Las siguientes líneas ayudarán a entender el porqué de este nombre. Supongamos que X es una variable aleatoria que toma valores 0, 1, 2,..., entonces mX(t) = E(etX) = etxifX(xi) = = (txi)k/k! fX(xi) tkxik/k! fX(xi) = xifX(xi) = E(Xk). Esta deducción utiliza una propiedad importante de las sumatorias que en general no es válida y es el intercambio de las sumatorias que se hace. Si el lector es paciente puede expandir cada una de las sumas y verificar que es posible el reordenamiento practicado. Como notará esta última serie tiene como parte de sus coeficientes los momentos de orden k, de hecho es bastante sencillo demostrar el siguiente lema Si X es una variable aleatoria con función generadora de momentos mX(t) se tiene que m(n)X(0) = E(Xn). (3.12) Es decir si tenemos la función generadora de momentos basta con derivarla n veces y evaluar en 0 para obtener el momento de orden n. IV.22.- Existen diversos experimentos para los cuales el espacio muestral solamente admite dos valores, pueden ser cualitativos, se cumple o no se cumple alguna condición o cuantitativos 0 o 1. No hay diferencia y para efectos de la distribución basta con que los consideremos como éxito y fallo, con valores asignados de 1 y 0, respectivamente. Cuando un experimento como éste se ejecuta una sola vez se dice que es un ensayo tipo Bernoulli, la variable aleatoria solo toma dos valores que corresponden con X(éxito) = 1 y X(fallo) = 0 y la distribución de probabilidad también es bastante simplificada con valores fX(1) = p, y fX(0) = 1 - p. Dado un experimento que consiste de una secuencia de n ensayos independientes tipo Bernoulli, donde la probabilidad, p, de éxito no cambia entre ensayo y ensayo del experimento. Si la variable aleatoria que interesa cuantificar es el número de éxitos en los n ensayos, la variable recibe el nombre de Binomial. Por ejemplo se lanza una moneda el aire en 8 ocasiones y se toma como variable aleatoria el número de veces que cae corona, o se registran los próximos 100 nacimientos en un hospital y se toma como variable aleatoria el número de mujeres que nacen. En una variable binomial se tienen por parámetros la probabilidad de éxito en cada ensayo, p, y el total de ejecuciones, n, y como variable aleatoria X, el número de éxitos digamos x. La distribución de probabilidad la denotaremos por b(x;n, p). Para la distribución de probabilidad acumulada usamos la notación B(x;n, p). La demostración de la primera de las aseveraciones hechas en el teorema resulta directa, pues puede haber desde ninguno hasta, a lo sumo, n éxitos. La segunda parte resulta de que la ocurrencia de exactamente x éxitos es la conjunción de que en x cualesquiera de los ensayos ocurra éxito y en los n - x restantes ocurra fallo, de acuerdo con la ley del producto la probabilidad es de px(1 - p)n - x. Como no importa cuales x de los ensayos resulten en éxito entonces debe de contarse todas las posibles maneras de elegir x ensayos entre los n. La tercera parte es simplemente una adaptación de la definición de la función de probabilidad acumulada. Vale la pena destacar que este tipo de cálculos es bastante laborioso, no obstante se dispone de tablas que resumen algunos de los valores más frecuentes. Mejor aún en la versión electrónica de estas notas se da una barra de herramientas que permiten realizar en forma directa los cálculos, que involucren binomiales. Ejemplo 19 Veinte palomas vuelan hacia 3 nidos. Cada una de ellas se ubicará en forma aleatoria en alguno de los nidos, además una paloma se ubica en forma independiente de lo que hicieron o harán las otras. Calcule las siguientes probabilidades. 1. Exactamente 4 palomas se ubican en el primer nido. 2. A lo sumo cuatro palomas se ubican en el primer nido. 3. Al menos cuatro palomas se ubican en el primer nido. Solución Dadas las condiciones indicadas, el arribo de cada paloma a algún nido es un ensayo de Bernoulli donde éxito es que la paloma se ubique en el nido 1 y fracaso es que no lo haga. La probabilidad de éxito es 1/3 y la variable aleatoria que indica el número de palomas que quedan ubicadas en el primer nido sigue una distribución tipo binomial: b(x;20, 1/3), y las respuestas a los problemas son 1. P[X = 4] = b(4;20, 1/3). 2. A lo sumo cuatro palomas significa ninguna, una, dos, tres o cuatro es decir: b(0;20, 1/3) + b(1;20, 1/3) + b(2;20, 1/3) + b(3;20, 1/3) + b(4;20, 1/3), por lo tanto: P[X ≤ 4] = B(4;20, 1/3). 3. Al menos cuatro puede verse como el complemento de a lo sumo tres, por tanto la la respuesta es 1 - P[X ≤3]=1-B(4;20, 1/3). Ejemplo 20 Suponga que el 20 por ciento de los componentes fabricados por una planta no pasan un control de calidad. Cuál es la probabilidad de que en una muestra de 15 componentes consecutivos a lo sumo 8 no pasen la prueba. Solución Este es un experimento de tipo binomial, que tiene 15 repeticiones del mismo experimento, con una probabilidad de éxito de 0.2. Si Y es la variable aleatoria que indica el número de componentes defectuosos, interesa calcular el valor de la expresión: P[Y ≤8] = (0.2)k(0.8)15 - k = B(8;15, 0.2), recurriendo a tablas o a la barra de herramientas se obtiene que la probabilidad del evento indicado es 0.9992. Sobre ese mismo ejemplo: • La probabilidad que exactamente 8 componentes no pasen la prueba: b(8, 15, 0.2) = B(8, 15, 0.2) - B(7, 15, 0.2) = 0.9992 - 0.9958. • la probabilidad que fallen al menos 8 es: P[Y ≥8] = 1 - P[Y ≤7] = 1 - B(7, 15.0.2) = 1 - 0.9958. Algunas veces se acepta que un experimento se porta como un binomial, aunque cumpla en forma parcial las reglas citadas en la definición. Por ejemplo en problemas de elección sin reposición la probabilidad de cada experimento está influenciada por los resultados de los anteriores. No obstante cuando el número de intentos es relativamente pequeño respecto al espacio muestral el comportamiento de la variable aleatoria puede aproximarse como si fuera binomial. Ejemplo 21 Suponga que en una ciudad viven un millón de personas de los cuales sólo 800000 son nativos de la ciudad. Si se toma una muestra de 10 ciudadanos al azar cual es la probabilidad de que a lo sumo dos de ellos no sean nativos. Solución Si bien la secuencia de 10 experimentos consecutivos de escoger un ciudadano y que no sea nativo tienen probabilidades diferentes también es cierto que estas probabilidades prácticamente son iguales, en un caso como este podemos asumir que el comportamiento de la variable aleatoria Y que indica el número de no nativos en la muestra se aproxima por una binomial. Así la probabilidad solicitada es: P[Y (0.2)k(0.8)10 - k = B(2;10, 0.2), 2] = recurriendo a tablas se obtiene que la probabilidad del evento indicado es 0.6778. IV.23.- Si una variable X es Bernoulli entonces la media se puede calcular en forma muy sencilla pues. = 0(1 - p) + 1(p) = p, mientras que la varianza es: VAR(X) = (0 - p)2(1 - p) + (1 - p)2p = p(1 - p). Si una variable es binomial de parámetros n, p entonces X puede verse como una secuencia de ensayos de Bernoulli es decir X = Y1 + ... + Yn. Para calcular su media y su varianza puede recurrirse a los teoremas (12) y (13) para obtener el siguiente teorema. Este último resultado también se puede obtener recurriendo a la definición de la media. Se invita al lector a tratar de deducir la media para una binomial a partir de la definición y del uso del teorema (11) y de (2.3). IV.24.- Una variable aleatoria X se dice que sigue una distribución de Poisson con parámetro > 0 si su rango es el conjunto 0, 1, 2,..., y la distribución de probabilidad está dada por: P[X = x] = p(x ;) = para x = 0, 1, 2,.... En general la descripción de un proceso de Poisson no es necesariamente sencilla, en [5] puede encontrarse una discusión simplificada. Ejemplo 22 Dado que p(x; )≥ 0 y recurriendo a la expresión: ex = (4.1) se obtiene que con lo cual p(x; ) cumple con las propiedades para ser una distribución. La herramienta adjunta permite realizar los cálculos relacionados con la distribución Poisson. Ejemplo 23 Las consultas arriban a un servidor siguiendo una distribución de Poisson con 12 consultas por minuto. 1. ¿Cuál es la probabilidad de que el intervalo de tiempo entre las dos próximas consultas sea menor o igual a 7.5 segundos? 2. ¿Cuál es la probabilidad de que el intervalo de tiempo entre las dos próximas consultas sea mayor a 10 segundos? Solución 1. Si en 60 seg. arriban 12 consultas entonces en 7.5 segundos arriban 1.5 consultas, por lo tanto el número de llamadas, X, que llegan en 7.5 segundos sigue una distribución de Poisson p(x;1.5). La probabilidad de que después del arribo de una consulta pasen menos de 7.5 segundos antes del arribo de la siguiente debe verse como la probabilidad de que en 7.5 segundos llegue al menos una consulta. P([X > 0]) = 1 - P([X = 0]) = 1 - p(0, 1.5) = 1 - = 1 - e-1.5. 2. Por argumentos similares al caso anterior se tiene que la probabilidad solicitada es: p(0, 2). Para una distribución de Poisson se tiene que la esperanza es Para calcular la varianza de una distribución de Poisson es mejor utilizar la función generadora de momentos. La función generadora de momentos para una Poisson de parámetro recurriendo a la expresión 3.11. se calcula Derivando dos veces y evaluando en cero, lema (2), se obtiene que E[X2] = que unido al lema (1) permite obtener que la varianza de una Poisson de parámetro es . - IV.25.- Los tipos de aplicaciones en los cuales la distribución es hipergeométrica son muy similares a aquellos donde se aplica la binomial. Una manera de entender la diferencia entre ambas es analizando el esquema con que se lleva a cabo el muestreo. Mientras que en la distribución binomial el muestreo se realiza con reemplazo de cada artículo, después de observarse, en la hipergeométrica el muestreo se lleva a cabo sin reemplazo. Por ejemplo de un naipe se desea extraer una muestra de 5 cartas y calcular la probabilidad de obtener 3 cartas rojas. En este caso se deben muestrear 5 objetos, para cada objeto se considera como éxito el hecho que la carta sea roja y como fracaso que sea negra, hay 26 éxitos en la población, toda muestra de 5 cartas tiene la misma probabilidad de ser elegida. El conjunto de valores posibles x para la variable aleatoria en un experimento hipergeométrico está restringido por dos condiciones importantes, la primera de ellas es que en la muestra puede haber a lo sumo min{n, M} éxitos mientras que al menos hay max{0, n - (N - M)} éxitos. La distribución de probabilidad h(x;n, M, N) depende de: • el tamaño de la muestra n, • el tamaño del conjunto sobre el cual se toman los objetos N, • y el número de éxitos, M, en el conjunto sobre el que se hace el muestreo. El cálculo de la distribución de probabilidad para un valor x de los posibles de la variable aleatoria se puede hacer de manera simple pues la probabilidad P[X = x] puede reducirse a un problema de conteo. Se eligen x de los M éxitos y se eligen n - x de los N - M que no son éxitos, y se divide entre el total de posibles maneras de escoger los x elementos de los N. Esto conduce a la expresión: . h(x;n, M, N) = (4.2) Los cálculos que se necesitan para la distribución hipergeométrica se pueden hacer recurriendo a la herramienta adjunta. Ejemplo 24 Un equipo de trabajo de 5 personas se va a seleccionar de entre cinco hombres y tres mujeres. Si la variable aleatoria es el número de hombres en el equipo, ¿cuál es la distribución de probabilidad asociada? Solución Los posibles valores de esta variable aleatoria son 2, 3, 4 y 5 y las probabilidades son: h(x;5, 5, 8) = , El lector puede verificar que la media para esta distribución es 176/56. Ejemplo 25 De una población de 500 animales se capturan 200, se marcan y se sueltan para que vuelvan a mezclarse con el resto de la población. La probabilidad de que en una muestra de 20 animales capturados o recapturados haya 4 o menos marcados se puede calcular por Mientras tanto la probabilidad de que aparezcan 3 o más animales marcados en una captura o recaptura de 20 es: 1V.26.- En general las distribuciones de probabilidad son herramientas muy necesarias en el estudio de problemas probabilísticos y estadísticos. Entre las distribuciones de probabilidad continuas, la distribución normal, es la más utilizada y la más importante. Muchas mediciones dentro de poblaciones siguen distribuciones normales y en casos donde poblaciones no distribuyen normalmente, es común que ciertos promedios y ciertos valores acumulados se distribuyan en forma normal, esta última observación se conoce como el teorema del límite central. En términos muy simples, una población sigue una distribución normal respecto a alguna medición cuando el grueso de los valores de la población se distribuyen cerca de la media y existe cierta simetría en la forma en que se distribuyen los datos alrededor de la media. En términos matemáticos la definición es la siguiente: Se puede demostrar que la media de esta distribución es . y la desviación es En las siguientes aplicaciones usted puede explorar la forma de las gráficas de distribuciones normales. Se puede variar la media y la desviación estándar para analizar distintos casos. Además la distribución de probabilidad acumulada es decir, P[X ≤ x] se calcula por la integral: FX(x) = P[X ≤x] = dt e Para efectos operacionales, las distribuciones normales son difíciles pues los cálculos que deben hacerse son complejos. Entre las normales, la distribución más importante es la que se llama normal estándar, una normal cuya media es 0 y cuya desviación estándar es 1. De hecho en estas mismas notas veremos que toda probabilidad que implique la distribución normal puede reducirse a una en que se utilice la normal estándar. Y en este caso el cálculo de la distribución de probabilidad acumulada es, Φ(x) = P[X ≤ x] = e dt. La última expresión es una variante de una función que se conoce como la función error erf(x), [1], y solo hay formas numéricas de aproximar sus valores [3,2]. Los valores de la función (x) se pueden obtener en tablas que aparecen en libros de probabilidades o bien utilizando la herramienta provista en estas notas. V.27.- Como la función de distribución de probabilidad es simétrica, y además el área total acumulada, sobre toda la recta real es 1, entonces para cualquier x real se obtiene la siguiente propiedad: (5.1) Φ(x) + Φ(- x) = 1, Para finalizar este corto recorrido por la distribución normal invitamos al lector a seguir cuidadosamente las siguientes líneas. Si X sigue una distribución normal con parámetros y entonces si aplicamos el cambio de variable = a la integral en P[X ≤ x] = dt, e obtenemos P[X ≤ x] = e dt = Φ ( ). Ejemplo 26 Las notas finales de un curso se distribuyen en forma normal con una media de 75 y una desviación estándar de 10. Si la nota de aprobación es de 70 que porcentaje de los estudiantes aprobarán el curso. Solución: Primero se debe notar que la afirmación de que las notas siguen una distribución normal debe entenderse en el sentido aproximado. El porcentaje solicitado puede obtenerse al encontrar el valor P[X ≥ 70]. Dadas las propiedades de las distribuciones de probabilidad se tiene que P[X ≥ 70] = 1 - P[X ≤70] = 1 - Φ ( ) = 1 - 0.6915 = 0.3085. Ejemplo 27 La distribución de peso de ciertos bultos de papel para reciclaje es normal con media de 50 kilos y desviación estándar de 10 kilos. La persona que transporta los paquetes cobra 100 colones por bulto pero desea imponer un peso máximo después del cual cobrar un recargo. Cuál debería ser ese peso para que los bultos tengan una probabilidad inferior al 10% de pagar tal recargo. Solución Hay dos aspectos importantes que se deben notar; el primero de ellos es que si X es la variable aleatoria para el peso de cada paquete lo que se debe encontrar es un valor r tal que: P[X ≥ r] > 0.1, lo que se reduce a encontrar un r que cumpla con: P[X ≤ r] ≤ 0.9, El problema es inverso en el sentido de que no se busca una probabilidad, sino un valor que permita obtener cierta probabilidad. El segundo aspecto que debe tenerse en cuenta es que para poder utilizar las barras de cálculo de que se dispone en estas notas o las tablas, la distribución de normalizarse en el sentido de 18. La siguiente herramienta permite resolver el problema indicado, a saber si se tiene una probabilidad p encontrar el valor r tal que P[X ≤r] = p. Uniendo ese par de observaciones se debe resolver: P[ ≤ ] ≤ 0.9. Utilizando en barra de asistencia la herramienta normal inversa se obtiene la ecuación: = 1.286, de donde r = 62.86. V.28.- Muchas veces, aún cuando una variable aleatoria no siga una distribución normal es posible que su comportamiento pueda ser modelado con distribuciones que siguen comportamientos similares a una normal pero de manera sesgada. Antes de poder estudiar este tipo de distribuciones se hace necesario definir una función sumamente importante en el estudio de diversos problemas en matemática. Por Ejemplo: Otra propiedad importante se obtiene de aplicar a dx y u = e-x, para obtener: ( +1) las partes dv=x Con un poco de paciencia y regla de L'Hopital se puede demostrar que el primer límite en la última expresión es 0 mientras que la segunda integral es ( ). Con esto la función gamma cumple con la propiedad allí si n es entero (n) = (n - 1)!. ( + 1) = ( ) ( ) y de También, usando algunos argumentos de cálculo en varias variables se puede calcular que ( )= . Aparte de un reducido número de argumentos el cálculo de valores de la función gamma debe hacerse utilizando métodos numéricos [3,1]. Para hacer estos cálculos se provee una herramienta, que ha sido programada acorde con [9]. El parámetro puede verse como un parámetro de forma pues su modificación altera la forma de la distribución mientras que funciona como un parámetro de escala. Invitamos al lector que revise la versión electrónica de estas notas a utilizar el graficador para distribuciones gamma y verificar algunas de las formas variando los parámetros. Si en una distribución gamma estándar. = 1 se dice que es una distribución gamma Para una variable aleatoria continua, X, con distribución de probabilidad gamma de parámetros y , aplicando un cambio de variable u = y / se tiene que la función de distribución de probabilidad para X cumple: dy P([X ≤x]) = du = = F(x / (5.2) ; ) Esta última función se conoce como la función gamma incompleta. • E[X] = • Var[X] = Ejemplo 28 Suponga que el tiempo de reacción para iniciar el frenado ante una emergencia, en la población de cierta edad sigue una distribución Gamma con media de .5 segundo y varianza de .1 segundo cuadrado. Solución Dado que la esperanza es .5 y la varianza .1 se obtiene que = 5/2 y = 1/5 En ese caso, si quisiéramos calcular la probabilidad de que la respuesta de frenado en una situación de emergencia sea inferior a .72 segundos usando la expresión (5.2) se tiene que P[X ≤ 7.2] = F(.72/.2, 2.5) = F(3.6, 2.5) Ejemplo 29 Suponga que el tiempo utilizado por una persona preparando un tipo particular de informe sigue una distribución gamma con media de 20 minutos y varianza 80 minutos cuadrados. Aplicando el teorema (19) se obtiene que =5y =4 Para determinar la probabilidad de que una persona elegida al azar tarde menos de 24 minutos preparando el informe debe resolverse P[X ≤ 24] = F(24/4, 5) = F(6, 5) = 0.715 V.29.- La distribución de probabilidad exponencial En realidad la distribución exponencial es un caso especial de la distribución gamma. Ya se ha abordado antes algunos aspectos relativos a la distribución exponencial. • E[X] = • Var[X] = La primera afirmación en este teorema ya ha sido demostrada en la sección 3.3 y la segunda parte se deja como ejercicio para el lector. VI.30.- Si X es una variable aleatoria discreta con rango RX entonces es sencillo deducir la siguiente secuencia de desigualdades: E(X) = xP[X = x] xP[X = x] + xP[X = x] = ≥ xP[X = x] ≥ xP[X = x] = tP[X ≥ t] Este análisis, que se puede hacer en forma equivalente para distribuciones continuas da lugar al siguiente teorema conocido como la desigualdad de Markov [2]. P[X ≥ t] ≤ (6.1) Esta desigualdad permite hacer aproximaciones vagas acerca del comportamiento de variables aleatorias tomando en cuenta únicamente la esperanza. Veamos el siguiente ejemplo. Ejemplo 30 En una caja hay 10 bolillas rojas y 6 negras. Se extraen con remplazo 8 bolillas y se registra el número de bolillas rojas extraídas. X sigue una distribución binomial b(x;8, 10/16) y usando la herramienta para binomiales, es simple verificar por ejemplo que P[X ≥6] = 1 - P[X ≤ 5] = 0.3697. Utilizando la desigualdad de Markov se obtiene que P[X ≥ 6] ≤ 5/6 = 0, 8333. Comparando estos dos valores nos damos cuenta que la cota que se obtiene por la desigualdad de Markov no necesariamente es buena. Es importante notar que si en la desigualdad (6.1) utilizamos t = n P[X ≥ n obtenemos ]≤ Es decir la probabilidad de que los valores de una variable aleatoria estén a más de n veces la media es menor a 1/n. Si además de la media o esperanza se conoce la varianza entonces existe la posibilidad de hacer acotaciones con un poco más de precisión. Supongamos que X es una variable aleatoria con esperanza y varianza Si consideramos la 2 variable aleatoria (X ) , aplicando la desigualdad de Markov a esta variable, cuya esperanza es precisamente (3.9), se obtiene P[(X - )2 ≥ t2] ≤ Dado que [(X )2 ≥ t2es equivalente a | X conocido como la desigualdad de Chebyshev. | ≥ t se obtiene el teorema (6.2) P[| X - )| t] La desigualdad de Chebyshev permite acotar la probabilidad de que los valores de la distribución queden alrededor de la media. Estas aproximaciones no necesariamente son buenas, no obstante mejorar los resultados que se pueden obtener con esta desigualdad implicaría restringir mucho las hipótesis iniciales, como se verá en un ejemplo posterior. Ejemplo 31 Una persona puede digitar un texto en un tiempo que sigue una distribución con media 50 minutos y desviación 10 minutos. Para estimar una cota para la probabilidad de que esta persona tarde entre 30 y 50 minutos se puede recurrir a la desigualdad de Chebyshev y se obtiene P[30 ≤ T ≤ 70] = 1 - P[| X - 50| ≥ 20] ≥ 1 - = Aún cuando este tipo de estimaciones pueden resultar innecesarias cuando se dispone de la distribución de probabilidad el ejemplo siguiente sirve para comparar los resultados que se obtienen usando la de la desigualdad (6.2). Ejemplo 32 El tiempo que tarda un computador en resolver un problema sigue una distribución exponencial con media 2 minutos. Para estimar la probabilidad que el tiempo de solución de un problema al azar esté entre 0 y 6 minutos si utilizamos la desigualdad de Chebyshev obtenemos P[0 ≤ T ≤ 6] = 1 - P[| X - 2| ≥ 4] ≥ 1 - = .75 Es decir con la desigualdad de Chebyshev obtenemos que la probabilidad de que el tiempo esté entre 0 y 6 minutos es superior a 0.75. Si usamos la distribución en forma directa obtenemos que: dx = 1 - e-3 = 0.95 P[0 ≤ T ≤ 6] = Lo que nos indica que las cotas que se obtienen de la desigualdad de Chebyshev pueden no ser muy buenas, no obstante como veremos no es tan fácil mejorar las cotas que se obtienen con esta desigualdad sin imponer restricciones adicionales. El siguiente ejemplo, [2], es ilustrativo en ese sentido. Ejemplo 33 Sea X una variable aleatoria discreta cuya distribución de probabilidad se da en la siguiente tabla: x1 = - 2 x2 = 0 x3 = 2 P[X = x1] = 1/8 P[X = x2] = 3/4 P[X = x3] = 1/8 Es muy sencillo verificar que E[X] = 0 y que VAR[X] = 1 Si aplicamos la desigualdad de Chebyshev obtenemos que P[| X - | ≥ 2] ≤ que en este coincide con el valor pues P[| X - | ≥ 2] = P[X = 2] + P[X = - 2] = + = Este ejemplo indica que aún cuando las cotas obtenidas de la desigualdad (6.2) no siempre son buenas a veces son exactas. VI.31.- Para poner en contexto las implicaciones de este teorema es importante revisar las siguientes observaciones. Dado un experimento con espacio muestral , para un evento se ha indicado que si se hacen n repeticiones del experimento y se nota que en esas n repeticiones del experimento ocurren (n) veces el evento , intuitivamente se define la probabilidad del evento por P[ ]= . Sin embargo, como ya hemos apuntado antes esta definición deja abiertas una serie de preguntas. Por ejemplo si aceptamos definir la probabilidad como el valor límite de estos cocientes entonces la definición se complica. Primero que todo, qué garantiza que ese límite existe, segundo esta definición no es operacional en el sentido de que no es posible repetir infinitamente tal experimento. Estudiaremos la ley de los grandes números que nos ayudará a precisar un poco mejor el sentido de P[ (6.3) ]= Simplificando un poco el problema, cada una de las repeticiones del experimento que se realicen en el contexto citado puede verse como un ensayo de Bernoulli donde el éxito coincide con la ocurrencia de . Así el número de éxitos X en los n ensayos del experimento es una variable aleatoria binomial en la cual la probabilidad de éxito es un valor desconocido p. Para esta variable sabemos que la media es np y la varianza es np(1 - p) (teorema 15). Si consideramos la variable aleatoria Y = X / n es muy sencillo demostrar que la esperanza de Y es np/n = p y que la varianza es (np(1 - p))/n2 = p(1 - p)/n. Aplicando la desigualdad de Chebyshev a Y con t = P -p P -p obtenemos: (6.4) . Es decir el límite (6.3) existe o dicho en palabras algo más simples dada cualquier precisión se puede encontrar un valor n de manera que el cociente éxitos entre el total de ensayos esté tan cerca del valor p desconocido como queramos. En cierta forma esta última desigualdad da legitimidad al proceso estadístico que se ha citado en la definición (10), pues garantiza que el proceso descrito en esta definición en realidad converge al valor de la probabilidad del evento. Por supuesto que no resuelve en forma simple el problema operacional de saber cuál debe ser el número de repeticiones del experimento necesarias para obtener aproximaciones precisas de la probabilidad buscada. Se puede utilizar la desigualdad de Chebyshev para obtener aproximaciones del valor de n pero el teorema del límite central, que abordaremos en la sección siguiente será de mayor utilidad en ese sentido. Las conclusiones que se han obtenido hasta ahora se resumen en el siguiente teorema conocido como una forma débil de la ley de los grandes números [2]. (6.5) P - P[ ] = 0. Paralela a la la forma débil de la ley de los grandes números existe una generalización que se llama la Ley de los grandes Números cuya justificación está fuera de los objetivos de este curso [6] y se enuncia en el siguiente teorema: (6.6) P - ] = 0. Dicho en otras palabras la probabilidad de que el promedio Sn/n difiera de la esperanza menos que un cualquiera, tiende a uno. VI.32.- El último teorema de la sección previa es generalizado por otro teorema cuya importancia en aplicaciones de la probabilidad y estadística es mucho mayor. El teorema del límite central se enuncia seguidamente: P Donde x≤ ≤y (6.7) = Φ (y) - Φ (x). (z) es la distribución normal estándar. La importancia de este teorema es enorme, en especial porque no tiene ninguna condición especial sobre el tipo de distribución al que se aplica. Puede ser continua o discreta, no importa como sean, en promedio la suma de estas variables se distribuyen como una normal con media n y varianza n . Este teorema también es válido para la variable aleatoria = Sn/n para la que, si n se hace grande, distribuye como una normal de media y varianza /n. Para explorar mejor el valor de este teorema se presenta la siguiente aplicación que permite partir de una distribución de datos cualquiera y analizar la distribución de probabilidad de los posibles promedios de muestras sobre la distribución original. VI.33.- El teorema del límite central tiene una implicación adicional que también resulta sorprendente. Si Sn sigue una distribución binomial de parámetros n y p entonces si x y y son enteros no negativos tales que x < y, según el teorema del límite central se tiene que si n es suficientemente grande se cumple. P [x ≤ Sn ≤ y ] → Φ P x Sn -Φ (6.8) - y . Este resultado se conoce como la aproximación normal de la binomial y dado que es aproximación continua de una distribución discreta deben tenerse algunos cuidados adicionales. La mejor manera de utilizar este resultado puede obtenerse en la expresión: k p (1 - p) k n-k n-k p (1 - p) =Φ = Φ (6.9) - El valor 1/2 que se agrega a cada lado se llama un factor de corrección de continuidad. La razón para agregar tal factor de corrección es que si uno usa una distribución normal, que es continua, para aproximar una binomial que es discreta, en cada extremo del intervalo la distribución discreta incluye la mitad de una barra que la distribución continua omite, por eso debe agregarse. Las siguientes gráficas pueden ayudarle a comprender la necesidad de este factor de corrección. Ejemplo 34 Se sabe que en una ciudad el 35% de los habitantes tienen sobrepeso. Se eligen 500 personas, cuál es la probabilidad de que haya entre 200 y 300 con sobrepeso. La solución de este problema se obtiene por la expresión k (0.35) (0.65) 500 - k (0.35)k(0.65)500 - k - . Usando la herramienta para cálculo de binomiales se obtiene que la parte izquierda es 0.008864 mientras que la parte derecha, usando la herramienta correspondiente es 0.0108. Existen varios criterios para asegurar la precisión de este tipo de aproximaciones. Los ejemplos abundan, por ejemplo en [5] se afirma que si np ≥ 5 y n(1 - p) ≥ 5 la aproximación es adecuada, en [2] se presenta un resumen de diferentes condiciones para asegurar precisión, al final de cuentas lo que si es válido es que valores de p muy cercanos a 0 o 1 hacen que las aproximaciones normales de binomiales no sean buenas. En la Herramienta que se da a continuación el lector puede colocar valores de n y p y verificar por si mismo la calidad de la aproximación normal de la binomial. Ejemplo 35 Dos empresas de venta de servicios telefónicos optan por el mismo mercado, hay n clientes que seleccionan al azar alguna de las dos empresas. Si una de las empresas tiene capacidad de atender a lo sumo r < n clientes entonces la probabilidad de que esta empresa reciba solicitudes de más de r clientes está dada por k (.5) (.5) n–k (.5)k(.5)n - k ≈ 1- Φ 1- =1-Φ =1Por ejemplo si hay 1000 clientes y una de las empresas desea que el total de solicitudes sin atender no exceda el 10% entonces usando las herramientas disponibles se obtiene que Φ ≥ 0.9 de donde se obtiene que r = 520, líneas bastarán para satisfacer al menos el 90% de las demandas de servicio. Si ese porcentaje se elevara y se quisiera que el porcentaje de solicitudes sin atender no exceda el 1% entonces se debe resolver Φ ≥ 0.99 usando las herramientas disponibles y despejando se obtiene que r = 537 líneas son suficientes. Esta aproximación no solo es buena, es excelente como puede verificarse usando las herramientas para binomiales que se han programado. Para estas herramientas se ha obtenido una precisión sorprendente, si hiciéramos el mismo análisis pero con una probabilidad de 0.7 de que cada cliente elija a esta empresa; usando la aproximación normal se obtendría que se necesitan 734 líneas si se usa la binomial en forma directa se ve que 733 bastan. Se invita al lector a ver el comportamiento para otros valores de p. Como nota aparte es interesante hacer notar que el desempeño de estas herramientas programadas mejoran los resultados que se obtienen en tablas como las de [6] además permiten una serie de exploraciones que de otra manera serían muy complicadas. VI.34.- Estimadores Un estimador de un parámetro de una variable aleatoria X es una variable aleatoria, que puede depender de una muestra aleatoria X1, X1,..., Xn. Los dos estimadores más usuales son el promedio usual llamado también media y la varianza muestral denotado por S2. muestral y denotado por Estos estimadores son a su vez variables aleatorias, = = 2 S = 2 S = Xi (6.10) Xi (Xi - (Xi - ) 2 (6.11) 2 ) La desviación estándar muestral S es la raíz de la varianza. Como sus nombres lo indican, se tiene que es un estimador para la esperanza, S2 lo es para la varianza Var[X] y S para la desviación estándar . El siguiente teorema, que en algunos textos [5] se llama teorema del límite central, es sumamente útil pues permite resolver diversos ejercicios de manera bastante simple. 1. E [ ]= 2. E[S2] = 3. Var[ ]= 4. Si n es suficientemente grande, entonces la variable Z= (6.12) Z= 5. sigue una distribución que se aproxima a una normal estándar. Este teorema puede ampliarse de forma directa a la distribución T = n = X1 + X2 + ... + Xn la cual también sigue una distribución normal con media n y desviación estándar . Nuevamente, entre mayor sea el valor de n mejor será la aproximación. Hemos desarrollado una aplicación que nos permite simular el comportamiento de los promedios de las varianzas cuando se parte de una distribución con k valores cualesquiera y se estudia valores de n suficientemente grandes. El estudiante puede variar la distribución de probabilidad inicial así como los datos iniciales y la herramienta le muestra cual es la distribución de probabilidad de la variable promedio. El estudiante mediante exploración podrá validar los resultados que se han discutido previamente, en especial puede ver como a valores mayores de n la distribución de las medias se acerca más a una normal. En papel la aplicación es bastante simple, toma una distribución de probabilidad y un valor n que es el tamaño del muestreo. Calcula todas las combinaciones de X1, X2,..., Xn, hace los promedios, les calcula las probabilidades a cada uno y construye la distribución de probabilidad de los mismos, la cual se presenta en forma de tabla y en forma gráfica. VI.35.- Ejemplos En una gran empresa el 60% de las personas tiene problemas de tensión. Cuál es la probabilidad de que en una muestra de 1000, 615 o más presenten este problema. Solución Este problema es de tipo binomial, puede resolverse calculando en forma directa 1 - B(614;1000,.6) lo que conduce al valor 0.158528, También podemos recurrir a la aproximación normal de binomial y la probabilidad solicitada es: P [ X ≥ 615] Φ P[X 615] = -Φ - = 1 - Φ(.93597) = 0.174 Ejemplo 37 Las consultas a un sistema tienen una duración cuya media es de 4 segundos y su desviación estándar es de 1.5 segundos. Si llegan 50 consultas en forma independiente, cuál es la probabilidad de que las 50 tengan una duración promedio entre 3.5 y 3.8 segundos. Solución Si aplicamos los resultados descritos hasta ahora el promedio de la muestra de las 50 consultas sigue una distribución que es aproximadamente normal con media = 4 y desviación estándar = 1.5/ = 0.2121. Luego: P[3.5 ≤ X ≤ 3.8] = Φ P[3.5 X 3.8] = -Φ - = 0.1645. = 0.1645. Ejemplo 38 Una sonda espacial cuenta con un juego de 10 computadores para controlar su estado. En todo momento se encuentra trabajando un único computador y estos trabajan en forma serial de manera que en el instante en que uno falle empieza a funcionar el siguiente, y así sucesivamente hasta utilizar los 10 computadores. La sonda está por pasar detrás de un planeta, por lo que se espera no tener comunicación con ella durante 4000 horas. Si cada computador opera correctamente 440 horas en promedio con una desviación estándar de 30 horas, entonces el tiempo acumulado de funcionamiento, Y de todas los computadores sigue una distribución que se puede aproximar por una normal con media 1440 y desviación estándar 30 . P[Y > 4000] = 1 - Φ = 1 – Φ (- 4.21) ≈ 1. Si el promedio de funcionamiento de cada computador fuera de 410 horas y la desviación estándar de 30 entonces la probabilidad pedida sería: P[Y > 4000] = 1 - Φ = 1 - Φ (- 1.05409) = 1 - 0.14592 = 0.85408. Ejemplo 39 El rendimiento de cierto cilindro de gas está normalmente distribuido con una media de 6 horas y una desviación estándar de 0.5 horas. Este gas se vende en paquetes de 5 cilindros y en cada paquete se utilizan los cinco cilindros en forma secuencial, es decir se empieza uno solamente si se ha terminado el anterior. Se desea determinar el tiempo máximo de duración de cada paquete de manera que éste sea excedido sólo por el 3% de los paquetes. Solución Como el tiempo de duración de cada cilindro es normal la distribución del tiempo TP = T1 + ... + T5 de cada paquete también es normal con media 30 y desviación estándar 0.5 , lo que se solicita es un valor c tal que. P[TP < c] = 0.97 = P[Z < ] = 0.97 De la herramienta correspondiente se obtiene = 1.8807 es decir c = 31.977, es decir solo un 3% de los paquetes tienen una duración de más de 31.977 horas. Ejemplo 40 La duración de una batidora de un cierto fabricante es de 5 años, con una desviación estándar de un año. Si asumimos que las duraciones de estos mezcladores siguen aproximadamente una distribución normal, la aplicación de los teoremas estudiados nos permite hacer las siguientes deducciones. Si se toma una muestra aleatoria de 9 de estas batidoras entonces como la duración de un mezclador es de 5 años con una desviación de 1 año, la duración promedio sigue una distribución normal con la media de 5 años con una desviación de = = 0.3333. Si se quiere la probabilidad de que en promedio este grupo dure entre 4.4 y 5.2 años se tiene P[4.4 ≤ ≤5.2] = P[- 1.8 ≤ Z ≤.60] = 0.9918 - 0.0359 = 0.9559 O por ejemplo el valor de a la derecha del cual caería el 15% de las medias calculadas de las muestras aleatorias de tamaño 9 se obtiene del cálculo. P[ ≥ ] = 0, 15 o bien P[ ≤ ] = P[Z ≤ ] = 0, 85 de la tabla y despejando se obtiene = 5, 35, es decir si se compraran 9 batidoras un 15% de éstas funcionaría por un período superior a 5.35 años. Ejemplo 41 Un médico atiende un paciente en un tiempo que es una variable aleatoria con media = 8 minutos y desviación estándar 3 minutos. Si debe atender un total de 40 pacientes la probabilidad de que atienda todos los pacientes en menos de 5 horas, asumiendo que los pacientes ingresan, en forma continua es P[T = T1 + ... + T40 ≤ 300] = P[Z < ] = 0, 1469 La probabilidad de que el tiempo promedio de atención sea superior a 7.5 minutos se obtiene de P[ > 7.5] = 1 - P[Z ≤ ] = 0.8531 INTEGRACION CONCEPTUAL (El titular académico, conocerá las respuestas) Conocerá la administración de recursos humanos, donde se aplica a organizaciones de cualquier clase y tamaño. En general los asuntos estudiados por la administración de recursos humanos abarcan una gran cantidad de campos de conocimiento, se habla de la aplicación e interpretación de pruebas psicológicas y entrevistas, tecnología del aprendizaje individual, cambio organizacional salud, salarios, higiene en el trabajo, selección del personal, reclutamiento de personas y desarrollo organizacional. REVISADO POR LA COORDINACIÓN GENERAL EDUCATIVA EL DIA 25 DE OCTUBRE DE 2007. -------------------------------------------------------------------------------------------------------------REPORTES CRÍTICOS O SUGERENTES A; Dr. Ernesto Guerra García, Coordinador General Educativo. (Correo electrónico [email protected]) Geranios 1362 pte. Colonia Jardines de Fátima, Los Mochis, Sinaloa, México. C.P. 81223. Tel. 01 668 81 7 08 88. --------------------------------------------------------------------------------------------------------------