Download probabilidad

Document related concepts
no text concepts found
Transcript
PROBABILIDAD
Asignatura Clave: FIM018 Número de Créditos: 5 Teóricos: 4 Prácticos: 1
Asesores Responsables: M. en A. Eduardo Suárez Mejía
INSTRUCCIONES PARA OPERACIÓN ACADÉMICA:
El sumario representa un reto. Los contenidos son los ejes temáticos. Los
activos una orientación inicial para resolverlos y la síntesis concluyente como
posibilidad de integración conceptual corresponderá a lo factible de un punto
de vista temático amplio. La visión global de los asuntos resueltos como titular
académico, te ofrecerá oportunidad de discusión que se enriquecerán en la
medida que intensificas las lecturas, asistes a tu comunidad de estudio te sirves
de los asesores y analizas la ciberinformación disponible posicionándote de los
escenarios informativos adecuados. Los periodos de evaluación son
herramientas de aprendizaje. Mantén informado al Tutor de tus avances
académicos y estado de ánimo. Selecciona tus horarios de accesoria. Se
recomienda al titular académico (estudiante) que al iniciar su actividad de
dilucidación, lea cuidadosamente todo el texto guión de asignatura. Para
una mejor facilitación. El documento lo presentamos en tres ámbitos: 1.- relación
de las unidades. 2.- relación de activos. 3.- Principia Temática consistente en
información inicial para que desarrolles los temas.
COMPETENCIAS: Al finalizar el curso el estudiante podrá manejar la teoría de
la probabilidad desde la perspectiva científico axiomática, para que a partir de aquí
pueda diseñar experimentos matemáticos en el área del control estadístico de
calidad.
SUMARIO: En este curso se analizan los principios básicos de probabilidad, las
técnicas de conteo y de combinatoria, las propiedades de las principales
distribuciones de probabilidad así como la ley de los grandes números explicada
en el teorema del límite central.
PROBABILIDAD
CONTENIDOS:
UNIDAD I.- Conceptos Básicos de Probabilidad
UNIDAD II.- Combinatoria Elemental
UNIDAD III.- Distribuciones de Probabilidad
UNIDAD IV.- Distribuciones de Probabilidad Discretas
UNIDAD V.- Distribuciones Continuas
UNIDAD VI.- Teorema del Límite Central
ACTIVOS
UNIDAD I
Conceptos Básicos de Probabilidad
I.1.- Conceptos Preliminares
I.2.- Teoría básica de conjuntos
I.3.- Algunas definiciones y propiedades
I.4.- Conjunto Potencia
I.5.- Conjunto Producto
I.6.-Cardinalidad
I.7.- Medidas de Probabilidad
I.8.- Espacios Muestrales Discretos
I.9.- Reglas para el Cálculo de Probabilidades
I.10.- Regla de Producto
I.11.- Probabilidad Condicional
I.12.- Probabilidad Total y Regla de Bayes
Actividad:
1. Which of the following is the sample space
when 2 coins are tossed?
{H, T, H, T}
{H, T}
{HH, HT, TH, TT}
None of the above.
RESULTS BOX:
2. At Kennedy Middle School, 3 out of 5 students
make honor roll. What is the probability that a
student does not make honor roll?
65%
40%
60%
None of the above.
RESULTS BOX:
3. A large basket of fruit contains 3 oranges, 2
apples and 5 bananas. If a piece of fruit is
chosen at random, what is the probability of
getting an orange or a banana?
None of the above.
RESULTS BOX:
4. A pair of dice is rolled. What is the probability
of getting a sum of 2?
None of the above.
RESULTS BOX:
5. In a class of 30 students, there are 17 girls and
13 boys. Five are A students, and three of these
students are girls. If a student is chosen at
random, what is the probability of choosing a
girl or an A student?
None of the above.
RESULTS BOX:
6. In the United States, 43% of people wear a seat
belt while driving. If two people are chosen at
random, what is the probability that both of
them wear a seat belt?
86%
18%
57%
None of the above.
RESULTS BOX:
7. Three cards are chosen at random from a deck
without replacement. What is the probability of
getting a jack, a ten and a nine in order?
None of the above.
RESULTS BOX:
8. A city survey found that 47% of teenagers have
a part time job. The same survey found that
78% plan to attend college. If a teenager is
chosen at random, what is the probability that
the teenager has a part time job and plans to
attend college?
60%
63%
37%
None of the above.
RESULTS BOX:
9. In a school, 14% of students take drama and
computer classes, and 67% take drama class.
What is the probability that a student takes
computer class given that the student takes
drama class?
81%
21%
53%
None of the above.
RESULTS BOX:
10. In a shipment of 100 televisions, 6 are
defective. If a person buys two televisions
from that shipment, what is the probability
that both are defective?
None of the above.
RESULTS BOX:
UNIDAD II
Combinatoria Elemental
II.13.- Reglas Básicas
II.14.- Permutaciones de un Conjunto
II.15.- Combinaciones
II.16.- Distribución de objetos indistinguibles
II.17.- Propiedades Importantes
Actividad:
1
Which of the following is a correct statement about a probability?
A) It may range from 0 to 1.
B) It may assume negative values.
C) It may be greater than 1.
D) It cannot be reported to more than 1 decimal place.
E) All the above are correct.
2
An experiment is a
A) Collection of events.
B) Collection of outcomes.
C) Always greater than 1.
The act of taking a measurement or the observation of some
activity.
E) None of the above are correct.
D)
3
Which of the following is not a type of probability?
A) Subjective
B) Independent
C) Relative frequency
D) Classical
4
Events are independent if
A) By virtue of one event happening another cannot.
B) The probability of their occurrence is greater than 1.
C) We can count the possible outcomes.
The probability of one event happening does not affect the
D)
probability of another event happening.
E) None of the above.
5
The Special Rule of Addition is used to combine
A) Independent events.
B) Mutually exclusive events.
C) Events that total more than one.
D) Events based on subjective probabilities.
E) Found by using joint probabilities.
6
We use the General Rule of Multiplication to combine
A) Events that are not independent.
B) Mutually exclusive events.
C) Events that total more than 1.00.
D) Events based on subjective probabilities.
E) Found by using joint probabilities.
7
When we find the probability of an event happening by subtracting the
probability of the event not happening from 1, we are using
A) Subjective probability.
B) The complement rule.
C) The general rule of addition.
D) The special rule of multiplication.
E) Joint probability.
8
When we determine the number of combinations
A) We are really computing a probability.
B) The order of the outcomes is not important.
C) The order of the outcomes is important.
D) We multiply the likelihood of two independent trials.
E) None of the above.
9
The difference between a permutation and a combination is:
A) In a permutation, order is important and in a combination, it is not.
In a permutation, order is not important and in a combination, it is
B)
important.
C) A combination is based on the classical definition of probability.
D) A permutation is based on the classical definition of probability.
E) None of the above.
10
The Greater Bismarck, ND Accounting Association has 15 members, 10 of
which are CPAs. The members are to be selected to study ways to increase
membership. What is the probability all three selected are CPAs?
A) .296
B) .264
C) .736
D) None of the above.
UNIDAD III
Distribuciones de Probabilidad
III.18.- Preliminares
III.19.- Definiciones Básicas
III.20.- Parámetros en una Distribución
III.21.- Función Generadora de Momentos
Actividad:
1. Tres máquinas, A, B y C, producen el 45%, 30% y 25%, respectivamente, del
total de las piezas producidas en una fábrica. Los porcentajes de producción
defectuosa de estas máquinas son del 3%, 4% y 5%. Solucionar a través de Excel
lo siguiente:
a. Seleccionamos una pieza al azar; calcula la probabilidad de que sea
defectuosa.
b. Tomamos, al azar, una pieza y resulta ser defectuosa; calcula la
probabilidad de haber sido producida por la máquina B.
c. ¿Qué máquina tiene la mayor probabilidad de haber producido la citada
pieza defectuosa?
2. Para tratar a un paciente de una afección de pulmón han de ser operados en
operaciones independientes sus 5 lóbulos pulmonares. La técnica a utilizar es tal
que si todo va bien, lo que ocurre con probabilidad de 7/11, el lóbulo queda
definitivamente sano, pero si no es así se deberá esperar el tiempo suficiente para
intentarlo posteriormente de nuevo. Se practicará la cirugía hasta que 4 de sus
5lóbulos funcionen correctamente. a) ¿Cuál es el valor esperado de intervenciones
que se espera que deba padecer el paciente? b) ¿Cuál es la probabilidad de que
se necesiten 10 intervenciones?. Solucionar a través de Excel.
3. La probabilidad de tener un accidente de tráfico es de 0,02 cada vez que se
viaja, si se realizan 300 viajes, ¿cuál es la probabilidad de tener 3 accidentes?.
Solucionar a través de Excel.
4. En un banco, el promedio de llegadas para hacer cola se rige por la ecuación de
Poisson:
P[n llegadas en le tiempo T] =
Si existe un promedio de 6 llegadas aleatorias por hora, ¿Cuál es la probabilidad
de que haya sólo 3 llegadas durante una hora? Solucionar a través de Excel.
5. El contenido de siete contenedores similares de ácido sulfúrico son 9.8, 10.2,
10.4, 9.8, 10.0, 10.2, y 9.6 litros. Encuentre un intervalo de confianza del 95% para
la media de todos los contenedores si se supone una distribución
aproximadamente normal.
6. La renta media de los habitantes de un país es de 4 millones de pesos/año, con
una varianza de 1,5. Se supone que se distribuye según una distribución normal.
Calcular en Excel: a) El porcentaje de la población con una renta inferior a 3
millones de ptas, b) La renta a partir de la cual se sitúa el 10% de la población con
mayores ingresos y c) Los ingresos mínimo y máximo que engloba al 60% de la
población con renta media.
UNIDAD IV
Distribuciones de Probabilidad Discretas
IV.22.- Distribución de Probabilidad Binomial.
IV.23.- Media y varianza
IV.24.- Distribución de Poisson
IV.25.- Distribución de probabilidad Hipergeométrica
Actividad:
The binomial experiment consists of n independent, identical trials, each of which
results in either success or a failure and is such that the probability of success on
any trial is the same.
A) True
B) False
2
A Poisson random variable is a continuous variable that can be used to describe
the number of occurrences of an event over a specified interval of time or space.
A) True
B) False
If p = .1 and n = 5, then the corresponding binomial distribution is
_______________
A) right skewed.
B) left skewed.
C) symmetric.
D) bimodal.
4 If p = .5 and n = 4, then the corresponding binomial distribution is
________________
A) right skewed.
B) left skewed.
C) symmetric.
D) bimodal.
5
The requirement that the probability of success remains constant from trial to trial
is a property of the binomial distribution.
A) True
B) False
6
If the number of surface nonconformities on a specific size of metal piece is the
discrete random variable in question, then the appropriate probability distribution
that can describe the probability of a specific size metal sheet containing 3
nonconformities is given most likely by binomial distribution.
A) True
B) False
7 Which of the following distributions can be used to solve the following problem?
The average number of cars arriving at a drive-thru fast food restaurant is 3 in
ten minutes. What is the probability that exactly 4 cars will arrive in a five-minute
interval?
A) Binomial
B) Poisson
C) Both of the above.
D) None of the above.
8 The mean of the binomial distribution is equal to
A) p.
B) (n) (p).
C)
(1.0K)
D) (n)(p)(1-p).
E)
(1.0K)
9
Which of the following is a valid probability value for a discrete random variable?
A) .2
B) 1.01
C) -.7
D) All of the above.
0
Which one of the following is not an assumption of the binomial distribution?
A) Each trial results in “success” or “failure.”
B) The experiment consists of n identical trials.
C) The probability of success changes from trial to trial.
D) Trials are independent of each other.
E) Each trial results in one of two mutually exclusive outcomes.
UNIDAD V
Distribuciones Continuas
V.26.- La distribución Normal
V.27.- ">Algunas Propiedades Importantes
V.28.- Las distribuciones Gamma
V.29.- La distribución de probabilidad exponencial
Actividad:
1. A phone-in poll conducted by a newspaper reported that 73% of those
who called in liked business tycoon Donald Trump. The unknown true
percentage of American citizens that like Donald Trump is called a:
A. statistic
B. sample
C. parameter
D. population
2. A simple random sample of 50 undergraduates at Johns Hopkins
University found that 60% of those sampled felt that drinking was a problem
among college students. A simple random sample of 50 undergraduates at
Ohio State University found that 70% felt that drinking was a problem among
college students. The number of undergraduates at Johns Hopkins
University is approximately 2000, while the number at Ohio State is
approximately 40,000.
Which of the following is the best conclusion regarding the above data?
A. The sample from Johns Hopkins has much less sampling variability than
that from Ohio State.
B. The sample from Johns Hopkins has much more sampling variability than
that from Ohio State.
C. The sample from Johns Hopkins has almost the same sampling variability
as that from Ohio State.
D. It is impossible to make any statements about the sampling variability of
the two samples since the students surveyed were different.
3. Using the above data, suppose the actual proportion of undergraduates at
Johns Hopkins University who feel drinking is a problem among college
students is 70%. The mean of the sampling distribution of the percentage
that feel drinking is a problem in repeated simple random samples of 50
Johns Hopkins undergraduates is what?
A. 50%
B. 60%
C. 65%
D. 70%
4. The number of undergraduates at Johns Hopkins University is
approximately 2000, while the number at Ohio State University is
approximately 40,000. At both schools a simple random sample of about 3%
of the undergraduates is taken. Which of the following is the best
conclusion?
A. The sample from Johns Hopkins has less sampling variability than that
from Ohio State.
B. The sample from Johns Hopkins has more sampling variability than that
from Ohio State.
C. The sample from Johns Hopkins has almost the same sampling variability
as that from Ohio State.
D. It is impossible to make any statements about the sampling variability of
the two samples since the students surveyed were different.
5. What is a random variable?
A. the particular sample obtained from simple random sampling
B. a variable whose value is a numerical outcome of a random phenomenon
C. any number that has an unknown and unpredictable value
D. the particular variable selected by random sampling from an initial list of
possible variables
6. Which of the following random variables would be considered
continuous?
A. the number of brothers a randomly chosen person has
B. the time it takes for a randomly chosen woman to run 100 yards
C. the number of cars owned by a randomly chosen adult male
D. number of orders received by a mail order company in a randomly chosen
week
7. The random variable X denotes the time taken for a computer link to be
made between the terminal in an executive's office and the computer at a
remote factory site. It is known that X has a normal distribution with mean 15
seconds and standard deviation 3 seconds. Choose the option closest to the
value of P(X < 20).
A. 0.548
B. 0.952
C. 0.048
D. 0.452
8. Let the random variable X represent the profit made on a randomly
selected day by a certain store. Assume X is normal with a mean of $360 and
standard deviation $50. The probability is approximately 0.6 that on a
randomly selected day the store will make less than
A. $347.40
B. $0.30
C. $361.30
D. $372.60
9. The normal distribution is a reasonably good approximation to the
binomial distribution provided that
A. np > 10 and n(1 - p) > 10
B. np > 10 and n(1 - p) < 10
C. np < 10 and n(1 - p) > 10
D. np < 10 and n(1 - p) < 10
(By the way, the reason why our estimates in class were so far off was that I forgot
to use the adjustment moving from a descrete distribution (like the number of
"heads") to the continuous Normal Distribution. For example, to estimate 6 or more
"Heads", I would find the z score of 5.5 and see the area under the Normal
Distribution greater than the z-score of 5.5)
10. Forty-eight percent of the students at a certain state university prefer the
semester system over the quarter system. A survey is taken of 200 students
(selected at random). Choose the option closest to the probability that more
than half of these students prefer semesters.
A. 0.3300
B. 0.5000
C. 0.2843
D. 0.7157
UNIDAD VI
Teorema del Límite Central
VI.30.- Desigualdades de Markov y Chebyshev
VI.31.- Leyes de los Grandes Números
VI.32.- El Teorema del Límite Central
VI.33.- Aproximación Normal Binomial
VI.34.- Estimadores
VI.35.- Algunos Ejemplos
Actividad:
1. Una agencia de encuestas de opinión quiere estimar con un nivel del 90% de
confianza la proporción de ciudadanos que votarán por un determinado candidato
dentro de ± 0.06 de la proporción real de votantes. ¿Cuál es el tamaño mínimo de
la muestra requerido si otras encuestas indican que la proporción de votación por
este candidato es 0.30?
2. Una muestra aleatoria de 30 empleados de una gran empresa dio como
__
resultado una media X = $180 pesos por hora con una desviación estándar s = $14
pesos por hora. Estimar el intervalo de confianza para el promedio salarial de
todos los empleados al 95% de confianza.
3. El ciclo medio de vida operativa de una muestra aleatoria de n = 10 focos es
__
X = 4000 horas, con una desviación estándar s = 200 h. Se supone que el ciclo de
vida operativa de los focos en general tiene una distribución aproximadamente
normal. Estime el ciclo medio de vida operativa de la población de focos de la que
fue tomada esta muestra, aplicando un intervalo de confianza de 95%.
PROBABILIDAD
PRINCIPIA TEMÁTICA
I.1.- Dado que los lectores podrían no recordar algunos conceptos básicos se
tratará de que esta sección constituya un punto de referencia que le permita
refrescar los conocimientos indispensables para el desarrollo del resto del
material. Esto no elimina la necesidad de que en el transcurso del estudio de estas
notas debamos abordar aspectos periféricos importantes.
I.2.- El estudio formal de la teoría de conjuntos no es el interés en estas notas, los
resultados que se presentan son básicos y en la mayoría de los casos su
demostración o justificación se dejará al lector. Si los temas le parecen conocidos
pero no los recuerda bien, se recomienda al menos una lectura rápida.
El estudio de la probabilidad está estrechamente ligado con el estudio particular de
algunos conceptos sobre conjuntos que se discutirán en esta corta sección.
En teoría de conjuntos los términos elemento, conjunto y pertenencia no se
definen, se asume que de una u otra manera el lector tiene una idea al respecto.
De hecho, cualquier intento por definir alguno de estos conceptos nos llevaría a
definiciones circulares, es decir definiciones que reducen el concepto a un término
que no es más que un sinónimo del mismo. Por ejemplo en [7] se define un
conjunto como una colección de elementos distintos. Esta definición usa dos
conceptos que no son claros: elemento y colección.
Es usual que los conjuntos se representen por letras mayúsculas A, B, C,... y los
elementos por letras minúsculas, a, b, c.... Se usa la notación xЄ A para indicar
que el elemento x pertenece al conjunto A, es decir x es uno de los elementos de
A.
Si bien no existe un conjunto universal [7], usaremos el concepto de conjunto
universal o universo restringiéndolo a dominios específicos. Por ejemplo, si
hablamos de conjuntos de números enteros entonces el conjunto universo es el
conjunto de los enteros. Esta simple aclaración nos facilitará la discusión de
algunos de los conceptos que abordaremos posteriormente.
Iniciaremos recordando el Principio de comprensión, sumamente importante en el
estudio de los conjuntos.
Si tenemos un conjunto universo, podemos pensar que cada uno de los elementos
de este conjunto debe cumplir o satisfacer alguna condición para estar en ese
conjunto y es usual que a los elementos que cumplan con esta condición que los
caracteriza les digamos que son de cierto tipo. Por ejemplo si se tiran dos dados,
uno azul y uno rojo y se anotan las caras que caen en cada uno de ellos, el
conjunto de posibles resultados esta formado por 36 pares ordenados; ese
conjunto, el universo para el experimento de tirar dos dados y registrar las caras
que caen, tiene un tipo especial, digamos tipo resultado.
Este principio nos permite garantizar que para todo tipo de elemento y para todo
predicado siempre hay un subconjunto que cumple el predicado, este conjunto
puede ser vacío.
Otro principio importante es el Principio de extensión que permite establecer la
igualdad entre conjuntos.
I.3.- Algunas definiciones y propiedades
Note que acorde con esta definición se cumple que un conjunto sin elementos, Φ
es subconjunto de todo conjunto.
Si Ω es un conjunto y A ⊂ Ω se define el conjunto complemento de A respecto a
Ω por:
~A=Ω\A
Las siguientes propiedades se enuncian sin demostración y resumen algunas de
las más importantes acerca de las operaciones definidas previamente.
Propiedades de la Unión
•
Conmutatividad
•
Asociatividad
(A
B)
•
Identidad
A
Φ = A.
•
Medio Excluido
•
Otras
B=B
A
A.
C=A
=A
(B
C).
(B
C).
A.
A ⊆ AU B
Propiedades de la Intersección
•
Conmutatividad
A
B=B
•
Asociatividad
(A
B)
•
Identidad
A
= A.
•
Contradicción
A
A = Φ.
•
Otras
A
B
A.
C=A
A.
Propiedades Conjuntas
•
•
•
Distributividad
o
A
(B
C) = (A
B)
(A
C).
o
A
(B
C) = (A
B)
(A
C).
Leyes de De Morgan
o
(A
B) =
A
B.
o
(A
B) =
A
B
Otras
o
A \ (B
C) = (A \ B)
(A \ C).
o
A \ (B
C) = (A \ B)
( A \ C).
I.4.- Un conjunto importante asociado con todo conjunto es el conjunto potencia o
partes de.
Así P(
) es un conjunto cuyos elementos son todos los subconjuntos de
.
I.5.- Si x y y son elementos, es posible agruparlos en una estructura que se llama
par ordenado. Un par ordenado puede verse como un conjunto en cuya definición
se refleja de manera clara la idea de dos elementos agrupados en un orden
definido. La siguiente definición permite lograrlo.
I.6.- Un concepto de vital importancia al estudiar probabilidad radica en la
posibilidad de que dado un conjunto A, dentro de un universo , se pueda asignar
a este conjunto alguna medida relativa al universo en el cual está inmerso. Existen
teorías completas al respecto y si bien podrían ser bastante útiles en el desarrollo
que haremos no profundizaremos en ninguna de ellas.
Los conjuntos con los que trataremos se dividen en dos grandes grupos: discretos
y continuos.
En términos simples un conjunto contable (discreto) es aquel en el cual exista una
manera de contar sus elementos, puede tener una cantidad finita o infinita de
elementos, pero de alguna manera puede encontrarse una estrategia para
contarlos.
Por ejemplo los naturales son un conjunto discreto, de hecho son el conjunto que
se utiliza para poder contar otros. Todo conjunto finito es contable, los enteros son
un conjunto contable y los racionales también. Invitamos al lector a encontrar
estrategias para contar los enteros y los racionales [8].
Para conjuntos discretos finitos la cardinalidad es una manera de asignarles una
medida. A continuación listamos un conjunto de propiedades de la cardinalidad.
Propiedades de Cardinalidad
•
Si
AB
•
Si
A
•
Si
| A| = n
•
Si
| A| = n, | B| = m
| A|
B=Φ
|A
| B|
B| = | A| + | B|
| P(A)| = 2n
A×B|=mn (1.1)
Cuando los conjuntos no son discretos el concepto de cardinalidad carece de
sentido y se sustituye por el término de medibilidad, un concepto fuera de los
objetivos de estas notas, no obstante hablaremos levemente de algunos términos
necesarios en probabilidades.
I.7.- Los siguientes resultados son sumamente importantes al tratar de formalizar
lo que entenderemos por probabilidades. De alguna forma podríamos prescindir
de algunas de estas definiciones y a pesar de ello aprender a resolver problemas
que tienen que ver con la probabilidad, pero hemos decidido hacer esta sección
suficientemente completa, pues muchos de los estudiantes a los cuales están
dirigidas estas notas aprecian el formalismo como una excelente alternativa para
luchar contra la imprecisión que puede venir del exceso de informalidad.
I.8.- Espacios Muestrales Discretos
Las siguientes definiciones constituyen un punto de partida importante para iniciar
el estudio de la materia que nos interesa. De hecho constituyen caracterizaciones
operacionales de los tipos de probabilidad discutidos, en la sección introductoria.
Ejemplo 1
Se lanza un par de dados que no están cargados y se registra la suma de las
caras. Determine la probabilidad del evento T : la suma de los números en ambas
caras es 6.
Solución
En este caso, por (1.1) hay 36 posibles resultados, de los cuales (3, 3), (1, 5), (5,
1), (2, 4) y (4, 2) suman 6 así:
Ejemplo 2
P[T] =
En una caja hay 4 libros de inglés y 3 de ruso. Se escoge al azar un libro de la
caja. ¿Cuál es la probabilidad de que el libro escogido sea de ruso?
Solución
Sea R el evento se escoge un libro de Ruso. Hay 3 casos en los cuales al escoger
el libro resulta ser de ruso y un total de 7 escogencias por lo tanto:
P[R] =
Funciones de Probabilidad
Las definiciones (10) y (11), caracterizan la probabilidad de un evento en términos
de la frecuencia relativa.
La primera permite la asignación de una medida de probabilidad a un evento
mediante la experimentación. La segunda es mucho más clara y en el sentido
operacional es aceptable, pero requieren que el espacio muestral sea finito.
Por otro lado la afirmaciones de que "los resultados pueden ocurrir igualmente, y
son mutuamente excluyentes", difícilmente pueden ser demostradas, y es usual
que no se cumplan.
Esa no es una limitación importante pues esta última definición puede
generalizarse para que permita caracterizar cualquier probabilidad. No obstante se
hace necesario establecer algunas condiciones a la colección de todos los eventos
del espacio muestral.
Dado un espacio muestral , se asume que la familia
cumple las siguientes propiedades:
•
Se tiene que Φ
y
•
Si A
•
Si A1, A2, A3,... son elementos de
, entonces
de todos los eventos
.
.
A
, también lo es
Ai.
Cualquier conjunto que cumpla con las propiedades anteriores se llama una
álgebra.
-
Con estas propiedades se puede demostrar con alguna facilidad los siguientes
hechos, referimos al lector interesado a [2]:
•
Si los eventos A1, A2, A3,... son elementos de
•
La unión finita de eventos de
•
Si A y B están es
está en
, también lo es
A i.
.
también lo está A \B.
Una función de probabilidad definida sobre la -álgebra de todos los eventos de
un espacio muestral , debe cumplir las siguientes propiedades:
•
0
P[A] para todo evento A.
•
P[
] = 1.
•
Si A y B son eventos mutuamente excluyentes entonces
P[A
•
B] = P[A] + P[B].
Si los eventos A1, A2, A3,... son eventos mutuamente excluyentes ( Ai
Φ, i ≠j), entonces
P[
An] =
Aj =
P[An].
El concepto de medida de probabilidad o función de probabilidad juega un rol
básico al momento de estudiar las probabilidades, de hecho cuando tenemos un
experimento aleatorio y queremos estudiarlo probabilísticamente lo que
necesitamos es definir una de tales medidas. Buena parte de lo que haremos en
secciones posteriores es definir medidas de probabilidad sobre espacios
muestrales.
En las siguientes páginas discutiremos los principios básicos de la probabilidad.
I.9.- Cuando en un experimento aleatorio se conocen las probabilidades de los
eventos simples, es decir las probabilidades de cada uno de los elementos del
espacio muestral, se pueden calcular las probabilidades de eventos compuestos y
de algunos eventos relacionados utilizando una serie de reglas básicas.
El cálculo de probabilidades se basa principalmente en la aplicación de estas
reglas básicas. El siguiente teorema, [2], define una serie de propiedades que
cumple una medida de probabilidad.
1. P[Φ] = 0.
2. P[A] = 1 - P[
A].
3. Para cualesquiera eventos A, B P[A
4. Para cualesquiera eventos A, B. Si A
B] = P[A] + P[B] - P[A
B].
B implica P[A] < P[B].
Demostración y discusión de algunos casos.
1. Esta propiedad se obtiene en forma inmediata pues si P[Φ] = r > 0 se tiene
que
P[Ω] = P[Ω
Φ] = P[Ω] + P[Φ] = 1 + r > 1,
lo cual contradice la propiedad 2 del axioma 2. En otras palabras P[Φ] = 0.
2. Esta propiedad también se obtiene en forma sencilla de:
1 = P[Ω] = P[A
~A] = P[A] + P[~A].
Si A es un evento sobre un espacio muestral
ocurre A se denota por A.
entonces el evento no
3. Esta propiedad se demuestra usando propiedades de conjuntos. Lo primero
es notar que
A B es una unión de eventos excluyentes:
A
B = (A ∩B)
( ~A ∩B)
(A ∩~B),
por lo tanto,
P[A
B] = P[(A ∩B)] + P[(~A ∩B)] + P[(A ∩~B)],
Por otro lado los eventos A
así:
ByA
(1.2)
B son excluyentes y su unión es A,
P[A] = P[(A ∩B)] + P[(A ∩~B)],
(1.3)
Similarmente:
P[B] = P[(A ∩B)] + P[(~A ∩B)],
(1.4)
Sumando término a término (1.3) y (1.4) se obtiene:
P[A] + P[B] = 2P[(A ∩B)] + P[(A ∩~B)] + P[(~A ∩B)].
(1.5)
Restando (1.5) y (1.2) se obtiene el resultado.
I.10.- El evento que indica la ocurrencia conjunta de los eventos A y B se denota
por A B. Dos eventos se dicen independientes si la ocurrencia de uno de ellos
no influye ni se ve influida por la ocurrencia del otro.
Por inducción se puede demostrar que si A1, A2,..., An son eventos independientes
con probabilidades P[A1], P[A2], ..., P[An] respectivamente, entonces la
probabilidad de la ocurrencia del evento compuesto A1 y A2 y ... y An, es decir
todos los eventos, cumple:
P[A1 ∩A2∩... ∩An] = P[A1]P[A2]...P[An].
(1.6)
Ejemplo 3
Suponga que una máquina fabrica un tipo específico de componente, y que la
probabilidad de que un componente salga defectuoso es constante p e
independiente de los resultados en los componentes tanto anteriores como
posteriores.
•
Estime la probabilidad de que el primer componente defectuoso salga
inmediatamente después de los primeros N componentes.
•
¿Cuántos componentes deben producirse para tener una probabilidad del
90% de obtener al menos un componente defectuoso?
Solución
•
Sea Di el componente i defectuoso y
probabilidad pedida es:
P[(
•
∩
∩... ∩
el complemento de Di. La
) ∩ DN + 1] = (1 - p)Np.
La probabilidad de ningún componente defectuoso en los primeros k
componentes es (1 - p)k entonces la probabilidad de al menos un
componente defectuoso se 1 - (1 - p)k. El valor k buscado debe cumplir con
1 - (1 - p)k > 0.9
(1 - p)k < 0.1
k>
.
•
Por ejemplo si la probabilidad de que un componente sea defectuoso es de
0.02 deberían producirse alrededor de 114 componentes para tener una
probabilidad del 90% de que haya al menos uno defectuoso.
I.11.- Cuando los eventos no son independientes y ocurren en forma sucesiva la
ocurrencia de uno de ellos puede influir en la del otro. Este tipo de probabilidad se
llama probabilidad condicional.
Por ejemplo hay tres cajas c1, c2 y c3 tales que la caja c1 contiene 2 esferas azules
y 2 rojas, la caja c2 contiene 3 esferas azules y 1 roja y la caja c3 contiene 2
esferas azules y 3 rojas. Si se va a extraer una esfera de una caja, esta esfera
puede ser azul o roja; no obstante la probabilidad de que sea de uno u otro color
depende de cual de las cajas se extrae esa esfera. De hecho los eventos B elegir
una de las cajas y A extraer una bola azul de la caja seleccionada no son
independientes.
La probabilidad de que un evento A ocurra dado que un evento B ha ocurrido se
llamará probabilidad condicional de A dado B. Se denotará por P[A\B]. Esta
probabilidad se puede calcular recurriendo a la regla:
(1.7)
P[B \A] =
Dos eventos A y B son independientes si se cumple:
P[B \A] = P[B] y P[A \B] = P[A].
Una manera informal de darle alguna justificación a esta regla es la siguiente. Si
en un espacio muestral conocemos de previo que ha ocurrido un evento, B, y
queremos calcular la probabilidad de que ocurra otro evento A entonces,
simplificando el cálculo de la probabilidad a la razón: total de casos que verifican el
evento entre el total de casos, se tiene que como ya ha ocurrido B el espacio
muestral ahora puede reducirse a B y los casos que verifican el evento ya no son
los elementos de A sino los elementos de A B es decir:
(1.8)
.
P[A \B] =
Si A y B son eventos no necesariamente independientes se tiene:
P[A ∩B] = P[A]P[A \B].
(1.9)
Esta regla se generaliza en el siguiente sentido. Si A1, A2,..., An son eventos
entonces la probabilidad de la ocurrencia del evento compuesto A1 y A2 y ... y An,
es decir todos los eventos, cumple :
P[A1 ∩A2∩... ∩An - 1 ∩An] =
P[A1]P[A2 \A1]P[A3 \(A1 ∩A2)]...P[An \(A1 ∩A2∩... ∩An - 1)].
Ejemplo 4
Suponga que se lanzan un par de dados. Calcule la probabilidad de que ocurra
cualquiera de los siguientes eventos. A : el primero de los dados cae impar, B : el
segundo cae impar y C : la suma de ambas caras es impar.
Solución
No es difícil comprobar las siguientes probabilidades:
P[A] =
P[B] =
P[A \B] =
P[B \A] =
P[C] =
P[C \A] =
P[C \B] =
P[A ∩B ∩C] = 0
P[A]P[B]P[C] =
Se tiene que los pares de eventos A, C y B, C son independientes, pero A, B y C
no lo son.
Ejemplo 5
Un carpintero tiene tornillos en dos cajas una azul y otra roja. Él toma al azar
tonillos de cualquiera de las dos cajas, pero la caja azul está un poco más cerca
por lo que toma tornillos de ella dos de cada tres veces. La caja azul contiene
cuatro tornillos de 15 mm y cinco de 20 mm y la caja roja contiene seis de 15 mm
y dos de 20 mm.
1. Si en las dos siguientes búsquedas de tornillo el carpintero toma un tornillo
de cada caja cuál es la probabilidad de que ambos sean del mismo tipo.
2. Si el carpintero necesita dos tornillos y los toma en forma sucesiva de
alguna de la cajas cuál es la probabilidad de que los dos sean del mismo
tipo
Solución
1. Sea A el evento: toma un tornillo de 15 mm de cada caja y B el evento:
toma un tornillo de 20 mm de cada caja.
El evento A no es simple de hecho, es el evento compuesto A1 A2 donde
A1 es toma un tornillo de 15 mm de la caja 1 y A2 es toma un tornillo de 15
mm de la caja 2, eventos independientes.
P[A] = P[A1 ∩A2] = P[A1]P[A2] =
=
.
Similarmente.
P[B] =
=
Como A y B son excluyentes la probabilidad pedida es:
P[A
B] = P[A] + P[B] =
+
=
.
2. En este caso el evento pedido puede descomponerse como sigue. Sea M el
evento toma los tornillos de la caja azul y N toma los tornillos de la caja roja.
Sean P1 el primer tornillo es de 15 mm, P2 el segundo tornillo es de 15 mm,
Q1 el primer tornillo es de 20 mm y Q2 el segundo tornillo es de 20 mm. La
probabilidad buscada es: elegir de la caja azul y tomar 2 tornillos iguales o
elegir de la caja roja y tomar 2 tornillos iguales
P[{(P1∩ P2) U(Q1 ∩Q2)} ∩M} U{(P1 ∩P2) U(Q1 ∩Q2)} ∩N}]
= P[M]P[{(P1 ∩P2) UQ1 ∩Q2}\ M] + P[N]P[{(P1 ∩P2) UQ1 ∩Q2} \N]
= P[N]P[{(P1 ∩P2) UQ1 ∩Q2} \N]
=
+
+
+
=
.
Ejemplo 6
El siguiente ejemplo resulta interesante porque además de ser un problema en
cierta forma clásico de las probabilidades nos muestra que eventualmente nuestra
intuición en probabilidades debe ser mucho más cautelosa. Nos referiremos al
mismo como el problema de los cumpleaños y aparece en buena parte de los
libros de probabilidad.
Suponga que hay n estudiantes en un salón de clase, ninguno nacido en 29 de
febrero, y que el año en el que estamos no es bisiesto.
Por el principio del palomar cualquiera sabe que si n > 365, entonces al menos
dos personas tienen la misma fecha de cumpleaños; en el sentido que cumplen el
mismo día del mismo mes. Supongamos que 2 ≤n < 365, y demos respuesta a las
preguntas siguientes:
•
Cuál es la probabilidad, C, de que al menos dos personas tengan la misma
fecha de cumpleaños.
•
Cuál es el mínimo valor de n para que esta probabilidad sea mayor que 0.5.
Solución
Hay en total 365n posibilidades para que ocurran los cumpleaños de los n
estudiantes. La probabilidad de que dos personas cumplan en la misma fecha es
el complemento de que todos cumplan en días diferentes del año. Tomando 1
para el primero de enero y 365 para el 31 de diciembre se tiene que la
probabilidad del evento E: ningún par de personas cumplan el mismo día es:
P[E] =
=
1-
1-
1-
1-
La probabilidad solicitada es
…
...
1-
1-
.
P[C]= 1-
P[C] = 1 -
1-
1-
1-
…
1-
...
1-
.
.
1-
La segunda pregunta se responde resolviendo la desigualdad
1-
1-
1-
1-
…
1-
≥ 0.5,
1-
1-
...
1-
0.5,
por ejemplo se pueden tabular algunos valores y obtener la respuesta.
n
P[C]
15 0.253
25 0.568
30 0.706
40 0.891
I.12.- Si revisamos de nuevo el ejemplo del carpintero y los tornillos podemos
notar como característica importante en ese experimento que está constituido de
dos estados: Primero se debe elegir una caja y una vez hecho esto se debe sacar
un tornillo de la misma. Hay algunas preguntas que plantearse respecto a este
experimento que podrían resultar diferentes a lo que hemos explorado hasta
ahora.
Por ejemplo ¿Cuál es la probabilidad S de sacar un tornillo de 20 mm.? Si se sacó
un tornillo de 20 mm., ¿cuál es la probabilidad de que se haya escogido de la caja
azul?
El esquema para abordar este par de preguntas nos permitirán iniciar el estudio de
los temas probabilidad total y Teorema de Bayes, que son los últimos temas de
este capítulo.
Para resolver el primero de los dos problemas propuestos es importante tener en
cuenta que hay dos alternativas para obtener un tornillo de 20 mm. A saber elegir
en el primer estado la caja azul y sacar un tornillo de 20 mm o bien elegir en el
primer estado la caja roja y sacar un tornillo de 20 mm. Si M es el evento toma el
tornillo de la caja azul y N toma el tornillo de la caja roja. Y S es el tornillo es de 20
mm se tiene
P[S] = P[(M ∩S) U(N ∩S)]
= P[M ∩S] + P[N ∩S]
= P[M]P[S\ M] + P[N]P[S\ N]
+
=
+
=
Para resolver este tipo de problemas necesitamos establecer algunas definiciones
y resultados importantes.
Si A1, A2,..., An son eventos tales que:
Aj = Φ siempre que i ≠ j.
•
Ai
•
P[Ai] > 0, i = 1, 2,..., n.
Ai =
•
.
Se dice que A1, A2,..., An forman una partición del espacio
.
Cuando un experimento consiste de la realización de dos etapas y es tal que la
primera puede descomponerse en A1, A2,..., An eventos, entonces la ocurrencia de
cualquier evento B en la segunda etapa sólo puede darse en forma conjunta con
alguno de los eventos de la primera etapa. Es decir el evento B se descompone en
la forma B = (B A1) (B A2) ...(B An). Si se tiene además que A1, A2,...,
An forman una partición del espacio muestral en la primera etapa entonces los
eventos en la descomposición anterior son independientes y obtenemos el
siguiente teorema:
P[B] = P[(B ∩ A1) U(B ∩A2)U...(B ∩An)]
= P[B ∩A1] + P[B ∩A2] + ... + P[B ∩An]
= P[A1]P[B \A1] + P[A2]P[B \A2] + ... + P[An]P[B \An]
=
P[Ai]P[B \Ai].
El segundo de los problemas planteados se resuelve haciendo uso de
probabilidades condicionales, interesa conocer la probabilidad condicional
siguiente:
Si el resultado final de la elección es un tornillo de 20 mm., ¿cuál es la
probabilidad de que se haya extraído de la caja azul?
Utilizando la representación de eventos del primer ejemplo y utilizando la fórmula
1.7 y el teorema 3 obtenemos:
P[M \ S] =
=
=
Este tipo de deducciones propias de experimentos con dos estados y que implica
el cálculo de la probabilidad de que ocurra algún conjunto de condiciones o
circunstancias del primer estado dado que ocurre un evento del segundo estado
se resuelven recurriendo al siguiente teorema, conocido como fórmula de Bayes:
Ejemplo 7
Una caja A contiene tres bolas blancas y cuatro negras. Otra caja, B, contiene dos
bolas blancas y tres negras. Se extraen bolas, una a una, en forma aleatoria y sin
reemplazo.
•
Si las dos bolas son elegidas de A, ¿cuál es la probabilidad de que ambas
sean negras?
•
Si se eligen dos bolas, una de cada caja, ¿cuál es la probabilidad de que no
sean del mismo color?
•
Si se elige una caja al azar y se extraen dos bolas al azar, ¿cuál es la
probabilidad de que sean del mismo color?
•
Si se elige una de las cajas al azar se extraen dos bolas y son de colores
distintos, ¿cuál es la probabilidad de que se hayan extraído de la caja B?
Solución
•
Si se saca la primer bola de la caja A y la segunda de la misma caja la
probabilidad de que ambas sean negras es:
•
Una manera de hacerlo es por complemento, extraer dos bolas de distinto
color es el complemento de extraerlas del mismo color. La probabilidad de
extraerlas del mismo color es sacar la primera negra y la segunda negra o
la primera blanca y la segunda blanca, por lo tanto la probabilidad pedida
es:
1-
1-
•
+
.
El evento se descompone en elegir la caja A y extraer dos blancas o dos
negras o bien elegir caja B y extraer dos blancas o dos negras.
=
=
•
+
+
+
+
+
+
+
+
+
==
+
+
=
+
+
=
La probabilidad C de extraer las dos bolas de igual color esta calculada
para el caso anterior.
P[B \C] =
.
=
=
Una aplicación interesante de la fórmula de Bayes tiene que ver con el análisis de
confiabilidad de ciertos test realizados para detectar la presencia de
enfermedades. El problema es básicamente el siguiente: Una persona puede sufrir
de una enfermedad y se practica un test para saber si tiene o no la enfermedad.
La exactitud del test se mide a través de dos valores probabilísticos.
El primero de ellos se llama la sensibilidad, que es la probabilidad de que una
persona que este enferma de positivo en el test.
Р= P[TestPositivo \ EstaEnfermo].
El otro valor se llama especificidad y es la probabilidad de que una persona no
enferma tenga un diagnóstico correcto.
= P[TestNegativo \ NoEstaEnfermo].
Lo normal es que ambos valores sean muy cercanos a la unidad.
Conociendo la incidencia de la enfermedad, sobre alguna población, se puede
calcular la probabilidad de que una persona que haya dado positivo en el
diagnóstico no sufra de la enfermedad. Si se sabe que en la población la
probabilidad de que una persona elegida al azar este enferma es entonces
usando las fórmulas de Bayes se tiene
P[NoEstaEnfermo \TestPositivo] =
=
.
Por ejemplo, [2], existe un test llamado ELISA que se utiliza para verificar sangre
donada en una problación en la cual la probabilidad de que un individuo tenga los
anticuerpos de SIDA es de 0.0001. Suponga que este test tiene una sensibilidad
= 0.977 y una especificidad = 0.926.
Por ejemplo la probabilidad de que una muestra que contenga los anticuerpos de
un diagnóstico de que sí tiene los anticuerpos es:
= 0.001319
Este test resulta deficiente, de hecho clasifica como positivos muchos casos que
no tienen los anticuerpos.
II.13.- Prácticamente todos los problemas de conteo que resolveremos se
reducirán a la aplicación cuidadosa de los principios de conteo que se enuncian
seguidamente.
Principio 1 Regla de la Suma:
Si una operación puede realizarse en n formas y otra operación, independiente de
la primera, puede realizarse en m formas, hay n + m formas en las que pueden
realizarse una de las dos operaciones
En Terminología de teoría de conjuntos:
Si (
i| 0 ≤i < j ≤n : Ai ∩Aj =Φ)
Ai
=
| Ai|.
(2.1)
Principio 2 Regla del producto:
Si una operación puede realizarse en n formas y otra operación, independiente de
la primera, puede realizarse en m formas, hay nm formas en las que pueden
realizarse las dos operaciones
En Terminología de teoría de conjuntos:
|A1×A2×...×An| =
| Ai|.
(2.2)
Ejemplo 8
Para completar su plan de bachillerato un estudiante debe completar algunos
cursos optativos. El Plan de estudios contempla 4 cursos de Inteligencia Artificial
(IA), 3 cursos de Especificación Formal(EF) y 3 cursos de Sistemas Expertos(SE).
De cuántas maneras puede el estudiante tomar los tres cursos si:
1. Debe llevar tres cursos optativos y no hay restricciones.
2. Debe llevar al menos un curso de cada área.
3. Debe llevar dos cursos de áreas distintas.
Solución:
1. Al no haber restricciones el estudiante puede llevar el primer curso de 10
maneras, el segundo de 9 y el tercero de 8 maneras, así por (2.2) puede
tomar sus cursos optativos en 10×9×8 maneras, si el orden en que los lleva
se tiene en cuenta. Si el orden no importa este valor debe dividirse entre 6,
¿Porqué?.
2. Como debe llevar un curso de cada área, entonces puede llevar los tres
cursos de 6×(4×3×3) formas. Si el orden es irrelevante son 4×3×3,
Invitamos al lector a revisar esta tabla para que compruebe estos
resultados.
IA1, EF1, SE1 IA2, EF1, SE1 IA3, EF1, SE1 IA4, EF1, SE1
IA1, EF1, SE2 IA2, EF1, SE2 IA3, EF1, SE2 IA4, EF1, SE2
IA1, EF1, SE3 IA2, EF1, SE3 IA3, EF1, SE3 IA4, EF1, SE3
IA1, EF2, SE1 IA2, EF2, SE1 IA3, EF2, SE1 IA4, EF2, SE1
IA1, EF2, SE2 IA2, EF2, SE2 IA3, EF2, SE2 IA4, EF2, SE2
IA1, EF2, SE3 IA2, EF2, SE3 IA3, EF2, SE3 IA4, EF2, SE3
IA1, EF3, SE1 IA2, EF3, SE1 IA3, EF3, SE1 IA4, EF3, SE1
IA1, EF3, SE2 IA2, EF3, SE2 IA3, EF3, SE2 IA4, EF3, SE2
IA1, EF3, SE3 IA2, EF3, SE3 IA3, EF3, SE3 IA4, EF3, SE3
3. En este caso debe llevar una combinación IA,EF con 4×3 posibilidades o
IA,SE con 4×3 o bien SE,EF con 3×3, en total 30 posibilidades, sin tomar en
cuenta el orden, si fuera necesario considerar el orden, esta cantidad se
duplicaría.
II.14.- Permutaciones de un Conjunto
Una permutación de los elementos de un conjunto es un ordenamiento lineal de
sus elementos, por ejemplo si A = {a1, a2, a3} entonces las permutaciones de A son
las siguientes:
A1, a2, a3
A2, a1, a3
A3, a1, a2
a1, a3, a2
a2, a3, a1
a3, a2, a1
De manera similar una r -permutación de r elementos de un conjunto es un
ordenamiento de r de los elementos del conjunto. Por ejemplo si A = {a1, a2, a3, a4}
entonces las 2-permutaciones de A son:
a1, a2
a1, a4
a2, a4
a2, a1
a4, a1
a4, a2
a1, a3
a2, a3
a3, a4
a3, a1
a3, a2
a4, a3
Para determinar el número de r -permutaciones de los elementos en un conjunto
con n elementos se puede recurrir a la regla del producto. Esto pues el proceso de
elegir r elementos en un orden específico puede reducirse a elegir un primer
elemento entre n, luego elegir un segundo elemento entre los n - 1 que quedan, y
así hasta elegir el r -ésimo elemento entre los n - r + 1 restantes. Luego por el
principio del producto, (2.2), hay n(n - 1)(n - 2)...(n - r + 1) maneras de elegir r
elementos en forma ordenada, de un conjunto con n elementos. Esto nos permite
establecer el siguiente teorema:
Este teorema merece una explicación especial en el caso de que r = 0. El número
de 0-permutaciones, es decir arreglos ordenados con ningún elemento se toma
como 1. Sólo hay una forma de elegir 0-permutaciones, no eligiendo ningún
elemento.
Este problema de las permutaciones tiene algunas variantes que se abordan a
continuación.
Considérese el problema de hacer una r -permutación de elementos dentro de una
estructura que no necesariamente es un conjunto, por ejemplo una estructura que
contenga elementos pero se admite que los elementos pueden aparecer más de
una vez. Por ejemplo analizar cuántos anagramas, reordenamientos de las letras
que forman una palabra, se pueden obtener de la palabra ama.
Para resolver este tipo de problema lo más práctico es asumir que en realidad
todos los elementos son distintos y realizar el conteo según el teorema 5, una vez
hecho esto eliminar los casos que se hayan contado de más. Inicialmente ama
tiene tres letras pero una es repetida. Podemos asumir que son tres letras: {a1, m,
a2} y en ese casos los posibles anagramas son 6:
a1ma2
a2a1m
ma1a2
a1a2m
a2ma1
ma2a1,
No obstante, dado que a1 y a2 son en realidad la misma letra, todo anagrama está
dos veces, así que el total posible debe dividirse por dos; y quedan tres
anagramas.
En general la solución de este tipo de problema es así. Si una estructura contiene
r elementos repetidos, k1, k2,..., kr veces, respectivamente entonces para calcular
el tipo de permutaciones distintas que se pueden construir primero se calcula el
número de permutaciones asumiendo que todos los elementos son distintos, es
decir (k1 + k2 + ... + kr)! permutaciones. Luego se procede a analizar y excluir los
casos repetidos. Un elemento que aparezca kj veces ocupa kj posiciones dentro de
la permutación, como se consideró que los kj elementos son diferentes entonces
hay kj! posibles acomodos de esos elementos que se contaron como diferentes
pero que en realidad corresponden con una única permutación; por lo tanto para
eliminar los elementos contados de más producidos por este elemento el número
total debe dividirse entre kj!, y así para cada uno de los elementos.
Ejemplo 9
Se van a repartir 3 rosas, 5 dalias y 2 margaritas entre 10 señoras, determine el
número de maneras de hacer esta distribución si cada señora debe recibir al
menos una flor.
Solución
Como hay igual número de flores que de señoras cada una recibe una flor, y el
problema se reduce a calcular el número de permutaciones posibles. El número de
maneras de distribuir estas flores es
= 2520.
Otro tipo de problema de distribución relacionado con permutaciones tiene que ver
con los posibles ordenamientos de r elementos que se pueden hacer de un
conjunto de n elementos si se admite la repetición, en este caso el asunto se
resuelve recurriendo a la regla del producto. El problema se reduce a elegir un
elemento para la primera posición, para la segunda hasta llegar a la posición r.
Como cada una de estas escogencias puede hacerse de n formas, se tiene el
siguiente resultado
Este mismo esquema permite resolver la distribución de k objetos distintos en n
celdas, donde cada celda puede contener cualquier número de objetos. Esto pues
al final de cuentas este problema se reduce a elegir una celda para poner el primer
objeto, y luego elegir con posibilidad de repetición otra celda para el segundo y así
hasta colocar todos los objetos.
Note que los objetos, en este caso no llevan un orden particular en las celdas. Si
el orden en el cual se distribuyen los objetos dentro de las celdas debe tenerse en
cuenta entonces el total de maneras cambia.
II.15.- A diferencia de una permutación, en la cual el orden es importante, en una r
-combinación el orden de los elementos no es importante. Una r -combinación
sobre un conjunto A con n elementos es un subconjunto de A con r elementos.
Existe un relación directa entre permutaciones y combinaciones, de hecho cada r combinación da lugar a r! r -permutaciones. Como conocemos el número de rpermutaciones (teorema 5) entonces se tiene el siguiente teorema.
Este último valor se conoce cono coeficiente binomial pues con alguna cantidad de
esfuerzo es posible demostrar que:
n
(a + b) =
n
(a + b) =
n-i i
a
b.
(2.3)
n-i i
a
b.
Muchos problemas de conteo pueden resolverse recurriendo a problemas
diferentes pero con la misma solución.
Por ejemplo considere una estructura que solo tiene 2 elementos repetidos, uno k
veces y el otro n - k veces. El número de permutaciones de los elementos en esta
estructura es
que es exactamente
Esto en realidad no resulta complejo, pues hacer las permutaciones indicadas es
equivalente al siguiente problema, dado el conjunto {1, 2,..., n} elegir subconjuntos
de tamaño k que correpondan a las posiciones en donde se van a ubicar los k
elementos Una última forma se discutirá en estas notas, no sin advertir que con
las herramientas discutidas es posible abordar problemas diversos que no se han
discutido en estas notas.
II.16.- El problema de distribuir r objetos indistinguibles en n celdas, r
n, con a
lo sumo un objeto en cada celda es básicamente directo, ya que puede reducirse
al problema de escoger r entre las n celdas, es decir
.
El problema de poner r objetos en n celdas donde no hay restricción en el número
de objetos en cada celda es ligeramente diferente. Una manera de abordarlo que
resulta sencilla es la siguiente: dados los r objetos, una manera de ubicarlos en las
celdas es intercalar entre ellos n - 1 banderillas, los objetos antes de la primer
banderilla, pueden ser ninguno, corresponden a la primera celda, los objetos entre
la primera y segunda corresponden a los objetos en la segunda celda y así
sucesivamente. En otras palabras el número de maneras de colocar r objetos
indistinguibles en n celdas es:
(2.4)
Usando adecuadamente esta última forma se obtiene el siguiente teorema:
Ejemplo 10
Si n personas se colocan aleatoriamente en n oficinas, ¿cuál es la probabilidad de
que quede exactamente una oficina vacía?
Solución
El total de posibles ubicaciones de las n personas es nn, pero para que
exactamente una oficina quede vacía el análisis debe ser cuidadoso. Se debe
elegir una oficina para que quede vacía lo cual puede hacerse de n formas. Luego
debe elegirse otra para que quede con dos personas; esta puede elegirse de n - 1
maneras. Una vez hecho esto se eligen dos personas para la segunda oficina y las
restantes se ubican una en cada una de las n - 2 oficinas restantes. Luego la
probabilidad pedida es:
=
=
.
Ejemplo 11
Si un arreglo binario de doce elementos contiene 8 unos y 4 ceros, ¿cuál es la
probabilidad de que los cuatro ceros queden juntos?
Solución
Sólo hay 9 arreglos en los cuales los cuatro ceros quedan juntos, y el número de
posibles arreglos es 12!/(4!8!), luego la probabilidad pedida es:
Ejemplo 12
En un grupo de probabilidad hay inscritas n parejas (hombre, mujer) para hacer
una tarea. El profesor decide separar todas las parejas y formar nuevamente n
parejas, pero en forma totalmente aleatoria. ¿Cuál es la probabilidad de que se
formen las mismas parejas originales? ¿Cuál es la probabilidad de que se formen
sólo parejas (hombre, mujer)?
Solución
Para que se formen las mismas parejas originales solo se necesita calcular cuál es
el número total de parejas que se pueden formar. Si se calcula este total de
parejas como el número de permutaciones de las 2n personas se tiene un conteo
redundante en los dos sentidos siguientes. Primero este conteo está tomando en
cuenta el orden en que las n parejas quedan agrupadas y segundo este conteo
está tomando en cuenta el orden en que se ubica cada pareja, por lo tanto el
número de posibles parejas es
La probabilidad solicitada en la primera parte es el inverso de este número.
La segunda probabilidad pedida puede resolverse usando el mismo esquema
anterior, y se puede razonar así. Si los hombres están fijos en las posiciones 1, 3,
5,..., las mujeres se pueden ubicar en n! formas lo cual da todas las posibles
maneras de hacer parejas. Luego la probabilidad pedida es:
=
=
.
II.17.- Propiedades Importantes
En esta sección se trata de rescatar algunas propiedades importantes acerca de
conteo, algunas de las cosas que se expondrán resultarán reiterativas respecto a
lo enunciado antes, cosa que no necesariamente es inconveniente.
Este primer teorema es importante pues permite diferentes opciones para abordar
el mismo tipo de problema
=
=
=
+
+
=
Las demostraciones de estos resultados son un ejercicio interesante. Pueden
verse en algunos de los textos citados como referencia [5].
III.18.- Es importante, antes de hablar sobre los tipos de distribución hacer un
repaso de algunos términos que se utilizan con frecuencia en esta sección.
Recordemos que llamamos espacio muestral al conjunto de todos los posibles
resultados de un experimento. Un espacio muestral puede ser finito o infinito
numerable, o puede ser continuo.
Una variable aleatoria es una función de un espacio muestral a los reales, es decir
una regla que asigna un único valor real a cada evento del espacio muestral.
Si el espacio muestral es finito o discreto entonces la variable se llama variable
aleatoria discreta y si es continuo se llama variable aleatoria continua.
Una distribución de probabilidad es una función que permite asignar un valor de
probabilidad a cada evento del espacio muestral de un experimento.
Las distribuciones de probabilidad se dividen en dos casos acorde con las
características de la variable aleatoria, discretas o continuas.
III.19.- Definiciones Básicas
La propiedad más importante de una variable aleatoria es la distribución de
probabilidad. Si bien no existe una definición exacta de lo que es una distribución
de probabilidad si hay consenso en las propiedades que debe cumplir.
Si X es una variable aleatoria discreta con rango RX = {x1, x2, x3,...}, una
distribución de probabilidad para X es una función, fX, del Rango(X) a los reales.
, que cumple:
fX : Rango(X)
1. fX(xi) ≥0,
xi ЄRango(X),
2.
fX(x) = 1.
En general se aceptan ciertas convenciones de notación. Si X es una variable
aleatoria y x es un número real se escribe: X = x,
para referirse al evento
{Є: ЄЄΩ^X(Є) = x},
similarmente se usa la notación
X ≤x,
para referirse al evento
{Є: ЄЄΩ^X(Є) = x},
Si X es una variable aleatoria discreta se puede definir su función de distribución
de probabilidad por:
fX(x) = P[X = x].
(3.1)
Ejemplo 13
Se tiene una caja que contiene 4 bolillas rojas y tres verdes y se empiezan a
extraer bolillas, sin reemplazo, hasta obtener una bolilla roja. Sea X la variable
aleatoria que indica el número de bolillas que se extraen, tenemos lo siguiente.
El espacio muestral para el experimento es
roja, verde - verde - verde - roja}
Los valores que toma X son
= {roja, verde - roja, verde - verde -
Una distribución de probabilidad en este ejemplo, fundamentada en asumir que
toda bolilla tiene la misma probabilidad de ser tomada, es:
Una distribución de probabilidad asigna probabilidades a cada uno de los eventos
simples del espacio muestral.
Existe otro concepto importante que tiene que ver con el siguiente problema. Dado
un espacio muestral , una variable aleatoria discreta definida sobre
y un valor
x, tiene sentido el calcular la probabilidad de que ocurra alguno de los valores que
son menores o iguales a x.
En el ejemplo anterior podrá resultar importante responder a cuál es la
probabilidad de que haya que hacer dos o menos extracciones para obtener una
bolilla roja.
En este caso el valor solicitado es la probabilidad de que haya que hacer una o
dos extracciones para obtener una bolilla roja. Aplicando el principio de la suma se
obtiene que:
P[X ≤ 2] = P[X = 1] + P[X = 2] =
+
Por ejemplo para el caso anterior se tiene que FX(x) cumple
=
.
FX(x) = P[X ≤x] =
Ejemplo 14
Se tira un dado que no está cargado, hasta que se obtenga un uno. Si denotamos
por Z la ocurrencia de un uno y por W la no ocurrencia, el espacio muestral tiene
la forma {Z, WZ, WWZ, WWWZ,...}. Si X es el número de lanzamientos los
posibles valores para X son {1, 2, 3, 4...} y la función de probabilidad para X tiene
la forma:
fX(x) =
Para el cálculo de de la función de densidad de masa debe calcularse el valor de:
P[X ≤x] =
De acuerdo a esta última función se tiene que la probabilidad de que se deban
hacer 1,2 o 3 lanzamientos antes de obtener un 1 es de 0.4211
Las siguientes reglas se obtienen de manera directa de la definición 13 y de las
propiedades de las probabilidades.
P[a ≤ X ≤b] = F(b) - F(a),
P[a ≤X < b] = F(b-) - F(a),
P[a < X ≤b] = F(b) - F(a+).
Como se ha dicho anteriormente una variable aleatoria es continua si cumple que
al poder alcanzar cualquier par de valores a < b reales entonces puede alcanzar
cualquier valor que esté en el intervalo [a, b]. En el caso de variables aleatorias
continuas se tienen las siguientes definiciones:
Si X es una variable aleatoria continua una distribución de probabilidad para X es
una función fX que cumple las siguientes propiedades:
1. fX(x) ≥0
x.
2. Si a < b se tiene P[a ≤X ≤b] =
fX(x) dx.
3.
fX(x) dx=1.
4. FX(x)=P[X ≤x] =
fX(t) dt.
De acuerdo a esta definición se tiene que:
(3.2)
(3.3)
P[a ≤X ≤b] = F(b) - F(a),
P[X = b] = 0.
Por ejemplo, si una variable aleatoria continua X tiene una distribución de
probabilidad de la forma
f (x;
)=
,
se dice que la variable X sigue una distribución de tipo exponencial de parámetro
.
Además no es difícil demostrar que la distribución de probabilidad acumulada tiene
la forma
(3.4)
F(x;
)=
,
Ejemplo 15
El tiempo que tarda un persona en localizar un archivo en su escritorio sigue una
distribución normal con parámetro = 2 minutos.
La probabilidad de que en la próxima búsqueda dure menos de 3 minutos es F(3)
= 1 - e-6 = 0.997. Mientras tanto, la probabilidad de que tarde entre 1.5 y 2.5
minutos es de F(2.5) - F(1.5) = 0.043.
III.20.- Cada vez que se logre determinar una distribución existen dos mediciones
asociadas con ella que son sumamente importantes: la media y la varianza.
La media o esperanza, como se llama a veces, en alguna forma es una medida de
localización de los datos, mientras la varianza es una medida de dispersión de los
datos. En las distribuciones teóricas, este par de medidas las caracterizan en
forma absoluta y en el caso de las distribuciones que no se ajusten a un patrón
conocido constituyen el punto de partida para poder estudiarlas en forma
adecuada.
a. Si X es discreta con rango RX = {x1, x2, x3,...} se definen la media o esperanza
de X por
=
xifX(xi),
(3.5)
con la condición de que
| xi| fX(xi) <
.
b. Mientras si X es continua.
=
xfX(x) dx,
(3.6)
con la condición de que
| x| fX(x) dx <
La condición que se impone se conoce como convergencia absoluta [8] y se hace
necesaria para evitar que el reordenamiento de las sumas pueda producir valores
diferentes para la esperanza. De hecho en cada una de las definiciones que sea
necesario se indicará.
Note que la media, es una generalización del concepto de promedio aritmético.
Por ejemplo si X es una variable aleatoria discreta tal que todos los valores en su
rango tienen la misma probabilidad entonces:
=
En realidad la media o esperanza es un promedio ponderado y cuantifica el valor
esperado para una variable aleatoria.
Ejemplo 16
Sea X la variable aleatoria del ejemplo 13. En ese caso el valor de la esperanza
es:
= 1(
) + 2(
) + 3(
) + 4(
)=
,
significa que en promedio deberán hacerse 2.27 intentos antes de obtener la
bolilla roja.
Por ejemplo para la distribución exponencial de parámetro , (3.2), usando un
poco de integración por partes y regla de L'Hôpital, se tiene que:
Existen ejemplos de variables aleatorias con distribuciones de probabilidad bien
definidas y que no tienen media. Se invita al lector a verificar que si X es una
variable aleatoria tal que
fX(2k) = P[X = 2k] = 1/2k, k = 0, 1,...
entonces la distribución de probabilidad está bien definida pero no existe la
esperanza.
Ejemplo 17
Un sistema de administración de oxígeno está formado por dos bombas idénticas.
Estas bombas operan en forma independiente, y tienen una esperanza de
funcionamiento continuo que es exponencial con media 20 horas. El sistema de
bombeo falla solamente si ambas bombas fallan. Cuál es la probabilidad de que el
sistema funcione durante 15 horas.
Solución
Como la media es 20 horas entonces el parámetro de la distribución es = 1/20.
Acorde con (3.4) la probabilidad de que una bomba falle antes de las 15 horas es
1 - e-15/20, así que la probabilidad de que el sistema falle antes de las 15 horas es
P[X ≤15] = (1 - e-15/20)2 y la probabilidad de que el sistema trabaje en forma
continua por más 15 horas es de 1 - P[X ≤15] = 1 - (1 - e-15/20)2.
También es posible calcular la esperanza de una función aplicada a los valores de
la variable aleatoria.
a. Si X es discreta
(X) =
(3.7)
h(xi)fX(xi),
con la condición de que
| h(xi)| fX(xi) <
.
Mientras que para X continua se tiene
=
(3.8)
h(x)fX(x) dx,
con la condición de que
| h(xi)| fX(xi) dx <
.
Para calcular la varianza de una variable aleatoria se necesita antes conocer la
media de X.
a. Si X es discreta:
=
=
)2fX(xi),
(xi -
(3.9)
b. Si es continua
=
=
)2fX(x)dx,
(xi -
(3.10)
Invitamos al lector a verificar en la tabla adjunta posibles distribuciones de
probabilidad discretas y analizar los valores de la esperanza y de la varianza. En
esta tabla puede introducir valores para la variable y las probabilidades
respectivas y ver el comportamiento de la media y la varianza.
La siguiente es una propiedad importante de la varianza. Según la definición de
esperanza, en el caso discreto se tiene
=
=
(xi -
)2fX(xi)
=
(xi2 - 2xi
+
xi2fX(xi) -
=
)fX(xi)
2xi
fX(xi) +
(
)2fX(xi)
=
xi2fX(xi) – 2
=
-2
xifX(xi) +
+
=
fX(xi)
-(
)2.
De hecho no es difícil verificar que esta propiedad también se cumple en el caso
continuo.
Se llamará momento de orden k a la esperanza de Xk. Es decir el momento de
orden k para la variable aleatoria discreta X es
E(Xk) =
xikfX(xi),
mientras que para una continua es
E(Xk) =
xkfX(x) dx.
Ejemplo 18
Sea X una variable aleatoria continua con distribución de probabilidad dada por
f (x) =
1. Determine el valor de k.
2. Calcule P([- 2 < X ≤ 5]).
3. Calcule VAR(X).
Solución
1. Dado que
2.
3.
Finalizamos esta sección enunciando un teorema que resume las propiedades
fundamentales de la esperanza.
1. El valor esperado de una variable aleatoria constante es la misma
constante.
= c.
2. El valor esperado de una variable aleatoria multiplicada por una constante
es la constante por el valor esperado de la variable.
=
c.
3. El valor esperado de una suma de dos variables aleatorias es la suma de
los valores esperados de las variables.
=
+
.
Las pruebas de las dos primeras propiedades son bastante sencillas, y para
demostrar la tercera se requiere estudiar algunos conceptos que no se han
explorado hasta ahora. El lector interesado en la justificación de estos resultados
puede consultar [2].
las siguientes afirmaciones.
1. La varianza de una variable aleatoria constante es cero.
VAR(c) = 0.
2. La varianza de una variable aleatoria multiplicada por una constante es la
constante por la varianza de la variable.
VAR(cX) = c2VAR(X).
3. La varianza de una suma de dos variables aleatorias es la suma de las
varianzas de las variables.
VAR(X+Y) = VAR(X) + VAR(Y).
Nuevamente la demostración de los apartados (1.) y (2.) es bastante directa a
partir de la definición y la demostración de (3.) es un poco más delicada. El lector
interesado puede verla en [2].
III.21.- Si X es una variable aleatoria se llama función generadora de momentos a
la esperanza de etX y se denota por mX(t)
mX(t) = E(etX).
(3.11)
Las siguientes líneas ayudarán a entender el porqué de este nombre.
Supongamos que X es una variable aleatoria que toma valores 0, 1, 2,..., entonces
mX(t) = E(etX)
=
etxifX(xi)
=
=
(txi)k/k!
fX(xi)
tkxik/k!
fX(xi)
=
xifX(xi)
=
E(Xk).
Esta deducción utiliza una propiedad importante de las sumatorias que en general
no es válida y es el intercambio de las sumatorias que se hace. Si el lector es
paciente puede expandir cada una de las sumas y verificar que es posible el
reordenamiento practicado.
Como notará esta última serie tiene como parte de sus coeficientes los momentos
de orden k, de hecho es bastante sencillo demostrar el siguiente lema
Si X es una variable aleatoria con función generadora de momentos mX(t) se tiene
que
m(n)X(0) = E(Xn).
(3.12)
Es decir si tenemos la función generadora de momentos basta con derivarla n
veces y evaluar en 0 para obtener el momento de orden n.
IV.22.- Existen diversos experimentos para los cuales el espacio muestral
solamente admite dos valores, pueden ser cualitativos, se cumple o no se cumple
alguna condición o cuantitativos 0 o 1. No hay diferencia y para efectos de la
distribución basta con que los consideremos como éxito y fallo, con valores
asignados de 1 y 0, respectivamente.
Cuando un experimento como éste se ejecuta una sola vez se dice que es un
ensayo tipo Bernoulli, la variable aleatoria solo toma dos valores que
corresponden con X(éxito) = 1 y X(fallo) = 0 y la distribución de probabilidad
también es bastante simplificada con valores
fX(1) = p, y
fX(0) = 1 - p.
Dado un experimento que consiste de una secuencia de n ensayos
independientes tipo Bernoulli, donde la probabilidad, p, de éxito no cambia entre
ensayo y ensayo del experimento. Si la variable aleatoria que interesa cuantificar
es el número de éxitos en los n ensayos, la variable recibe el nombre de Binomial.
Por ejemplo se lanza una moneda el aire en 8 ocasiones y se toma como variable
aleatoria el número de veces que cae corona, o se registran los próximos 100
nacimientos en un hospital y se toma como variable aleatoria el número de
mujeres que nacen.
En una variable binomial se tienen por parámetros la probabilidad de éxito en cada
ensayo, p, y el total de ejecuciones, n, y como variable aleatoria X, el número de
éxitos digamos x. La distribución de probabilidad la denotaremos por b(x;n, p).
Para la distribución de probabilidad acumulada usamos la notación B(x;n, p).
La demostración de la primera de las aseveraciones hechas en el teorema resulta
directa, pues puede haber desde ninguno hasta, a lo sumo, n éxitos.
La segunda parte resulta de que la ocurrencia de exactamente x éxitos es la
conjunción de que en x cualesquiera de los ensayos ocurra éxito y en los n - x
restantes ocurra fallo, de acuerdo con la ley del producto la probabilidad es de px(1
- p)n - x. Como no importa cuales x de los ensayos resulten en éxito entonces debe
de contarse todas las posibles maneras de elegir x ensayos entre los n.
La tercera parte es simplemente una adaptación de la definición de la función de
probabilidad acumulada.
Vale la pena destacar que este tipo de cálculos es bastante laborioso, no obstante
se dispone de tablas que resumen algunos de los valores más frecuentes. Mejor
aún en la versión electrónica de estas notas se da una barra de herramientas que
permiten realizar en forma directa los cálculos, que involucren binomiales.
Ejemplo 19
Veinte palomas vuelan hacia 3 nidos. Cada una de ellas se ubicará en forma
aleatoria en alguno de los nidos, además una paloma se ubica en forma
independiente de lo que hicieron o harán las otras. Calcule las siguientes
probabilidades.
1. Exactamente 4 palomas se ubican en el primer nido.
2. A lo sumo cuatro palomas se ubican en el primer nido.
3. Al menos cuatro palomas se ubican en el primer nido.
Solución
Dadas las condiciones indicadas, el arribo de cada paloma a algún nido es un
ensayo de Bernoulli donde éxito es que la paloma se ubique en el nido 1 y fracaso
es que no lo haga. La probabilidad de éxito es 1/3 y la variable aleatoria que indica
el número de palomas que quedan ubicadas en el primer nido sigue una
distribución tipo binomial: b(x;20, 1/3), y las respuestas a los problemas son
1.
P[X = 4] = b(4;20, 1/3).
2. A lo sumo cuatro palomas significa ninguna, una, dos, tres o cuatro es decir:
b(0;20, 1/3) + b(1;20, 1/3) + b(2;20, 1/3) + b(3;20, 1/3) + b(4;20, 1/3),
por lo tanto:
P[X ≤ 4] = B(4;20, 1/3).
3. Al menos cuatro puede verse como el complemento de a lo sumo tres, por
tanto la la respuesta es
1 - P[X ≤3]=1-B(4;20, 1/3).
Ejemplo 20
Suponga que el 20 por ciento de los componentes fabricados por una planta no
pasan un control de calidad. Cuál es la probabilidad de que en una muestra de 15
componentes consecutivos a lo sumo 8 no pasen la prueba.
Solución
Este es un experimento de tipo binomial, que tiene 15 repeticiones del mismo
experimento, con una probabilidad de éxito de 0.2. Si Y es la variable aleatoria que
indica el número de componentes defectuosos, interesa calcular el valor de la
expresión:
P[Y ≤8] =
(0.2)k(0.8)15 - k = B(8;15, 0.2),
recurriendo a tablas o a la barra de herramientas se obtiene que la probabilidad
del evento indicado es 0.9992.
Sobre ese mismo ejemplo:
•
La probabilidad que exactamente 8 componentes no pasen la prueba:
b(8, 15, 0.2) = B(8, 15, 0.2) - B(7, 15, 0.2) = 0.9992 - 0.9958.
•
la probabilidad que fallen al menos 8 es:
P[Y ≥8] = 1 - P[Y ≤7] = 1 - B(7, 15.0.2) = 1 - 0.9958.
Algunas veces se acepta que un experimento se porta como un binomial, aunque
cumpla en forma parcial las reglas citadas en la definición. Por ejemplo en
problemas de elección sin reposición la probabilidad de cada experimento está
influenciada por los resultados de los anteriores. No obstante cuando el número de
intentos es relativamente pequeño respecto al espacio muestral el comportamiento
de la variable aleatoria puede aproximarse como si fuera binomial.
Ejemplo 21
Suponga que en una ciudad viven un millón de personas de los cuales sólo
800000 son nativos de la ciudad. Si se toma una muestra de 10 ciudadanos al
azar cual es la probabilidad de que a lo sumo dos de ellos no sean nativos.
Solución
Si bien la secuencia de 10 experimentos consecutivos de escoger un ciudadano y
que no sea nativo tienen probabilidades diferentes también es cierto que estas
probabilidades prácticamente son iguales, en un caso como este podemos asumir
que el comportamiento de la variable aleatoria Y que indica el número de no
nativos en la muestra se aproxima por una binomial. Así la probabilidad solicitada
es:
P[Y
(0.2)k(0.8)10 - k = B(2;10, 0.2),
2] =
recurriendo a tablas se obtiene que la probabilidad del evento indicado es 0.6778.
IV.23.- Si una variable X es Bernoulli entonces la media se puede calcular en
forma muy sencilla pues.
= 0(1 - p) + 1(p) = p,
mientras que la varianza es:
VAR(X) = (0 - p)2(1 - p) + (1 - p)2p = p(1 - p).
Si una variable es binomial de parámetros n, p entonces X puede verse como una
secuencia de ensayos de Bernoulli es decir X = Y1 + ... + Yn. Para calcular su
media y su varianza puede recurrirse a los teoremas (12) y (13) para obtener el
siguiente teorema.
Este último resultado también se puede obtener recurriendo a la definición de la
media. Se invita al lector a tratar de deducir la media para una binomial a partir de
la definición y del uso del teorema (11) y de (2.3).
IV.24.- Una variable aleatoria X se dice que sigue una distribución de Poisson con
parámetro
> 0 si su rango es el conjunto 0, 1, 2,..., y la distribución de
probabilidad está dada por:
P[X = x] = p(x
;) =
para x = 0, 1, 2,....
En general la descripción de un proceso de Poisson no es necesariamente
sencilla, en [5] puede encontrarse una discusión simplificada.
Ejemplo 22
Dado que p(x; )≥ 0 y recurriendo a la expresión:
ex =
(4.1)
se obtiene que
con lo cual p(x; ) cumple con las propiedades para ser una distribución.
La herramienta adjunta permite realizar los cálculos relacionados con la
distribución Poisson.
Ejemplo 23
Las consultas arriban a un servidor siguiendo una distribución de Poisson con 12
consultas por minuto.
1. ¿Cuál es la probabilidad de que el intervalo de tiempo entre las dos
próximas consultas sea menor o igual a 7.5 segundos?
2. ¿Cuál es la probabilidad de que el intervalo de tiempo entre las dos
próximas consultas sea mayor a 10 segundos?
Solución
1. Si en 60 seg. arriban 12 consultas entonces en 7.5 segundos arriban 1.5
consultas, por lo tanto el número de llamadas, X, que llegan en 7.5
segundos sigue una distribución de Poisson p(x;1.5).
La probabilidad de que después del arribo de una consulta pasen menos de
7.5 segundos antes del arribo de la siguiente debe verse como la
probabilidad de que en 7.5 segundos llegue al menos una consulta.
P([X > 0]) = 1 - P([X = 0]) = 1 - p(0, 1.5) = 1 -
= 1 - e-1.5.
2. Por argumentos similares al caso anterior se tiene que la probabilidad
solicitada es:
p(0, 2).
Para una distribución de Poisson se tiene que la esperanza es
Para calcular la varianza de una distribución de Poisson es mejor utilizar la función
generadora de momentos.
La función generadora de momentos para una Poisson de parámetro
recurriendo a la expresión 3.11.
se calcula
Derivando dos veces y evaluando en cero, lema (2), se obtiene que E[X2] =
que unido al lema (1) permite obtener que la varianza de una Poisson de
parámetro es .
-
IV.25.-
Los tipos de aplicaciones en los cuales la distribución es hipergeométrica son muy
similares a aquellos donde se aplica la binomial. Una manera de entender la
diferencia entre ambas es analizando el esquema con que se lleva a cabo el
muestreo. Mientras que en la distribución binomial el muestreo se realiza con
reemplazo de cada artículo, después de observarse, en la hipergeométrica el
muestreo se lleva a cabo sin reemplazo.
Por ejemplo de un naipe se desea extraer una muestra de 5 cartas y calcular la
probabilidad de obtener 3 cartas rojas. En este caso se deben muestrear 5
objetos, para cada objeto se considera como éxito el hecho que la carta sea roja y
como fracaso que sea negra, hay 26 éxitos en la población, toda muestra de 5
cartas tiene la misma probabilidad de ser elegida.
El conjunto de valores posibles x para la variable aleatoria en un experimento
hipergeométrico está restringido por dos condiciones importantes, la primera de
ellas es que en la muestra puede haber a lo sumo min{n, M} éxitos mientras que al
menos hay max{0, n - (N - M)} éxitos.
La distribución de probabilidad h(x;n, M, N) depende de:
•
el tamaño de la muestra n,
•
el tamaño del conjunto sobre el cual se toman los objetos N,
•
y el número de éxitos, M, en el conjunto sobre el que se hace el muestreo.
El cálculo de la distribución de probabilidad para un valor x de los posibles de la
variable aleatoria se puede hacer de manera simple pues la probabilidad P[X = x]
puede reducirse a un problema de conteo. Se eligen x de los M éxitos y se eligen
n - x de los N - M que no son éxitos, y se divide entre el total de posibles maneras
de escoger los x elementos de los N. Esto conduce a la expresión:
.
h(x;n, M, N) =
(4.2)
Los cálculos que se necesitan para la distribución hipergeométrica se pueden
hacer recurriendo a la herramienta adjunta.
Ejemplo 24
Un equipo de trabajo de 5 personas se va a seleccionar de entre cinco hombres y
tres mujeres. Si la variable aleatoria es el número de hombres en el equipo, ¿cuál
es la distribución de probabilidad asociada?
Solución
Los posibles valores de esta variable aleatoria son 2, 3, 4 y 5 y las probabilidades
son:
h(x;5, 5, 8) =
,
El lector puede verificar que la media para esta distribución es 176/56.
Ejemplo 25
De una población de 500 animales se capturan 200, se marcan y se sueltan para
que vuelvan a mezclarse con el resto de la población.
La probabilidad de que en una muestra de 20 animales capturados o recapturados
haya 4 o menos marcados se puede calcular por
Mientras tanto la probabilidad de que aparezcan 3 o más animales marcados en
una captura o recaptura de 20 es:
1V.26.- En general las distribuciones de probabilidad son herramientas muy
necesarias en el estudio de problemas probabilísticos y estadísticos.
Entre las distribuciones de probabilidad continuas, la distribución normal, es la
más utilizada y la más importante.
Muchas mediciones dentro de poblaciones siguen distribuciones normales y en
casos donde poblaciones no distribuyen normalmente, es común que ciertos
promedios y ciertos valores acumulados se distribuyan en forma normal, esta
última observación se conoce como el teorema del límite central.
En términos muy simples, una población sigue una distribución normal respecto a
alguna medición cuando el grueso de los valores de la población se distribuyen
cerca de la media y existe cierta simetría en la forma en que se distribuyen los
datos alrededor de la media.
En términos matemáticos la definición es la siguiente:
Se puede demostrar que la media de esta distribución es
.
y la desviación es
En las siguientes aplicaciones usted puede explorar la forma de las gráficas de
distribuciones normales. Se puede variar la media y la desviación estándar para
analizar distintos casos.
Además la distribución de probabilidad acumulada es decir, P[X ≤ x] se calcula por
la integral:
FX(x) = P[X ≤x] =
dt
e
Para efectos operacionales, las distribuciones normales son difíciles pues los
cálculos que deben hacerse son complejos.
Entre las normales, la distribución más importante es la que se llama normal
estándar, una normal cuya media es 0 y cuya desviación estándar es 1. De hecho
en estas mismas notas veremos que toda probabilidad que implique la distribución
normal puede reducirse a una en que se utilice la normal estándar.
Y en este caso el cálculo de la distribución de probabilidad acumulada es,
Φ(x) = P[X ≤ x] =
e
dt.
La última expresión es una variante de una función que se conoce como la función
error erf(x), [1], y solo hay formas numéricas de aproximar sus valores [3,2].
Los valores de la función
(x) se pueden obtener en tablas que aparecen en
libros de probabilidades o bien utilizando la herramienta provista en estas notas.
V.27.- Como la función de distribución de probabilidad es simétrica, y además el
área total acumulada, sobre toda la recta real es 1, entonces para cualquier x real
se obtiene la siguiente propiedad:
(5.1)
Φ(x) + Φ(- x) = 1,
Para finalizar este corto recorrido por la distribución normal invitamos al lector a
seguir cuidadosamente las siguientes líneas.
Si X sigue una distribución normal con parámetros
y
entonces si aplicamos el
cambio de variable
=
a la integral en
P[X ≤ x] =
dt,
e
obtenemos
P[X ≤ x] =
e
dt = Φ (
).
Ejemplo 26
Las notas finales de un curso se distribuyen en forma normal con una media de 75
y una desviación estándar de 10. Si la nota de aprobación es de 70 que porcentaje
de los estudiantes aprobarán el curso.
Solución:
Primero se debe notar que la afirmación de que las notas siguen una distribución
normal debe entenderse en el sentido aproximado.
El porcentaje solicitado puede obtenerse al encontrar el valor P[X ≥ 70].
Dadas las propiedades de las distribuciones de probabilidad se tiene que
P[X ≥ 70] = 1 - P[X ≤70] = 1 - Φ (
) = 1 - 0.6915 = 0.3085.
Ejemplo 27
La distribución de peso de ciertos bultos de papel para reciclaje es normal con
media de 50 kilos y desviación estándar de 10 kilos. La persona que transporta los
paquetes cobra 100 colones por bulto pero desea imponer un peso máximo
después del cual cobrar un recargo. Cuál debería ser ese peso para que los bultos
tengan una probabilidad inferior al 10% de pagar tal recargo.
Solución
Hay dos aspectos importantes que se deben notar; el primero de ellos es que si X
es la variable aleatoria para el peso de cada paquete lo que se debe encontrar es
un valor r tal que:
P[X ≥ r] > 0.1,
lo que se reduce a encontrar un r que cumpla con:
P[X ≤ r] ≤ 0.9,
El problema es inverso en el sentido de que no se busca una probabilidad, sino un
valor que permita obtener cierta probabilidad.
El segundo aspecto que debe tenerse en cuenta es que para poder utilizar las
barras de cálculo de que se dispone en estas notas o las tablas, la distribución de
normalizarse en el sentido de 18.
La siguiente herramienta permite resolver el problema indicado, a saber si se tiene
una probabilidad p encontrar el valor r tal que P[X ≤r] = p.
Uniendo ese par de observaciones se debe resolver:
P[
≤
] ≤ 0.9.
Utilizando en barra de asistencia la herramienta normal inversa se obtiene la
ecuación:
= 1.286,
de donde r = 62.86.
V.28.- Muchas veces, aún cuando una variable aleatoria no siga una distribución
normal es posible que su comportamiento pueda ser modelado con distribuciones
que siguen comportamientos similares a una normal pero de manera sesgada.
Antes de poder estudiar este tipo de distribuciones se hace necesario definir una
función sumamente importante en el estudio de diversos problemas en
matemática.
Por Ejemplo:
Otra propiedad importante se obtiene de aplicar a
dx y u = e-x, para obtener:
(
+1) las partes dv=x
Con un poco de paciencia y regla de L'Hopital se puede demostrar que el primer
límite en la última expresión es 0 mientras que la segunda integral es
( ).
Con esto la función gamma cumple con la propiedad
allí si n es entero (n) = (n - 1)!.
(
+ 1) = ( ) ( ) y de
También, usando algunos argumentos de cálculo en varias variables se puede
calcular que
(
)=
.
Aparte de un reducido número de argumentos el cálculo de valores de la función
gamma debe hacerse utilizando métodos numéricos [3,1]. Para hacer estos
cálculos se provee una herramienta, que ha sido programada acorde con [9].
El parámetro puede verse como un parámetro de forma pues su modificación
altera la forma de
la distribución mientras que
funciona como un parámetro de escala.
Invitamos al lector que revise la versión electrónica de estas notas a utilizar el
graficador para distribuciones gamma y verificar algunas de las formas variando
los parámetros.
Si en una distribución gamma
estándar.
= 1 se dice que es una distribución gamma
Para una variable aleatoria continua, X, con distribución de probabilidad gamma
de parámetros
y , aplicando un cambio de variable u = y / se tiene que la
función de distribución de probabilidad para X cumple:
dy
P([X ≤x]) =
du
=
= F(x /
(5.2)
;
)
Esta última función se conoce como la función gamma incompleta.
•
E[X] =
•
Var[X] =
Ejemplo 28
Suponga que el tiempo de reacción para iniciar el frenado ante una emergencia,
en la población de cierta edad sigue una distribución Gamma con media de .5
segundo y varianza de .1 segundo cuadrado.
Solución
Dado que la esperanza es .5 y la varianza .1 se obtiene que
= 5/2 y
= 1/5
En ese caso, si quisiéramos calcular la probabilidad de que la respuesta de
frenado en una situación de emergencia sea inferior a .72 segundos usando la
expresión (5.2) se tiene que
P[X ≤ 7.2] = F(.72/.2, 2.5) = F(3.6, 2.5)
Ejemplo 29
Suponga que el tiempo utilizado por una persona preparando un tipo particular de
informe sigue una distribución gamma con media de 20 minutos y varianza 80
minutos cuadrados.
Aplicando el teorema (19) se obtiene que
=5y
=4
Para determinar la probabilidad de que una persona elegida al azar tarde menos
de 24 minutos preparando el informe debe resolverse
P[X ≤ 24] = F(24/4, 5) = F(6, 5) = 0.715
V.29.- La distribución de probabilidad exponencial
En realidad la distribución exponencial es un caso especial de la distribución
gamma. Ya se ha abordado antes algunos aspectos relativos a la distribución
exponencial.
•
E[X] =
•
Var[X] =
La primera afirmación en este teorema ya ha sido demostrada en la sección 3.3 y
la segunda parte se deja como ejercicio para el lector.
VI.30.- Si X es una variable aleatoria discreta con rango RX entonces es sencillo
deducir la siguiente secuencia de desigualdades:
E(X) =
xP[X = x]
xP[X = x] +
xP[X = x]
=
≥
xP[X = x]
≥
xP[X = x]
= tP[X ≥ t]
Este análisis, que se puede hacer en forma equivalente para distribuciones
continuas da lugar al siguiente teorema conocido como la desigualdad de Markov
[2].
P[X ≥ t] ≤
(6.1)
Esta desigualdad permite hacer aproximaciones vagas acerca del comportamiento
de variables aleatorias tomando en cuenta únicamente la esperanza. Veamos el
siguiente ejemplo.
Ejemplo 30
En una caja hay 10 bolillas rojas y 6 negras. Se extraen con remplazo 8 bolillas y
se registra el número de bolillas rojas extraídas.
X sigue una distribución binomial b(x;8, 10/16) y usando la herramienta para
binomiales, es simple verificar por ejemplo que P[X ≥6] = 1 - P[X ≤ 5] = 0.3697.
Utilizando la desigualdad de Markov se obtiene que P[X ≥ 6] ≤ 5/6 = 0, 8333.
Comparando estos dos valores nos damos cuenta que la cota que se obtiene por
la desigualdad de Markov no necesariamente es buena.
Es importante notar que si en la desigualdad (6.1) utilizamos t = n
P[X ≥ n
obtenemos
]≤
Es decir la probabilidad de que los valores de una variable aleatoria estén a más
de n veces la media es menor a 1/n.
Si además de la media o esperanza se conoce la varianza entonces existe la
posibilidad de hacer acotaciones con un poco más de precisión. Supongamos que
X es una variable aleatoria con esperanza
y varianza
Si consideramos la
2
variable aleatoria (X ) , aplicando la desigualdad de Markov a esta variable,
cuya esperanza es precisamente
(3.9), se obtiene
P[(X -
)2 ≥ t2] ≤
Dado que [(X )2 ≥ t2es equivalente a | X conocido como la desigualdad de Chebyshev.
| ≥ t se obtiene el teorema
(6.2)
P[| X -
)|
t]
La desigualdad de Chebyshev permite acotar la probabilidad de que los valores de
la distribución queden alrededor de la media. Estas aproximaciones no
necesariamente son buenas, no obstante mejorar los resultados que se pueden
obtener con esta desigualdad implicaría restringir mucho las hipótesis iniciales,
como se verá en un ejemplo posterior.
Ejemplo 31
Una persona puede digitar un texto en un tiempo que sigue una distribución con
media 50 minutos y desviación 10 minutos. Para estimar una cota para la
probabilidad de que esta persona tarde entre 30 y 50 minutos se puede recurrir a
la desigualdad de Chebyshev y se obtiene
P[30 ≤ T ≤ 70] = 1 - P[| X - 50| ≥ 20] ≥ 1 -
=
Aún cuando este tipo de estimaciones pueden resultar innecesarias cuando se
dispone de la distribución de probabilidad el ejemplo siguiente sirve para comparar
los resultados que se obtienen usando la de la desigualdad (6.2).
Ejemplo 32
El tiempo que tarda un computador en resolver un problema sigue una distribución
exponencial con media 2 minutos. Para estimar la probabilidad que el tiempo de
solución de un problema al azar esté entre 0 y 6 minutos si utilizamos la
desigualdad de Chebyshev obtenemos
P[0 ≤ T ≤ 6] = 1 - P[| X - 2| ≥ 4] ≥ 1 -
= .75
Es decir con la desigualdad de Chebyshev obtenemos que la probabilidad de que
el tiempo esté entre 0 y 6 minutos es superior a 0.75.
Si usamos la distribución en forma directa obtenemos que:
dx = 1 - e-3 = 0.95
P[0 ≤ T ≤ 6] =
Lo que nos indica que las cotas que se obtienen de la desigualdad de Chebyshev
pueden no ser muy buenas, no obstante como veremos no es tan fácil mejorar las
cotas que se obtienen con esta desigualdad sin imponer restricciones adicionales.
El siguiente ejemplo, [2], es ilustrativo en ese sentido.
Ejemplo 33
Sea X una variable aleatoria discreta cuya distribución de probabilidad se da en la
siguiente tabla:
x1 = - 2
x2 = 0
x3 = 2
P[X = x1] = 1/8 P[X = x2] = 3/4 P[X = x3] = 1/8
Es muy sencillo verificar que E[X] = 0 y que VAR[X] = 1
Si aplicamos la desigualdad de Chebyshev obtenemos que
P[| X -
| ≥ 2] ≤
que en este coincide con el valor pues
P[| X -
| ≥ 2] = P[X = 2] + P[X = - 2] =
+
=
Este ejemplo indica que aún cuando las cotas obtenidas de la desigualdad (6.2) no
siempre son buenas a veces son exactas.
VI.31.- Para poner en contexto las implicaciones de este teorema es importante
revisar las siguientes observaciones.
Dado un experimento con espacio muestral , para un evento se ha indicado
que si se hacen n repeticiones del experimento y se nota que en esas n
repeticiones del experimento ocurren (n) veces el evento , intuitivamente se
define la probabilidad del evento por
P[
]=
.
Sin embargo, como ya hemos apuntado antes esta definición deja abiertas una
serie de preguntas. Por ejemplo si aceptamos definir la probabilidad como el valor
límite de estos cocientes entonces la definición se complica. Primero que todo,
qué garantiza que ese límite existe, segundo esta definición no es operacional en
el sentido de que no es posible repetir infinitamente tal experimento. Estudiaremos
la ley de los grandes números que nos ayudará a precisar un poco mejor el
sentido de
P[
(6.3)
]=
Simplificando un poco el problema, cada una de las repeticiones del experimento
que se realicen en el contexto citado puede verse como un ensayo de Bernoulli
donde el éxito coincide con la ocurrencia de . Así el número de éxitos X en los n
ensayos del experimento es una variable aleatoria binomial en la cual la
probabilidad de éxito es un valor desconocido p. Para esta variable sabemos que
la media es np y la varianza es np(1 - p) (teorema 15).
Si consideramos la variable aleatoria Y = X / n es muy sencillo demostrar que la
esperanza de Y es
np/n = p y que la varianza es (np(1 - p))/n2 = p(1 - p)/n.
Aplicando la desigualdad de Chebyshev a Y con t =
P
-p
P
-p
obtenemos:
(6.4)
.
Es decir el límite (6.3) existe o dicho en palabras algo más simples dada cualquier
precisión se puede encontrar un valor n de manera que el cociente éxitos entre
el total de ensayos esté tan cerca del valor p desconocido como queramos.
En cierta forma esta última desigualdad da legitimidad al proceso estadístico que
se ha citado en la definición (10), pues garantiza que el proceso descrito en esta
definición en realidad converge al valor de la probabilidad del evento.
Por supuesto que no resuelve en forma simple el problema operacional de saber
cuál debe ser el número de repeticiones del experimento necesarias para obtener
aproximaciones precisas de la probabilidad buscada. Se puede utilizar la
desigualdad de Chebyshev para obtener aproximaciones del valor de n pero el
teorema del límite central, que abordaremos en la sección siguiente será de mayor
utilidad en ese sentido.
Las conclusiones que se han obtenido hasta ahora se resumen en el siguiente
teorema conocido como una forma débil de la ley de los grandes números [2].
(6.5)
P
- P[
]
= 0.
Paralela a la la forma débil de la ley de los grandes números existe una
generalización que se llama la Ley de los grandes Números cuya justificación está
fuera de los objetivos de este curso [6] y se enuncia en el siguiente teorema:
(6.6)
P
-
]
= 0.
Dicho en otras palabras la probabilidad de que el promedio Sn/n difiera de la
esperanza menos que un cualquiera, tiende a uno.
VI.32.- El último teorema de la sección previa es generalizado por otro teorema
cuya importancia en aplicaciones de la probabilidad y estadística es mucho mayor.
El teorema del límite central se enuncia seguidamente:
P
Donde
x≤
≤y
(6.7)
= Φ (y) - Φ (x).
(z) es la distribución normal estándar.
La importancia de este teorema es enorme, en especial porque no tiene ninguna
condición especial sobre el tipo de distribución al que se aplica. Puede ser
continua o discreta, no importa como sean, en promedio la suma de estas
variables se distribuyen como una normal con media n
y varianza n . Este
teorema también es válido para la variable aleatoria
= Sn/n para la que, si n se
hace grande, distribuye como una normal de media
y varianza
/n.
Para explorar mejor el valor de este teorema se presenta la siguiente aplicación
que permite partir de una distribución de datos cualquiera y analizar la distribución
de probabilidad de los posibles promedios de muestras sobre la distribución
original.
VI.33.- El teorema del límite central tiene una implicación adicional que también
resulta sorprendente. Si Sn sigue una distribución binomial de parámetros n y p
entonces si x y y son enteros no negativos tales que x < y, según el teorema del
límite central se tiene que si n es suficientemente grande se cumple.
P [x ≤ Sn ≤ y ] → Φ
P x
Sn
-Φ
(6.8)
-
y
.
Este resultado se conoce como la aproximación normal de la binomial y dado que
es aproximación continua de una distribución discreta deben tenerse algunos
cuidados adicionales.
La mejor manera de utilizar este resultado puede obtenerse en la expresión:
k
p (1 - p)
k
n-k
n-k
p (1 - p)
=Φ
=
Φ
(6.9)
-
El valor 1/2 que se agrega a cada lado se llama un factor de corrección de
continuidad. La razón para agregar tal factor de corrección es que si uno usa una
distribución normal, que es continua, para aproximar una binomial que es discreta,
en cada extremo del intervalo la distribución discreta incluye la mitad de una barra
que la distribución continua omite, por eso debe agregarse. Las siguientes gráficas
pueden ayudarle a comprender la necesidad de este factor de corrección.
Ejemplo 34
Se sabe que en una ciudad el 35% de los habitantes tienen sobrepeso. Se eligen
500 personas, cuál es la probabilidad de que haya entre 200 y 300 con
sobrepeso.
La solución de este problema se obtiene por la expresión
k
(0.35) (0.65)
500 - k
(0.35)k(0.65)500 - k
-
.
Usando la herramienta para cálculo de binomiales se obtiene que la parte
izquierda es 0.008864 mientras que la parte derecha, usando la herramienta
correspondiente es 0.0108.
Existen varios criterios para asegurar la precisión de este tipo de aproximaciones.
Los ejemplos abundan, por ejemplo en [5] se afirma que si np ≥ 5 y n(1 - p) ≥ 5 la
aproximación es adecuada, en [2] se presenta un resumen de diferentes
condiciones para asegurar precisión, al final de cuentas lo que si es válido es que
valores de p muy cercanos a 0 o 1 hacen que las aproximaciones normales de
binomiales no sean buenas.
En la Herramienta que se da a continuación el lector puede colocar valores de n y
p y verificar por si mismo la calidad de la aproximación normal de la binomial.
Ejemplo 35
Dos empresas de venta de servicios telefónicos optan por el mismo mercado, hay
n clientes que seleccionan al azar alguna de las dos empresas. Si una de las
empresas tiene capacidad de atender a lo sumo r < n clientes entonces la
probabilidad de que esta empresa reciba solicitudes de más de r clientes está
dada por
k
(.5) (.5)
n–k
(.5)k(.5)n - k
≈
1- Φ
1-
=1-Φ
=1Por ejemplo si hay 1000 clientes y una de las empresas desea que el total de
solicitudes sin atender no exceda el 10% entonces usando las herramientas
disponibles se obtiene que
Φ
≥ 0.9
de donde se obtiene que r = 520, líneas bastarán para satisfacer al menos el 90%
de las demandas de servicio.
Si ese porcentaje se elevara y se quisiera que el porcentaje de solicitudes sin
atender no exceda el 1% entonces se debe resolver
Φ
≥ 0.99
usando las herramientas disponibles y despejando se obtiene que r = 537 líneas
son suficientes. Esta aproximación no solo es buena, es excelente como puede
verificarse usando las herramientas para binomiales que se han programado.
Para estas herramientas se ha obtenido una precisión sorprendente, si hiciéramos
el mismo análisis pero con una probabilidad de 0.7 de que cada cliente elija a esta
empresa; usando la aproximación normal se obtendría que se necesitan 734
líneas si se usa la binomial en forma directa se ve que 733 bastan. Se invita al
lector a ver el comportamiento para otros valores de p.
Como nota aparte es interesante hacer notar que el desempeño de estas
herramientas programadas mejoran los resultados que se obtienen en tablas como
las de [6] además permiten una serie de exploraciones que de otra manera serían
muy complicadas.
VI.34.- Estimadores
Un estimador de un parámetro de una variable aleatoria X es una variable
aleatoria, que puede depender de una muestra aleatoria X1, X1,..., Xn.
Los dos estimadores más usuales son el promedio usual llamado también media
y la varianza muestral denotado por S2.
muestral y denotado por
Estos estimadores son a su vez variables aleatorias,
=
=
2
S =
2
S =
Xi
(6.10)
Xi
(Xi -
(Xi -
)
2
(6.11)
2
)
La desviación estándar muestral S es la raíz de la varianza.
Como sus nombres lo indican, se tiene que
es un estimador para la esperanza,
S2 lo es para la varianza Var[X] y S para la desviación estándar
.
El siguiente teorema, que en algunos textos [5] se llama teorema del límite central,
es sumamente útil pues permite resolver diversos ejercicios de manera bastante
simple.
1. E [
]=
2. E[S2] =
3. Var[
]=
4. Si n es suficientemente grande, entonces la variable
Z=
(6.12)
Z=
5. sigue una distribución que se aproxima a una normal estándar.
Este teorema puede ampliarse de forma directa a la distribución T = n
= X1 + X2
+ ... + Xn la cual también sigue una distribución normal con media n y desviación
estándar
.
Nuevamente, entre mayor sea el valor de n mejor será la aproximación.
Hemos desarrollado una aplicación que nos permite simular el comportamiento de
los promedios de las varianzas cuando se parte de una distribución con k valores
cualesquiera y se estudia valores de n suficientemente grandes. El estudiante
puede variar la distribución de probabilidad inicial así como los datos iniciales y la
herramienta le muestra cual es la distribución de probabilidad de la variable
promedio. El estudiante mediante exploración podrá validar los resultados que se
han discutido previamente, en especial puede ver como a valores mayores de n la
distribución de las medias se acerca más a una normal.
En papel la aplicación es bastante simple, toma una distribución de probabilidad y
un valor n que es el tamaño del muestreo. Calcula todas las combinaciones de X1,
X2,..., Xn, hace los promedios, les calcula las probabilidades a cada uno y
construye la distribución de probabilidad de los mismos, la cual se presenta en
forma de tabla y en forma gráfica.
VI.35.- Ejemplos
En una gran empresa el 60% de las personas tiene problemas de tensión. Cuál es
la probabilidad de que en una muestra de 1000, 615 o más presenten este
problema.
Solución
Este problema es de tipo binomial, puede resolverse calculando en forma directa 1
- B(614;1000,.6) lo que conduce al valor 0.158528,
También podemos recurrir a la aproximación normal de binomial y la probabilidad
solicitada es:
P [ X ≥ 615] Φ
P[X 615] =
-Φ
-
= 1 - Φ(.93597) = 0.174
Ejemplo 37
Las consultas a un sistema tienen una duración cuya media es de 4 segundos y su
desviación estándar es de 1.5 segundos. Si llegan 50 consultas en forma
independiente, cuál es la probabilidad de que las 50 tengan una duración
promedio entre 3.5 y 3.8 segundos.
Solución
Si aplicamos los resultados descritos hasta ahora el promedio de la muestra de las
50 consultas sigue una distribución que es aproximadamente normal con media
= 4 y desviación estándar
= 1.5/
= 0.2121. Luego:
P[3.5 ≤ X ≤ 3.8] = Φ
P[3.5 X 3.8] =
-Φ
-
= 0.1645.
= 0.1645.
Ejemplo 38
Una sonda espacial cuenta con un juego de 10 computadores para controlar su
estado. En todo momento se encuentra trabajando un único computador y estos
trabajan en forma serial de manera que en el instante en que uno falle empieza a
funcionar el siguiente, y así sucesivamente hasta utilizar los 10 computadores. La
sonda está por pasar detrás de un planeta, por lo que se espera no tener
comunicación con ella durante 4000 horas. Si cada computador opera
correctamente 440 horas en promedio con una desviación estándar de 30 horas,
entonces el tiempo acumulado de funcionamiento, Y de todas los computadores
sigue una distribución que se puede aproximar por una normal con media 1440 y
desviación estándar 30
.
P[Y > 4000] = 1 - Φ
= 1 – Φ (- 4.21) ≈ 1.
Si el promedio de funcionamiento de cada computador fuera de 410 horas y la
desviación estándar de 30 entonces la probabilidad pedida sería:
P[Y > 4000] = 1 - Φ
= 1 - Φ (- 1.05409)
=
1 - 0.14592 = 0.85408.
Ejemplo 39
El rendimiento de cierto cilindro de gas está normalmente distribuido con una
media de 6 horas y una desviación estándar de 0.5 horas. Este gas se vende en
paquetes de 5 cilindros y en cada paquete se utilizan los cinco cilindros en forma
secuencial, es decir se empieza uno solamente si se ha terminado el anterior.
Se desea determinar el tiempo máximo de duración de cada paquete de manera
que éste sea excedido sólo por el 3% de los paquetes.
Solución
Como el tiempo de duración de cada cilindro es normal la distribución del tiempo
TP = T1 + ... + T5 de cada paquete también es normal con media 30 y desviación
estándar 0.5
, lo que se solicita es un valor c tal que.
P[TP < c] = 0.97 = P[Z <
] = 0.97
De la herramienta correspondiente se obtiene
= 1.8807 es decir
c = 31.977, es decir solo un 3% de los paquetes tienen una duración de más de
31.977 horas.
Ejemplo 40
La duración de una batidora de un cierto fabricante es de 5 años, con una
desviación estándar de un año. Si asumimos que las duraciones de estos
mezcladores siguen aproximadamente una distribución normal, la aplicación de los
teoremas estudiados nos permite hacer las siguientes deducciones.
Si se toma una muestra aleatoria de 9 de estas batidoras entonces como la
duración de un mezclador es de 5 años con una desviación de 1 año, la duración
promedio sigue una distribución normal con la media de 5 años con una
desviación de
=
= 0.3333.
Si se quiere la probabilidad de que en promedio este grupo dure entre 4.4 y 5.2
años se tiene
P[4.4 ≤
≤5.2] = P[- 1.8 ≤ Z ≤.60] = 0.9918 - 0.0359 = 0.9559
O por ejemplo el valor de
a la derecha del cual caería el 15% de las medias
calculadas de las muestras aleatorias de tamaño 9 se obtiene del cálculo.
P[
≥
] = 0, 15
o bien
P[
≤
] = P[Z ≤
] = 0, 85
de la tabla y despejando se obtiene = 5, 35, es decir si se compraran 9 batidoras
un 15% de éstas funcionaría por un período superior a 5.35 años.
Ejemplo 41
Un médico atiende un paciente en un tiempo que es una variable aleatoria con
media
= 8 minutos y desviación estándar 3 minutos. Si debe atender un total de
40 pacientes la probabilidad de que atienda todos los pacientes en menos de 5
horas, asumiendo que los pacientes ingresan, en forma continua es
P[T = T1 + ... + T40 ≤ 300] = P[Z <
] = 0, 1469
La probabilidad de que el tiempo promedio de atención sea superior a 7.5 minutos
se obtiene de
P[
> 7.5] = 1 - P[Z ≤
] = 0.8531
INTEGRACION CONCEPTUAL (El titular académico, conocerá las respuestas)
Conocerá la administración de recursos humanos, donde se aplica a
organizaciones de cualquier clase y tamaño. En general los asuntos estudiados
por la administración de recursos humanos abarcan una gran cantidad de campos
de conocimiento, se habla de la aplicación e interpretación de pruebas
psicológicas y entrevistas, tecnología del aprendizaje individual, cambio
organizacional salud, salarios, higiene en el trabajo, selección del personal,
reclutamiento de personas y desarrollo organizacional.
REVISADO POR LA COORDINACIÓN GENERAL EDUCATIVA EL DIA 25 DE
OCTUBRE DE 2007.
-------------------------------------------------------------------------------------------------------------REPORTES CRÍTICOS O SUGERENTES A; Dr. Ernesto Guerra García,
Coordinador General Educativo. (Correo electrónico [email protected])
Geranios 1362 pte. Colonia Jardines de Fátima, Los Mochis, Sinaloa, México. C.P.
81223. Tel. 01 668 81 7 08 88.
--------------------------------------------------------------------------------------------------------------