Download probabilidad.

Document related concepts
no text concepts found
Transcript
2. PROBABILIDAD
2.1. Ideas Básicas
Para realizar un estudio sistemático de probabilidad se necesita cierta terminología. Un
experimento constituye un proceso con un resultado que no se puede predecir ciertamente
con anterioridad. El hecho de arrojar una moneda al aire o el aventar un dado, son
ejemplos de experimentos. Con la finalidad de analizar un experimento en terminos
probabilísticos, se debe especificar sus posibles resultados.
Espacio muestral: es el conjunto de todos los posibles resultados de algún experimento
Por ejemplo al arrojar una moneda se puede utilizar el conjunto (cara, cruz) como el
espacio maestral. O el arrojar un dado se puede utilizar el conjunto (1, 2, 3, 4, 5,6).
Estos espacios muéstrales son finitos, exciten algunos experimentos que tienen espacios
muéstrales infinitos.
Por ejemplo si se desea obtener la probabilidad de que un dado caiga en numero par. El
espacio muestral de para el experimento es ( 1,2,3,4,5,6 ) y el correspondiente a un
numero par es el subconjunto ( 2, 4 ,6 )
Evento: un subconjunto de un espacio muestral
Observe que para cualquier espacio muestral el conjunto vacio es un evento, como lo es
todo el espacio muestral. se dice que un evento ocurrió si el resultado del experimento es
alguno de los resultados en el evento. Por ejemplo si un dado cae en el numero 2 habrá
ocurrido los eventos ( 2, 4, 6) y (1, 2, 3 ) junto con cualquier otro evento que contenga el
resultado 2.
COMBINACION DE EVENTOS
Con frecuencia se constituyen eventos mediante la combinación de eventos más sencillos.
Debido a que aquellos son subconjuntos de espacios muéstrales, es usual emplear la
notación de conjuntos para describir los eventos constituidos de esta forma. A
continuación se describe la notación necesaria:

La unión de 2 eventos A y B se denota por (A U B) es el conjunto de resultados
que pertenecen a A o B o a ambos. Esto significa A o B. por lo tanto el evento (A U B) se
representa siempre que ocurre A o B o ambos.

La intersección de 2 eventos se denota como A
B es decir constituye el conjunto
de resultados que pertenece tanto a A como a B. por consecuencia el evento A
B significa
A y B. por consiguiente se representa que A y B siempre ocurren.

El complemento de un evento A se denota como A , es el conjunto de resultados
que no pertenecen a A . Es decir A significa “no A” o qu nunca ocurra A.
Ejemplo
Supóngase que:
A = (11, 18) (11,19) (11, 20) (11,21) (12,18) (12,19) (12,20) (12, 21)
B = (9,18) (10, 18) (11, 18) (12,18)
C = (9,19) (10,18)
Determine: (B U C) y (A
B )
Solución:
(B U C)
contiene todos los resultados que pertenecen a B o a C o a ambos por lo tanto:
(B U C) = (9,18) (10, 18) (11, 18) (12,18) (9,19) (10,18)
El evento B contiene los resultados en el espacio muestral que no pertenecen a B. entonces
el evento (A
(A
B ) lleva los eventos que pertenecen a A y no pertenecen a B.
B ) = (11,19) (11, 20) (11,21) (12,19) (12,20) (12, 21)
EVENTOS MUTUAMENTE EXCLUYENTES
Existen eventos que nunca se presentan simultáneamente, por ejemplo es imposible que al
aventar una moneda caiga a la misma vez cruz y cara. A estos se les llama eventos
mutuamente excluyentes
Definición: se dice que los eventos A y B son mutuamente excluyentes si no tienen
resultados en común.
Ejercicio :
Determinar ( A U C ) , ( A
B ), y (A
C )
A = (11, 18) (11,19) (11, 20) (11,21) (12,18) (12,19) (12,20) (12, 21)
B = (9,18) (10, 18) (11, 18) (12,18)
C = (9,19) (10,18)
LOS AXIOMAS DE PROBABILIDAD
Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que
una función que definimos sobre unos sucesos determine consistentemente valores de
probabilidad sobre dichos sucesos.
La probabilidad P de un suceso E, denotada por P(E), se define con respecto a un
"universo" o espacio muestral Ω, conjunto de todos los posibles sucesos elementales, tal que
P verifique los Axiomas de Kolmogórov, enunciados por el matemático ruso de este
nombre en 1933. En este sentido, el suceso E es, en términos matemáticos, un subconjunto
de Ω.
Axiomas de Kolmogórov
Dado un conjunto de sucesos elementales, Ω, sobre el que se ha definida una σ-álgebra
(léase sigma-álgebra) σ de subconjuntos de Ω y una función P que asigna valores reales a
los miembros de σ, a los que denominamos "sucesos", diremos que P es una probabilidad
sobre (Ω,σ) si se cumplen los siguientes tres axiomas.
Primer axioma
La probabilidad de un suceso A es un número real mayor o igual que 0.
La probabilidad de un suceso es un número positivo o nulo.
Segundo axioma
La probabilidad del total, Ω, es igual a 1.
Ω representa todas las posibles alternativas y se denomina suceso seguro.
Tercer axioma
Si A1, A2... son sucesos mutuamente excluyentes (incompatibles dos a dos, disjuntos o de
intersección vacía dos a dos), entonces:
.
Según este axioma se puede calcular la probabilidad de un suceso compuesto de varias
alternativas mutuamente excluyentes sumando las probabilidades de sus componentes.
Propiedades que se deducen de los axiomas
De los axiomas anteriores se deducen otras propiedades de la probabilidad:
1.
donde el conjunto vacío
representa en probabilidad el suceso
imposible
2.
Para cualquier suceso
3.
4.
Si
entonces
5.
En términos más formales, una probabilidad es una medida sobre una σ-álgebra de
subconjuntos del espacio muestral, siendo los subconjuntos miembros de la σ-álgebra los
sucesos y definida de tal manera que la medida del total sea 1. Tal medida, gracias a su
definición matemática, verifica igualmente los tres axiomas de Kolmogórov. A la terna
formada por el espacio muestral, la σ-álgebra y la función de probabilidad se la
denomina Espacio probabilístico, esto es, un "espacio de sucesos" (el espacio muestral) en
el que se han definido los posibles sucesos a considerar (la σ-álgebra) y la probabilidad
de cada suceso (la función de probabilidad).
Como ejemplo se puede tomar como espacio muestral a los posibles resultados al arrojar
un dado corriente
, tomaremos como σ-álgebra todos los
subconjuntos posibles de Ω (que en matemáticas se denota por
) y como función de
probabilidad
Es fácil comprobar que esta función verifica los tres axiomas de Kolmogórov y, por tanto,
constituye una probabilidad sobre este conjunto.
1.
, puesto que es el cociente de
dos números positivos
2.
3.
Si
de tal manera que
entonces
ESPACIOS MUESTRALES CON RESULTADOS IGUALMENTE PROBABLES
En algunos experimentos se puede construir un espacio muestral en el cual todos los
resultados sean igualmente probables.
Una población a partir del cual se muestra un elemento en forma aleatoria constituye un
espacio muesrtal con resultados igualmente probables.
Si S es una espacio muestral que contiene N resultados igualmente probables y si A es un
evento que contiene k resultados, entonces
P(A)=k/N
Ejemplo:
Un troquel de extrusión se utiliza para producir varillas de aluminio. Existen ciertas
especificaciones para la longitud y diámetro de las varillas. Para cada una de estas, la
longitud puede ser demasiado corta, demasiado larga o estar bien y el diametro se puede
clasificar en muy delgado, muy grueso o estar bien. En una población de mil varillas, el
numero de ellas en cada clase es:
Diámetro
Longitud
Muy delgado
Esta bien
Muy grueso
Demasiado corta
10
3
5
Esta bien
38
900
4
2
25
13
Demasiado larga
a)
Se toma una varilla aleatoriamente apartir de esta población. ¿Cuál es la
probabilidad de que sea demasiado corta?
Solucion
Se considera que cada varilla representa un resultado en un espacio muestral. Cada uno
de los mil resultados tiene la misma probabilidad. Se resuelve el problema contando el
numero de resultados que corresponde al evento. El numero de varillas que son
demasiado cortas es :
10 + 3 + 5 = 18
Dado que el numero total de las varillas es 1000:
P(demasiado corta) = 18/1000
b)
Si se selecciona aleatoriamente una varilla, ¿cual es la probabilidad de que sea
demasiado corta o demasiado gruesa?
De los mil resultados, el numero de varillas que son demasiado cortas o muy gruesas es:
10 + 3 + 5 + 4 + 13 = 35
Por lo tanto
P (demasiado corta o muy gruesa) = 35/1000
METODOS DE CONTEO
El principio fundamental del conteo
Suponga que se puede realizar k operaciones . Si hay n1 maneras de realizar la primera
operación y si para cada una de esas maneras hay n2 maneras de realizar la segunda
operación y si para cada una de esa elecciones de esas maneras de realizar las dos
primeras operaciones ha n3 maneras de realizar la operación y así sucesivamente,
entonces el número total de maneras de realizar la secuencia de las k operaciones es
n1n2…nk
Permutación
Una permutación constituye un ordenamiento de un conjunto de elementos.
El número de permutaciones de n objetos es n!
El número de permutaciones de k objetos elegidos de un grupo de n elementos es:
n!
(n − k)!
Combinación:
A cada grupo distinto de elementos que se puede seleccionar, sin importar el orden.
El número de combinaciones de k elementos elegidos de un grupo de n elementos es:
𝑛!
𝑛
( )=
𝑘
𝑘! (𝑛 − 𝑘)!
PROBABILIDAD CONDICIONAL E INDEPENDENCIA
Espacio Muestral: Contiene todos los resultados posibles de un experimento.
Probabilidad Condicional: Una probabilidad que se basa en una parte de un espacio
muestral.
Ejemplo Probabilidad Incondicional: De una muestra de 1000 varillas, 928 satisfacen la
especificación del diámetro, entonces, si se selecciona una varilla P(diámetro esta bien) =
928/1000 = 0.928.
Ejemplo 2.16
Calcule la probabilidad condicional P(diámetro está bien |longitud demasiado larga). ¿Es
la misma que la probabilidad incondicional P(diámetro está bien).
Diámetro
Longitud
Muy delgado
Está bien
Muy grueso
Demasiado corta
10
3
5
Está bien
38
900
4
2
Demasiado Larga
25
13
P (diámetro está bien |longitud demasiado larga) = 25/40 = 0.625
La probabilidad incondicional P (diámetro está bien) se calcula en base a todos los
resultados en el espacio muestral, es decir: 928/1000 = 0.928.
Si dividimos el numerador y el denominador entre el número de resultados en todo el
espacio muestral.
Analizando la respuesta 25/40: El Denominador representa el número de resultados que
satisfacen la condición de que la varilla es demasiado larga mientras que el Numerador
representa el número de resultados que satisfacen
ambas condiciones.
Se puede expresar la probabilidad condicional como
P (diámetro está bien | longitud demasiado larga) =
𝑃(𝑑𝑖á𝑚𝑒𝑡𝑟𝑜 𝑒𝑠𝑡á 𝑏𝑖𝑒𝑛 𝑦 𝑙𝑜𝑛𝑔𝑖𝑡𝑢𝑑 𝑑𝑒𝑚𝑎𝑠𝑖𝑎𝑑𝑜 𝑙𝑎𝑟𝑔𝑎)
𝑃(𝑙𝑜𝑛𝑔𝑖𝑡𝑢𝑑 𝑑𝑒𝑚𝑎𝑠𝑖𝑎𝑑𝑜 𝑙𝑎𝑟𝑔𝑎)
Eventos Independientes
El conocimiento de que un evento ha ocurrido no cambia la probabilidad de que ocurra
otro. En este caso las probabilidades condicional e incondicional son las mismas.
Ejemplo 2.19
Si una varilla de aluminio se selecciona del espacio muestral. Determine P (demasiado
larga) y P(demasiado larga | muy angosta).
P (demasiado larga) =
40
1000
= 0.040
P (demasiado larga | muy angosta) =
𝑃(𝑑𝑒𝑚𝑎𝑠𝑖𝑎𝑑𝑜 𝑙𝑎𝑟𝑔𝑎 𝑦 𝑚𝑢𝑦 𝑎𝑛𝑔𝑜𝑠𝑡𝑎)
𝑃(𝑚𝑢𝑦 𝑎𝑛𝑔𝑜𝑠𝑡𝑎)
=
2/1000
50/1000
= 0.040
La probabilidad condicional y la probabilidad incondicional son las mismas. La
información de que la varilla es muy angosta no cambia la probabilidad de que la
varilla es demasiado larga.
La regla de la multiplicación
Algunas veces se conoce P (A|B). Se puede obtener un resultado útil para este propósito al
multiplicar ambos lados de la ecuación por P (B).
Si A y B son dos eventos con P (B) ≠0, entonces
Si A y B son dos eventos con P(A) ≠0, entonces


P(A∩B) = P(B)P(A | B)
P(A∩ B) = P(A) p(B | A)
Si A y B son independientes

P(A∩ B) = P(A) P (B)
Ejemplo 2.20
Un vehículo tiene dos motores: uno principal y otro auxiliar. El componente del motor
falla si fallan ambos motores. La probabilidad de que el motor principal falle es de 0.05
y de que le motor auxiliar falle es de 0.10. Si funcionan de manera independiente. ¿Cuál
es la probabilidad de que el componente del motor falle?
P (componente del motor falla) = P(motor principal falla y motor auxiliar falla)
P (motor principal falla y motor auxiliar falla) = P(motor principal falla) P (motor
axuliar falla)
= (0.10)(0.05) = 0.005
Ejemplos eventos independientes y dependientes

Se tira dos veces un dado. El resultado de la segunda tirada no se ve afectado por
el resultado de la primera. Las dos tiradas son independientes.

Una reacción química se realiza dos veces sucesivamente, utilizando el mismo
equipo. Una producción baja en la primera realización podría indicar que hay más
residuos de lo normal. Conocer la primera producción puede ayudar a predecir la
producción en la segunda realización.
Ley de la probabilidad total
Un espacio muestral contiene eventos A1, A2, A3 y A4. Son mutuamente excluyentes, ya
que dos no coinciden, también son exhaustivos ya que su unión abarca todo el espacio
muestral. Cada resultado pertenece a uno y sólo uno de los eventos A1, A2, A3, A4.
Si A1,…,An son eventos mutuamente excluyentes y exhaustivos y B es cualquier evento,
entonces
P(B)=P(A1∩ B)+…+P(An∩B)
De manera equivalente, si P(Ai) ≠0 para cada Ai,
P(B) = P(B|A1)P(A1)+…+P(B|An)P(An)
Ejemplo 2.24
De todos los automóviles vendidos, 45% tiene el motor más pequeño, 35% tamaño mediano
y 20% más grande. Después de 2 años, fallan 10% de motor más pequeño, 12% de tamaño
mediano y 15% tamaño grande. ¿Cuál es la probabilidad de que un automóvil elegido
aleatoriamente pueda fallar en una prueba de emisiones dentro de los 2 primeros años?.
Sea B un automóvil que falle en una prueba de emisiones. Sea A1 motor pequeño, A2
motor mediano y A3 motor grande.
P(A1)=0.45
P(A2)=0.35
P(A3)=0.20
Es decir, P(B|A1)=0.10, P(B|A2)=0.12, P(B|A3)=0.15.
P(B)=P(B|A1)P(A1) + P(B|A2)P(A2) + P(B|A3)P(A3)
=(0.10)(0.45) + (0.12)(0.35) + (0.15)(0.20)
=0.117
REGLA DE BAYES
La regla de Bayes simplifica el cálculo de las probabilidades con condicionales ya que
permite calcular la probabilidad de que ocurra el suceso B si se sabe que ya ocurrió el
proceso A; se expresa P(B /A); para ello se necesita conocer la probabilidad como
frecuencia relativa de que ocurra el suceso A o sea P(A)
La probabilidad de que ocurra el suceso B es P(B).
La probabilidad como frecuencia relativa de que ocurra el suceso B es P(B).
Y la probabilidad de que ocurra el suceso A si sabemos que ya ocurrió el suceso B es
P(A/B)
Si los sucesos A1, A2, A3 , forman una partición de un espacio muestral S , entonces los
sucesos citados son mutuamente excluyentes y su unión es S. La suma de probabilidades
es igual a la unidad o al 100%
𝑷(𝑨𝒌 |𝑩) =
𝑷(𝑩|𝑨𝒌 )𝑷(𝑨𝒌 )
∑𝒏𝒊=𝟏 𝑷 (𝑩|𝑨𝒊)𝑷(𝑨𝒊)
Ejemplo
El 20% de los empleados de una empresa son ingenieros y otro 20% son economistas. El
75% de los ingenieros ocupan un puesto directivo y el 50% de los economistas también,
mientras que los no ingenieros y los no economistas solamente el 20% ocupa un puesto
directivo. ¿Cuál es la probabilidad de que un empleado directivo elegido al azar sea
ingeniero?
VARIABLES ALEATORIAS
Una variable aleatoria asigna un valor numérico a cada resultado en un espacio
muestral.
Ejemplo:
Un ingeniero tiene seis resistores, tres de ellos tienen etiqueta de 10 Ω y los otros 3 tienen
etiqueta de 20 Ω. El ingeniero quiere conectar un resistor de 10 Ω y uno de 20 Ω
En serie, para crear un resistor de 30 Ω. Se supone que los tres resistores etiquetados con
10 Ω tienen las resistencias reales de 9, 10 y 11 Ω y que los tres resistores etiquetados
con 20 Ω tienen las resistencias reales de 19, 20 y 21 Ω. El proceso para seleccionar un
resistor de cada tipo es un experimento cuyo espacio muestral consta de nueve resultados
igualmente probables. Lo qu∑∑e es importante para el ingeniero es la suma de las dos
resistencias, en vez de sus valores individuales; por tanto se asigna a cada resultado un
número igual a la suma de las dos resistencias seleccionadas. Esta asignación se
representa por la letra X y se presenta en la siguiente tabla.
Resultado
X
Probabilidad
(9,19)
28
1/9
(9,20)
29
1/9
(9,21)
30
1/9
(10,19)
29
1/9
(10,20)
30
1/9
(10,21)
31
1/9
(11,19)
30
1/9
(11,20)
31
(11,21)
32
1/9
1/9
La función X, que asigna un valor numérico a cada resultado en el espacio muestral, es
una variable aleatoria.
El evento X= 29 corresponde al evento { (9,20), (10,19)} del espacio muestral. Por tanto,
P(X=29) = P [{(9,20), (10,19)}] = 2/9.
Haga una lista de los valores posibles de la variable aleatoria X y determine la
probabilidad para cada uno de ellos.
Solución
Los valores posibles son 28, 29, 30, 31, 32. Para encontrar la probabilidad de uno de
estos valores, se suman las probabilidades de los resultados en el espacio muestral que
corresponden al valor, como se muestra.
X
P(X = x)
28
1/9
29
2/9
30
3/9
31
2/9
32
1/9
Variables aleatorias discretas
Una variable aleatoria es discreta si sus valores posibles constituyen un conjunto discreto,
esto significa que si los valores posibles se ordenan, hay una separación entre cada valor
y el próximo.
El conjunto de valores posibles podría ser infinito; por ejemplo el conjunto de todos los
enteros o el conjunto de todos los enteros positivos.
Ejemplo.
Un número de fallas en un alambre de cobre de 1 pulg. de longitud, fabricado en proceso
especifico, varia de alambre en alambre. En conjunto, 48% de los alambres producidos no
tiene falla, 39% presenta una, 12% fue detectado con dos y 1 % tiene tres. Sea X el número
de fallas en una pieza de alambre seleccionada aleatoriamente. Entonces
P(X = 0) = 0.48
P(X = 1) = 0.39
P(X = 2) = 0.12
P(X = 3) = 0.01
La función de masa de probabilidad de una variable aleatoria discreta X es la función p
(x) = P(X = x). A heces a la función de masa de probabilidad se le llama distribución de
probabilidad.
La función de masa de probabilidad se puede representar por un diagrama en el cual se
dibuja una recta vertical para cada uno de los valores posibles de la variable aleatoria.
Las alturas de las rectas son iguales a las probabilidades de los valores correspondientes. L
interpretación física de este diagrama es que cada recta representa una masa igual a su
altura.
0.6
0.5
0.4
0.3
0.2
0.1
0
0
1
2
3
Función de distribución acumulativa de una variable aleatoria discreta
La función de distribución acumulativa específica la probabilidad de una variable
aleatoria sea menor o igual a un valor dado. La función de distribución acumulativa de
la variable aleatoria X es la función F(x) = P(X ≤ x)
Sea X una variable aleatoria discreta. Entonces
La función de masa es probabilidad de X es la función p(x) = P(X = x).
La función de distribución acumulativa de X es la función F(x) = P (X ≤ x).
F (x)= ∑ p(t) = ∑ P(X = t).
t≤x
t≤x
∑ p(x) = ∑ P(X = x) = 1, donde la sumatoria se realiza sobre todos los valores
x
posibles de X.
x
VARIABLE ALEATORIA CONTINUA
Una variable aleatoria continua si sus probabilidades están dadas por áreas bajo la
curva. La curva se llama función de densidad de probabilidad para la variable
aleatoria.
2. DISTRIBUCIONES DISCRETAS
DISTRIBUCIÓN DE BERNOULLI
En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución
dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una
distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito (p) y
valor 0 para la probabilidad de fracaso (q = 1 − p).
Si X es una variable aleatoria que mide "número de éxitos", y se realiza un único
experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria X
se distribuye como una Bernouilli de parámetro p.
X˜Be(p)
La fórmula será:
f(x) = px(1 − p)1 − x con x = {0,1}
Su función de probabilidad viene definida por:
𝑃(1) = 𝑝
𝑃(0) = 1 − 𝑝
Ejemplo:
"Lanzar un dado y salir un 6".
Cuando lanzamos un dado tener 6 posibles resultados:
Ω = {1,2,3,4,5,6}
Estamos realizando un único experimento (lanzar el dado una sola vez).
Se considera éxito sacar un 6, por tanto, la probabilidad según el teorema de Laplace (casos
favorables dividido entre casos posibles) será 1/6.
p=1/6
Se considera fracaso no sacar un 6, por tanto, se considera fracaso sacar cualquier otro
resultado.
q=1−p=1−1/6=5/6
La variable aleatoria X medirá "número de veces que sale un 6", y solo existen dos valores
posibles, 0 (que no salga 6) y 1 (que salga un 6).
Por tanto, la variable aleatoria X se distribuye como una Bernoulli de parámetro p = 1/6
X˜Be(1 / 6)
La probabilidad de que obtengamos un 6 viene definida como la probabilidad de que X sea
igual a 1.
P(X = 1) = f(1) = (1 / 6)1 * (5 / 6)0 = 1 / 6 = 0.1667
La probabilidad de que NO obtengamos un 6 viene definida como la probabilidad de que X
sea igual a 0.
P(X = 0) = f(0) = (1 / 6)0 * (5 / 6)1 = 5 / 6 = 0.8333
Si
X  Bernoulli
𝜇x = p
𝜎𝑥 2 = 𝑝(1 − 𝑝)
DISTRIBUCIÓN BINOMIAL
En estadística, la distribución binomial es una distribución de probabilidad discreta que
mide el número de éxitos en una secuencia de n ensayos independientes de Bernoulli con
una probabilidad fija p de ocurrencia del éxito entre los ensayos.
Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos
resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al
otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior
experimento se repite n veces, de forma independiente, y se trata de calcular la
probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de
hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de
parámetros n y p, se escribe:
𝑝(𝑥) = 𝑃(𝑋 = 𝑥) =
𝑛!
𝑝 𝑥 (1 − 𝑝)𝑛−𝑥
𝑥! (𝑛 − 𝑥)!
Si XBin (n,p) entonces la media y la varianza están dadas por:
𝝁𝒙 = 𝒏𝒑
𝝈𝟐𝒙 = 𝒏𝒑(𝟏 − 𝒑)
EXPERIMENTO BINOMIAL
Existen muchas situaciones en las que se presenta una experiencia binomial. Este tipo de
experiencias se caracteriza por estar formada por un número predeterminado n de
experimentos iguales. Cada uno de los experimentos es independiente de los restantes (la
probabilidad del resultado de un experimento no depende del resultado del resto). El
resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina
éxito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos
los experimentos (se denotan como p y q o p y 1-p).
Se designa por X a la variable que mide el número de éxitos que se han producido en los n
experimentos.
Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de
probabilidad binomial, y se nota B(n,p).
DISTRIBUCIÓN DE POISSON
La distribución de Poisson fue inventada en las últimas investigaciones del físico y
matemático francés Simeón Denis Poisson, esta distribución en pocas palabras se puede
emplear como un modelo probabilístico que se encuentra definido o apropiado para un
gran número o conjunto de fenómenos probabilísticos.
Está además se fundamenta como una distribución probabilidad discreta, gracias al
hecho de que la probabilidad de suceso de un numero de eventos dados por unidad de
alguna magnitud física, con respecto a un promedio o media de los resultados obtenidos
con anterioridad, es mutuamente excluyente de éstos(sucesos ya ocurridos).
En otras palabras,
La distribución de Poisson se manifiesta como la probabilidad de suceso de un número
determinado de ocurrencia de un evento, por unidad de algo, con respecto a un
parámetro central (media o promedio) que especifica el número de presencia promedio de
ese mismo evento por unidad de alguna magnitud física.
Se usa con frecuencia en el trabajo científico. Una manera de considerarla es como una
aproximación binomial cuando n es grande y p es pequeña, otros ejemplos serian:
1.
Los defectos de una tela por m2.
2.
La cantidad de aviones que aterrizan en un aeropuerto por día.
3.
Las bacterias por cm2 de un cultivo.
4.
Las llamadas telefónicas a un conmutador por hora.
5.
Las llegadas de embarcaciones a un puerto por hora.
La ecuación que nos presenta la probabilidad de que ocurra x-veces un evento por
unidad
de
área,
volumen,
tiempo,
etc.
Dado
un
valor
promedio
de
ocurrencia
mutuamente excluyente es la siguiente:
Donde
X => Es una variable aleatoria discreta que puede tomar valores 0, 1, 2,…
x => Es el número de veces que se debe repetir el suceso en determinado intervalo.
λ => Es medida central promedio de ocurrencia de la variable X en un mismo
intervalo.
Para esto se tienen las siguientes consideraciones:
x => Es un entero positivo.
λ => Es un valor positivo.
Donde la media o probabilidad es:
λ= n*p
n (Número de ensayos)
p(La probabilidad de ocurrencia)
𝜇𝑥 = 𝜆
𝜎𝑥2 = 𝜆
La notación de la distribución de Poisson es cualquiera de las siguientes:
1.
P (x, λ)
=> La probabilidad de ocurrencia de un evento x-veces con respecto a
una media de ocurrencia excluyente λ.
2.
P (X = x)
3.
X ~ Poisson( λ)
=> La probabilidad de ocurrencia de X en una masa x.
=> X sigue una distribución de poisson con un parámetro λ.
Media y varianza de una variable aleatoria.
En la distribución de poisson se puede considerar a X como una variable aleatoria
binomial con n grande y p pequeña en donde, como ya se vio, el producto (n)(p) nos
determina el valor lambda.
Tanto la media como la varianza de x son igual a λ:
Dado que la media de una variable aleatoria binomial es (n)(p) se obtiene que la media
es = lambda
μx=λ
La varianza de una variable aleatoria binomial es (n)(p)(1 – p). Como p es muy pequeña
se puede remplazar (1 – p) con 1 y concluir que la varianza de una variable aleatoria
de poisson en (n)(p) = lambda y es el mismo valor para la media.
σ2x=λ
Por lo que se concluye que la media y varianza de polisón son iguales.
Al igual que otras distribuciones, la distribución de poisson se apega al principio de
superposición o de acumulación, es decir, que la distribución de Poisson de un número
determinado o conjunto de repeticiones de éxito es igual a la suma de las distribuciones
de todos los éxitos buscados:
Ejercicios:
1.- Cierta enfermedad tiene una probabilidad muy baja de ocurrir, p=1/100.000.
Mediante un estudio realizado con los mejores analistas, se llego a la conclusión de que
existe una probabilidad de que en una ciudad con 500,000 habitantes haya más de 3
personas con dicha enfermedad.
Calcular el número esperado de habitantes que la padecen.
Res= 367500 habitantes enfermos.
Sugerencia:
Si x = número de enfermos; n = Población
x = P(x>3) * n
2.- La abuela hornea galletas de chispas de chocolates en grupos de 100. Ella agrega 300
chispas en la masa cuando las galletas están hechas ofrece una ¿Cuál es la probabilidad
de que su galleta no tenga chispas de chocolate?
Solución: Sea X el número de chispas en su galleta, la media del número de chispas es
tres en cada galleta, de forma que:
X ~ Poisson( 3) de allí
P(x = 0) =e-3 30/0! = 0.0498.
3.- Unas partículas están suspendidas en un medio líquido con concentración de seis
partículas por mL. Se agita por completo un volumen grande de suspensión, y después se
extrae 3mL. ¿Cuál es la probabilidad de que solo se retiren 15 partículas?
Solución: sea X el número de partículas extraídas. El número promedio de partículas en
un volumen de 3 mL es 18. Entonces X ~ Poisson(18). La probabilidad de se extraigan
sólo 15 partículas es:
P(X=15)= e-18 1815/15! = 0.0786
LA DISTRIBUCIÓN HIPERGEOMÉTRICA
Cuando
una
población
finita
contiene
dos
tipos
de
unidades,
que
pueden
ser
denominador como éxitos y fracasos, y se extrae una muestra aleatoria simple de la
población, cada unidad representa un ensayo de Bernoulli. A medida que se selecciona
cada unidad, la proporción de éxitos en la población restante disminuye o aumenta,
dependiendo si la unidad extraída es un éxito o fracaso. Por esta razón, los ensayos no
son independientes, de ahí que el número de éxitos en la muestra no siga una
distribución binomial. En su lugar, la distribución que describe adecuadamente el
número de éxitos en esta situación se llama distribución hipergeométrica.
𝑅 𝑁−𝑅
( )(
)
𝑝(𝑥) = 𝑃(𝑋 = 𝑥) = 𝑥 𝑛 − 𝑥
𝑁
( )
𝑛
𝑛𝑅
𝜇𝑥 =
𝑁
𝑅
𝑅 𝑁−𝑛
𝜎𝑥2 = 𝑛 ( ) (1 − ) (
)
𝑁
𝑁 𝑁−1
Ejemplo:
Se tiene un lote de 20 unidades que contienen 6 defectuosos, y que se extrae
aleatoriamente 5 unidades de este lote. Sea X el número de unidades defectuosas en la
muestra. Se calculará P(X=2).
Solución:
1 Se cuenta primero el número total de los grupos diferentes de 5 unidades que puede
extraerse de la población de 20, (se considera a cada grupo de 5 unidades una
combinación). El número de combinaciones de cinco unidades es el número de muestras
diferentes que se puede extraer, y cada una es igualmente probable. Después se
determinará cuántas de estas combinaciones contienen exactamente 2 defectuosas. La
probabilidad de que una combinación de cinco unidades contenga sólo dos defectuosas es
la división.
P(x=2)=Número de combinaciones de cinco unidades que contienen dos defectuosas
Número de combinaciones de cinco unidades que pueden seleccionarse entre 20
Usando la fórmula de combinaciones:
En tanto, el número de combinaciones de cinco unidades que se puede elegir entre 20 es
Para determinar el número de combinaciones de cinco que contengan sólo dos
defectuosas, se describe la construcción de dicha combinación como una secuencia de dos
operaciones.
Primero se seleccionan 2 unidades de las 6 defectuosas; segundo, se seleccionan 3
unidades de las 14 no defectuosas. El número de combinaciones de 2 unidades
seleccionadas entre 6 es. Y el número de combinaciones de 3 unidades elegidas de 14.
DISTRIBUCIÓN GEOMÉTRICA
Se lleva a cabo una secuencia de ensayo de Bernoulli independientes, cada uno con la
misma probabilidad de éxito p. Sea X el número de experimentos hasta incluir el primer
éxito. Por tanto, X es una variable aleatoria discreta, la cual tiene una distribución
geométrica con parámetro p. X Geom(p)
𝑝(𝑥) = 𝑝(1 − 𝑝)𝑥−1
1
𝑝
1−𝑝
2
𝜎𝑥 =
𝑝2
𝜇𝑥 =
Una prueba de resistencia de soldadura consiste en poner carga en uniones soldadas hasta
que se dé una ruptura. Para cierto tipo de soldadura, 80% de las rupturas ocurre en la
propia soldadura, mientras que el otro 20% se da en las vigas. Se prueba que da como
resultado la ruptura de la viga. Cuál es la distribución de X?
Solución
Cada prueba es un ensayo de Bernoulli, con un éxito definido con la ruptura de una
viga. Por consiguiente, la probabilidad de éxito es p=0.2 el número de ensayos
incluyendo al primer éxito tiene una distribución geométrica con parámetro con p=0.2.
Por consecuencia X Geom(0.2)
Determine p=(x=3).
El evento x=3 ocurre cuando los primeros dos ensayos resultan en fracasos y el primero en
éxito.
P(x=3)=P (FFS)
=0.8*0.8*0.2 =0.128
DISTRIBUCION CONTINUA NORMAL
Distribución Normal o Distribución Gauss
𝒇(𝒙) =
𝟏
𝝈√𝟐𝝅
𝒆−(𝒙−𝝁)
𝝁𝒙 = 𝝁
𝝈𝟐𝒙 = 𝝈𝟐
𝒛=
𝒙−𝝁
𝝈
𝟐 /𝟐𝝈𝟐