Download DISTRIBUCIONES de probabilidad

Document related concepts
no text concepts found
Transcript
DISTRIBUCIONES DISCRETAS. DISTRIBUCIÓN BINOMIAL.
1. Variable Aleatoria. Función de probabilidad.
Se llama variable aleatoria a toda función que asocia a cada elemento del espacio muestral E un
número real.
Ejemplos:
1. Lanzar tres monedas y anotar el número de caras. La variable aleatoria x toma los valores 0,
1, 2 y 3 .
2. Suma de los resultados de lazar dos dados. X= 2, 3, 4, 5, 6, 7, 8, 9, 10, 11 y 12.
3. Medir la longitud de 100 judías verdes de una plantación. X toma valores en el intervalo [0 ,
30]
4. Peso al nacer de los bebés que nacen durante un mes en una clínica. X toma cualquier valor
del intervalo [0,5]
Los dos primeros ejemplos corresponden a variables aleatorias discretas porque sólo pueden
tomar un número discreto de valores.
Los dos últimos ejemplos son variables aleatorias continuas pues pueden tomar, al menos
teóricamente cualquier valor dentro de un intervalo de la recta real.
2. Función de probabilidad
Se llama función de probabilidad de una variable aleatoria discreta X a la aplicación que asocia
a cada valor xi de la variable su probabilidad pi.
p i  P ( xi )
Debe cumplir:
n
Si E={x1, x2,…xn} , entonces
p
i
 1 . ( La suma de las probabilidades de todos los elementos
i 1
del espacio muestral es 1).
Ejemplo: Si lanzamos un dado equilibrado:
xi 1
2
pi 1
1
6
6
pi=P(X=xi )= 1
6
3
1
6
4
1
6
5
1
6
6
1
6
3. Media y varianza de una variable aleatoria discreta.
En la estadística descriptiva, estudiábamos la media aritmética de una distribución experimental
n
 x ·f
i
x
i 1
N
i
n

 x ·h
i
i
i 1
Ahora trabajamos con una distribución teórica, no conocemos la frecuencia de un dato pero sí
su probabilidad.
Se llama media o esperanza matemática de una variable aleatoria X, que toma valores x1, x2,
…, xn, con probabilidades p1, p2,…, pn respectivamente, al valor de las siguiente expresión:
n
  x1 ·p1  x 2 ·p 2  ...  x n ·p n 
 x ·p
i
i
i 1
De la misma manera,
Se llama varianza de una variable aleatoria X, que toma valores x1, x2, …, xn, con probabilidades
p1, p2,…, pn respectivamente, al valor de las siguiente expresión:
n
 2  x12 ·p 2  x 22 ·p 2  ...  x n2 ·p n   2 
 x ·p  
2
i
2
i
i 1
O bien,
n
 2  ( x1   ) 2 ·p1  ( x 2   ) 2 ·p 2  ...  ( x n   ) 2 ·p n 
 ( x   ) ·p
2
i
i 1
La raíz cuadrada positiva de la varianza es la desviación típica.
Ejemplo:
1. Sea la función de probabilidad:
xi
1
3
4
pi
0’3
0’4
0’3
xi·pi
0’3
1’2
1’2
2’7
xi2·pi
0’3
3’6
4’8
8’7
Media.:   2'7
Varianza:  2  8'7  2'7 2  1'41
Desviación típica:   1'41  1'18
i
4. Variable aleatoria de la distribución binomial o de Bernoulli.
Supongamos un experimento aleatorio con las siguientes características:
1. En cada prueba del experimento sólo son posibles dos resultados, A (éxito) y A
(fracaso).
2. el resultado obtenido en cada prueba es independiente de los resultados anteriores.
3. La probabilidad de que suceda A es constante, no varía de una prueba a otra.
Todo experimento que tenga estas características, diremos que sigue el modelo de la
distribución binomial o de Bernoulli.
La variable X que expresa el número de éxitos obtenidos en cada prueba del experimento se
llama variable aleatoria binomial.
Es una variable aleatoria discreta, ya que sólo toma los valores 1, 2, 3,…, n, siendo n el
número de pruebas realizadas.
Representaremos por B(n,p) a una distribuón binomial cuyos parámetros son n (pruebas
realizadas) y p (probabilidad de que ocurra A.
Ejemplo:
Un examen tipo test con 10 preguntas y cuatro posibles respuestas, de las que sólo una
es correcta.
 En cada pregunta sólo hay dos resultados acertar o fallar.
 La respuesta a cada pregunta es independiente de las demás.
 La probabilidad de acertar es la misma en todas las preguntas.
Por tanto la variable X que cuenta el número de aciertos sigue una distribución binomial de
parámetros n=10 y p=1/4. X  B(10,1/4)
5. Función de probabilidad
Si tenemos una variable aleatoria que sigue una distribución B(n,p),
 n
P( X  r )    p r ·q n r
r 


 p  P (acierto )

q  1  p  P ( fracaso)
Donde: 
n
n!
  


 r  r!·(n  r )!
n
  Es el número de formas posibles de obtener r éxitos y n-r fracasos. Se llama número
r 
combinatorio.
También se puede calcular usando el triángulo de Tartaglia.
3
 
0
 2
 
0
1 
 
0
 3
 
1 
0
 
0
 2
 
1 
1
 1
 
 1
3
 
 2
1
 2
 
 2
1

1
 3
 
 3
1
2
1


3
3
1
Ejemplo:
1. En el ejemplo anterior, ¿cuál será la probabilidad de obtener 7 aciertos en el examen?
7
3
10  1   3 
27
P( X  7)     ·   120· 10  0'003
4
 7  4   4 
2. En un grupo de 20 alumnos se ha comprobado que cada uno de ellos falta a clase el 5%
de los días. Calcula la probabilidad de que un día determinado:
a. No se registre ninguna ausencia.
b. Falten a clase más de cinco alumnos.
c. No asista a clase nadie.
d. Falten menos de tres.
X: nº de faltas. X
B(20,0’05)
 20 
a. P( X  0)   0'05 0 ·0'95 20  0'358
0 
b.
P ( X  5)  1  P ( X  5)  1  [ P ( X  0)  P ( X  1)  P ( X  2)  P ( X  3)  P ( X  4) 
 20 
 20 
 20 
 20 
 P ( X  5)]  1    0'05 0 ·0'95 20   0'051 ·0'9519   0'05 2 ·0'9518   0'05 3 ·0'9517 
0 
1 
2 
3 
 20 
 20 
  0'05 4 ·0'9516   0'05 5 ·0'9515 ]  1  0'99918  0'00082
4 
5 
 20 
c. P( X  20)   0'05 20 ·0'95 0  9'5·10 27
 20 
 20 
 20 
 20 
 0'05 0 ·0'95 20   0'051 ·0'9519   0'05 2 ·0'9518 
P
(
X

3
)

P
(
X

0
)

P
(
X

1
)

P
(
X

2
)

d.
0 
1 
2 
 0'358  0'378  0'189  0'924
6. Media y varianza de una distribución binomial
Si consideramos que se realiza sólo una prueba. La función de probabilidad será:
Valor de la variable 1
0
Probabilidad
p q=1-p
La media será.   1·p  0·q  p
La varianza:  2  12 ·p  0 2.q  p 2  p  p 2  p(1  p)  p·q
Con liderando el caso de n pruebas repetidas; únicamente tendremos que multiplicar por n
a. Media.   n· p
b. Varianza:  2  n·p·q
c. Desviación típica:   n·p·q
Ejemplo: La probabilidad de salga cara en una moneda trucada es 0’2. se lanza cien veces.
Calcula la esperanza matemática y la varianza.
  16  4
  100·0'2  20
 2  100·0'2·(1  0'2)  16
7. Ajuste de una distribución empírica a una binomial
El proceso para ajustar unos datos a una distribución binomial son:
I. Identificar el parámetro n.
II. Estimar p:
III.
La variable que mejor se aproxima a X es una
.
IV. Se contrasta el ajuste comparando las frecuencias teóricas con las observadas.
Ejemplo: Un jugador de baloncesto realiza 300 series de 3 lanzamientos desde la línea de 6’25,como
entrenamiento para el concurso nacional de triples. En la siguiente tabla se recogen las frecuencias
absolutas del número de aciertos de cada serie.
Aciertos (xi) 0
1
2 3
fi
66 128 87 19
Cada serie de lanzamientos puede considerarse un experimento aleatorio compuesto por tres
repeticiones de la misma prueba:”lanzar a canasta”
− En cada lanzamiento sólo pueden ocurrir dos sucesos: el jugador encesta o no.
− El resultado de cada lanzamiento es independiente del anterior.
− La probabilidad de que ese jugador enceste se puede suponer constante.
Por todo ello podemos ajustar a una B(n;p).
I.
Identificamos n con el número de lanzamientos de cada serie: n=3.
II.
Estimamos p:
III.
IV.
Se puede ajustar por una binomial B(3;0’399)
Para hallar las frecuencias teóricas se calculan las probabilidades P(X=k) para k=0,1,2,3 y se
multiplican por 300.
Aciertos (xi)
0
1
2
3
P(x=xi)
0’217 0’432 0’287 0’064
Frecuencias esperadas
65
130
86
19
Se ve comparando los resultados que hay muy poca diferencia entre los resultados teóricos y
los empíricos.
DISTRIBUCIONES CONTINUAS. DISTRIBUCIÓN NORMAL
1. Idea de distribución de probabilidad continua
La distribución de las tallas de los alumnos varones de una clase o del tiempo de espera de una
llamada de teléfono en la centralita del instituto, a medida que la amplitud de los intervalos van
siendo más pequeños, tienden a representarse mediante una función continua.
Una función de probabilidad es una idealización de una distribución de frecuencias relativas.
De la misma manera que la suma de todas las frecuencias relativas es uno, se verifica que la
suma de todas las probabilidades de una distribución de probabilidad es igual a la unidad.
En las variables aleatorias continuas la probabilidad de que la variable tome un valor único es
siempre cero, luego lo que tiene mayor interés es conocer la probabilidad correspondiente a un
intervalo.
6. Función de densidad. Función de probabilidad
Las funciones f(x) asociadas a una variable aleatoria x que cumplen las condiciones:
 f ( x)  0 en todo el dominio de definición.
 El área encerrada bajo la curva de f(x) es la unidad.
Se llama función de densidad de la variable X.
En variables aleatorias continuas, el área entre f(x) ( función de densidad) , y el eje X nos da la
función de probabilidad.
Área= P( x  a) 
 f ( x)dx
a

7. Función de distribución Normal
En muchas variables aleatorias , se cumple que los valores de la variable más frecuentes están
cerca de la media. En estos casos la función de densidad está representada por la Campana de
Gauss que es simétrica respecto a la media.
En estos casos la variable aleatoria X sigue (se comporta
como ) una distribución normal de media  y desviación típica
 ( X  N (  , ) ) y su función de densidad es:
f ( x) 
1
 2
e
1  x 
 

2  
2
Donde,
e=2,7182…,  =3,14159…,  : media de x,  : desviación
típica de x
8. Distribución normal estandar N(0,1).
De las infinitas distribuciones N (  ,  ) , tiene especial interés la
distribución N(0,1); es decir , aquella que tiene por media el valor
cero y desviación típica uno. Esta distribución se llama distribución
normal estandar y su función de densidad será.
 x2
1
f ( x) 
·e 2
2
Y la probabilidad de un intervalo será:
P( x  a) 

a

1
2
·e
 x2
2
dx
Se obtiene consultando tablas.
9. Tipificación de la variable x  N (  ,  )
Como es obvio que no se pueden construir tablas para las infinitas distribuciones normales
N (  ,  ) , lo más aconsejable es poder transformar la variable X que sigue una distribución
N (  ,  ) en otra Z que sigue una distribución N(0,1). Esta transformación se llama tipificación de
la variable.
Hay que realizar dos pasos:
1º Centrar, es decir, trasladar la media al cero.
2º Reducir la desviación típica a 1, contrayendo o dilatando la gráfica de la distribución.
Estos dos pasos se consiguen haciendo el cambio de variable
X 
Z

Ejemplos:
X 6
I. Si X sigue una distribución N(6, 0’5) tipificamos Z 
se distribuye según una N(0,1)
0'5
 x 6 86
P( x  8)  P

  P z  4
0'5 
 0'5
X  12
II. Si X sigue una distribución N(12, 2) tipificamos Z 
se distribuye según una N(0,1)
2
 20  12 x  12 28  12 
P(20  x  28)  P


  P4  z  8
2
2 
 2
Observación: En variables continuas P( x  a)  0 .
6. Uso de las tablas de la normal
Las tablas de N(0,1) nos dan directamente la probabilidad de que una variable tome
valores menores que cierta cantidad positiva, P(z<b). A partir de está, por la simetría de la
función y utilizando que la probabilidad del suceso seguro es 1, se pueden calcular las demás.
Ejemplos:
 P ( z  b) para b>0
b
 P ( z  b) para b>0
P ( z  b)  1  P ( z  b)
b
 P( z  b) para –b<0.
P( z  b)  P( z  b)  1  P( z  b)
-b

P ( a  z  b)
P ( a  z  b)  P ( z  b)  P ( z  a )
a
b