Download Clase 2

Document related concepts

Distribución de Poisson wikipedia , lookup

Distribución binomial wikipedia , lookup

Divisibilidad infinita (probabilidad) wikipedia , lookup

Distribución exponencial wikipedia , lookup

Distribución binomial de Poisson wikipedia , lookup

Transcript
Estadística
2010
Clase 2
Maestría en Finanzas
Universidad del CEMA
Profesor: Alberto Landro
Asistente: Julián R. Siri
Clase 2
1. La distribución de Bernoulli
2. La distribución binomial
3. La distribución de Poisson
4. La distribución exponencial
Estocástica
5. La distribución normal
6. La distribución chi-cuadrado
7. La distribución t de Student
8. La distribución F
1. La distribución de Bernoulli
• En los denominados experimentos de Bernoulli sólo son posibles dos
resultados: éxito o fracaso. Podemos definir una variable aleatoria discreta
X tal que:
éxito  1
fracaso  0
• Si la probabilidad de éxito es p y la de fracaso 1-p, la función de
probabilidades es:
f  X   p 1  p 
x
1 x
x  0,1
1. La distribución de Bernoulli
• Una variable aleatoria X sigue una distribución de Bernoulli si su función
de densidad de probabilidades (de ahora en adelante, FDP) es:
p  X  0  1  p
p  X  1  p
• Para tal variable, la esperanza matemática y la varianza son:
EX   p
var  X   pq
Donde q = (1-p).
2. La distribución binomial
• Esta distribución es la generalización de la distribución de Bernoulli. Si X
representa el número de éxitos en n intentos independientes, entonces se
dice que X sigue una distribución binomial cuya FDP es:
n x
n x
f  X     p 1  p 
 x
Donde x es el número de éxitos y
n
n!

 
 x  x ! n  x !
El interés está en determinar la probabilidad de obtener exactamente X = x
éxitos durante los n ensayos. La distribución binomial consta de dos
parámetros, n y p.
2. La distribución binomial
La función de distribución acumulativa es:
n i
n i
p  X  x   F  x; n, p      p 1  p 
i 0  i 
x
Dado los momentos absolutos y centrados, definimos la esperanza, la
varianza, el coeficiente de asimetría y la kurtosis:
m  X   E  X   np
 X   E  X   E  X   npq
3  X  q  p 1  2 p
As  X   3


 X 
npq
npq
4  X 
1  6 pq
KX   4
3 
 X 
npq

2
2
2
3. La distribución de Poisson
Aquí la variable aleatoria representa el número de eventos independientes
que ocurren a una velocidad constante. Ofrece, además, una
aproximación excelente a la función de probabilidad binomial cuando p es
pequeño y n grande.
Sea X una variable aleatoria que representa el número de eventos aleatorios
independientes que ocurren a una rapidez constante sobre el tiempo o el
espacio. Se dice entonces que X tiene una distribución de Poisson con
FDP:
 e   x

f  X ;     x!
0

x  0;   0
para cualquier otro valor
El único parámetro de la distribución es lambda, el número promedio de
ocurrencias del evento aleatorio por unidad de tiempo.
3. La distribución de Poisson
La función de distribución acumulativa es:
e   i
p  X  x   F  x;    
i!
i 0
x
Dado los momentos absolutos y centrados, definimos la esperanza, la
varianza, el coeficiente de asimetría y la kurtosis:
m X   E  X   
 2  X   E  X 2   E  X   2    2  
2
3  X 

1
As  X   3
 3/ 2 
 X  

4  X 
3 2  
1
KX   4
3 
3
2
 X 


3. La distribución de Poisson
La distribución de Poisson también es una forma límite de la distribución
binomial cuando n tiende a infinito y p tiende a cero (de manera que no
permanece constante).
Sea X una v.a. con distribución binomial y función de probabilidad:
n!
n x
p  x; n, p  
p x 1  p 
x  0,1, 2,..., n
 n  x ! x !
Si para n=1,2,… la relación p   n es cierta para alguna constante   0 ,
entonces:
e   x
lim p  x; n, p  
, x  0,1, 2,...
n 
x!
p 0
4. La distribución exponencial
Esta distribución tiene su origen en el proceso de Poisson. Como
mencionamos antes, la distribución de Poisson se refiere a un espacio
continuo dentro del cual se producen una cantidad discreta de eventos
aleatorios cada uno de ellos con una probabilidad de ocurrencia p. Si
introducimos una nueva variable T(x), a la que definimos como el
intervalo de tiempo (o de espacio) entre ciertas ocurrencias de un
suceso de Poisson, entonces esa variable tiene una distribución
exponencial.
El esquema de Poisson responde a: ¿cuál es la probabilidad que se
produzcan “x” ocurrencias en cierto espacio o tiempo continuo, en el que
el promedio de ocurrencias es λ?
El esquema exponencial, en cambio, responde a: ¿cuál es el lapso de tiempo
que hay que esperar (o el espacio a recorrer) para que se produzcan “x”
ocurrencias, siendo λ el promedio de ocurrencias?
4. La distribución exponencial
Definiendo,
T  X   tiempo transcurrido (o espacio recorrido) entre dos sucesos
t  x   tiempo que transcure hasta el primer evento
Nos proponemos determinar la probabilidad de que cierto evento aleatorio no
suceda en ese lapso de tiempo (o espacio), es evidente que lo que
pretendemos calcular es P(X>x):
 x  x  x
P  X  x 
e e
0!
Si definimos ahora a   1  , este nuevo parámetro, al ser la inversa de λ,
puede interpretarse como “el tiempo (o espacio) promedio entre
ocurrencias de Poisson”. Reemplazando en la expresión anterior,
P  X  x   e x 
Nos indica la probabilidad de que no existan ocurrencias hasta el momento x.
4. La distribución exponencial
Si ahora nos preguntamos por la variable tiempo (o espacio) entre dos
eventos (a la que definimos como X), dicha probabilidad será la contraria
a la expresada con anterioridad:
T  X   P  X  x   1  e x 
Y la FDP no será más que la derivada de la anterior,
t  x  t  X  
1

Sus características más importantes serán:
EX    
1

2 X   2
e x 
5. La distribución normal
La distribución normal o Gaussiana es la piedra angular en la aplicación de la
inferencia estadística en el análisis de datos, dado que las distribuciones
de muchas estadísticas muestrales tienden hacia dicha distribución
conforme crece el tamaño de la muestra.
Se dice que una variable aleatoria X está normalmente distribuida si su FDP
tiene la siguiente forma:
1
fX  x 
e
 2
 1  x   2 
 
 
2


 

  x  
Donde  y   0 son parámetros reales que denotan el valor esperado y el
desvío estándar de distribución, respectivamente.
5. La distribución normal
Propiedades:
1. El punto medio de la curva normal es la media de la distribución.
2.
La distribución es simétrica alrededor de su media.
3.
La probabilidad de que el valor de la variable se encuentre dentro del rango de un
desvío standard (SD) por sobre o por debajo de la media es de 68,3%. Alrededor
de 95,5% del área de la distribución se encuentra entre   2 , y por último más
del 99,7% del área se encuentra entre   3 , como se aprecia en la figura.
5. La distribución normal
Propiedades:




4. Sean X1 N 1 ,  1 y X 2 N 2 ,  2 , y supóngase que son independientes,
entonces considerando su combinación lineal de la siguiente manera:
2
2
Y  aX1  bX 2
Puede mostrarse que:
Y
N  a1  b2  ,  a 212  b2 22 
Corolario: Una combinación lineal de variables aleatorias independientes
normalmente distribuidas es normalmente distribuida.
5. Teorema central del límite. Sean X 1 ,..., X n , n variables aleatorias
2
independientes, las cuales tienen la misma FDP con  y  . Si X
entonces, a medida que n aumenta indefinidamente,
X
n 
 2 
N  , 
n 

Y este resultado se cumple sin importar la forma de la FDP.
  Xi n ,
5. La distribución normal
X m

Z

La distribución de probabilidades de la variable Z, 
, que no depende de
 

los parámetros m y  :
1 Z 2 2
fZ  z  
e
2
   Z   
Define la “forma estandarizada” de la distribución Normal. De esta manera podemos
trabajar con las tablas de probabilidades, dado que la media de la nueva variable
aleatoria estandarizada es cero, mientras que la varianza es la unidad.
Z
N  0,1
5. La distribución normal
Por último, dado los momentos absolutos y centrados, definimos nuevamente la
esperanza matemática, la varianza, el coeficiente de asimetría y la kurtosis:
m X   E  X   
2  X    2
3  X 
As  X   3
0
 X 
4  X 
3 4
KX   4
3 
3  0
2
2
 X 
 
5. La distribución normal
La probabilidad de que una variable aleatoria normalmente distribuida X sea menor o
igual a un valor específico, x está dada por la función de distribución acumulativa
1
P  X  x   F  x;  ,   
 2
x
e
 1  t   2 
 
 
 2    
dt

Pero la integral anterior no puede evaluarse en forma cerrada. Por lo tanto se puede
tabular la función de distribución acumulativa como una función de  y  , lo que
requeriría una tabla para cada par de valores. Como existe un número infinito de
valor de  y  , se utiliza la ya mencionada “forma estandarizada” de la
distribución normal:
1
P  X  x   P  Z   x      
2
Así, para z   x     , P  X  x   P  Z  z  y
FX  x;  ,    FZ  z;0,1
z
e

 1 2
 2 z 


dz
6. La distribución chi-cuadrado
Sean Z1 ,..., Z k variables aleatorias estandarizadas independientes, se dice que la
cantidad
k
Z   Zi2
Sigue la distribución
i 1
 con v grados de libertad.
2
Sus propiedades son:
1. Es una distribución asimétrica, donde el grado de asimetría esta dado por los
grados de libertad. Cuando los g. de l. son pocos la distribución está altamente
sesgada hacia la izquierda, y a medida que aumentan la distribución se hace cada
vez más simétrica. De hecho, disponiendo de más de 100 variables aleatorias
independientes, la variable 2  2   2k  1 puede ser tratada como una variable
normal estandarizada.
2. La media de la distribución chi-cuadrado es v y la varianza es 2v.
3. Si Z1 y Z 2 son dos variables chi-cuadrado independientes con v1 y v2 grados de
libertad, entonces la suma de ambas es también una variable aleatoria chicuadrado con v1  v2 grados de libertad.
7. La distribución t de Student
Sean Z1 es una variable normal estandarizada, y otra variable Z 2 sigue la
distribución chi-cuadrado y están distribuidas de manera independiente, entonces
la variable definida como
t

Z1
Z2 v
Z1 v
Z2
tv
Sigue la distribución t de Student con v grados de libertad.
Sus propiedades son:
1. Al igual que la distribución normal, es simétrica, pero más plana (platocúrtica). Sin
embargo, a medida que aumentan los grados de libertad, la distribución t se
aproxima a la normal.
2. La media de la distribución t es cero, mientras que la varianza es v  v  2  .
8. La distribución F
Si Z1 y Z 2 son variables chi-cuadrado distribuidas en forma independiente con k1 y k2
grados de libertad, respectivamente
F
Z1 k1
Z 2 k2
Fk1 ,k2
Sigue la distribución F (de Fisher) con k1 y k2 grados de libertad.
Se tienen las siguientes propiedades:
1. Esta distribución está sesgada a la derecha, pero a medida que aumentan k1 y k2 ,
la distribución F se acerca a la distribución normal.
2. El valor de la media de esta distribución es k2  k2  2  , el cual está definido para k2  2
y su varianza es
2k22  k1  k2  2 
k1  k2  2   k2  4 
2
definida para k2  4 .
3. El cuadrado de una variable aleatoria con distribución sigue una distribución
FIN
Me pueden escribir a:
[email protected]
Las presentaciones estarán colgadas en:
www.cema.edu.ar/u/jrs06