Download teoria estadistica 1er parcial

Document related concepts
no text concepts found
Transcript
Población objetivo: Es un conjunto bien definido de elementos sobre los que se desea hacer algún
tipo de investigación o medida.
Unidades de investigación: Son los elementos de la población objetivo a los que se les efectúan las
medidas bajo análisis
Muestra: Es un subconjunto de n observaciones efectuadas a de una población objetivo de
tamaño N.
Observación: Es cada uno de los valores incluidos en la muestra
Muestreo: Operativo para realizar una investigación a una muestra.
Censo: Operativo para realizar una investigación a una población objetivo.
Parámetros: Son medidas que se calculan a partir de los elementos de la población.(Constantes)
Estimadores: Son medidas que se calculan a partir de los elementos de la muestra.(variables)
Marca de clase: Es el punto medio de la clase
Frecuencia: numero de observaciones que se clasifican en la clase.
Frecuencia relativa: Se la obtiene dividiendo la frecuencia entre el número de elementos de la
población o muestra.
Moda: es el o los valores que tienen mayor frecuencia.
Mediana: Es el valor central de un conjunto de observaciones ordenado de forma ascendente.
Percentiles: Son los valores que dividen un conjunto de datos ordenados en forma ascendente en
100 partes iguales.
Covarianza: Es una medida de relación lineal entre 2 características cuantitativas.
Experimento: Es un conjunto de acciones que con procedimientos claramente establecidos se
efectúa algún tipo de observación o medida, para que un experimento sea estadístico debe
cumplir las siguientes. Condiciones:
1. Se conocen cuales son todos los resultados posibles de su ejecución
2. Cualquier realización del experimento conduce a un resultado que no es conocido previo a
tal ejecución pero se sabe es uno de los posibles.
3. El experimento puede ser repetido bajo idénticas condiciones.
Espacio muestral: Se denomina espacio muestral al par (Ω,𝓈) donde Ω es el conjunto de todos los
resultados posibles del experimento y 𝓈 es el conjunto potencia de Ω, es decir el conjunto de
todos los posibles subconjuntos de Ω denominado espacio de eventos.
Evento: Todo subconjunto de Ω se denomina evento.
Función de probabilidades: Supongamos que un experimento estadístico tiene espacio muestral
(Ω,𝓈) una función P cuyo dominio es 𝓈 y cuyo conjunto de llegada es [0,1] es una función de
probabilidades P: 𝓈[0,1] si y solo si:
1. P(Ω)=1 y P(𝜙)=0
2. ∀ A ∈ 𝓈 0 ≤P(A) ≤ 1
3. 𝑃(𝐴𝑈𝐵)= P(A)+P(B) si y solo si A y B son mutuamente excluyentes. A∩B= 𝜙
Ley del complemento: Sea A un evento definido sobre el espacio muestral (Ω,𝓈) y 𝐴𝑐 su
complemento entonces la probabilidad de 𝐴𝑐 =1-P(A).
Ley aditiva de probabilidad: Sean A y B son eventos definidos sobre (Ω,𝓈) entonces:
P(AUB)=P(a)+P(b)-P(A∩B)
Probabilidad condicional: Sean A y B 2 eventos definidos en (Ω,𝓈) la probabilidad de que ocurra el
evento A dado que ya ocurrió B es:
𝑃( A∩B)
;
𝑃(𝐵)
P (A\B) =
P (B)≠ 0
Independencia de eventos: Sean A y B eventos en (Ω,𝓈) A y B son independientes si y solo si
P (A∩B)=P(A)P(B)
Teorema de Bayes: Sean E1, E2,……Ek eventos definidos sobre (Ω,𝓈) tales que son exhaustivos y
mutuamente excluyentes y Sea A un evento cualquiera definido en (Ω,𝓈) entonces:
𝑃(𝐸𝑖)𝑃(𝐴\𝐸𝑖)
𝑃(𝐴)
P (Ei\A)=
donde P(A)=∑𝑘𝑖=1 𝑃(𝐸𝑖)𝑃(𝐴\𝐸𝑖)
Variable aleatoria: Una función X cuyo dominio es Ω y cuyo conjunto de llegada son los reales, es
definida como una variable aleatoria.
Soporte de una variable aleatoria: El soporte S de una variable aleatoria es el conjunto de valores
reales que ocurren con probabilidad distinta de cero.
Función de distribución de probabilidades: Con cada variable aleatoria X discreta asociamos una
función P(X=x) denominada función de distribución de probabilidades de X que va desde R[0,1]
y debe cumplir lo siguiente:
1. P(X=x)=f(x)
2. ∑𝑋∈𝑆 𝑃(𝑋 = 𝑥) = 1
3. 𝑃(𝑋 ∈ 𝐴)=∑𝑋∈𝐴 𝑃(𝑋 = 𝑥)
Distribución acumulada: La distribución acumulada de X es una función de variable real
F: R[0,1] t es definida como F(x)=P(X≤x) para todo x esté o no en el soporte S de la variable
aleatoria.
Valores esperados: Sea X una variable aleatoria discreta con distribución de probabilidades P(x)=x
y sea g(x) una función en términos de la variable aleatoria X el valor esperado de g(x) se define
como:
𝐸[𝑔(𝑥)] = ∑ 𝑔(𝑥)𝑃(𝑋 = 𝑥)
𝑥∈𝑆
1. E[c]=c
2. E[c g(x)]=c E[g(x)]
3. E[g1(x)+g2(x)]=E[g1(x)]+E(g2(x))
Media y varianza de una variable aleatoria: Sea X una variable aleatoria con distribución de
probabilidades de X la media se define como 𝜇 = 𝐸[𝑥] y la varianza 𝜎 2 = 𝐸[(𝑥 − 𝜇)2 ] y al
resolverla 𝜎 2 = 𝐸[𝑥 2 ] − 𝜇2
Función generadora de momentos: Sea X una variable aleatoria discreta con distribución de
probabilidades de X, la función generadora de momentos de X de existir se define como:
𝑀𝑥 (𝑡) = 𝐸[ℯ 𝑥𝑡 ] ; 𝑡𝜖(−𝑎, 𝑎)
= ∑ 𝑒 𝑥𝑡 𝑃(𝑋 = 𝑥)
𝑋∈𝑆
Experimento binomial: Un experimento es binomial si y solo si lo constituyen n repeticiones
Bernoulli que cumplen las siguientes condiciones:
1)
2)
3)
4)
La probabilidad de que en una repetición cualquiera ocurra suceso es P y falla 1-P
La probabilidad de suceso se mantiene constante durante todo el experimento
Cada repetición es independiente de la otra
El numero n de repeticiones es fijado previo al inicio del experimento
Distribución binomial: Una variable aleatoria X discreta tiene distribución binomial si representa el
numero de sucesos que ocurren en un experimento binomial.
𝑋 ∼ 𝑏(𝑛, 𝑝)
𝑛
𝑃(𝑋 = 𝑥) = ( ) 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 ; 𝑆 = {0,1,2,3 … 𝑛}
𝑥
𝜇 = 𝑛𝑝
𝜎 2 = 𝑛𝑝(1 − 𝑝)
𝑀𝑥 (𝑡) = (𝑝𝑒 𝑡 + (1 − 𝑝))𝑛
Distribución binomial negativa: Se tiene una sucesión independiente de repeticiones Bernoulli
todas ellas con probabilidad de suceso p. Si r es un numero entero previamente determinado,
diremos que X es una variable aleatoria binomial negativa si y solo si X representa el número de
repeticiones requeridas para que r-ésimo suceso ocurra.
𝑋 ∼ 𝑏𝑛(𝑟, 𝑝)
𝑥−1 𝑟
𝑃(𝑋 = 𝑥) = (
) 𝑝 (1 − 𝑝)𝑥−𝑟 ; 𝑆 = {𝑟, 𝑟 + 1, 𝑟 + 2 … . }
𝑟−1
𝜇 = 𝑟⁄𝑝
2
𝜎 =
𝑟(1−𝑝)
𝑀𝑥 (𝑡) = (
𝑝2
𝑝𝑒 𝑡
1−(1−𝑝)𝑒 𝑡
𝑟
)
Distribución hipergeométrica: Se tiene una población objetivo constituida por N entes, entre
estos N entes hay a que tienen una característica de interés. Se toma una muestra aleatoria de
tamaño n de la población objetivo y diremos que X es una variable aleatoria hipergeométrica si
representa el número de elementos con la característica de interés en la muestra.
𝑋 ∼ ℎ(𝑎, 𝑁, 𝑛)
𝑃(𝑋 = 𝑥) =
(𝑎𝑥)(𝑁−𝑎
)
𝑛−𝑥
(𝑁
)
𝑛
; 𝑆 = {0,1,2,3 … . . 𝑘}
𝜇 = 𝑎𝑛⁄𝑁
𝜎2 =
𝑎𝑛 𝑁−𝑎
𝑁
(
𝑁
𝑁−𝑛
) (𝑁−1 )
Distribución Poisson: Sea X una variable aleatoria discreta X tiene distribución Poisson con
parámetro 𝜆 si representa el número de sucesos que ocurren en una unidad de tiempo, espacio,
volumen o cualquier otra dimensión. Donde 𝜆 es el promedio de ocurrencia de dicho suceso.
𝑋 ∼ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆)
𝑃(𝑋 = 𝑥) =
𝜇=𝜆
𝑒 −𝜆 (𝜆𝑥 )
; 𝑆 = {0,1,2,3 … . }
𝑥!
𝜎2 = 𝜆
𝑀𝑥 (𝑡) = 𝑒 𝜆(𝑒
𝑡 −1)
Variable aleatoria continua: Sea X una variable aleatoria continua con ella se asocia una función
𝑓(𝑥) denominada función de densidad de X, la misma que cumple con:
1) 𝑓(𝑥) ≥ 0
∞
2) ∫−∞ 𝑓(𝑥)𝑑𝑥 ≥ 0
𝑏
3) 𝑃(𝑎 ≤ 𝑥 ≤ 𝑏) = 𝑃(𝑎 < 𝑥 < 𝑏) = ∫𝑎 𝑓(𝑥)𝑑𝑥
𝑎
4) 𝑃(𝑋 = 𝑎) = ∫−𝑎 𝑓(𝑥)𝑑𝑥 = 0
Distribución acumulada: Sea X una variable aleatoria continua con función de densidad 𝑓(𝑥), la
distribución acumulada de X se define como:
𝑥
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫ 𝑓(𝑡)𝑑𝑡 ; 𝑓(𝑡)𝑒𝑠 𝑙𝑎 𝑓𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒 𝑑𝑒𝑛𝑠𝑖𝑑𝑎𝑑
−∞
1)
lim 𝐹(𝑥) = 0
𝑥→−∞
2) lim 𝐹(𝑥) = 1
𝑥→∞
3) 𝐹(𝑥) es continua y creciente
Valor esperado: Sea X una variable aleatoria continua con función de densidad 𝑓(𝑥), el valor
esperado de X se define como:
∞
𝐸[𝑔(𝑥)] = ∫ 𝑔(𝑥) 𝑓(𝑥)𝑑𝑥
−∞
Función Gamma: La función Gamma de un 𝛼 positivo se define como:
∞
Γ(𝛼) = ∫ 𝑥 𝛼−1 𝑒 −𝑥 𝑑𝑥
0
Distribución uniforme: Una variable aleatoria continua tiene distribución uniforme si su densidad
es:
𝑋~𝑈(𝛼, 𝛽)
𝑓(𝑥) =
𝜇=
1
; 𝑆 = {𝑥𝜖𝑅/𝛼 ≤ 𝑥 ≤ 𝛽}
𝛽−𝛼
𝛼+𝛽
𝜎2 =
2
(𝛽−𝛼)2
12
𝑀𝑥 (𝑡) =
𝑒 𝛽𝑡 −𝑒 𝛼𝑡
(𝛽−𝛼)𝑡
Distribución Gamma: Una variable aleatoria continua tiene distribución Gamma con parámetros
𝛼, 𝛽 si su densidad es:
𝑋~𝐺(𝛼, 𝛽)
𝑓(𝑥) =
𝑥 𝛼−1 𝑒 −𝑥/𝛽
; 𝑆 = {𝑥𝜖𝑅/𝑥 ≥ 0}
Γ(𝛼) 𝛽 𝛼
𝜎 2 = 𝛼𝛽 2
𝜇 = 𝛼𝛽
𝑀𝑥 (𝑡) = (1 − 𝛽𝑡)−𝛼


Si 𝛼 = 1, es una distribución exponencial. 𝑋~exp(𝛽)
Si 𝛼 = 𝑛, es una distribución Erlang

Si 𝛼 = 2 𝑦 𝛽 = 2, es una distribución Ji-Cuadrado con n grados de libertad. 𝑋~𝜒 2 (𝑛)
𝑛
Distribución Normal: Una variable aleatoria continua tiene distribución Normal con parámetros
𝜇, 𝜎 2 si su densidad es:
𝑋~𝑁(𝜇, 𝜎 2 )
𝑓(𝑥) =
𝑥−𝜇
−1 (
)
𝑒 ⁄2 𝜎
𝑀𝑥 (𝑡) = 𝑒

σ√2π
𝜇𝑡+
2
; 𝑆 = {𝑥𝜖𝑅}
𝜎2𝑡 2
2
Si 𝜇 = 0 𝑦 𝜎 = 1 entonces es una distribución normal estándar 𝑍~(0,1)
Distribución Beta: Una variable aleatoria continua tiene distribución Beta con parámetros 𝛼, 𝛽 si
su densidad es:
𝑋~𝐵(𝛼, 𝛽)
𝑓(𝑥) =
𝜇=
Γ(𝛼 + 𝛽) 𝑥 𝛼−1 (1 − 𝑥)𝛽−1
; 𝑆 = {𝑥𝜖𝑅/0 ≤ 𝑥 ≤ 1}
Γ(𝛼)Γ(𝛽)
𝛼
𝛼𝛽
𝜎 2 = (𝛼+𝛽)2
𝛼+𝛽
(𝛼+𝛽+1)
Distribución Conjunta: Sean X y Y 2 variables aleatorias discretas con ellas se asocia una función
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦), 𝑅 2 ↷ [0,1] denominada distribución de probabilidades conjunta entre X y Y, la
misma que cumple con:
1) 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑓(𝑥, 𝑦)
2) ∑𝑡𝑜𝑑𝑎𝑠 𝑥 ∑𝑡𝑜𝑑𝑎𝑠 𝑦 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 1
Distribuciones marginales: Sean X y Y 2 variables aleatorias discretas con distribución de
probabilidades conjunta 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) la distribución marginal de X y Y se define como:
𝑃1 (𝑋 = 𝑥) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑡𝑜𝑑𝑎𝑠 𝑦
𝑃2 (𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑡𝑜𝑑𝑎𝑠 𝑥
Valores esperados: Sean X y Y 2 variables aleatorias discretas con distribución de probabilidades
conjunta 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)el valor esperado de 𝑔(𝑥, 𝑦) se define como:
𝐸[𝑔(𝑥, 𝑦)] = ∑
∑ 𝑔(𝑥, 𝑦)𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑡𝑜𝑑𝑎𝑠 𝑥 𝑡𝑜𝑑𝑎𝑠 𝑦
Independencia de variables aleatorias: Sean X y Y 2 variables aleatorias discretas con
distribución de probabilidades conjunta 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) y sean 𝑃1 (𝑋 = 𝑥) y 𝑃2 (𝑌 = 𝑦) sus
respectivas distribuciones marginales, X y Y son variables aleatorias independientes si y solo si:
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑃1 (𝑋 = 𝑥) 𝑃2 (𝑌 = 𝑦)
Además si son independientes se cumple que:
𝐸[𝑔1 (𝑥)𝑔2 (𝑦)] = 𝐸[𝑔1 (𝑥)]𝐸[𝑔2 (𝑦)]
Covarianza: La covarianza entre 2 variables aleatorias X y Y se define como:
𝑐𝑜𝑣(𝑥, 𝑦) = 𝐸[(𝑥 − 𝜇𝑥 )(𝑦 − 𝜇𝑦 )] = 𝐸[𝑥𝑦] − 𝜇𝑥 𝜇𝑦

Si X y Y son independientes 𝑐𝑜𝑣(𝑥, 𝑦) = 0
Coeficiente de correlación:
ρ𝑥,𝑦 =
𝑐𝑜𝑣(𝑥, 𝑦)
; −1 ≤ ρ𝑥,𝑦 ≤ 1
𝜎𝑥 𝜎𝑦