Download teoria estadistica 1er parcial
Document related concepts
no text concepts found
Transcript
Población objetivo: Es un conjunto bien definido de elementos sobre los que se desea hacer algún tipo de investigación o medida. Unidades de investigación: Son los elementos de la población objetivo a los que se les efectúan las medidas bajo análisis Muestra: Es un subconjunto de n observaciones efectuadas a de una población objetivo de tamaño N. Observación: Es cada uno de los valores incluidos en la muestra Muestreo: Operativo para realizar una investigación a una muestra. Censo: Operativo para realizar una investigación a una población objetivo. Parámetros: Son medidas que se calculan a partir de los elementos de la población.(Constantes) Estimadores: Son medidas que se calculan a partir de los elementos de la muestra.(variables) Marca de clase: Es el punto medio de la clase Frecuencia: numero de observaciones que se clasifican en la clase. Frecuencia relativa: Se la obtiene dividiendo la frecuencia entre el número de elementos de la población o muestra. Moda: es el o los valores que tienen mayor frecuencia. Mediana: Es el valor central de un conjunto de observaciones ordenado de forma ascendente. Percentiles: Son los valores que dividen un conjunto de datos ordenados en forma ascendente en 100 partes iguales. Covarianza: Es una medida de relación lineal entre 2 características cuantitativas. Experimento: Es un conjunto de acciones que con procedimientos claramente establecidos se efectúa algún tipo de observación o medida, para que un experimento sea estadístico debe cumplir las siguientes. Condiciones: 1. Se conocen cuales son todos los resultados posibles de su ejecución 2. Cualquier realización del experimento conduce a un resultado que no es conocido previo a tal ejecución pero se sabe es uno de los posibles. 3. El experimento puede ser repetido bajo idénticas condiciones. Espacio muestral: Se denomina espacio muestral al par (Ω,𝓈) donde Ω es el conjunto de todos los resultados posibles del experimento y 𝓈 es el conjunto potencia de Ω, es decir el conjunto de todos los posibles subconjuntos de Ω denominado espacio de eventos. Evento: Todo subconjunto de Ω se denomina evento. Función de probabilidades: Supongamos que un experimento estadístico tiene espacio muestral (Ω,𝓈) una función P cuyo dominio es 𝓈 y cuyo conjunto de llegada es [0,1] es una función de probabilidades P: 𝓈[0,1] si y solo si: 1. P(Ω)=1 y P(𝜙)=0 2. ∀ A ∈ 𝓈 0 ≤P(A) ≤ 1 3. 𝑃(𝐴𝑈𝐵)= P(A)+P(B) si y solo si A y B son mutuamente excluyentes. A∩B= 𝜙 Ley del complemento: Sea A un evento definido sobre el espacio muestral (Ω,𝓈) y 𝐴𝑐 su complemento entonces la probabilidad de 𝐴𝑐 =1-P(A). Ley aditiva de probabilidad: Sean A y B son eventos definidos sobre (Ω,𝓈) entonces: P(AUB)=P(a)+P(b)-P(A∩B) Probabilidad condicional: Sean A y B 2 eventos definidos en (Ω,𝓈) la probabilidad de que ocurra el evento A dado que ya ocurrió B es: 𝑃( A∩B) ; 𝑃(𝐵) P (A\B) = P (B)≠ 0 Independencia de eventos: Sean A y B eventos en (Ω,𝓈) A y B son independientes si y solo si P (A∩B)=P(A)P(B) Teorema de Bayes: Sean E1, E2,……Ek eventos definidos sobre (Ω,𝓈) tales que son exhaustivos y mutuamente excluyentes y Sea A un evento cualquiera definido en (Ω,𝓈) entonces: 𝑃(𝐸𝑖)𝑃(𝐴\𝐸𝑖) 𝑃(𝐴) P (Ei\A)= donde P(A)=∑𝑘𝑖=1 𝑃(𝐸𝑖)𝑃(𝐴\𝐸𝑖) Variable aleatoria: Una función X cuyo dominio es Ω y cuyo conjunto de llegada son los reales, es definida como una variable aleatoria. Soporte de una variable aleatoria: El soporte S de una variable aleatoria es el conjunto de valores reales que ocurren con probabilidad distinta de cero. Función de distribución de probabilidades: Con cada variable aleatoria X discreta asociamos una función P(X=x) denominada función de distribución de probabilidades de X que va desde R[0,1] y debe cumplir lo siguiente: 1. P(X=x)=f(x) 2. ∑𝑋∈𝑆 𝑃(𝑋 = 𝑥) = 1 3. 𝑃(𝑋 ∈ 𝐴)=∑𝑋∈𝐴 𝑃(𝑋 = 𝑥) Distribución acumulada: La distribución acumulada de X es una función de variable real F: R[0,1] t es definida como F(x)=P(X≤x) para todo x esté o no en el soporte S de la variable aleatoria. Valores esperados: Sea X una variable aleatoria discreta con distribución de probabilidades P(x)=x y sea g(x) una función en términos de la variable aleatoria X el valor esperado de g(x) se define como: 𝐸[𝑔(𝑥)] = ∑ 𝑔(𝑥)𝑃(𝑋 = 𝑥) 𝑥∈𝑆 1. E[c]=c 2. E[c g(x)]=c E[g(x)] 3. E[g1(x)+g2(x)]=E[g1(x)]+E(g2(x)) Media y varianza de una variable aleatoria: Sea X una variable aleatoria con distribución de probabilidades de X la media se define como 𝜇 = 𝐸[𝑥] y la varianza 𝜎 2 = 𝐸[(𝑥 − 𝜇)2 ] y al resolverla 𝜎 2 = 𝐸[𝑥 2 ] − 𝜇2 Función generadora de momentos: Sea X una variable aleatoria discreta con distribución de probabilidades de X, la función generadora de momentos de X de existir se define como: 𝑀𝑥 (𝑡) = 𝐸[ℯ 𝑥𝑡 ] ; 𝑡𝜖(−𝑎, 𝑎) = ∑ 𝑒 𝑥𝑡 𝑃(𝑋 = 𝑥) 𝑋∈𝑆 Experimento binomial: Un experimento es binomial si y solo si lo constituyen n repeticiones Bernoulli que cumplen las siguientes condiciones: 1) 2) 3) 4) La probabilidad de que en una repetición cualquiera ocurra suceso es P y falla 1-P La probabilidad de suceso se mantiene constante durante todo el experimento Cada repetición es independiente de la otra El numero n de repeticiones es fijado previo al inicio del experimento Distribución binomial: Una variable aleatoria X discreta tiene distribución binomial si representa el numero de sucesos que ocurren en un experimento binomial. 𝑋 ∼ 𝑏(𝑛, 𝑝) 𝑛 𝑃(𝑋 = 𝑥) = ( ) 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 ; 𝑆 = {0,1,2,3 … 𝑛} 𝑥 𝜇 = 𝑛𝑝 𝜎 2 = 𝑛𝑝(1 − 𝑝) 𝑀𝑥 (𝑡) = (𝑝𝑒 𝑡 + (1 − 𝑝))𝑛 Distribución binomial negativa: Se tiene una sucesión independiente de repeticiones Bernoulli todas ellas con probabilidad de suceso p. Si r es un numero entero previamente determinado, diremos que X es una variable aleatoria binomial negativa si y solo si X representa el número de repeticiones requeridas para que r-ésimo suceso ocurra. 𝑋 ∼ 𝑏𝑛(𝑟, 𝑝) 𝑥−1 𝑟 𝑃(𝑋 = 𝑥) = ( ) 𝑝 (1 − 𝑝)𝑥−𝑟 ; 𝑆 = {𝑟, 𝑟 + 1, 𝑟 + 2 … . } 𝑟−1 𝜇 = 𝑟⁄𝑝 2 𝜎 = 𝑟(1−𝑝) 𝑀𝑥 (𝑡) = ( 𝑝2 𝑝𝑒 𝑡 1−(1−𝑝)𝑒 𝑡 𝑟 ) Distribución hipergeométrica: Se tiene una población objetivo constituida por N entes, entre estos N entes hay a que tienen una característica de interés. Se toma una muestra aleatoria de tamaño n de la población objetivo y diremos que X es una variable aleatoria hipergeométrica si representa el número de elementos con la característica de interés en la muestra. 𝑋 ∼ ℎ(𝑎, 𝑁, 𝑛) 𝑃(𝑋 = 𝑥) = (𝑎𝑥)(𝑁−𝑎 ) 𝑛−𝑥 (𝑁 ) 𝑛 ; 𝑆 = {0,1,2,3 … . . 𝑘} 𝜇 = 𝑎𝑛⁄𝑁 𝜎2 = 𝑎𝑛 𝑁−𝑎 𝑁 ( 𝑁 𝑁−𝑛 ) (𝑁−1 ) Distribución Poisson: Sea X una variable aleatoria discreta X tiene distribución Poisson con parámetro 𝜆 si representa el número de sucesos que ocurren en una unidad de tiempo, espacio, volumen o cualquier otra dimensión. Donde 𝜆 es el promedio de ocurrencia de dicho suceso. 𝑋 ∼ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆) 𝑃(𝑋 = 𝑥) = 𝜇=𝜆 𝑒 −𝜆 (𝜆𝑥 ) ; 𝑆 = {0,1,2,3 … . } 𝑥! 𝜎2 = 𝜆 𝑀𝑥 (𝑡) = 𝑒 𝜆(𝑒 𝑡 −1) Variable aleatoria continua: Sea X una variable aleatoria continua con ella se asocia una función 𝑓(𝑥) denominada función de densidad de X, la misma que cumple con: 1) 𝑓(𝑥) ≥ 0 ∞ 2) ∫−∞ 𝑓(𝑥)𝑑𝑥 ≥ 0 𝑏 3) 𝑃(𝑎 ≤ 𝑥 ≤ 𝑏) = 𝑃(𝑎 < 𝑥 < 𝑏) = ∫𝑎 𝑓(𝑥)𝑑𝑥 𝑎 4) 𝑃(𝑋 = 𝑎) = ∫−𝑎 𝑓(𝑥)𝑑𝑥 = 0 Distribución acumulada: Sea X una variable aleatoria continua con función de densidad 𝑓(𝑥), la distribución acumulada de X se define como: 𝑥 𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫ 𝑓(𝑡)𝑑𝑡 ; 𝑓(𝑡)𝑒𝑠 𝑙𝑎 𝑓𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒 𝑑𝑒𝑛𝑠𝑖𝑑𝑎𝑑 −∞ 1) lim 𝐹(𝑥) = 0 𝑥→−∞ 2) lim 𝐹(𝑥) = 1 𝑥→∞ 3) 𝐹(𝑥) es continua y creciente Valor esperado: Sea X una variable aleatoria continua con función de densidad 𝑓(𝑥), el valor esperado de X se define como: ∞ 𝐸[𝑔(𝑥)] = ∫ 𝑔(𝑥) 𝑓(𝑥)𝑑𝑥 −∞ Función Gamma: La función Gamma de un 𝛼 positivo se define como: ∞ Γ(𝛼) = ∫ 𝑥 𝛼−1 𝑒 −𝑥 𝑑𝑥 0 Distribución uniforme: Una variable aleatoria continua tiene distribución uniforme si su densidad es: 𝑋~𝑈(𝛼, 𝛽) 𝑓(𝑥) = 𝜇= 1 ; 𝑆 = {𝑥𝜖𝑅/𝛼 ≤ 𝑥 ≤ 𝛽} 𝛽−𝛼 𝛼+𝛽 𝜎2 = 2 (𝛽−𝛼)2 12 𝑀𝑥 (𝑡) = 𝑒 𝛽𝑡 −𝑒 𝛼𝑡 (𝛽−𝛼)𝑡 Distribución Gamma: Una variable aleatoria continua tiene distribución Gamma con parámetros 𝛼, 𝛽 si su densidad es: 𝑋~𝐺(𝛼, 𝛽) 𝑓(𝑥) = 𝑥 𝛼−1 𝑒 −𝑥/𝛽 ; 𝑆 = {𝑥𝜖𝑅/𝑥 ≥ 0} Γ(𝛼) 𝛽 𝛼 𝜎 2 = 𝛼𝛽 2 𝜇 = 𝛼𝛽 𝑀𝑥 (𝑡) = (1 − 𝛽𝑡)−𝛼 Si 𝛼 = 1, es una distribución exponencial. 𝑋~exp(𝛽) Si 𝛼 = 𝑛, es una distribución Erlang Si 𝛼 = 2 𝑦 𝛽 = 2, es una distribución Ji-Cuadrado con n grados de libertad. 𝑋~𝜒 2 (𝑛) 𝑛 Distribución Normal: Una variable aleatoria continua tiene distribución Normal con parámetros 𝜇, 𝜎 2 si su densidad es: 𝑋~𝑁(𝜇, 𝜎 2 ) 𝑓(𝑥) = 𝑥−𝜇 −1 ( ) 𝑒 ⁄2 𝜎 𝑀𝑥 (𝑡) = 𝑒 σ√2π 𝜇𝑡+ 2 ; 𝑆 = {𝑥𝜖𝑅} 𝜎2𝑡 2 2 Si 𝜇 = 0 𝑦 𝜎 = 1 entonces es una distribución normal estándar 𝑍~(0,1) Distribución Beta: Una variable aleatoria continua tiene distribución Beta con parámetros 𝛼, 𝛽 si su densidad es: 𝑋~𝐵(𝛼, 𝛽) 𝑓(𝑥) = 𝜇= Γ(𝛼 + 𝛽) 𝑥 𝛼−1 (1 − 𝑥)𝛽−1 ; 𝑆 = {𝑥𝜖𝑅/0 ≤ 𝑥 ≤ 1} Γ(𝛼)Γ(𝛽) 𝛼 𝛼𝛽 𝜎 2 = (𝛼+𝛽)2 𝛼+𝛽 (𝛼+𝛽+1) Distribución Conjunta: Sean X y Y 2 variables aleatorias discretas con ellas se asocia una función 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦), 𝑅 2 ↷ [0,1] denominada distribución de probabilidades conjunta entre X y Y, la misma que cumple con: 1) 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑓(𝑥, 𝑦) 2) ∑𝑡𝑜𝑑𝑎𝑠 𝑥 ∑𝑡𝑜𝑑𝑎𝑠 𝑦 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 1 Distribuciones marginales: Sean X y Y 2 variables aleatorias discretas con distribución de probabilidades conjunta 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) la distribución marginal de X y Y se define como: 𝑃1 (𝑋 = 𝑥) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) 𝑡𝑜𝑑𝑎𝑠 𝑦 𝑃2 (𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) 𝑡𝑜𝑑𝑎𝑠 𝑥 Valores esperados: Sean X y Y 2 variables aleatorias discretas con distribución de probabilidades conjunta 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)el valor esperado de 𝑔(𝑥, 𝑦) se define como: 𝐸[𝑔(𝑥, 𝑦)] = ∑ ∑ 𝑔(𝑥, 𝑦)𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) 𝑡𝑜𝑑𝑎𝑠 𝑥 𝑡𝑜𝑑𝑎𝑠 𝑦 Independencia de variables aleatorias: Sean X y Y 2 variables aleatorias discretas con distribución de probabilidades conjunta 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) y sean 𝑃1 (𝑋 = 𝑥) y 𝑃2 (𝑌 = 𝑦) sus respectivas distribuciones marginales, X y Y son variables aleatorias independientes si y solo si: 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑃1 (𝑋 = 𝑥) 𝑃2 (𝑌 = 𝑦) Además si son independientes se cumple que: 𝐸[𝑔1 (𝑥)𝑔2 (𝑦)] = 𝐸[𝑔1 (𝑥)]𝐸[𝑔2 (𝑦)] Covarianza: La covarianza entre 2 variables aleatorias X y Y se define como: 𝑐𝑜𝑣(𝑥, 𝑦) = 𝐸[(𝑥 − 𝜇𝑥 )(𝑦 − 𝜇𝑦 )] = 𝐸[𝑥𝑦] − 𝜇𝑥 𝜇𝑦 Si X y Y son independientes 𝑐𝑜𝑣(𝑥, 𝑦) = 0 Coeficiente de correlación: ρ𝑥,𝑦 = 𝑐𝑜𝑣(𝑥, 𝑦) ; −1 ≤ ρ𝑥,𝑦 ≤ 1 𝜎𝑥 𝜎𝑦