Download Clase 3
Document related concepts
no text concepts found
Transcript
Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena III – VARIABLE ALEATORIA Y DISTRIBUCIÓN DE PROBABILIDAD 3.1 Variable aleatoria Es un concepto que le adjunta propiedades probabilísticas a los resultados cuantitativos de un experimento. Cuando un experimento es llevado a cabo, se mide una o más variables como resultado del experimento. Por ejemplo, cuando una persona es muestreada aleatoriamente a partir de un grupo de personas, podemos medir diversas variables (altura, peso, edad, sexo 0 o 1, etc.). Similarmente, si una muestra química es el resultado de un experimento, entonces, para esa muestra, podremos medir % de varios consituyentes, temperatura. Ph, etc.). El valor de esas variables de interés no va a ser constante de una muestra a la otra, denominandose el mismo variable aleatoria. De aquí que variable aleatoria es el concepto de medida que adquiere un valor numérico particular para cada muestra. Por ejemplo si muestreamos cinco personas y medimos sus alturas, entonces la variable altura es la variable aleatoria de interés, y los cinco valores con los que contamos son las cinco realizaciones de nuestra variable. Es muy importantes tener un concepto claro y definido del significado de variable aleatoria para poder comprender los conceptos de muestra en los proximos capitulos. 3.2 La Distribución de Probabilidad El tratamiento de distribución de probabilidad varía de acuerdo a su carácter de continua o discreta de nuestra variable aleatoria, no obstante los tratamientos tienen muchos puntos en comun. Hemos visto que la variable aleatoria toma diferentes valores numéricos como resultado de pruebas. El set o conjunto de todos los posibles valores que puede tomar la variable es 1 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena denominado el ESPACIO MUESTRAL. A continuación presentamos algunos ejemplos de variables aleatorias y sus espacios muestrales: Experimento Variable aleatoria Espacio Muestral Se tira un dado Valor de la cara superior 1,2,3,4,5,6. Se tira una moneda 5 veces Cantidad de caras obtenidas 0,1,2,3,4,5. Una persona es muestreada Altura De 1,3 m a 2,1m Pero podemos ir in paso adelante al describir las propiedades de la variable aleatoria, considerando que habrá valores que poseen muchas mayores chances de ocurrir en el espacio muestral que otros. Podemos expresar las chances a traves de la distribución de probabilidad. Para cada punto del espacio muestral podemos asociar una probabilidad que representa las chances que tiene la variable aleatoria de tomar ese valor en particular. El conjunto completo de valores del espacio muestral con sus probabilidades asociadas (que deben sumar 1) es llamado la DISTRIBUCIÓN DE PROBABILIDAD de la variable aleatoria, y es representada frecuentemente graficando las probabilidades en el eje de ordenadas al origen y los valores del espacio muestral en el eje de abcisas. Ejemplo Tirada de un dado Valores r 1 2 3 4 5 6 Probabilidades pr 1/6 1/6 1/6 1/6 1/6 1/6 Esta es conocida como la distribución uniforme (caso discreto) y puede ser representada como pr = 1/6 r = 1,......., 6 2 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena Ejemplo 2 Numero de caras al lanzar una moneda cinco veces Valores r 0 1 2 3 4 5 Probabilidades pr .03 .16 .31 .31 .16 .03 Estes es un ejemplo de la distribución binomial, representada por pr= 5Cr * (0.5)5; r= 0,....,5 La distribución de probabilidad posee una interpretación natural a través de las frecuencias; si el experimento es repetido un gran número de veces, entonces la probabilidad de cualquier valor en particular de la variable aleatoria es igual al límite de su frecuencia relativa, a medida que el experiemento se hace mas grande. Existen muchas distribuciónes de probabilidad que describen las chances de eventos de la vida real, y forman la base de la inferencia estadística y análisis de datos. La distribución Binomial y la Poisson son discutidas en el presente capítulo, mientras que la Normal y otras importantes distribuciónes muestrales son tratadas posteriormente. 3.3 La Distribución Binomial La distribución binomial se aplica a una serie de pruebas conocidas como pruebas de Bernoulli. Estas poseen las siguientes propiedades:- 1. Cada prueba tiene asociada dos posibles resultados, usualmente conocidos como éxito o fracaso. 3 Universidad del CEMA Métodos Cuantitativos 2. Las pruebas son independientes unas de otras. 3. La probabilidad de éxito de cada prueba es una constante “p”. Prof. José P Dapena Noten que, usando la interpretación de frecuencia relativa de probabilidades, p puede ser considerada como el limite de la frecuencia relativa de éxitos a medida que el número de pruebas se hace mas grande. Sea q = 1 – p = probabilidad de fracaso. Ejemplo de pruebas de Bernoulli: sexo de bebes nacidos, clasificación de ítems en defectuosos o no, votos a favor de un candidato. De hecho, muchas situaciones se tornan pruebas de Bernoulli si estamos interesados en clasificar los resultados en una de dos formas (Ej. La altura de una persona si es mayor a 1.70m o no) La FUNCION DE PROBABILIDAD general para la Distribución Binomial es pr= nCr * (p)r * (q)n-r r= 0,....,n donde n es el número de pruebas de Bernoulli y p es la probabilidad de exitopara cada prueba. pr es la probabilidad que el numero de exitos en n intentos sea igual a r. Esta fórmula puede ser utilizada para calcular probabilidades para cualquier Distribución Binomial. Alternativamente, existen tablas estadísticas, y funciones incorporadas en softwares que permiten realizar el cálculo de probabilidades y probabilidades acumuladas. Esta última representa la probabilidad que una variable sea menor o igual a un valor r. Se 4 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena sigue que fácilmente se puede calcular la función de probabilidad a partir de la función de distribución y viceversa, usando la relación: Fr = po + p1 + .....pr pr = Fr - Fr-1, donde Fr es conocida como la Función de Distribución. Ejemplo Un broker de seguros cree a partir de datos históricos que para un contacto efectuado, la probabilidad de cerra una venta es .4. Se define la variable X que tome el valor 1 si la venta se cierra y 0 de otra manera. Este es un ejemplo de una variable Bernoulli. El broker tiene previsto realizar cinco contactos. La variable X es ahora la cantidad de éxitos que tiene el vendedor, y la distribución de probabilidad es Px ( x ) = P(0éxitos ) = Px (0) = P(1éxito) = Px (1) = 5! (.4) x (.6)5− x x!(5 − x )! 5! (.4)0 (.6)5 = .078 0!5! P(4éxitos ) = Px (4) = 5! (.4)1 (.6) 4 = .259 1!4! P(2éxitos ) = Px (2) = 5! (.4)2 (.6)3 = .346 2!3! 5 5! (.4) 4 (.6)1 = .077 4!1! P(3éxitos) = Px (3) = 5! (.4)3 (.6)2 = ..230 3!2! P(5éxitos ) = Px (5) = 5! (.4)5 (.6)0 = .010 5!0! Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena 3.4 La Distribución de Poisson La distribución de Poisson se aplica a puntos aleatorios en un medio continuo (como puede ser tiempo, distancia, área, volúmen, etc.) Estos puntos aleatorios poseen las siguientes propiedades: 1. Cada punto tiene las mismas chances de ocurrir que cualquier punto en el medio considerado. 2. La posición tomada por cada punto es completamente independiente de la ocurrencia o no de otros puntos. La variable aleatoria r de interés en esta situación es el número de puntos en una unidad en particular del medio objeto de analisis. Es facil pensar en ejemplos de procesos Poisson: Roturas de maquinas en el tiempo, particulas en una mezcla, plantas dispersas en una plantacion, etc. La FUNCION DE PROBABILIDAD general para la distribución de Poisson es pr= λ n * exp (-λ λ )/ r! r= 0, 1, 2.... donde λ es el número promedio de puntos por unidad del medio. λ es conocido como el parámetro de Poisson. Nótese que, en teoría, no existe un límite superior para r. Esta fórmula puede ser utilizada para calcular probabilidades para cualquier Distribución Binomial. Alternativamente, existen tablas estadísticas, y funciones incorporadas en 6 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena softwares que permiten realizar el cálculo de probabilidades pr y probabilidades acumuladas Fr. Ejemplo La distribución de Poisson ha sido exitósamente utilizada en Teoría de Colas (waiting line o queuing problemes). Clientes arriban a un mostrador de recepción a una tasa promedio de dos cada 5 minutos. Estos procesos de arribos pueden ser representados por una distribución Poisson. Sea X el número de arribos en un período de 5 minutos, entonces X tiene una distribución con media λ = 2 y función de probabilidad Px ( x ) = e −2 (2) x x! para x = 0, 1, 2.... 3.5 La aproximacion de Poisson a la Binomial Cuando el número de pruebas en una situación Binomial es muy grande, y el valor p es extremo, se puede demostrar que la función de probabilidad Binomial puede ser aproximada por la función de probabilidad de Poisson con λ= np (o nq si q es pequeño). Como una regla “a dedo”, n tiene que ser mayor a 30 y p tan extremo tal que np (o nq) debe ser menor que 10. Ejemplo : una compañía de seguros tomará un gran numero de pólizas de seguros de vida de personas de cierto grupo de edad, y la probabilidad que una póliza en particular resulte en un reclamo durante el año es muy baja. La distribución del número de reclamos es binomial con un gran n y pequeño p. 7 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena 3.6 La Media Poblacional Ciertas propiedades importantes de las distribuciónes surgen si consideramos promedios ponderados por probabilidades de variables aleatoria, y de funciones de variables aleatorias. Consideremos por ejemplo, como podríamos determinar la media de una variable aleatoria. Sería ilógico tomar el promedio simple de todos los valores que la variable aleatoria puede adoptar, porque significaría que valores con pocas chances de ocurrir tendrían las mismas probabilidades asociadas que valores con muchas chances de ocurrir. La función obvia para usar es el PROMEDIO PONDERADO POR PROBABILIDADES de los valores del espacio muestral. De ahí que si x1, x2, ....., xN son los posibles valores de la variable aleatoria, con sus probabilidades asociadas p1, p2, ....., pN, entonces el promedio de la variable aleatoria es definido como x1 *p1 + x2 * p2 + .....+ xN * pN, Este promedio tiene asociados diversos nombres, los mas comunes: media poblacional, media de la variable aleatoria, media de la distribución, valor esperado de la variable aleatoria, expectativa de la variable aleatoria. Es una medida de localización, en este caso de la distribución, y es generalmente denotada por µ. Otra notación útil es E(R ) = valor esperado de R. Tal que E() es una forma corta de escribir “promedio ponderado por probabilidad de...” 8 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena Si la variable R sigue una distribución Binomial con tamaño muestral n y probabilidad de éxito p, entonces E(R ) = 0 * qn + 1 * nqn-1p + ....+ n * pn, y puede ser demostrado que es igual a np Si r sigue una distribución Poisson con media λ, entonces ; E(R ) = 0*exp(-λ) + λ * exp (-λ)+ .... + r* {λr * exp (-λ)/r!} + ....., y puede ser demostrado que es igual a λ 3.7 La Varianza Poblacional El concepto de promedio ponderado por probabilidad puede ser extendido a funciones de la variable aleatoria, eg si R toma los valores x1, x2, ....xN, con sus probabilidades asociadas p1, p2, ....., pN, entonces podemos definir E(1/R) = p1* 1/x1 + p2 * 1/x2 +.....pN * 1/xN, E(R2) = p1* x12 + p2 * x22 +.....pN * xN2, Un promedio muy importante asociado con la distribución es el valor esperado del cuadrado de las desviaciones de la variable aleatoria con respecto a su media ie. si µ = E(R ) entonces tendremos E{(R- µ )2} = p1* (x1 - µ )2 + p2 * (x2 - µ )2 +.....pN * (xN - µ )2, 9 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena Esto puede ser visto como una medida de dispersión de la distribución, y es conocido como la VARIANZA de la variable aleatoria o como la VARIANZA POBLACIONAL. La raíz cuadrada de esta medida es conocida como la desviación estándar, siendo representada por σ tal que la varianza es σ2 Una expresion alternativa para la Varianza es Tenemos que σ2 = E{(R - µ )2} = E(R2 – 2 * R* µ + µ 2) E(R2) – 2* µ 2 + µ 2 = E(R2) – µ 2 Esta es una expresión muy importante para la varianza, que en palabras puede ser expresada como “La varianza es igual a la media del cuadrado de la variable, menos el cuadrado de la media” o “El valor esperado del cuadrado de la variable aleatoria es igual a la varianza mas el cuadrado de la media” Una interpretación útil de las propiedades de los parámetros poblacionales es pensar en ellos como el equivalente en el límite de los correspondientes estadísticos muestrales. Supongamos que muestreamos n valores de la variable aleatoria R, r1, r2, ....rn. Entonces a medida que n ∞, 10 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena la media muestral se hace equivalente a µ y la varianza muestral se transforma en σ2. Usando las definiciones previas, puede ser demostrado que : la varianza de la distribución binomial es npq la varianza de la distribución Poisson es igual a λ 3.8 Distribuciones relacionadas a la Binomial Existen tres importantes distribuciónes relacionadas a la Binomial, siendo las mismas: La distribución Binomial negativa Se aplica también con pruebas de Bernoulli, pero en este caso se especifica el número de éxitos que se requieren (tal que r es constante) y la variable aleatoria pasa a ser N, el número de pruebas necesario para obtener r éxitos. Por ejemplo, podemos lanzar una moneda para obtener cinco caras, en este caso el número de lanzamientos de moneda sera la variable aleatoria. La funcion de probabilidad para esta distribución es n-1 Cr-1 * pr * qn-r, para n= r, r+1, r+2........ La media de esta distribuciónes r/p, mientras que su varianza es r*q/p2 11 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena La Distribución Hipergeometrica Se aplica tambien a la clasificación de ítems en 2 grupos, pero en este caso usamos muestras sin reposición, aplicándose a muestras de una población pequeña o finita, y a medida que cada muestra es tomada, la población disminuye de a 1. Por ejemplo, supongamos que tenemos una urna con 8 bolillas rojas y 4 blancas. La probabilidad de selecconar una bollila roja es 8/12. Seleccionamos una bolilla al azar, y es roja, y no la depositamos nuevamente en la urna, la probabilidad que la siguiente bola sea roja es 7/11 ahora, en consecuencia las pruebas no son independientes, al verse afectada la probabilidad del mismo evento en la segunda prueba por el resultado de la primera. En general, si tenemos una poblacion de N elementos con R “exitos” y (N-R) “fracasos”, entonces la probabilidad que una muestra aleatoria de n tenga r éxitos estará dada por la distribución de probabilidad Hipergeometrica. {RCr * N-RCn-r } / NCn para a< r < b, donde a= max (0, n – N + R), y b = min(n, R) la media de esta distribución es nR/N, mientras que la varianza es nr(N – r)(N-n)/N2 (N-1) La Distribución Multinomial Se aplica a la clasificación de items en k grupos y en este caso usamos muestreo con reposición. También se aplica a una población infinita. Es una generalización obvia de la Binomial desde 2 a muchas clasificaciones. 12 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena Supongamos k grupos con probabilidades p1, p2, ....., pk, y permitamos que una muestra de n items sea tomada. Entonces las variables aleatorias son R1, R2, Rk, representando la cuenta de items que pertenece a cada clase. Noten que R1 + R2 +............ Rk = n Entonces la funcion de probabilidad para la distribución multinomial es la probabilidad que R1 = r1 , R2 = r2... Rk = rk, que puede ser mostrada como n! / {r1! * r2! ....* rk!} * p1 r1 * p2 r2 * pk rk donde el rango de cada ri varia de o hasta n sujeto a r1 + r2 + ....+ rk = n La media de ri es npi, y la varianza npiqi Notese que las distribuciónes marginales de cada Ri es la binomial, y que la Binomial es un caso especial donde k = 2. 13 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena DISTRIBUCIÓN DE PROBABILIDAD CONTINUA 3.8 Introducción En este capítulo trataremos con la teoría de distribuciónes para variables aleatorias continuas, y particularmente dedicaremos bastante atención a una muy importante variable aleatoria continua, llamada NORMAL, y veremos como encontrar probabilidades de variables aleatorias que se encuentren en ciertos intervalos. Por variables aleatorias continuas significamos variables que pueden tomar cualquier valor en un rango continuo, en oposición a variables como la Binomial que solo puede tomar ciertos valores discretos en un íntervalo, en ese caso los números entereos. Muchas de las propiedades y fórmulas para variables continuas son similares a aquellas para variables discretas que hemos visto en capítulos anteriores, pero una cosa debe ser tenida especialmente en cuenta, que para variables continuas solamente intervalos son de interés, y no puntos específicos. No consideraremos en ningún caso valores puntuales sino intervalos. 3.9 La funcion de densidad probabilistica Las propiedades estadísticas de una variable aleatoria continua X son descriptas por una función f(x). Esto no representa probabilidad, sino que es la densidad de la probabilidad en un punto x, mientras que probabilidad corresponde al area por debajo de la funcion f(x). Entonces por ejemplo si queremos la probabilidad de X este entre los intervalos 3 y 5, está dada por el área bajo la curva definida por f(x) en el intervalo 3 a 5. 14 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena f(x) 3 Probability 5 X En esta forma, la función de densidad nos proporcionará las probabilidades asociadas con cualquier intervalo de interés. Nótese que no hay nunca un interés en obtener la probabilidad para un valor puntual de una variable aleatoria continua Con la anterior interpretación en mente, las siguientes importantes propiedades de una variable aleatoria continua deberían ser aparentes. 1. p(3<X<5) = area por debajo de f(x) en el intervalo (3,5) 2. El área total bajo la curva es igual a uno (1), representando la probabilidad que X adopte cualquier valor. 3. La FUNCION DE DISTRIBUCIÓN, F(x) de X es la probabilidad que X sea menor o igual que x, de manera que tenemos la relacion X F ( x) = ∫ f (u)du y f(x) = dF(x)/ dx 15 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena Otras propiedades son análogas a las definidas para variables discretas: 4. La media de X = E(X) X E ( x) = ∫ x * f ( x )dx Donde se integra en el rango total cubierto por X 5. La varianza de X = X Var ( X ) = E{( X − µ )2 } = ∫ ( x − µ )2 * f ( x)dx y como antes, Var (X) = E(X2) - µ2 3.10 Ejemplos La Distribución Uniforme Supongamos que X sigue una distribución uniforme entre 0 y 10, de manera tal que es igualmente probables que adopte cualquier valor en ese rango, y es imposible que adopte un valor por fuera del mismo. Entonces la funcion de densidad esta dada por f(x) = 0.1 0 < x <10 16 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena Nótese que la integral de la funcion en el rango es igual a 1. En consecuencia, p (3<X <5) = 5 ∫ (.1)dx = .2 3 y p (X< 6) 6 ∫ (.1)dx = .6 0 Claramente, para el caso de la distribución uniforme no es necesario resolver la integral para el cálculo de las probabilidades, sino que basta con calcular el área por debajo de los rectángulos que surgen del gráfico de la función de densidad La Funcion de Distribución X F ( x ) = ∫ (.1)du = x / 10 0 para 0< x < 10 la Media µ = E ( X ) = ∫ x (.1)dx = 5 la Varianza 5 ∫ (3 exp(−3x))dx = exp(−9) − exp(−15) = .00012 3 17 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena La Distribución Exponencial Esta distribución surge a través de las teorías de confiabilidad y de colas. En este caso X es una variable aleatoria positiva con función de densidad f(x) = 3exp(-3x), x>0 entonces p(3<x<5), 5 ∫ (3 exp(−3x))dx = exp(−9) − exp(−15) = .00012 3 la Función de Distribución X F ( x) = ∫ 3 exp( −3u )du = 1 − exp( −3 x) 0 la Media µ = E ( X ) = ∫ x(3 exp( −3x))dx = 1 / 3 La Varianza σ 2 = E ( X 2 − µ 2 ) = ∫ x 2 (3 exp( −3x ))dx − 1 / 9 = 1 / 9 18 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena La Distribución Normal Es la distribución más importantes en teoría estadística, y constituye la base y esencia para el entendimiento de la misma. Es en algun sentido la distribución de origen de todas las distribuciónes muestrales que veremos mas adelante. Provee de un método para adjuntar probabilidades a intervalos de variables de interés. Por ejemplo, podemos hacer las siguientes afirmaciones (a) hay un 20% de probabilidad que una persona mida entre 1.50m y 1.65m de altura (b) hay una chance del 5% que una persona mida mas de 1.95m Las dos alternativas son afirmaciones probabilisticas acreca de intervalos, y la distribución normal es la “herramienta” que usamos para determinar dichas probabilidades. Es importante a esta altura que dediquemos tiempo a esta distribución y nos familiaricemos con sus propiedades formales y las razones de su relevancia para situaciones reales. Las afirmaciones (a) y (b) de arriba son afirmaciones perfectamente estadísticas hechas en términos de todos los días. Mas formalmente, podemos querer hacer afirmaciones en la siguiente manera Si una persona es muestreada al azar de una población, e Y representa su altura, entonces, (a) prob(1.5<Y<1.65) = 0.20 (b) prob(1.95<Y) = 0.05 19 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena Será conveniente utilizar este tipo de notación al desarrollar las propiedades formales de la distribución normal. El significado de la Distribución Normal En orden de obtener un “feeling” de la distribución normal, nos permitamos considerar el ejercicio de construir un Histograma de la altura de las personas. Supongamos que empezamos con 100 personas y construimos un Histograma usando intervalos de clase, de manera tal que el diagrama nos de una imagen de la distribución de datos. Será un diagrama un poco desparejo, pero útil. Supongamos que incrementamos el numero de personas a 500, y construimos el histograma usando nuevos intervalos de clase al contar con mayores datos. El diagrama sera más suave que el anterior, con un pico en el centro, y con cierta simetría en su forma. La distribución normal comienza a emerger! Supongamos que repetimos el experimento con 5.000, 50.000 y mas personas, eventualmente obtendremos una curva acampanada suave, perfectamente simétrica. El punto central de simetría es denominado usualmente con la letra griega µ. Es tambien conocido como la media de la distribución o la media de la población. El diagrama obtenido representa la distribución de la población. Es una convención el ajustar la escala vertical de manera tal que el área bajo la curva sea igual a 1, y puede ser facilmente mostrado que dicha area representa probabilidades. La curva posee, en efecto, una muy conocida forma matemática que puede ser computada para calcular áreas y en consecuencia probabilidades. Para esta etapa, es importante el apreciar que una distribución de probabilidad puede ser considerada como el límite acentuado de un histograma básico, a medida que el tamaño de la muestra se agranda. Elegimos la variable altura de las personas, 20 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena debido a que es bien conocido que la misma se distribuye normalmente. No ocurriría lo mismo si hubiesemos escogido ingresos de las personas. La misma hubises seguido otro tipo de distribución. De todas formas, muchas variables siguen una distribución normal. La relevancia de la Distribución Normal La distribución normal es relevante para metodos cuantitativos por muchas razones, entre las que se encuentran: (a) Surge en forma natural. Es bien conocido que poblaciones de variables que surgen naturalmente siguen una distribución normal, peso de personas, animales, altura de arboles, etc. (b) Promedios. Anteriormente fué mencionado el punto que variables muestrales tienen distribuciónes de probabilidad. Puede ser demostrado en froma teorica y practica, que, con un adecuado tamaño de muestra, la distribución del promedio muestral seguira una distribución normal, sin importar la distribución de la variable original. Este es un muy importante dato, no obstante puede parecer un poco sorprendente al inicio. L justificacion teorica es conocida como TEOREMA DEL LIMITE CENTRAL, y ha sido descubierto y redescubierto muchas veces y en muchos campos ademas del estadístico. Las consecuencias de este resultado es que un número de métodos estadísticos que utilizamos tienen la propiedad de robustez en el hecho que no importa la distribución de la muestra realizada, estamos justificados de usar normalidad para estadísticos que son funciones lineales de los mismos. Por tamaño “razonable” se entiende un número de 30 o mas, no obstante muestra de menor tamaño pueden ser normales en algunos casos. Esto dependerá de la distribución de las variables originales. Si las variables originales poseen una distribución normal, entonces las medias muestrales seran normalmente distribuidas. Si no, número razonable de tamaño muestral sera necesario para justificar el uso de la distribución normal para la media muestral. 21 Universidad del CEMA Métodos Cuantitativos (c) Prof. José P Dapena Error. La distribución normal es generalmente utilizada como la distribución de el término de error en modelos estadísticos o cuantitativos standards tales como regresiones, análisis de varianzas, series de tiempo, econometrias, etc. Este supuesto puede y debe ser chequeado. En forma teórica pueder ser justificado hasta cierto punto por el Teorem del Limite Central a partir de que errores pueden ser tomados como el resultado de un efecto acumulativo de numerosos pequeños factores que no son susceptibles de ser medidos. Caracteristicas de la Distribución Normal. Existe un gran número de distribuciones normales para acomodar un gran número de variables que son normalmente distribuidas. No debemos esperar , por ejemplo, que la variable altura de personas, tenga la misma distribución que peso de chanchos, y a pesar de ello las dos variables siguen una distribución normal. Esto significa que las dos distribuciónes tienen la misma forma matemática con la característica campana, pero estan basadas en diferentes parámetros. Dos parámetros caracterizan una distribución normal. Ellos son: La media µ La desviacion estándar σ La media poblacional µ representa la media aritmética de toda la población, y esta localizada en el punto central de la distribución. Es tambien el valor límite de la media muestral a medida que el tamaño de la muestra se agranda. 22 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena La desviacion estándar, σ, es un poco mas complicada. Representa la dispersión de la distribución y es el valor límite de la desviación estándar muestral a medida que el tamaño de la muestra se agranda. Es tambien la raiz cuadrada positiva de la varianza poblacional. Una interpretación simple y práctica de σ es que si uno toma un intervalo de 2σ por debajo y arriba de la media µ (i.e. µ +/- 2σ), dicho intervalo contendra el 95% de la poblacion. Es evidente entonces que para una población altamente concentrada σ sera pequeño mientras que para una población dispersa σ tenderá a ser alta. Una distribución normal en particular es definida en forma inequívoca entonces por una afirmación como: “La variable Y sigue una distribución normal con media X y varianza Z”, que por lo general se abrevia de la siguiente manera: Y ~ N (X, Z) Notese que la media puede adoptar cualquier valor, pero que la varianza (y su desviación estandar) deben ser positivas. Otras propiedades dignas de mención son : (a) la distribución es simetrica alrededor de µ (b) µ es tambien el punto mas alto de la distribución (modo) (c) la probabilidad total debajo de la curva es igual a 1. 23 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena (d) No obstante en teoria la curva se extiende hasta infinito en ambas direcciones, la probabilidad que un valor se encuentre a mas de 3σ desde el centro es insignificante. Propiedades matematicas Ahora detallamos el formato matemático de la distribución normal. Es de destacar que no es necesario saberse la fórmula de memoria desde que existen tablas con valores tabulados, y softwares con funciones estadísticas especiales para determinar las probabilidades. Para una variable aleatoria X distribuida como N{µ, σ), la forma funcional de la curva es conocida como FUNCION DE DENSIDAD PROBABILISTICA e igual a: f(x) = exp[-1/2{(x - µ ) /σ σ}2] / σ√ (2π π ), -∞ < x < +∞ Para la funcion estándar, esto deviene en f(z) = exp[-1/2{z}2] / √ (2π π ), -∞ < z < +∞ Las areas por debajo de las curvas representan probabilidades y, para la forma general, el área total bajo la curva para valores menores que x es la probabilidad que una variable aleatoria normal sea menor que x; esta es la Función de Distribución Normal y es igual a la integral de la funcion de densidad desde -∞ hasta x. La funcion de densidad juega un rol similar a aquel de función de probabilidad para variables aleatorias discretas; la media poblacional y la varianza son definidas como 24 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena µ = E ( x) = ∫ xf ( x )dx X σ 2 = Var ( X ) = E{( X − µ )2 } = ∫ ( x − µ ) 2 f ( x)dx = E ( x 2 ) − µ 2 utilizando f(x) de acuerdo a su correspondiente forma, para la distribución normal estándar los valores de estos parametros son 0 y 1 respectivamente. Las tablas de la distribución Normal Ahora discutiremos la determinación de probabilidades normales usando tablas estadisticas estándar; esta tecnica es redundante desde que existen software que realizan los calculos en forma inmediata, no obstante es necesario contar con un cabal conocimiento de cómo se originan los resultados. La tabla de estadisticas estándar proporciona probabilidades para una distribución normal particular, conocida como la normal estándar. Es una distribución normal con media 0 y varianza 1. Z ~ N(0, 1) Nos permitamos realizar afirmaciones probabilísticas sobre una variable que es conocida por seguir una distribución normal estándar. Supongamos que queremos determinar las siguientes probabilidades 25 Universidad del CEMA Métodos Cuantitativos (a) que Z es mayor que 2.4 i.e. p( z > 2.4) (b) que Z yace entre –1.24 y 1.86 i.e. p( -1.24< z < 1.86) Prof. José P Dapena Demostraremos el uso de las tablas normales a través de estos ejemplos. Existen una pocas propiedades básicas de la distribución estándar normal que nos permiten determinar probabilidades para cualquier intervalo de Z. Estas son: La distribución es simetrica alrededor de cero. La probabilidad total (area) debajo de la curva es igual a 1 El área debajo de la curva representa probabilidad. La tabla Normal esta dada por el Listado de tablas Estadisticas, y expresa la Función de Distribución Normal, i.e. las probabilidades (areas) a la izquierda de los puntos dados. Ahora con las propiedades detalladas se puede calcular facilmente los valores buscados. La Distribución Normal General Las tablas de distribución normal estandar pueden ser utilizadas para calcular probabilidades de valores pertenecientes a cualquier distribución normal. Supongamos que estamos interesados en unas variable X que se dustribuye normalmente con media µ y varianza σ2, siendo ambos valores conocidos. Entonces puede ser demostrado que si reducimos µ de X y lo dividimos por σ, la variable resultante sigue una distribución normal estandar, 26 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena i.e. . Z = (X - µ) /σ), o bien X = µ + Zσ. En lo que sigue nos referiremos a esto como la estandarización de la variable, a los efectos de encontrar valores de probabilidades. Supongamos que X se distribuye en froma norma con media 5 y varianza 4, i.e. X ~ N(5,4), y queremos determinar p(5.8 < X < 7.0) Ahora decir que X yace entre 5.8 y 7.0 es lo mismo que decir que (X – 5)/2 yace entre (5.8 – 5)/2 y (7.0 – 5)/2 (donde hemos realizado una standarizacion de la variable) Entonces p(5.8<X<7.0) = p{(2.8-5)/2 < Z < (7 – 5)/2}, o sea = p (0.4 < Z < 1) y utilizando la tabla de norma estándar como lo hicimos anteriormente, tenemos que: p(5.8 < X < 7.0) = 0.1859 Otros Aspectos de la Distribución Normal Generalmente prestamos atención a funciones lineales (e.g. sumas) de variables distribuidas normalmente. Los siguientes resultados básicos son útiles cuando tratamos con estas: 27 Universidad del CEMA Métodos Cuantitativos Prof. José P Dapena (a) Si X1 y X2 son variables aleatorias normales e independientes tal que X1 ~ N (µ µ 1,σ σ12), y X2 ~ N (µ µ 2,σ σ22), Entonces X1 + X2 se distribuira normalmente con media µ1 + µ2 y varianza σ12 + σ22, Similarmente, X1 - X2 se distribuira normalmente con media µ1 - µ2 y varianza σ12 + σ22. (b) Una combinacion lineal de una variable aleatoria normalmente distribuida seguira una distribución normal: X ~ N (µ,σ2), siendo a y b constantes, entonces A + bX sigue una distribución normal con media a + bµ y varianza b2σ2 Aun cuando se presente un caso en que la distribución de origen no es normal, una combinacion lineal puede resultar en una variable que sigue una distribución normal. En algunos casos donde la distribución esta sesgada hacia la derecha y es difinitivamente no normal, la transformación Y = ln X donde ln es el logartimo natural (en base e) resulta en una variable Y que sigue una distribución normal (se dice entonces que X sigue una distribución lognormal). 28