Download Función de distribución acumulada para variable aleatoria continua
Document related concepts
no text concepts found
Transcript
1)Función de densidad de probabilidad En estadística, la función de densidad de probabilidad (FDP), representada comúnmente como f(x), se utiliza con el propósito de conocer cómo se distribuyen las probabilidades de un suceso o evento, en relación al resultado del suceso. Matemáticamente, la FDP (función de densidad de probabilidad) es la derivada (ordinaria o en el sentido de las distribuciones) de la función distribución de probabilidad F(x), o de manera inversa, la función de distribución es la integral de la función de densidad Las propiedades de FDP (a veces visto como PDF del inglés) son: para toda x. El área total encerrada bajo la curva es igual a 1: La probabilidad de que X tome un valor en el intervalo [a,b] es el área bajo la curva de la función de densidad en ese intervalo o lo que es lo mismo, la integral definida en dicho intervalo. La gráfica f(x) se conoce a veces como curva de densidad. Algunas FDP están declaradas en rangos de distribución normal a , como la de la Propiedades Una función de distribución sobre los números reales tiene las siguientes propiedades: 1. 2. es monótona creciente. 3. Que implican las siguientes propiedades de la correspondiente función de densidad de probabilidad: 1. 2. es no-negativa. 3. 2) VARIANZA Esta medida nos permite identificar la diferencia promedio que hay entre cada uno de los valores respecto a su punto central (Media ). Este promedio es calculado, elevando cada una de las diferencias al cuadrado (Con el fin de eliminar los signos negativos), y calculando su promedio o media; es decir, sumado todos los cuadrados de las diferencias de cada valor respecto a la media y dividiendo este resultado por el número de observaciones que se tengan. Si la varianza es calculada a una población (Total de componentes de un conjunto), la ecuación sería: Ecuación 5-6 Donde ( ) representa la varianza, (Xi) representa cada uno de los valores, ( ) representa la media poblacional y (N) es el número de observaciones ó tamaño de la población. En el caso que estemos trabajando con una muestra la ecuación que se debe emplear es: Ecuación 5-7 Donde (S2) representa la varianza, (Xi) representa cada uno de los valores, ( ) representa la media de la muestra y (n) es el número de observaciones ó tamaño de la muestra. Si nos fijamos en la ecuación, notaremos que se le resta uno al tamaño de la muestra; esto se hace con el objetivo de aplicar una pequeña medida de corrección a la varianza, intentando hacerla más representativa para la población. Es necesario resaltar que la varianza nos da como resultado el promedio de la desviación, pero este valor se encuentra elevado al cuadrado. Desviación estándar o Típica Esta medida nos permite determinar el promedio aritmético de fluctuación de los datos respecto a su punto central o media. La desviación estándar nos da como resultado un valor numérico que representa el promedio de diferencia que hay entre los datos y la media. Para calcular la desviación estándar basta con hallar la raíz cuadrada de la varianza, por lo tanto su ecuación sería: Ecuación 5-8 Para comprender el concepto de las medidas de distribución vamos a suponer que el gerente de una empresa de alimentos desea saber que tanto varían los pesos de los empaques (en gramos), de uno de sus productos; por lo que opta por seleccionar al azar cinco unidades de ellos para pesarlos. Los productos tienen los siguientes pesos (490, 500, 510, 515 y 520) gramos respectivamente. Por lo que su media es: La varianza sería: Por lo tanto la desviación estándar sería: Con lo que concluiríamos que el peso promedio de los empaques es de 507 gramos, con una tendencia a variar por debajo o por encima de dicho peso en 12 gramos. Esta información le permite al gerente determinar cuanto es el promedio de perdidas causado por el exceso de peso en los empaques y le da las bases para tomar los correctivos necesarios en el proceso de empacado. Media cuadrática La media cuadrática es igual a la raíz cuadrada de la suma de los cuadrados de los valores dividida entre el número de datos: Esta media como medida de asociación tiene aplicaciones tanto en ciencias biológicas como en medicina. A veces la variable toma valores positivos y negativos, como ocurre, por ejemplo, en los errores de medida. En tal caso se puede estar interesado en obtener un promedio que no recoja los efectos del signo. Este problema se resuelve, mediante la denominada media cuadrática. Consiste en elevar al cuadrado todas las observaciones (así los signos negativos desaparecen), en obtener después su media aritmética y en extraer, finalmente, la raíz cuadrada de dicha media para volver a la unidad de medida original. Otras medias estadísticas son la media aritmética, la media ponderada, media cuadrática, media generalizada, media armónica y la media aritmética geométrica. Media aritmética La media aritmética o promedio, de una cantidad finita de números, es igual a la suma de todos ellos dividida entre el número de sumandos. Es uno de los principales estadísticos muestrales. Expresada de forma más intuitiva, podemos decir que la media (aritmética) es la cantidad total de la variable distribuida a partes iguales entre cada observación. Por ejemplo, si en una habitación hay tres personas, la media de dinero que tienen en sus bolsillos sería el resultado de tomar todo el dinero de los tres y dividirlo a partes iguales entre cada uno de ellos. Es decir, la media es una forma de resumir la información de una distribución (dinero en el bolsillo) suponiendo que cada observación (persona) tendría la misma cantidad de la variable. También la media aritmética puede ser denominada como centro de gravedad de una distribución, el cual no es necesariamente la mitad Definición Dados los n números a1,a2, ... , an, la media aritmética se define simplemente como: Por ejemplo, la media aritmética de 8, 5 y -1 es igual a: La X, con una barra horizontal sobre el símbolo para medias de una muestra ( ), mientras que la letra µ (mu) se usa para la media aritmética de una población, es decir, el valor esperado de una variable. Otras medias estadísticas son: la media geométrica, la media armónica, la media cuadrática, la media ponderada, la media aritmética, la media aritmética geométrica y la media generalizada. Propiedades La media aritmética de un conjunto de números positivos siempre es igual o superior a media geométrica: 3) Distribución de Poisson En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta. Expresa la probabilidad de un número k de eventos ocurriendo en un tiempo fijo si estos eventos ocurren con una tasa media conocida, y son independientes del tiempo desde el último evento. La distribución fue descubierta por Siméon-Denis Poisson (1781–1840) que publicó, junto con su teoría de probabilidad, en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile ("Investigación sobre la probabilidad de los juicios en materias criminales y civiles"). El trabajo estaba enfocado en ciertas variables aleatorias N que cuentan, entre otras cosas, un número de ocurrencias discretas (muchas veces llamadas "arribos") que tienen lugar durante un intervalo de tiempo de duración determinada. Si el número esperado de ocurrencias en este intervalo es λ, entonces la probabilidad de que haya exactamente k ocurrencias (siendo k un entero no negativo, k = 0, 1, 2, ...) es igual a: dónde e es el base del logaritmo natural (e = 2.71828...), k! es el factorial de k, k es el número de ocurrencias de un evento, λ es un número real positivo, equivalente al número esperado de ocurrencias durante un intervalo dado. Por ejemplo, si los eventos ocurren de media cada 4 minutos, y se está interesado en el número de eventos ocurriendo en un intervalo de 10 minutos, se usaría como modelo una distribución de Poisson con λ = 2.5. Por ejemplo, si 2% de los libros encuadernados en cierto taller tiene encuadernación defectuosa, obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan encuadernaciones defectuosas. Su media y su varianza son: Como una función de k, ésta es la función probabilidad de masa. La distribución de Poisson puede ser vista como un caso limitante de la distribución binomial, es decir, que una distribución binomial en la que y se puede aproximar por una distribución de Poisson de valor La distribución Poisson es también llamada Poissoniana, análogamente al término Gaussiana para una distribución de Gauss o distribución normal. Ocurrencia La distribución Poisson, Se aplica a varios fenómenos discretos de la naturaleza (esto es, aquellos fenómenos que ocurren 0, 1, 2, 3, ... veces durante un periodo definido de tiempo o en una área determinada) cuando la probabilidad de ocurrencia del fenómeno es constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados por la distribución Poisson incluyen: El número de autos que pasan a través de un cierto punto en una ruta (suficientemente distantes de los semáforos) durante un periodo definido de tiempo. El número de errores de ortografía que uno comete al escribir una única página. El número de llamadas telefónicas en una central telefónica por minuto. El número de servidores web accedidos por minuto. El número de animales muertos encontrados por unidad de longitud de ruta. El número de mutaciones de determinada cadena de ADN después de cierta cantidad de radiación. El número de núcleos atómicos inestables que decayeron en un determinado periodo de tiempo en una porción de sustancia radiactiva. La radiactividad de la sustancia se debilitará con el tiempo, por lo tanto el tiempo total del intervalo usado en el modelo debe ser significativamente menor que la vida media de la sustancia. El número de estrellas en un determinado volumen de espacio. La distribución de receptores visuales en la retina del ojo humano. La inventiva de un inventor a través de su carrera. Propiedades El valor esperado de una variable aleatoria con distribución Poisson es igual a λ y también lo es su varianza. Los momentos más altos de la distribución Poisson son polinomios de Touchard en λ cuyos coeficientes tienen un sentido combinatorio. De hecho, cuando el valor esperado de la distribución Poisson es 1, entonces la fórmula de Dobinski dice que el enésimo momento iguala al número de particiones de tamaño n. Las medidas de tendencia central de una variable aleatoria de distribución Poisson con un λ no entero es igual a (o suelo de λ), el cual es el número entero más grande menor o igual a λ. Esto también es expresado como la función parte entera de λ. Cuando λ es un entero positivo, las medidas de tendencia central son λ y λ − 1. Sumas de las variables aleatorias de distribución Poisson: Si sigue una distribución Poisson con parámetro y Xi son independientes entonces también sigue una distribución Poisson cuyo parámetro es la suma de los parámetros del componente. La función generadora de momentos de la distribución Poisson con valor esperado λ es: Todas las acumulaciones de la distribución Poisson son iguales al valor esperado λ. El enésimo momento factorial de la distribución Poisson es λn. La distribuciones Poisson son funciones probabilísticas infinitamente divisibles. La divergencia Kullback-Leibler dirigida entre Poi(λ0) y Poi(λ) está dada por: Cuando λ tiende a infinito, podemos aproximar a una distribución normal. Por ello, podemos tipificar ya que conocemos cual es la media y varianza de una Poisson. X˜Po(λ)˜N(λ,λ) Tipificando: Y˜N(0,1) Distribución uniforme para variable aleatoria discreta Su distribución de probabilidad es en el caso discreto con valores posibles Su función de distribución es en el caso discreto: Su media estadística es: Su varianza es: Ejemplos para variable aleatoria discreta Para un dado perfecto todos los resultados tienen la misma probabilidad Luego, la probabilidad de que al lanzarlo caiga 4 es . . Para una moneda balanceada, todos los resultados tienen la misma probabilidad . Luego, la probabilidad de que al lanzarla caiga cara es . Distribución uniforme para variable aleatoria continua Se dice que una variable aleatoria continua tiene una distribución uniforme en el intervalo si la función de densidad de probabilidad (FDP) es La función de distribución en el caso continuo entre y es Su media estadística es: Su varianza es: Proposición: Si es una variable aleatoria continua, entonces para cualquier número , además para cualesquiera dos números y con , , Es decir, la probabilidad asignada a cualquier valor particular es cero, y la probabilidad de un intervalo no depende de si cualquiera de sus puntos finales está incluido. Ejemplo para variable aleatoria continua La tecla RANDOM de la calculadora arroja números al azar entre cero y uno. La distribución de esos números simula ser una distribución uniforme continua entre 0 y 1. Función de distribución acumulada para variable aleatoria continua La función de distribución acumulada para una variable aleatoria está definida para cualquier número por Para cada , aumenta suavemente a medida que continua aumenta Distribución binomial En estadística, la distribución binomial es una distribución de probabilidad discreta, mide el número de éxitos en una secuencia de n ensayos independientes de Bernoulli, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Experimento Binomial La variable aleatoria binomial y su distribución están basadas en un experimento que satisface las siguientes condiciones: El experimento consiste en una secuencia de n ensayos, donde n se fija antes del experimento. Los ensayos se realizan bajo idénticas condiciones, y cada uno de ellos tiene únicamente dos posibles resultados, que se denotan a conveniencia por éxito (E) o fracaso (F) (p(E)+p(F)=1). Los ensayos son independientes, por lo que el resultado de cualquier ensayos en particular no influye sobre el resultado de cualquier otro intento. La probabilidad de éxito es idéntica para todos los ensayos. Siguiendo estas premisas, la variable aleatoria binomial X está definida como X = "número de E entre los n intentos" X se distribuye como una Binomial de parámetros n y p. X˜Bi(n,p) Características analísticas Su función de probabilidad está dada por: donde , siendo de en las combinaciones de en ( elementos tomados ) Propiedades características E[X] = np var[X] = npq Relaciones con Otras variables aleatorias Se verifica que si son tales que cada una sigue una distribución Bernouilli de parámetro , y todas ellas independientes entre sí, entonces resulta ser una variable aleatoria con distribución binomial de parámetros . Además, si n es grande y es pequeño, de modo que el producto entre ambos parámetros tiende a , entonces la distribución de la variable aleatoria binomial tiende a una distribución de Poisson de parámetro Por último, se cumple que cuando n es muy grande (n>=30) la distribución binomial se aproxima a la distribución normal. Propiedades reproductivas Dadas n variables aleatorias , tales que todas tienen una distribución binomial todas tienen el mismo parámetro cada una tiene su propio parámetro (es decir, los n no necesariamente tienen que ser iguales) son todas independientes entre sí se toma la variable aleatoria se toma Entonces: La variable aleatoria Y tiene una distribución Binomial, con parámetros y . Por lo tanto, dadas n variables binomiales independientes, donde cada una tiene su propio n pero todas tienen igual , su suma es también una variable binomial, cuyo parámetro n es la suma de los n de las variables originales, y cuyo parámetro coincide con el de las originales. Distribución gaussiana Cuando es suficientemente grande y no es demasiado pequeña, de manera que también sea grande, podemos utilizar la fórmula de Stirling para aproximar que es válida para . Si tenemos en cuenta que y reemplazando en la distribución binomial, podemos escribir Es sencillo demostrar que desarrollar el exponente de es máximo cuando alrededor de vale son muy grandes, . Podemos , obteniendo donde . Como para grande es chico, puede mostrarse que es una buena aproximación descartar los términos de orden superior al segundo. Recordando que correctamente y usando la condición de normalización para evaluar , se obtiene (2) Ésta es la conocida distribución gaussiana, y tiene la particularidad de que queda absolutamente determinada mediante y . Distribución de probabilidad o Q(x) En estadística, dada una variable aleatoria X, la distribución de probabilidad de X es la función FX(x), que asigna a cada evento definido sobre X una probabilidad, que está definida por: y de manera que se cumplan las siguientes tres condiciones: 1. y 2. Es continua por la derecha. 3. Es monótona no decreciente. Para simplificar la notación, cuando no hay lugar a confusión se omite el subíndice X, y se escribe simplemente F(x). La función de distribución es la acumulada de la función de densidad de probabilidad f(x). Es decir, se calcula directamente según: Si x es una variable aleatoria discreta Si x es una variable aleatoria continua Propiedades Para dos números reales cualesquiera a y b tal que (a < b), los sucesos y suceso serán mutuamente excluyentes y su unión es el , por lo que tenemos entonces que: y finalmente Por lo tanto una vez conocida la función de distribución F(x) para todos los valores de la variable aleatoria x conoceremos completamente la distribución de probabilidad de la variable. Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad.