Download Función de distribución acumulada para variable aleatoria continua

Document related concepts
no text concepts found
Transcript
1)Función de densidad de probabilidad
En estadística, la función de densidad de probabilidad (FDP), representada
comúnmente como f(x), se utiliza con el propósito de conocer cómo se distribuyen
las probabilidades de un suceso o evento, en relación al resultado del suceso.
Matemáticamente, la FDP (función de densidad de probabilidad) es la derivada
(ordinaria o en el sentido de las distribuciones) de la función distribución de
probabilidad F(x), o de manera inversa, la función de distribución es la integral de
la función de densidad
Las propiedades de FDP (a veces visto como PDF del inglés) son:


para toda x.
El área total encerrada bajo la curva es igual a 1:
La probabilidad de que X tome un valor en el intervalo [a,b] es el área bajo la curva
de la función de densidad en ese intervalo o lo que es lo mismo, la integral
definida en dicho intervalo. La gráfica f(x) se conoce a veces como curva de
densidad.
Algunas FDP están declaradas en rangos de
distribución normal
a
, como la de la
Propiedades
Una función de distribución sobre los números reales tiene las siguientes
propiedades:
1.
2.
es monótona creciente.
3.
Que implican las siguientes propiedades de la correspondiente función de
densidad de probabilidad:
1.
2.
es no-negativa.
3.
2)
VARIANZA
Esta medida nos permite identificar la diferencia promedio que hay entre cada uno
de los valores respecto a su punto central (Media ). Este promedio es calculado,
elevando cada una de las diferencias al cuadrado (Con el fin de eliminar los signos
negativos), y calculando su promedio o media; es decir, sumado todos los
cuadrados de las diferencias de cada valor respecto a la media y dividiendo este
resultado por el número de observaciones que se tengan. Si la varianza es
calculada a una población (Total de componentes de un conjunto), la ecuación
sería:
Ecuación 5-6
Donde ( ) representa la varianza, (Xi) representa cada uno de los valores, ( )
representa la media poblacional y (N) es el número de observaciones ó tamaño de
la población. En el caso que estemos trabajando con una muestra la ecuación que
se debe emplear es:
Ecuación 5-7
Donde (S2) representa la varianza, (Xi) representa cada uno de los valores, ( )
representa la media de la muestra y (n) es el número de observaciones ó tamaño
de la muestra. Si nos fijamos en la ecuación, notaremos que se le resta uno al
tamaño de la muestra; esto se hace con el objetivo de aplicar una pequeña
medida de corrección a la varianza, intentando hacerla más representativa para la
población. Es necesario resaltar que la varianza nos da como resultado el
promedio de la desviación, pero este valor se encuentra elevado al cuadrado.
Desviación estándar o Típica
Esta medida nos permite determinar el promedio aritmético de fluctuación de los
datos respecto a su punto central o media. La desviación estándar nos da como
resultado un valor numérico que representa el promedio de diferencia que hay
entre los datos y la media. Para calcular la desviación estándar basta con hallar la
raíz cuadrada de la varianza, por lo tanto su ecuación sería:
Ecuación 5-8
Para comprender el concepto de las medidas de distribución vamos a suponer que
el gerente de una empresa de alimentos desea saber que tanto varían los pesos
de los empaques (en gramos), de uno de sus productos; por lo que opta por
seleccionar al azar cinco unidades de ellos para pesarlos. Los productos tienen los
siguientes pesos (490, 500, 510, 515 y 520) gramos respectivamente.
Por lo que su media es:
La varianza sería:
Por lo tanto la desviación estándar sería:
Con lo que concluiríamos que el peso promedio de los empaques es de 507
gramos, con una tendencia a variar por debajo o por encima de dicho peso en 12
gramos. Esta información le permite al gerente determinar cuanto es el promedio
de perdidas causado por el exceso de peso en los empaques y le da las bases
para tomar los correctivos necesarios en el proceso de empacado.
Media cuadrática
La media cuadrática es igual a la raíz cuadrada de la suma de los cuadrados de
los valores dividida entre el número de datos:
Esta media como medida de asociación tiene aplicaciones tanto en ciencias
biológicas como en medicina.
A veces la variable toma valores positivos y negativos, como ocurre, por ejemplo,
en los errores de medida. En tal caso se puede estar interesado en obtener un
promedio que no recoja los efectos del signo. Este problema se resuelve,
mediante la denominada media cuadrática. Consiste en elevar al cuadrado todas
las observaciones (así los signos negativos desaparecen), en obtener después su
media aritmética y en extraer, finalmente, la raíz cuadrada de dicha media para
volver a la unidad de medida original.
Otras medias estadísticas son la media aritmética, la media ponderada, media
cuadrática, media generalizada, media armónica y la media aritmética
geométrica.
Media aritmética
La media aritmética o promedio, de una cantidad finita de números, es igual a la
suma de todos ellos dividida entre el número de sumandos. Es uno de los
principales estadísticos muestrales.
Expresada de forma más intuitiva, podemos decir que la media (aritmética) es la
cantidad total de la variable distribuida a partes iguales entre cada observación.
Por ejemplo, si en una habitación hay tres personas, la media de dinero que tienen
en sus bolsillos sería el resultado de tomar todo el dinero de los tres y dividirlo a
partes iguales entre cada uno de ellos. Es decir, la media es una forma de resumir
la información de una distribución (dinero en el bolsillo) suponiendo que cada
observación (persona) tendría la misma cantidad de la variable.
También la media aritmética puede ser denominada como centro de gravedad de
una distribución, el cual no es necesariamente la mitad
Definición
Dados los n números a1,a2, ... , an, la media aritmética se define simplemente
como:
Por ejemplo, la media aritmética de 8, 5 y -1 es igual a:
La X, con una barra horizontal sobre el símbolo para medias de una muestra (
), mientras que la letra µ (mu) se usa para la media aritmética de una población, es
decir, el valor esperado de una variable.
Otras medias estadísticas son: la media geométrica, la media armónica, la media
cuadrática, la media ponderada, la media aritmética, la media aritmética
geométrica y la media generalizada.
Propiedades

La media aritmética de un conjunto de números positivos siempre es igual o
superior a media geométrica:
3)
Distribución de Poisson
En teoría de probabilidad y estadística, la distribución de Poisson es una
distribución de probabilidad discreta. Expresa la probabilidad de un número k de
eventos ocurriendo en un tiempo fijo si estos eventos ocurren con una tasa media
conocida, y son independientes del tiempo desde el último evento.
La distribución fue descubierta por Siméon-Denis Poisson (1781–1840) que
publicó, junto con su teoría de probabilidad, en 1838 en su trabajo Recherches sur
la probabilité des jugements en matières criminelles et matière civile
("Investigación sobre la probabilidad de los juicios en materias criminales y
civiles"). El trabajo estaba enfocado en ciertas variables aleatorias N que cuentan,
entre otras cosas, un número de ocurrencias discretas (muchas veces llamadas
"arribos") que tienen lugar durante un intervalo de tiempo de duración
determinada. Si el número esperado de ocurrencias en este intervalo es λ,
entonces la probabilidad de que haya exactamente k ocurrencias (siendo k un
entero no negativo, k = 0, 1, 2, ...) es igual a:
dónde




e es el base del logaritmo natural (e = 2.71828...),
k! es el factorial de k,
k es el número de ocurrencias de un evento,
λ es un número real positivo, equivalente al número esperado de
ocurrencias durante un intervalo dado. Por ejemplo, si los eventos ocurren
de media cada 4 minutos, y se está interesado en el número de eventos
ocurriendo en un intervalo de 10 minutos, se usaría como modelo una
distribución de Poisson con λ = 2.5.
Por ejemplo, si 2% de los libros encuadernados en cierto taller tiene
encuadernación defectuosa, obtener la probabilidad de que 5 de 400 libros
encuadernados en este taller tengan encuadernaciones defectuosas.
Su media y su varianza son:
Como una función de k, ésta es la función probabilidad de masa. La distribución
de Poisson puede ser vista como un caso limitante de la distribución binomial, es
decir, que una distribución binomial en la que
y
se puede
aproximar por una distribución de Poisson de valor
La distribución Poisson es también llamada Poissoniana, análogamente al término
Gaussiana para una distribución de Gauss o distribución normal.
Ocurrencia
La distribución Poisson, Se aplica a varios fenómenos discretos de la naturaleza
(esto es, aquellos fenómenos que ocurren 0, 1, 2, 3, ... veces durante un periodo
definido de tiempo o en una área determinada) cuando la probabilidad de
ocurrencia del fenómeno es constante en el tiempo o el espacio. Ejemplos de
estos eventos que pueden ser modelados por la distribución Poisson incluyen:










El número de autos que pasan a través de un cierto punto en una ruta
(suficientemente distantes de los semáforos) durante un periodo definido de
tiempo.
El número de errores de ortografía que uno comete al escribir una única
página.
El número de llamadas telefónicas en una central telefónica por minuto.
El número de servidores web accedidos por minuto.
El número de animales muertos encontrados por unidad de longitud de ruta.
El número de mutaciones de determinada cadena de ADN después de
cierta cantidad de radiación.
El número de núcleos atómicos inestables que decayeron en un
determinado periodo de tiempo en una porción de sustancia radiactiva. La
radiactividad de la sustancia se debilitará con el tiempo, por lo tanto el
tiempo total del intervalo usado en el modelo debe ser significativamente
menor que la vida media de la sustancia.
El número de estrellas en un determinado volumen de espacio.
La distribución de receptores visuales en la retina del ojo humano.
La inventiva de un inventor a través de su carrera.
Propiedades

El valor esperado de una variable aleatoria con distribución Poisson es igual
a λ y también lo es su varianza. Los momentos más altos de la distribución
Poisson son polinomios de Touchard en λ cuyos coeficientes tienen un
sentido combinatorio. De hecho, cuando el valor esperado de la distribución
Poisson es 1, entonces la fórmula de Dobinski dice que el enésimo
momento iguala al número de particiones de tamaño n.

Las medidas de tendencia central de una variable aleatoria de distribución
Poisson con un λ no entero es igual a (o suelo de λ), el cual es el número
entero más grande menor o igual a λ. Esto también es expresado como la
función parte entera de λ. Cuando λ es un entero positivo, las medidas de
tendencia central son λ y λ − 1.

Sumas de las variables aleatorias de distribución Poisson:
Si
sigue una distribución Poisson con parámetro
y Xi son
independientes entonces
también sigue
una distribución Poisson cuyo parámetro es la suma de los parámetros del
componente.

La función generadora de momentos de la distribución Poisson con valor
esperado λ es:

Todas las acumulaciones de la distribución Poisson son iguales al valor
esperado λ. El enésimo momento factorial de la distribución Poisson es λn.

La distribuciones Poisson son funciones probabilísticas infinitamente
divisibles.

La divergencia Kullback-Leibler dirigida entre Poi(λ0) y Poi(λ) está dada por:

Cuando λ tiende a infinito, podemos aproximar a una distribución normal.
Por ello, podemos tipificar ya que conocemos cual es la media y varianza
de una Poisson.
X˜Po(λ)˜N(λ,λ)
Tipificando:
Y˜N(0,1)
Distribución uniforme para variable aleatoria discreta
Su distribución de probabilidad es en el caso discreto con valores posibles
Su función de distribución es en el caso discreto:
Su media estadística es:
Su varianza es:
Ejemplos para variable aleatoria discreta

Para un dado perfecto todos los resultados tienen la misma probabilidad
Luego, la probabilidad de que al lanzarlo caiga 4 es
.
.

Para una moneda balanceada, todos los resultados tienen la misma
probabilidad
. Luego, la probabilidad de que al lanzarla caiga cara es
.
Distribución uniforme para variable aleatoria continua
Se dice que una variable aleatoria
continua tiene una distribución uniforme en el
intervalo
si la función de densidad de probabilidad (FDP) es
La función de distribución en el caso continuo entre
y
es
Su media estadística es:
Su varianza es:
Proposición:
Si
es una variable aleatoria continua, entonces para cualquier número
, además para cualesquiera dos números y con
,
,
Es decir, la probabilidad asignada a cualquier valor particular es cero, y la
probabilidad de un intervalo no depende de si cualquiera de sus puntos finales
está incluido.
Ejemplo para variable aleatoria continua
La tecla RANDOM de la calculadora arroja números al azar entre cero y uno. La
distribución de esos números simula ser una distribución uniforme continua entre 0
y 1.
Función de distribución acumulada para variable aleatoria continua
La función de distribución acumulada
para una variable aleatoria
está definida para cualquier número
por
Para cada
,
aumenta suavemente a medida que
continua
aumenta
Distribución binomial
En estadística, la distribución binomial es una distribución de probabilidad
discreta, mide el número de éxitos en una secuencia de n ensayos independientes
de Bernoulli, con una probabilidad fija p de ocurrencia del éxito entre los ensayos.
Experimento Binomial
La variable aleatoria binomial y su distribución están basadas en un experimento
que satisface las siguientes condiciones:




El experimento consiste en una secuencia de n ensayos, donde n se fija
antes del experimento.
Los ensayos se realizan bajo idénticas condiciones, y cada uno de ellos
tiene únicamente dos posibles resultados, que se denotan a conveniencia
por éxito (E) o fracaso (F) (p(E)+p(F)=1).
Los ensayos son independientes, por lo que el resultado de cualquier
ensayos en particular no influye sobre el resultado de cualquier otro intento.
La probabilidad de éxito es idéntica para todos los ensayos.
Siguiendo estas premisas, la variable aleatoria binomial X está definida como
X = "número de E entre los n intentos"
X se distribuye como una Binomial de parámetros n y p.
X˜Bi(n,p)
Características analísticas
Su función de probabilidad está dada por:
donde
, siendo
de en
las combinaciones de
en
(
elementos tomados
)
Propiedades características
E[X] = np
var[X] = npq
Relaciones con Otras variables aleatorias
Se verifica que si
son tales que cada una sigue una distribución
Bernouilli de parámetro , y todas ellas independientes entre sí, entonces
resulta ser una variable aleatoria con distribución binomial de parámetros
.
Además, si n es grande y es pequeño, de modo que el producto entre ambos
parámetros tiende a , entonces la distribución de la variable aleatoria binomial
tiende a una distribución de Poisson de parámetro
Por último, se cumple que cuando n es muy grande (n>=30) la distribución
binomial se aproxima a la distribución normal.
Propiedades reproductivas
Dadas n variables aleatorias
, tales que

todas tienen una distribución binomial
todas tienen el mismo parámetro
cada una tiene su propio parámetro
(es decir, los n no necesariamente
tienen que ser iguales)
son todas independientes entre sí

se toma la variable aleatoria




se toma
Entonces:
La variable aleatoria Y tiene una distribución Binomial, con parámetros
y
.
Por lo tanto, dadas n variables binomiales independientes, donde cada una tiene
su propio n pero todas tienen igual , su suma es también una variable binomial,
cuyo parámetro n es la suma de los n de las variables originales, y cuyo parámetro
coincide con el de las originales.
Distribución gaussiana
Cuando
es suficientemente grande y
no es demasiado pequeña, de manera
que
también sea grande, podemos utilizar la fórmula de Stirling para
aproximar
que es válida para
. Si tenemos en cuenta que
y
reemplazando en la distribución binomial, podemos escribir
Es sencillo demostrar que
desarrollar el exponente de
es máximo cuando
alrededor de
vale
son muy grandes,
. Podemos
, obteniendo
donde
. Como para
grande es chico, puede mostrarse que es
una buena aproximación descartar los términos de orden superior al segundo.
Recordando que
correctamente
y usando la condición de normalización para evaluar
, se obtiene
(2)
Ésta es la conocida distribución gaussiana, y tiene la particularidad de que queda
absolutamente determinada mediante
y
.
Distribución de probabilidad o Q(x)
En estadística, dada una variable aleatoria X, la distribución de probabilidad de
X es la función FX(x), que asigna a cada evento definido sobre X una probabilidad,
que está definida por:
y de manera que se cumplan las siguientes tres condiciones:
1.
y
2. Es continua por la derecha.
3. Es monótona no decreciente.
Para simplificar la notación, cuando no hay lugar a confusión se omite el subíndice
X, y se escribe simplemente F(x).
La función de distribución es la acumulada de la función de densidad de
probabilidad f(x). Es decir, se calcula directamente según:

Si x es una variable aleatoria discreta

Si x es una variable aleatoria continua
Propiedades
Para dos números reales cualesquiera a y b tal que (a < b), los sucesos
y
suceso
serán mutuamente excluyentes y su unión es el
, por lo que tenemos entonces que:
y finalmente
Por lo tanto una vez conocida la función de distribución F(x) para todos los valores
de la variable aleatoria x conoceremos completamente la distribución de
probabilidad de la variable.
Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y
sin embargo para ver una representación gráfica de la probabilidad es más
práctico el uso de la función de densidad.