Download Variables Aleatorias Unidimensionales

Document related concepts
no text concepts found
Transcript
Variables Aleatorias Unidimensionales
Una variable aleatoria es un valor numérico asociado al resultado de un
experimento aleatorio. Toda variable aleatoria tiene asociada dos tipos de funciones: la
función de distribución y la función de densidad.
La función de distribución de una variable aleatoria [que llamaremos F(x)]
permite conocer cómo se reparte la probabilidad sobre los valores que toma la variable;
es una función que a cada número real x le asocia la probabilidad de que la variable
tome los valores menores o iguales que x. Formalmente: F(x) = Pr(w/-∞ ˂ X ≤ x) =
Pr(X ≤ x) donde x pertenece a los reales. Entonces F(x) representa la probabilidad
acumulada hasta el punto x.
F(x) debe satisfacer ciertas condiciones:
 F(x) es una función monótona no decreciente (esto lo verificamos derivando a la
función y viendo si es positiva en todo su dominio).
 F(-∞) = 0 (tomar límite con x tendiendo a -∞)
 F(∞) = 1 (tomar límite con x tendiendo a ∞)
 F(x) es continua por la derecha.
De estas condiciones se desprenden las siguientes propiedades:
1. Pr(X ≤ b) = F(b)
2. Pr(a ˂ X ≤ b) = F(b) – F(a)
Existen tres tipos de variables aleatorias: discretas, continuas, mixtas.
Variables aleatorias discretas: una variable aleatoria X se dice que es discreta si el
conjunto de valores que toma con probabilidad no nula (dominio) es finito o infinito
numerable. La probabilidad con que la variable toma cada uno de los posibles valores:
Pr(Xi = xi) con i= 1,2,3,….,n,… se le denomina función de densidad discreta o función
de cuantía; y cumple las siguientes dos propiedades: 1) 0 ≤ Pr(X=x i) ≤ 1;
2) Σ Pr(X=xi) = 1. Es importante entender que las probabilidades son puntuales, o sea
que la probabilidad pertenece a un punto dado de x.
A partir de la función de densidad se puede obtener fácilmente la función de
distribución, sin más que acumular las correspondientes probabilidades; recíprocamente
se puede obtener la función de densidad a partir de la función de distribución sin más
que restar la función de distribución de dos valores consecutivos.
Variables aleatorias continuas: una variable aleatoria X se dice que es continua se
puede tomar (con probabilidad no nula) los infinitos valores de un intervalo; en este
caso, la probabilidad puntual es cero; en este tipo de variables sólo tiene sentido calcular
probabilidades de intervalos de valores. La función de de distribución se puede expresar
como la integral de una determinada función f(x), llamada función de densidad, de
modo que: F(x) = Pr(X ≤ x) = ∫-∞x f(t) dt. Si f(x) es continua, tenemos la relación:
(d/dx) F(x) = f(x).
La función de densidad tiene que cumplir las siguientes condiciones: 1) es no
negativa: f(x) ≥ 0 para todo x perteneciente a los reales, 2) la integral en toda la recta es
igual a la unidad: ∫-∞∞ f(x) dx = 1.
Podemos nombrar algunas propiedades:
1. Pr(a ˂ X ≤ b) = F(b) – F(a) = ∫ab f(x) dx
2. Pr(X ˃ a) = 1 – Pr(X ≤ a) = ∫a∞ f(x) dx
3. Pr( X ≤ b) = F(b) = ∫-∞b f(x) dx = 1 - ∫b∞ f(x) dx
Variables aleatorias mixtas: una variable aleatoria X tiene una distribución mixta si
tiene una parte continua y otra discreta. Es decir, existe una función f(.) y un conjunto
de números reales xi con probabilidades Pr(X = xi) ˃ 0 , i ≥ 1 tales que para cada A
contenido en los reales se verifica: Pr(X ϵ A) = ∫A f(x) dx + ΣA Pr(X = xi)
Características de las variables aleatorias
Esperanza matemática: sea X una variable aleatoria discreta que toma los valores
X={x1,x2,……} con probabilidades Pr(X=xi), i=1,2,…. Llamaremos media, esperanza
matemática o valor esperado de X, a la cantidad:
E(X) = Σ xi Pr(X=xi),
siempre que la serie anterior sea absolutamente
convergente. Si X es una variable aleatoria continua con función de densidad f(x), la
media, esperanza matemática o valor esperado se define como:
E(X) = ∫ x f(x) dx,
siempre que el valor de la integral sea finito.
Cuando la serie o integral que definen la esperanza son divergentes, es decir, con
valor infinito, se dice que la variable X no tiene esperanza, o que X no presenta una
regularidad media.
Una propiedad interesante es: sea X una variable aleatoria continua y positiva
con función de distribución F(x) y media finita, entonces la esperanza matemática se
puede obtener de forma alternativa por medio de la expresión:
E(X) = ∫0∞ [1-F(x)] dx
Además tenemos las siguientes propiedades:
1. La media es el centro de gravedad de la variable: E(X – E(X)) = 0
2. La media es un operador lineal (principio de superposición):
E(a+bX) = a + b E(X)
E[g(X) + h(X)] = E(g(X)) + E(h(X))
3. Si a ≤ g(x) ≤ b, para todo x, entonces a ≤ E(g(X)) ≤ b
4. Si X es una variable aleatoria simétrica respecto de c (es decir, su función de
densidad verifica f(x+c) = f(c-x), para cualquier valor de x) entonces E(X) = c,
siempre que exista la correspondiente serie o integral.
5. Sean X e Y dos variables aleatorias independientes, entonces:
E(XY) = E(X) E(Y)
La expresión de E(X) en el caso que X sea una v.a. discreta, este valor es la media
ponderada de los posibles valores que puede tomar la variable X, en donde los pesos o
ponderaciones son las probabilidades, Pr(xi), de ocurrencia de los posibles valores de X.
Luego el valor esperado de X se interpreta como una media ponderada de los posibles
valores de X, y no como el valor que se espera que tome X, pues puede suceder que
E(X) no sea uno de los posibles valores de X. De cualquier manera, el valor de la
esperanza debe estar contenido en el Dominio de la variable. En el caso de v.a.
continua, E(X) nos indica el centro de la función de densidad, es decir, nos indica el
centro de gravedad de la distribución.
Paradoja de San Petersburgo
La idea de esperanza matemática estuvo ligada en sus comienzos con los juegos
de azar. Puntualmente, la gente se preguntaba cuánto debería pagar una persona (o
estaría dispuesta a pagar) para participar en un juego de azar; la esperanza
matemática era usada entonces como el valor esperado de ganancia al jugar el juego
repetidas veces, y por lo tanto ese sería el precio que cualquiera estaría dispuesto a
pagar para jugar.
Daniel Bernoulli (matemático suizo, 1700-1782) planteó el siguiente juego para
demostrar que no siempre la esperanza podía ser usada de esa manera. El problema es
el siguiente: se arroja una moneda equilibrada al aire hasta que aparezca cara; el
apostador recibe 2^n pesos si la primera cara aparece en la tirada n. Si lo planteamos
matemáticamente y tomamos esperanza:
E(X) = Σ1∞ (1/2)^i 2^i = ∞. Entonces la ganancia esperada es infinita, y son
embargo nadie estaría dispuesto a pagar esa suma para entrar en el juego.
Varianza: es una medida de dispersión y permite estudiar la representatividad de la
media. Es una medida que da cuenta de cómo están concentrados los valores de la
variable alrededor de su media. Para tal fin parecería una posibilidad, considerar las
diferencias entre los valores de la variable y el valor esperado, para luego calcular el
valor medio de tales diferencias; pero si recordamos la propiedad 1 de la esperanza,
vimos que este resultado da 0 porque se compensan los valores que sobrepasan la media
con aquellos que están por debajo de dicho valor; para solucionar este problema,
elevamos al cuadrado la diferencia:
Var(X) = E [X – E(X)]^2 = E(X^2) – [E(X)]^2
(se comprueba la igualdad al
desarrollar el cuadrado).
Llamamos desvío típico a la raíz cuadrada de la varianza, y se expresa por: σ(x).
Es importante tener en cuenta que la varianza no tiene la misma medida de unidad que
la variable, sino que es esa medida al cuadrado; mientras que el desvío trabaja con la
misma unidad que la variable.
La varianza verifica las siguientes propiedades:
1. La varianza es siempre no negativa, Var(X) ≥ 0. Además: Var(X) = 0 sii X =c
donde c es una constante.
2. Sea Y=a+bX, entonces
Var(Y) = b^2 Var(X);
σ(y) = |b| σ(x)
3. Si X es una variable aleatoria con media E(X) y varianza Var(X) y definimos la
variable tipificada como: Z= [X – E(X)] / σ(x), se verifica que E(Z) = 0 y
Var(Z)=1.
4. Sean X e Y dos variables independientes, entonces Var(X + Y) = Var(X) +
VAR(Y). Además, Var(X – Y) = Var(X) – Var(Y).
Coeficiente de variación: La varianza es una medida de dispersión que está
influenciada por el tamaño de los valores de dicha variable y por la media. Para evitar
esta influencia damos una medida relativa de dispersión que exprese la dispersión de la
variable respecto del tamaño de la variable, midiendo el tamaño de la variable por su
valor esperado. Esta medida de dispersión es el coeficiente de variación:
CVx = σ(x) / E(X)
Este coeficiente de variación expresa la dispersión de una v.a. respecto a su media y es
muy útil para comparar dos distribuciones de probabilidad.
Momentos: Los momentos nos proporcionan información sobre las propiedades de la
distribución de la variable aleatoria. Nos permitirán hacer comparaciones de dos
distribuciones y determinar cuál es más dispersa respecto a la media, o cuál es más
apuntada, etc. Proporcionan valores numéricos sobre características de la distribución de
una v.a. Si bien los momentos pueden definirse alrededor de cualquier punto de
referencia, generalmente se definen alrededor del cero o la media.
Dada una variable aleatoria X, se denomina momento absoluto de orden r con
respecto al origen (o momento de orden r no centrado) a la cantidad:
αr = E (X^r), r =1,2,…….
Se denomina momento central del orden r con respecto a la media a:
μr = E [X – E(X)]^r , r = 1,2,……
Según estas definiciones, la esperanza matemática es el momento absoluto de
orden 1, y la varianza el momento centrado de orden 2.
Medidas de forma: las medidas de forma de una variable aleatoria aportan información
sobre el aspecto de la función de densidad. Se denominan coeficientes de asimetría y
curtosis a las cantidades:
γ1 = μ3 / σ3
γ2 = μ4 / σ4
respectivamente.
Si una variable aleatoria es simétrica, entonces γ1 = 0; distribuciones con γ1 ˃ 0 se dice
que presentan asimetría positiva, y distribuciones con γ1 ˂ 0 asimetría negativa. La
distribución normal verifica que γ2 = 0; distribuciones de este tipo se las denomina
mesocúrticas, mientras que si γ2 ˂ 0 son platicúrticas y si γ2 ˃ 0 son leptocúrticas
(generalmente se las denomina medidas de asimetría y apuntamiento). Es importante
destacar que ambos coeficientes son invariantes frente a cambios de escala y origen.
Cuantiles: el cuantil de orden p es aquel valor de la distribución que deja a la izquierda
una probabilidad acumulada de p. El p-cuantil xp verifica la relación:
Pr(X ˂ xp) ≤ p ≤ Pr(X ≤ xp).
De este modo, si F es una función de
distribución continua, el p-cuantil xp se obtiene fácilmente como la solución en xp de la
ecuación:
F(xp) = p,
es decir, xp = F^-1 (p), donde F^-1 es la función inversa de
distribución.
Los cuarteles son los p-cuantiles de órdenes 0.25, 0.5 (mediana), y 0.75.
Moda: la moda de una variable aleatoria corresponde al valor de máxima probabilidad.
La moda no tiene porqué existir y puede no ser única. En el caso discreto la moda
corresponde al valor o valores con mayor probabilidad; en el caso continuo, la moda se
obtiene calculando el máximo de la función de densidad (primera derivada igualada a 0,
segunda derivada menor a 0).
Teorema de Markov y Desigualdad de Tchebyshev
Dada una variable aleatoria X con media E(X) y desvío σ (desconociendo la
distribución de la variable), los intervalos centrados en E(X) de amplitud 2kσ con k˃0,
concentran una gran parte de la probabilidad de la variable. Los siguientes teoremas
permiten obtener cotas (pisos) para estas probabilidades.
Teorema de Markov: Sea X una variable aleatoria positiva y r, e constantes positivas.
Se verifica entonces que:
Pr(X ≥ e) ≤ E(X^r) / e^r
Desigualdad de Tchebyshev: Sea X una variable aleatoria con media E(X) y varianza
σ^2 finita. Entonces, para cada e ˃ 0 se tiene que:
Pr(|X – E(X)| ≥ e) ≤ (σ^2 / e^2).
Además se verifica que para cada k ˃ 0:
Pr[E(X) – kσ ˂ X ˂ E(X) – kσ] ≥ 1 – (1 / k^2)
Entonces el intervalo [E(X) – 2kσ; E(X) + 2kσ] contiene al menos el 75% de
probabilidad y el intervalo [E(X) – 3kσ; E(X) + 3kσ] contiene al menos el 88.9% de la
probabilidad.
Transformación de variables aleatorias
Sea X una variable aleatoria con función de distribución Fx(x). Sea Y = g(X)
una transformación (función) de X:
a) Si g es una función creciente en el soporte de X, entonces:
Fy(y) = Fx[g^-1(y)]
b) Si g es una función decreciente en el soporte de X y X es una variable aleatoria
continua:
Fy(y) = 1 – Fx[g^-1(y)]
Demostración: supongamos que g es creciente, entonces su función de distribución es
Fy(y) = Pr(Y ≤ y) = Pr[g(x) ≤ y] = Pr[X ≤ g^-1(y)] = Fx[g^-1(y)]
Pero es posible trabajar con la función de densidad de manera más simple. Sea X
una variable aleatoria continua con función de densidad fx(x) e Y = g(X), donde g es
una función monótona. Supongamos que f(x) es continua en el soporte de X y que g^1(y) tiene derivada continua; entonces la función de densidad de Y es:
f(y) = fx[g^-1(y)] |(d/dy) g^-1(y)|
Consideremos un ejemplo para entender mejor: Consideremos una variable aleatoria
de tipo continuo X con función de densidad fx(x) = exp(-x), x≥0; hallemos la función
de densidad de una nueva variable aleatoria Y = log(X).
La transformación y = log(x) es monótona creciente, puesto que d log(x)/dx =
1/x y es mayor que 0 para x˃0; la transformación inversa g^-1(y) es x=exp(y). Si
aplicamos la fórmula dada, tenemos:
fy(y) = fx[exp(y)] |exp(y)| = exp[y – exp(-y)], para -∞ ˂ y ˂ ∞.
Ejercicios
1) Sea X variable aleatoria continua de tipo exponencial con función de densidad:
f(x) = (1/λ) exp(-x/ λ), x ≥ 0. Obtener E(X).
2) Hallar la moda de la variable aleatoria continua X con función de densidad:
f(x) = x exp(-x), x ˃ 0.
3) Una compañía de seguros conoce que la distribución del coste de un
determinado siniestro se distribuye según una variable aleatoria continua con
función de densidad: f(x) = k / (1+x)^3 , 0 ˂ x ˂ ∞.
Hallar: a) el valor de
k; b) obtener la función de distribución y la probabilidad de que el coste de un
siniestro sea mayor que 1; c) hallar los cuartiles del coste del siniestro; d) coste
medio del siniestro.
4) El número de reclamaciones que recibe una compañía de seguros sobre un
determinado siniestro es una variable aleatoria discreta con función de cuantía
dada en la tabla. Hallar: a) media y desvío típico del número de reclamaciones;
b) probabilidad de los sucesos |X – μ| ≥ 2σ y |X – μ| ≥ 3σ, tanto de manera
exacta como aproximadamente (desigualdad de Tchebychev).
X
Pr(X=x)
0
0.12
1
0.35
2
0.21
3
0.16
4
0.09
5
0.05
6
0.02
5) Hallar la función de densidad de la variable aleatoria Y=5+X, si X tiene como
función de densidad la dada en el ejemplo de transformación de variables.
Rtas: 1)E(X) = λ
2) moda: x=1
3)a) k=-8/3; b) F(x) = 4/[3*(x+1)^2]
Pr(X˃1) = 2/3; c) primer cuartil: x=1/3 mediana: x=0.633 tercer cuartil: x=1.31;
d)E(X) = 0.1333
4) E(X)=0.28285714 σ=0.88478753 Pr(|X – μ| ≥ 2σ)=0.68
Pr(|X – μ| ≥ 3σ)=0.84
5) f(y) = exp(5-y)