Download 4.1 Introducción 4.2. Experimentos aleatorios

Document related concepts
no text concepts found
Transcript
4.
CONCEPTOS BASICOS DE PROBABILIDAD
4.1 Introducción
La probabilidad y la estadística son, sin duda, las ramas de las
Matemáticas que están en mayor auge en este siglo, y tienen una tremenda
aplicabilidad en todos los aspectos y ciencias, especialmente en las Ciencias
Sociales, puesto que aquellas variables que influyen en dichas ciencias,
económicas, demográficas, suelen tener carácter aleatorio, es decir, no son
deterministas, y se fundamentan en predicciones a partir de datos conocidos.
Todo aquello que implique predicción nos lleva al terreno de la probabilidad.
4.2. Experimentos aleatorios
En todos los aspectos de la vida a veces nos encontramos con
acontecimientos predeterminados, es decir, tales que podemos decir ,
previamente
el resultado de dichos acontecimientos antes de que
finalice o incluso de que comience. Tal es el caso de:
1. Tirar una piedra desde una cierta altura (sabemos que se caerá).
2. Calentar una olla con agua (sabemos que la temperatura del agua
se incrementara).
3. Lanzar
una pelota (sabemos que se va a mover, e incluso
conociendo
fuerzas
que
actúan
sobre
ella,
podemos
conocer
precisamente donde caerá).
Tales acontecimientos o experimentos de los que podemos
predecir
el
resultado
experimentos
experimentos,
antes
de
deterministas.
Sin
de
mayor
de
que
se
realicen
embargo,
interés
desde
se
Existe
el
denominan
otro
punto
tipo
de
de
vista
matemático, imaginemos que lanzamos un dado al aire (normal, de 6
41
caras y no trucado), no es posible predecir el resultado con exactitud.
Este es un experimento que no es determinista. A este tipo de
experimentos, en los cuales no se puede predecir el resultado antes
de realizar el experimento se les denomina experimentos aleatorios.
Otros ejemplos de experimentos aleatorios pueden ser: Tirar una
moneda al aire y observar qué lado cae hacia arriba, rellenar una
quiniela de fútbol, jugar una partida de póker y, en general, cualquier
juego en el que intervenga el azar.
4.3 Teoría de probabilidades
4.3.1 Definiciones básicas
La teoría de probabilidades se ocupa de asignar un cierto número a cada
posible resultado que pueda ocurrir en un experimento aleatorio, con el fin de
cuantificar dichos resultados y saber si un suceso es más probable que otro o
relaciones parecidas. Con este fin, introduciremos algunas definiciones. Si
realizamos un experimento aleatorio, llamaremos espacio muestral del
experimento
al
conjunto
de
todos
los
posibles
resultados
de
dicho
experimento. Al espacio muestral lo representaremos por A. A cada elemento
que forma parte del espacio muestral se le denomina suceso
o evento
elemental.
Ejemplo 4.1. ¿Cuál es el espacio muestral asociado al experimento de lanzar
un dado normal al aire y observar la cara que queda hacia arriba?.
Evidentemente,
en
este
caso
hay
6
posibles
resultados
(6
sucesos
elementales) y el espacio muestral estará formado por: A= {1, 2, 3,4, 5, 6}.
Ejemplo 4.2. ¿Y en el caso del lanzamiento de una moneda?, el espacio
muestral es A= {Cara, Cruz}
42
Llamaremos evento aleatorio a cualquier subconjunto del espacio
muestral. El concepto de evento es fundamental en probabilidad. Dicho de
forma simple, un evento de un experimento aleatorio es cualquier cosa que se
nos ocurra afirmar sobre dicho experimento. Así, si tiramos una moneda dos
veces, serian eventos todos los siguientes:
1. Sale al menos una cara.
2. Salen más caras que cruces.
3. La moneda cae de canto.
4. No sale ninguna cruz.
Llamaremos evento imposible al que no tiene ningún elemento y lo
representaremos por ∅. Llamaremos evento seguro al formado por todos los
posibles resultados (es decir, al espacio muestral). Llamaremos espacio de
eventos y lo representaremos por S, al conjunto de todos los eventos posibles
(aleatorios).
Ejemplo 4.3. En el caso del lanzamiento de la moneda en el que el espacio
muestral es A= {Cara, Cruz}, analicemos quién es el espacio de eventos:
- Eventos con 0 elementos: ∅
- Eventos con 1 elemento: {Cara},{Cruz}
- eventos con 2 elementos:{Cara, Cruz}
De modo que el espacio de eventos es: S= {∅, {Cara}, {Cruz}, {Cara,
Cruz}}.
4.3.2 Operaciones con eventos
Los eventos o sucesos son conjuntos, en consecuencia se pueden combinar
eventos para formar nuevos eventos, para el efecto se realizan diferentes
operaciones con conjuntos.
Dados dos sucesos, A y B, se llaman:
43
; (A unión B), es el evento que ocurre si y
Unión
sólo si A o B o ambos ocurren, es decir, el
evento formado por todos los elementos de A y
todos los elementos de B.
; (A intersección B), es el evento que
Intersección
ocurre
si
y
sólo
simultáneamente,
si
es
A
decir,
y
es
B
suceden
el
evento
formado por todos los elementos que son, a la
vez, de A y de B.
Diferencia
es el evento formado por todos los
elementos de A que no son de B.
(Complemento de A), es el evento que
Complemento
ocurre si y sólo si A no ocurre, es decir, el
evento A'=E – A se llama evento contrario de
A.
Disjuntos
A
∅
B
Dos eventos A y B, se llaman
incompatibles
cuando
no
tienen
ningún
elemento común. Es decir, cuando A y B son
disjuntos.
4.3.3 Asignación de probabilidades (Regla de Laplace).
Hay muchas maneras de asignar probabilidades. La más sencilla e
intuitiva la dio el matemático francés
Pierre Simón Laplace (1749-1827),
quién enunció la regla que lleva su nombre, Regla de Laplace. Si realizamos
un experimento aleatorio en el que hay n eventos elementales, todos
44
igualmente probables, entonces si A es un evento, la probabilidad de que
ocurra el suceso A es
( )
Ejemplo 4.4.
Lanzamos un dado normal al aire. Consideramos el evento
A=“sale par”, calcular la probabilidad de A, es decir p(A). Casos posibles son
6, E= E={1,2,3,4,5,6}, casos favorables suceso A={2,4,6}, por consiguiente
se tiene que
( )
(Nótese que la probabilidad siempre es un número positivo y menor, o a lo
sumo igual a 1). El inconveniente que plantea la definición de Laplace es que
necesariamente
los
eventos
elementales
tienen
que
tener
la
misma
probabilidad de ocurrir.
Observemos un caso tan sencillo como el siguiente:
Ejemplo 4.5. De una urna que contiene 8 bolas rojas, 5 amarillas y 7 verdes
se extrae una bola al azar. Calcular la probabilidad de que la bola extraída sea:
a) roja
b) verde
c) amarilla
El espacio muestral en este caso seria: E= {R, V, A}, que consta sólo de tres
elementos, pero seria un poco ingenuo asignar las probabilidades mediante la
regla de Laplace,
( )
( )
( )
porque, intuitivamente se ve que hay más posibilidades, por ejemplo, de que
salga una bola roja que de que salga una bola amarilla. Fue el matemático
ruso Kolmogorov quién precisó mejor las probabilidades a casos de este tipo,
45
4.3.4 Definición axiomática de probabilidad
Una probabilidad p es una función que asocia a cada evento A del espacio de
eventos
S, un número real p(A), es decir:
y que cumple las
propiedades:
1. 0 ≤ p(A) ≤ 1, (es decir, cualquier evento tiene probabilidad positiva y menor
o igual que 1).
2. p(S) = 1 (la probabilidad del suceso seguro es 1).
3. Si A y B son incompatibles, es decir A ∩ B = ∅, entonces p(A
B) = p(A) +
p(B). (es decir la probabilidad de la unión es la suma de las probabilidades si
los eventos tienen intersección vacía).
Ejemplo 4.5. Sea un experimento aleatorio cualquiera y definamos en S
(espacio de eventos) la siguiente probabilidad:
( )
Comprobemos que p es una probabilidad.
Para ello, comprobemos las tres propiedades:
a) Se ve que la probabilidad de cualquier suceso está entre cero y uno, puesto
que cualquier conjunto que tenga elementos ya tendrá probabilidad positiva, y
el número de elementos de cualquier conjunto no puede ser mayor que el
número total de elementos existentes.
b) p(S) = 1, es evidente.
c) Tomemos dos eventos A y B que no tengan elementos en común. Entonces:
(
(
)
)
46
(
)
( )
( )
puesto que si A y B no tienen elementos comunes, el número de elementos de
la unión es la suma de los elementos de cada conjunto por separado. Por tanto
se cumplen las 3 propiedades y p así definida es una probabilidad. Esta será la
definición de probabilidad que utilicemos a partir de ahora.
Ejemplo 4.6. Del ejemplo 4.4, de la urna, lo lógico es definir la probabilidad,
de la siguiente forma, como en total hay 20 bolas, donde 8 son rojas, 7 son
verdes y 5 son amarillas, la probabilidades de que la bola se Roja, o sea Verde
o sea Amarilla son las siguientes
( )
( )
( )
El lector puede comprobar que así definida p es una probabilidad.
Sin embargo, comprobar las propiedades de la definición de Kolmogorov
es una labor larga y engorrosa, puesto que hay que verificar que se cumple
para todos aquellos eventos del espacio de eventos S, que es ciertamente
amplio en muchas ocasiones. El siguiente resultado simplifica la tarea de
decidir cuándo una función p sobre el espacio de eventos es una probabilidad,
basándose sólo en los eventos elementales, es decir, aquellos que forman
parte del espacio muestral. Lo enunciaremos sin demostración:
Propiedad
Si
una función:
son n eventos elementales de un evento aleatorio cualquiera, p
de modo que cumplen las propiedades:
1. 0 ≤ p(wi) ≤ 1 ∀ i ∈ {1, 2, . . . ,n}
2. p(w1) + p(w2) + . . .+ p(wn) = 1
Entonces p es una probabilidad.
47
Ejemplo 4.7. Comprobar si las siguientes funciones definidas para los eventos
elementales son una función de
probabilidad, siendo E={a,b,c,d} el espacio
muestral del experimento aleatorio:
a) ( )
b)
( )
c) ( )
d) ( )
Es obvio que la primera propiedad se cumple, puesto que las 4 probabilidades
son números positivos menores que 1.
Para ver si se cumple la segunda, basta realizar la suma:
que evidentemente no es 1, luego p no es probabilidad.
Ejemplo 4.8 Ahora, si se definen las probabilidades como,
a) ( )
b)
( )
c) ( )
d) ( )
Es obvio que la primera propiedad se cumple, puesto que las 4
probabilidades son números positivos o cero o menores que 1. Para ver si se
cumple la segunda, basta realizar la suma:
luego p si es una función probabilidad.
48
Otras definiciones derivadas de la probabilidad
1. ( )
( )
(
)
En efecto, puesto que
y además A y
son incompatibles,
resulta por la propiedad (3) de la definición que
( )
(
( )
)
Y por la propiedad (2), p(S)=1, luego ( )
( )
( )=1 y por tanto
( )
( )
2.
Si
(∅)
∅, resulta que:
(∅)
( )
( )
3. Si A y B son dos eventos cualesquiera,
(
)
( )
( )
(
)
4. Si A, B y C son tres eventos cualesquiera,
(
)
( )
( )
( )
(
)
(
)
(
)
4.3.5 Reglas de probabilidad.
La probabilidad de un evento se denota con la letra
y se expresa en
términos de una fracción y no en porcentajes, por lo que el valor de
cae
entre 0 y 1. Por otra parte, la probabilidad de que un evento "no ocurra"
equivale a 1 menos el valor de
y se denota con la letra :
Los tres métodos para calcular las probabilidades son la regla de la
adición, la regla de la multiplicación y la probabilidad condicional.
4.3.5.1 Regla de la adición.
La regla de la adición o regla de la suma establece que la probabilidad de
ocurrencia de cualquier evento en particular es igual a la suma de las
probabilidades
individuales,
si
es
que
los
eventos
son
mutuamente
excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo. De aquí el;
49
(
)
( )
( )
( )
( )
Si A y B son mutuamente excluyentes.
(
)
( )
( )
(
Si A y B son no excluyentes. Siendo:
)
( ) = probabilidad de ocurrencia del evento A.
( ) = probabilidad de ocurrencia del evento B.
) = probabilidad de ocurrencia simultanea de los eventos A y B.
(
Ahora; si
es un evento cualquiera de un experimento aleatorio y
el complemento de
es
entonces:
( )
Es decir, la probabilidad de que el evento
( )
no ocurra, es igual a 1
menos la probabilidad de que ocurra.
4.3.5.2 Regla de la multiplicación.
La regla de la multiplicación establece que la probabilidad de ocurrencia de
dos o más eventos estadísticamente independientes es igual al producto de sus
probabilidades individuales.
(
)
(
)
( )
( )
Si A y B son independientes.
(
)
(
)
( )
( | )
Si A y B son dependientes.
4.3.5.3 Independencia y probabilidad condicional.
Dos eventos son independientes si la probabilidad de que ocurran ambos
simultáneamente es igual al producto de las probabilidades de que ocurra cada
uno de ellos, es decir, si
(
)
( )
( )
Definición
Sean
y
dos eventos tales que
independiente de
probabilidad de
si la probabilidad de
. Es decir si:
( | )
( )
, intuitivamente
condicionada por
es
es igual a la
( )
50
Y si
y
son dos eventos tales que
independiente de
probabilidad de
si la probabilidad de
( )
condicionada por
( | )
. Es decir si:
, intuitivamente
es
es igual a la
( )
Definición
Sean
y
dos eventos tales que
de A dado B es,
, la probabilidad condicionada
( )
(
( | )
Se deduce que
(
)
( )
( | ); y dado que si el evento de A es
( | )
independiente del evento de B, se tiene que
(
)
( )
)
( )
( ) y se deduce que
( ).
4.4 Variables aleatorias discretas.
Una variable
aleatoria discreta es una variable cuantitativa que
toma valores aislados, es decir no admite valores intermedios entre
dos valores específicos. Por ejemplo, El número de hermanos que
tienen 5 personas: {2, 1, 0, 1, 3}.
4.5 Variables aleatorias continuas.
Una variable aleatoria continua es una variable cuantitativa que
puede tomar valores comprendidos entre dos números. Por ejemplo,
La altura de 5 personas: 1.73, 1.82, 1.77, 1.69, 1.75.
4.6 Función de probabilidad.
Se llama función de probabilidad de una variable aleatoria
discreta
a la aplicación que asocia a cada valor de
variable su probabilidad
de la
.
∑
Ejemplo 4.9. Calcular la distribución de probabilidad de
las puntuaciones obtenidas al lanzar un dado (tabla 4.1). En la
figura 4.1 se puede ver la grafica de la distribución de probabilidad
de las probabilidades de la tabla 4.1.
51
Una distribución de probabilidad de una variable aleatoria
de pares ordenados ( ,
(si
es el conjunto
( )) donde ( ) es la función de probabilidad de
es discreta) o función densidad de probabilidad de
(si
es continua).
Una distribución de probabilidad puede estar dada por una tabla, una
gráfica o una expresión matemática (fórmula) que da las probabilidades con
que la variable aleatoria toma diferente valores.
1
2
3
4
5
6
7
∑
Tabla 4.1 Probabilidades de las puntuacio nes obtenidas al lanzar un dado
1/5
1/7
0
0
0
1
2
3
4
5
6
Figura 4.1 Gráfica de la funció n de probabilidad.
Ejemplo 4.10. Al lanzar un par de dados legales, sea
la variable aleatoria
que representa la suma de los puntos que aparecen en ambos dados. En la
52
tabla 4.2, se representan las probabilidades del experimento de lanzar dos
dados.
S
Valores de X : xi
(1,1)
2
(1,2) (2,1)
3
(1,3) (3,1) (2,2)
4
(1,4) (4,1) (2,3) (3,2)
5
(1,5) (5,1) (2,4) (4,2)
(3,3)
6
(1,6) (6,1) (2,5) (5,2)
(3,4) (4,3)
7
(2,6) (6,2) (3,5) (5,3)
(4,4)
8
(3,6) (6,3) (4,5) (5,4)
9
(4,6) (6,4) (5,5)
10
(5,6) (6,5)
11
(6,6)
12
Total:
Tabla 4.2 Probabilidades del experimento de lanzar dos dados
53
La gráfica de líneas para el ejemplo 4.10, esta en la figura 4.2.
Figura 4.2 Gráfica de líneas de la Distribución de Probabilidad de la variable aleatoria del ejemplo 4.5
Otro tipo de gráfica empleado para representar una función de
probabilidad es el histograma, que consiste en representar una función las
probabilidades como áreas (figura 4.3).
Figura 4.3 Histograma de la distribución del ejemplo 4.10
4.7 Función de densidad de probabilidades.
Una función de densidad de probabilidad es una función
es un intervalo (
cuyo dominio
) y que tiene las siguientes propiedades:
54
( )
(a)
por toda
( )
(b) ∫
Los gráficos de funciones de densidad de probabilidad pueden tomar
cualquier forma algunos ejemplos son:
Figura 4.4 Ejemplo de gráficos de densidad de probabilidad
a
b
a
b
a
b
Figura 4.5 La probabilidad e x tome un valor entre a y b es igual al área comprendida entre a y b.
Ejemplo 4.11. Si lanzamos una moneda legal y representamos por
el
número de ensayos realizados hasta que aparece por primera vez un águila,
entonces, el espacio muestra correspondiente es infinito, ya que hay un
número infinito de numerable de resultados, a saber, 1, 2, 2, 3, … De hecho,
significa que aparece un águila en el primer ensayo,
, indica que
primero se obtiene sol y en el segundo tiro, un águila, etc. Puesto que las
águilas
y
los
soles
son
igualmente
probables,
y
los
ensayos
son
independientes, tenemos que:
(
)
(
)
(
)
55
De esta manera, obtenemos la función de probabilidad:
( )
La distribución de probabilidad de X se puede expresar mediante una
tabla como se ve a continuación:
X
f(X)
1
1/2
2
1/4
3
1/8
4
1/16
5
1/32
Ejemplo 4.12. Se extraen dos tornillos al azar de un conjunto de 10
tornillos, cuatro de los cuales están defectuosos.
Encontrar y dibujar la función de probabilidad
aleatoria
( ) de la variable
.
Solución: Como hay 10 tornillos de los cuales 4 son defectuosos y se
extraen 2 tornillos al azar (sin reemplazo); entonces, el cardinal del espacio
muestra es
( )
(
)
y
toma los valores del 0 al 2 ya que al extraer
dos tornillos sólo puede ocurrir que no salga ningún defectuoso, un defectuoso
o dos defectuosos,
(
)
( )( )
{
} Las probabilidades respectivas son:
(
)
( )( )
(
)
( )( )
56
Distribución
de
Gráfica de líneas
Histograma
Probabilidad
( )
0
1
2
Figura 4.6 Distribución de probabilidad de la variable aleatoria del ejemplo 4.12
Ejemplo 4.13. La función densidad de probabilidad normal estándar se
define por:
( )
(
√
)
( )
( )
√
a
continuación se presenta su gráfica y podemos ver que es una curva suave y
continua, en lugar de una gráfica de líneas.
Figura 4.7 Función densidad normal estándar
4.8 Función de distribución acumulada.
Sea
una variable aleatoria discreta cuyos valores suponemos
ordenados de menor a mayor. Llamaremos función de distribución
de la variable
, y escribiremos
( )
(
( ) a la función:
)
La función de distribución asocia a cada valor de la variable
aleatoria x la probabilidad acumulada.
57
Ejemplo
acumulada
4.14.
Encuentre
los
valores
( ) de la variable aleatoria
Obsérvese que (
)
de
f(X)
F(X)
2
1/36
1/36
3
2/36
3/36
4
3/36
6/36
5
4/36
10/36
6
5/36
15/36
7
6/36
21/36
8
5/36
26/36
9
4/36
30/36
10
3/36
33/36
11
2/36
35/36
12
1/36
36/36
)
(
función
distribución
descrita en el ejemplo 4.10.
X
(
la
)
(
)
(
)
∑
( )
.
La gráfica de la función distribución acumulada de una variable discreta
es siempre una gráfica escalonada.
Figura 4.8 Función distribución para la variable aleatoria del ejemplo 4.10
58
Ejemplo 4.15. Halle los valores de la función distribución acumulada,
( ), de la variable aleatoria
del ejemplo 4.12. (Se extraen dos tornillos al
azar de un conjunto de 10 tornillos, cuatro de los cuales están defectuosos.)
( )
( )
0
1
2
Figura 4.9 Gráfica para función de distribución acumulada, del ejemplo 4.12
La distribución acumulada
( ) de una variable aleatoria continua
con
función de densidad ( ) es:
( )
(
)
∫
( )
(
)
Y su gráfica se muestra enseguida;
Figura 4.10 Gráfica para la función de distribución acumulada para una
continua
59
Las propiedades de la función distribución acumulada son:
I.
( )
∑ ( )
( )
II.
(
(
)
)
( )
(
III.
(̅
IV.
(
)
( )
( )
( )
∫
∑
( )
( )
∫
∑
( )
( )
)
)
(
)
(
)
(
)
4.9 Esperanza y varianza.
La esperanza o media matemática de la variable aleatoria
se define
como:
Donde
( )
∑
( )
( )
∫
( )
( )
La variancia de la variable aleatoria (
Donde
( )
∑(
( )
∫(
)
)
)
se define por:
( )
( )
( )
60
4.10 Teorema de Chebyshev.
El siguiente teorema, debido al matemático ruso Pafnuti L. Chebyshev
(1821-1894). Nos da un resultado que tiene una interpretación muy
interesante dentro del contexto de la estadística descriptiva, porque nos dice
que la desviación estándar de un conjunto de datos es realmente algo más que
una medida de dispersión; es una especie de “vara de medir” para la
distribución de datos. El resultado se enuncia como sigue:
TEOREMA DE CHEBYSHEV:
Dado un número
lo menos (
(
Si
mediciones
de las mediciones estará en ( ̅
)
Si
y un conjunto de
Si
)
(
y Si
)
̅
por
),
(
)
(
)
Ejemplo 4.16. Considere un conjunto de 200 números cuya media es
y su desviación estándar es
̅
. Puesto que (
)
, del teorema
de Chebyshev se tiene que al menos 150 (el 75%) de los números dados están
entre ̅
̅
.
Así mismo, al menos 178 (el 89%) de los números dados están entre ̅
̅
.
Ejercicios unidad 4
61