Download Probabilidades Archivo

Document related concepts
no text concepts found
Transcript
04. PROBABILIDADES
SUCESOS Y ESPACIO MUESTRAL
Sucesos. Al definir los sucesos hablamos de las diferentes relaciones que pueden
guardar dos sucesos entre sí, así como de las posibles relaciones que se pueden
establecer entre los mismos. Vamos a ver ahora cómo se refleja esto en el cálculo de
probabilidades.
Suceso Elemental, hace referencia a cada una de las posibles soluciones que se
pueden presentar.
Suceso Compuesto, es un subconjunto de sucesos elementales.
-
Un suceso puede estar contenido en otro, entonces, la probabilidad del primer
suceso será menor que la del suceso que lo contiene.
-
Dos sucesos pueden ser iguales, en este caso, las probabilidades de ambos
sucesos son las mismas.
-
Intersección de sucesos, es aquel suceso compuesto por los elementos comunes
de los dos o más sucesos que se interceptan. La probabilidad será igual a la
probabilidad de los elementos comunes.
-
Unión de dos o más sucesos, la probabilidad de la unión de dos sucesos es igual
a la suma de las probabilidades individuales de los dos sucesos que se unen,
menos la probabilidad del suceso intersección
-
Sucesos incompatibles, la probabilidad de la unión de dos sucesos incompatibles
será igual a la suma de las probabilidades de cada uno de los sucesos (ya que su
intersección es el conjunto vacío y por lo tanto no hay que restarle nada).
-
Sucesos complementarios, la probabilidad de un suceso complementario a un
suceso (A) es igual a 1 - P(A)
-
Unión de sucesos complementarios, la probabilidad de la unión de dos sucesos
complementarios es igual a 1.
Un suceso puede estar contenido en otro, las posibles soluciones del primer suceso
también lo son del segundo, pero este segundo suceso tiene además otras soluciones
suyas propias.
1
Dos sucesos pueden ser iguales, esto ocurre cuando siempre que se cumple uno de
ellos se cumple obligatoriamente el otro y viceversa.
Unión de dos o más sucesos, la unión será otro suceso formado por todos los
elementos de los sucesos que se unen.
Intersección de sucesos, es aquel suceso compuesto por los elementos comunes de
dos o más sucesos que se interceptan.
Sucesos incompatibles, son aquellos que no se pueden dar al mismo tiempo ya que
no tienen elementos comunes (su intersección es el conjunto vacío).
Sucesos complementarios. Son aquellos que si no se da uno, obligatoriamente se
tiene que dar el otro. Existen dos tipos de fenómenos: Deterministas, que son aquellos
cuyos resultados se pueden predecir de antemano, y estocásticos o Aleatorios, que
son los que dependen del azar (no se pueden predecir). Se llama prueba al proceso
mediante el cual se obtiene un resultado. Y se llama experimento aleatorio a todo
fenómeno aleatorio.
Se llama suceso aleatorio a todo subconjunto del espacio muestral. Se llama suceso
elemental a un suceso unitario. Se llama espacio de sucesos al conjunto formado por
todos los sucesos, y se representa por  . Se llama suceso imposible al que no se
verificará nunca, y se representa por  . Se llama suceso seguro al que se verificará
siempre, y se representa por E.
Se dice que un subconjunto A   se ha realizado o se ha verificado cuando el
resultado de la prueba coincide con algún componente del subconjunto A. Se dice que
un suceso A implica a otro B cuando siempre que se verifica A, se verifica B: A  B.
Diremos que dos sucesos son iguales cuando A  B y B  A.
Álgebra de Boole

   

 A , B  A  B
A  B es el suceso que se verifica si y
sólo si se verifica uno de los dos.

   

 A , B  A  B
A  B es el suceso que se verifica cuando
se verifican los dos a la vez.
C
 

C
A  A
A C , complementario de A, es el suceso que
se verifica cuando no se verifica A.
2
Propiedades. Como las definiciones de unión, intersección y complementación de
sucesos son idénticas a las de los conjuntos, estas operaciones para sucesos cumplen
las mismas propiedades que para los conjuntos.
- Conmutativa: A  B = B  A
A B = B A
- Asociativa:
A  (B  C) = (A  B)  C
A  (B  C) = (A  B)  C
- Idempotente: A  A = A
A A = A
- Simplificación: A  (A  B) = A  B
A  (A  B) = A  B
- Distributiva:
A  (B  C) = (A  B)  (A  C)
A  (B  C) = (A  B)  (A  C)
- Existencia de elemento neutro: A   = A
A E = A
- Absorción:
A E = E
A  = 
C
C = E
- Complementación:
E =
- Involución:
(A C ) C = A
- Leyes de Morgan:
(A  B) C = A C  B C
(A  B) C = A C  B C
Un conjunto dotado con dos leyes de composición (operaciones) que cumple la
conmutatividad, distributividad, existencia de elemento neutro y existencia de
complementario, se llama álgebra de Boole.
Así pues, (  ;  ,  ) es un álgebra de Boole.
Dos sucesos se dicen incompatibles si A  B =  .
Un sistema completo de sucesos son n sucesos A 1 , A 2 , ......., A n que verifican las
dos siguientes condiciones A 1  A 2  ......  A n = E
A i  A j =  ,  i, j =
1, 2, ...., n, para i  j.
Suceso aleatorio. El espacio muestral del experimento que consiste en lanzar un dado
cuyas caras están numeradas del 1 al 6, E = (1, 2, 3, 4, 5, 6)).
Consideremos ahora algunos subconjuntos de E,
Salir par
Salir impar
Salir múltiplo de 3
A = (2, 4, 6)
B = (1, 3, 5)
C = (3, 6)
A todos estos subconjuntos de E se les llama sucesos
Ejemplo, Determinar el espacio muestral y el espacio de sucesos del experimento
aleatorio que consiste en lanzar una moneda y anotar el resultado de la cara superior.
Espacio muestral: E = (C, S)
Espacio de sucesos S = (Ø, (C ), (S), (C,S))
3
Ejemplo, Consideremos el experimento aleatorio que consiste en lanzar un dado de
quinielas y anotar el símbolo que aparece en la cara superior. Hallar el espacio
muestral y el espacio de sucesos.
Espacio muestral: E = (1, S, 2)
Espacio de sucesos S = (Ø, (1), (S ), (2), (1,S), (1,2), (2,S), (1,S,2))
Ejemplo, En el experimento que consiste en extraer una carta de una baraja española
consideremos el suceso A = "Salir figura". ¿Cuándo diremos que se ha realizado el
suceso A?
Decimos que se ha realizado el Suceso A, si al extraer una carta obtenemos
cualquiera de las cuatro sotas, o de los cuatro caballos o de los cuatro reyes. Si la
carta extraída no es ninguna de éstas, decimos que el suceso A no se ha realizado.
Sucesos elementales. Se llama sucesos elementales a los sucesos formados por un
solo punto muestral; es decir, por un solo resultado del experimento aleatorio
Sucesos compuestos. Se llama sucesos compuestos, a los sucesos formados por dos o
más puntos muéstrales; es decir, por mas de un resultado del experimento
Suceso cierto. Se llama suceso cierto, o suceso seguro, al que siempre se realiza. Es
evidente que el suceso cierto, estará formado por todos los resultados posibles del
experimento; es decir, coincide con el espacio muestral y por eso lo representaremos
también por la letra E.
Suceso imposible. Se llama suceso imposible, y se designa por un Ø, a un suceso que
no se realiza nunca. Recuérdese que cuando se formaba el espacio de sucesos S, de un
experimento aleatorio, aparecería siempre el suceso Ø, ese es precisamente el suceso
imposible.
Sucesos Complementarios. Consideremos el espacio muestral asociado al
lanzamiento del dado, E = (1, 2, 3, 4, 5, 6), y los siguientes sucesos A ="salir número
impar" = (1, 3, 5), Ā= "salir número par" = (2, 4, 6)
Los sucesos A y Ā son complementarios, ya que si se realiza A no se realiza Ā y si se
realiza Ā no se realiza A.
Dado un suceso cualquiera A del espacio de sucesos S, se llama suceso contrario del
suceso A a un suceso que se realiza cuando no se realiza A, y recíprocamente.
Operaciones con Sucesos
4
Unión de sucesos. Consideremos, en el experimento aleatorio el lanzamiento del
dado, cuyo espacio muestral es E = (1, 2, 3, 4, 5, 6), de los siguientes sucesos
A ="salir número par" = (2, 4, 6)
B ="salir número primo" = (2, 3, 5)
C ="salir número par o numero primo". Este suceso es C = (2, 3, 4, 5, 6). Y se llama
suceso unión de A y B. (observe que la unión se relaciona con el operador lógico O ó
 ). Dados dos sucesos Ay B de un mismo experimento aleatorio, llamamos suceso
unión de A y B al suceso que se realiza cuando se realiza A o B y se representa por
AUB
Intersección de sucesos. Sucesos incompatibles. Consideremos los sucesos A y B
A ="salir número par" = (2, 4, 6)
B ="salir número primo" = (2, 3, 5)
D ="salir número par y primo". Este suceso es:
D = (2)
Y se llama suceso de intersección de A y B. A∩B. Dados dos sucesos A y B de un
mismo experimento aleatorio, llamaremos suceso de intersección de A y B al suceso
que se realiza cuando se realizan simultáneamente los sucesos A y B. El suceso A∩B
esta formado por los puntos muestrales comunes a los sucesos A y B. Observe que la
intersección tiene mucha relación con el operador lógico Y -Λ.
Sucesos Incompatibles. En los ejemplos anteriores hemos visto que en algunas
ocasiones la intersección de dos sucesos es el suceso imposible. Cuando esto ocurre,
es decir, cuando es imposible que dos sucesos se realicen simultáneamente. Es decir,
datos dos sucesos Ay B de un mismo experimento aleatorio, se tiene que, Si A∩B =
Ø, entonces A y B son incompatibles.
Medida de Probabilidad. Si S es un espacio muestral, y A es evento, A S
definimos una medida de probabilidad P(A) como un número que asignamos al
evento A. Este número indica la probabilidad de que el evento A ocurra. Sea S un
espacio muestral, A un evento en S y P una medida de probabilidad. Lo siguientes
axiomas establecen las propiedades fundamentales de una medida de probabilidad:
Axioma 1. Para cualquier evento A S, P(A) 0.
Axioma 2. P(S) = 1.
Axioma 3. Para cualquier secuencia infinita de conjuntos disjuntos, A1, A2, … ,

 
donde Ai S, i = 1, 2,...., tenemos P  A i    P(A i )
 i 1  i 1
5
Ahora usaremos los axiomas de probabilidad para obtener resultados y reglas que nos
ayudarán a entender y usar la medida de probabilidad. Algunos de los resultados nos
pueden parecer obvios, sin embargo, el que se puedan demostrar a partir de los
axiomas nos da una indicación de su consistencia y de lo poderosos que resultan ser.
Teorema. P() = 0.
Prueba. Considera la secuencia infinita A1, A2, …, donde cada Ai = . Tenemos que
=, = y
  
i 1
Teorema. Para cualquier secuencia finita de conjuntos disyuntos, A1, A2,…, An
 n
 n
tenemos P  A i    P(A i )
 i 1  i 1
Teorema. Para cualquier evento A: P(Ac)=1-P(A).
Teorema. Para cualquier evento A: 0 P(A) 1.
Prueba. Sabemos que P(A) 0. Si P(A) > 1, entonces del Teorema 3, tenemos que
P(A c ) < 0, lo que contradice el Axioma 1. Por lo tanto, debemos tener que P(A) 1.
Teorema. Si AB entonces P(A)P(B).
Teorema. Para dos eventos cualquiera A, B tenemos P(AB)=P(A)+P(B)-P(A∩B)
Prueba. AB=(A∩Bc)(A∩B)(Ac∩B), por lo tanto P(AB) = P(A∩Bc) P(A∩B)
P(Ac∩B). También vemos que P(A) = P(A∩Bc) P(A∩B) y que P(B) = P(B∩Ac)
P(A∩B)
6
Axiomática del Espacio de probabilidades. Sigma – Algebra. Si  representa la
colección de todos los suceso y  el conjunto fundamental de probabilidad, se tiene
que
-
Para todo suceso A de los que constituyen  , entonces el complementario de A
es también elemento de  : A   A c 
-
Si A1,...,An son una sucesión numerable de sucesos en  , también es  A n 
-
 

n 1
Cuando se cumplen todas las proposiciones anteriores estamos frente a un Sigma –
Anillo o una Sigma – Algebra.
Teorema: Si A1,...,An es cualquier sucesión finita de sucesos en  , entonces,
n
 A k 
k 1
Teorema: El suceso seguro  siempre pertenece a 
Teorema: Si A1,...,An es una sucesión numerable cualquiera de sucesos de  ,

también,  A k 
k 1
De acuerdo con lo anterior, Si A1,...,An es una sucesión finita de sucesos cualesquiera,
entonces todas sus intersecciones todas pertenecen a 
Probabilidad: P es una función que se asigna a cada suceso A en  un número
P(A), al cual cumple:
P(A )  0
P ( )  1
 
 
P  A n    P ( A n )
 n 1
 n 1
este último caso los conjuntos deben ser disjuntos.
Teorema: P( )  0
Teorema: Si A1,...,An son n sucesos incompatibles cualesquiera, entonces, se tiene,
P(A1    A n )  P(A1 )      P(A n )
7
Teorema:
Para dos
sucesos
cualesquiera A
y B se
P(A  B)  P(A)  P(B)  P(A  B) , esto es, P(A  B)  P(A)  P(B)
Este teorema se puede generalizar para n sucesos
cumple
Teorema: Cuando se tiene que A  B , resulta que P(A)  P(B)
Teorema: Para un suceso cualquiera A, se cumple P(A )  1 . Usar que P()  1
Teorema: Para cualquier suceso X, P(Xc)=1-P(X), y P(X)=1-P(Xc).
La probabilidad mide la mayor o menor posibilidad de que se dé un determinado
resultado (suceso) cuando se realiza un experimento aleatorio. La probabilidad toma
valores entre 0 y 1 (o expresados en tanto por ciento, entre 0% y 100%). El valor
Cero corresponde al suceso imposible. El valor Uno corresponde al suceso seguro. El
resto de sucesos tendrá probabilidades entre cero y uno: que será tanto mayor cuanto
más probable sea que dicho suceso tenga lugar.
Medida de Probabilidad. Uno de los métodos más utilizados es aplicando la Regla
de Laplace, que define la probabilidad de un suceso como el cociente entre casos
favorables y casos posibles.
Definición. La probabilidad de un suceso A se calcula como el número de casos
favorables al suceso A, partido por el número de casos posibles del experimento
aleatorio:
p(A) 
casos favorables
casos posibles
P(A) = Casos favorables / Casos posibles
Para poder aplicar la Regla de Laplace el experimento aleatorio tiene que cumplir dos
requisitos:
- El número de resultados posibles (sucesos) tiene que ser finito. Si hubiera
infinitos resultados, al aplicar la regla casos favorables / casos posibles el cociente
siempre sería cero.
- Todos los sucesos tienen que tener la misma probabilidad. Si al lanzar un dado,
algunas caras tuvieran mayor probabilidad de salir que otras, no podríamos
aplicar esta regla.
Las Frecuencias. Cuando se realiza un experimento aleatorio un número muy
elevado de veces, las probabilidades de los diversos posibles sucesos empiezan a
converger hacia valores determinados, que son sus respectivas probabilidades. En
8
este modelo ya no será necesario que el número de soluciones sea finito, ni que todos
los sucesos tengan la misma probabilidad.
La idea intuitiva de probabilidad se basa en la llamada ley de los grandes números,
enunciada por Bernoulli: “La frecuencia relativa de un suceso tiende a estabilizarse
en torno a un número, a medida que el número de pruebas del experimento crece
indefinidamente”.
n
Es decir, si A es un suceso, podríamos hablar del Lím fr (A)  Lím A
n 
n  n
Este número al que la frecuencia relativa se acerca es lo que llamaremos la
probabilidad del suceso, se representará como P(A).
La probabilidad es una ley que asigna a cada suceso A   un número real
p:   
y que verifica:
A  P(A)
- P(A)  0 ,  A  
P(E) = 1
- si A y B son sucesos incompatibles, P(A  B) = P(A) + P(B)
Como consecuencia de estos tres axiomas, se verifican además las siguientes
propiedades:
- P(A C ) = 1– P(A)
- P(  ) = 0
- si A  B,  P(A)  P(B)
- P(A)  1,  A  
- si
A 1 , A 2 , ...... , A n son incompatibles dos a dos, entonces,
P(A 1  A 2  .....  A n ) = P(A 1 ) + P(A 2 ) + ..... + P(A n )
- si A, B   son dos sucesos cualesquiera, entonces, P(A  B) = P(A) + P(B) –
P(A  B)
La probabilidad de un suceso A es el cociente entre el número de casos favorables
al suceso y el número de casos posibles. Ejemplos,
Se considera un experimento aleatorio que consiste en lanzar un dado se pide la
probabilidad de obtener
a) Número impar
c) Múltiplo de 3
b) Número primo
d) Múltiplo de 5
Espacio muestral del experimento E = ( 1,2,3,4,5,6)
Luego el número de casos posibles es 6
9
Probabilidades
a) A= " obtener impar" = (1, 3, 5) → P(A) = 3/6
b) B= " obtener número primo" = (2, 3, 5) → P(B) = 3/6
c) C= " obtener múltiplo de 3" = (3, 6) → P(B) = 2/6
d) D ="obtener múltiplo de 5 " = (5) → P(D)= 1/6
Se realiza un experimento aleatorio que consiste en la extracción de una carta de una
baraja española. Se pide hallar las siguientes probabilidades
a) "Obtener un oro"
b) "Obtener un as"
El espacio muestral del experimento está formado por los 40 resultados posibles
correspondientes a cada una de las cartas de la baraja. A continuación formamos los
sucesos de los cuales nos piden estimar la probabilidad.
a) O = "Obtener un oro" = (1, 2, 3, 4, 5, 6, 7, S, C, R) → p (O) = 10/40 = 1/4
b) A = "Obtener un as" = (1E, 1C, 1B,10) → p (A) = 4/40 = 1/10
En este caso los subíndices son E =Espada, C = Copas, B = Bastos, O = Oro
Consideremos el experimento aleatorio que consiste en lanzar dos datos y anotar la
suma de los puntos de las caras superiores. Hallar la probabilidad de los siguientes
sucesos
a) Obtener suma de igual a 8
b) Obtener suma menor o igual a 4
Espacio muestral del experimento E= ((1,1),(1,2), (1,3),..,(2,2), (2,3),...,(6,1),...,(6,6))
Por tanto, el número de casos posibles de casos es 36
a) S8 = ((2,6), (3,5), (4,4), (5,3), (6,2))→ p (S8) = 5/36
b) S≤4= ((1,1), (1,2), (1,3), (2,1),(2,2),(3,1)) → p ( S≤4) =6/36 = 1/6
En otras palabras, con miras a dejar mayor claridad,
Definición axiomática de probabilidad. Sea : espacio muestral, P() conjunto de
las partes de 
esos, o álgebra de sucesos. Se define
probabilidad, o función de probabilidad, a cualquier función p: P() (es decir,
una regla bien definida por la que se asigna a cada suceso un, y un solo un, número
real) que cumpla los axiomas siguientes:
i) P(A)
 P()
ii) P(A1  A2  A3  ...) = P(A1) + P(A2) + P(A3) + ...
si Ai  Aj = 
 j (sucesos mutuamente excluyentes)
10
iii) P() = 1
A la estructura (, P(), p) se le denomina espacio de probabilidad.
Ejemplo, Para el experimento aleatorio de tirar un dado, el espacio muestral es 
{1, 2, 3, 4, 5, 6}. En este espacio el conjunto de sucesos es P() = {, {1}, {2},
número a todos esos sucesos.
Sin embargo si se ha asignado a los sucesos elementales P({1})= P({2})= ...=
P({6})= 1/6, por la propiedad ii), p.e. la probabilidad del suceso {1, 3} es P({1,3})=
P({1})+ P({3})=2/6.
Propiedades de la probabilidad. Demostraciones
1) P(Ac) = 1 - P(A)
Ac representa el suceso complementario de A, es decir el formado por todos los
resultados que no están en A.
2) A1 A2  P(A1) 
2)
3) P() = 0
4) P(A)  1
5) P(A  B) = P(A) + P(B) - P(A  B) (Regla general de la adicción)
Ejemplo, Un 15% de los pacientes atendidos en un hospital son hipertensos, un 10%
son obesos y un 3% son hipertensos y obesos. ¿Qué probabilidad hay de que elegido
un paciente al azar sea obeso o hipertenso?
A = {obeso} B = {hipertenso}
A  B = {hipertenso y obeso}
A  B = {obeso o hipertenso}
P(A) = 0,10; P(B) = 0,15; P(A  B) = 0,03
P(A  B) = 0,10 + 0,15 - 0,03 = 0,22
Axiomas de Probabilidades.
Si A y B son incompatibles, P(AUB) = P(A) + P(B)
Probabilidad del suceso contrario, P(Ā) = 1 - P(A
Probabilidad del suceso imposible, P(Ø) = 0
Probabilidad de todo el espacio muestral P(E)=1
Dependencia funcional e independencia. La relación entre las variables X e Y,
parte del objetivo de este capítulo y en general de un número importante de los
estudios de las Ciencias Sociales, puede ser más o menos acentuada, pudiendo llegar
ésta desde la dependencia total o dependencia funcional hasta la independencia.
Dependencia funcional. La dependencia funcional, que nos refleja cualquier fórmula
matemática o física, es a la que estamos normalmente más habituados.
11
Independencia. Hemos visto que la dependencia funcional implica una estructura
muy particular de la tabla bidimensional, en la que en todas las filas (o en todas las
columnas) existe un único elemento no nulo. Existe un concepto que de algún modo
es el opuesto a la dependencia funcional, que es el de independencia. Se puede
expresar de muchas maneras el concepto de independencia, y va a implicar de nuevo
una estructura muy particular de la tabla bidimensional, en el que todas las filas y
todas las columnas van a ser proporcionales entre sí.
Para enunciar lo que es la independencia de dos variables vamos a basarnos en el
siguiente razonamiento: Si la variable Y es independiente de X, lo lógico es que la
distribución de frecuencias relativas condicionadas Y / x i sea la misma que la de
Y / X 2 ,..., Y / x1 . Esto se puede escribir: Para todo j=1,…,p, se tiene que
f j1   f jk  f*j
Pues bien, diremos que la variable Y es independiente de X si la relación es
verificada. Hay otras formas equivalentes de enunciar la independencia: Cada una de
las siguientes relaciones expresa por si sola la condición de independencia. Cada una
de las siguientes relaciones expresa por sí sola la condición de independencia entre
las variables X e Y
n ij n * j
n1j n 2 j
n *j



n i* n **
n 1* n 2*
n **
f ij  f i* * f * j
n ij 
n i* * n * j
n **
Obsérvese que la relación implica que la independencia es siempre recíproca, es
decir, si X es independiente de Y, entonces Y es independiente de X.
Medias y varianzas marginales y condicionadas. Asociados a las distribuciones
marginales y condicionadas definidas en las secciones anteriores, podemos definir
algunos estadísticos de tendencia central o dispersión, generalizando los que vimos en
los capítulos dedicados al análisis de una variable. Las medias marginales de la
variable X e Y se definen del siguiente modo:
p
k
1 k
1 p
x
n
x

f
x
y

n
y

f *i y j
 i* i 
 *j j 
i* i
n ** i 1
n ** j1
i 1
j1
Las varianzas marginales respectivas son
12
k
1 k
2
n
(
x

x
)

f i* (x i  x) 2


i*
i
n ** i 1
i 1
s 2x 
s 2y 
p
1 p
2
n
(
y

y
)

f * j ( y j  y) 2


*j
j
n ** j1
j1
Para cada una de las p variables condicionadas X / Yi y Y / x j definimos sus
respectivas media condicionada y varianza condicionada mediante,
p
k

1 k
1 p

j
x

n
x

f
x
y

n
y

f ij y j
 j
 i




ij i
i i
ij j
n
n

i 1
j1
* j i 1
i* j1

k
1 k
1 k
s 2x j 
n ij ( x i  x j ) 2   f i j ( x i  x j ) 2 
n ij x i2  x 2j


n * j i 1
n * j i 1
i 1
s 2y j 
1
n i*
p
p
 n ij ( y i  y i ) 2   f ji ( y j  y i ) 2 
j1
j1
1
n i*
p
n
j1
ij
y 2j  xy 2j
Es interesante observar que podemos considerar que las n** observaciones de la
variable X han sido agrupadas en subgrupos, cada uno de ellos caracterizados por la
propiedad de que Y=yj para algún j=1,…,p. Las medias y varianzas marginales de las
variables X y Y se pueden escribir de modo equivalente como:
p
p
p
1 p
2
2
x   f*j x j 
n
x
s

f
s

f*j (x j  x) 2



*j j
x
*j x j
n ** j1
j1
j1
j1
k
y   f i* y i 
i 1
1 k
 n i* y i
n ** i 1
k
k
i 1
i 1
s 2y   f i*s 2y j   f i* ( y j  y) 2
PROBABILIDAD CONDICIONAL
En muchas ocasiones, la verificación o no de un suceso se estudia en función de otro
suceso de cuya verificación depende o del cual está condicionado. Se dice
probabilidad condicionada del suceso B respecto del suceso A, y se representa
P(A / B) 
P(A  B)
P(A)
P(A)  0
Ejemplo, se tira un dado y sabemos que la probabilidad de que salga un 2 es 1/6. Si
incorporamos nueva información (por ejemplo, alguien nos dice que el resultado ha
sido un número par) entonces la probabilidad de que el resultado sea el 2 ya no es 1/6.
P (B/A) es la probabilidad de que salga el número 2 (suceso B) condicionada a que
haya salido un número par (suceso A).
P(A  B). es la probabilidad de que salga el dos y número par. P(A) es la
probabilidad a priori de que salga un número par. Por tanto, P(A  B).) = 1/6 y P (A)
= ½, entonces, P (B/A) = (1/6) / (1/2) = 1/3. Luego, la probabilidad de que salga el
13
número 2, si ya sabemos que ha salido un número par, es de 1/3 (mayor que su
probabilidad a priori de 1/6).
Ejemplo, En un estudio sanitario se ha llegado a la conclusión de que la probabilidad
de que una persona sufra problemas coronarios (suceso B) es el 0,10. Además, la
probabilidad de que una persona sufra problemas de obesidad (suceso A) es el 0,25 y
la probabilidad de que una persona sufra a la vez problemas de obesidad y coronarios
(suceso intersección de A y B) es del 0,05. Calcular la probabilidad de que una
persona sufra problemas coronarios si está obesa (probabilidad condicionada P(B/A)).
P(A  B) = 0,05, o sea, P (A) = 0,25, entonces, P (B/A) = 0,05 / 0,25 = 0,20
Ejemplo, Una mujer es portadora de la enfermedad de Duchenne ¿Cuál es la
probabilidad de que su próximo hijo tenga la enfermedad?
Según las leyes de Mendel, todos los posibles genotipos de un hijo de una madre
portadora (xX) y un padre normal (XY) son xX, xY, XX, XY y tienen la misma
probabilidad. El espacio muestral es  = {xX, xY, XX, XY} el suceso A={hijo
enfermo} corresponde al genotipo xY, por tanto, según la definición clásica de
probabilidad P(A) = 1/4 = 0,25
La mujer tiene el hijo y es varón ¿qué probabilidad hay de que tenga la enfermedad?
Se define el suceso B = {ser varón} = {xY, XY} la probabilidad pedida es P(A/B) y
aplicando la definición anterior P(B) = 0,5; A  B = {xY}; P(A B) = 0,25; P(A/B)
= 0,25/0,5 = 0,5
Si sabemos que es varón, el espacio muestral ha cambiado, ahora es B. Por lo tanto se
puede calcular P(A/B) aplicando la definición clásica de probabilidad al nuevo
espacio muestral P(A/B) = 1/2 = 0,5
Ejemplo, Se sabe que el 50% de la población fuma y que el 10% fuma y es
hipertensa. ¿Cuál es la probabilidad de que un fumador sea hipertenso?
A = {ser hipertenso} B = {ser fumador} A  B = {ser hipertenso y fumador} P(A/B)
= 0,10/0,50 = 0,20
Obsérvese que los coeficientes falso-positivo y falso-negativo de las pruebas
diagnósticas son probabilidades condicionadas.
La fórmula anterior se puede poner P(A  B) = P(B) P(A/B) = P(A) P(B/A) llamada
regla de la multiplicación, que se puede generalizar a más sucesos P(A1  A2  A3)
= P((A1  A2)  A3) = P(A1  A2) P(A3/A1  A2) = P(A1) P(A2/A1) P(A3/A1  A2)
Sucesos independientes. Dos sucesos son independientes si y sólo si P(A  B) =
P(A) P(B). Si dos sucesos son independientes
14
P(A / B) 
P(A  B) P(A)  P(B)

 P( A )
P(B)
P(B)
y del mismo modo P(B/A) = P(B). Esta propiedad coincide más con la idea intuitiva
de independencia y algunos textos la dan como definición. Hay que notar, sin
embargo, que ambas definiciones no son estrictamente equivalentes.
Ejemplo, Para un hijo de una mujer portadora de Duchenne, el sexo y la enfermedad
¿son independientes?
Según vimos en el Ejemplo el espacio muestral es  = {xX, xY, XX, XY}
Definimos los sucesos A = {varón} = {xY, XY}; B = {enfermo} = {xY}
A  B = {xY} por lo tanto P(A) = 0,5; P(B) = 0,25; P(A  B) = 0,25  P(A) P(B)
NO son independientes.
Dos sucesos A, B   se dicen independientes si P(B) = P(B/A). Es decir, se
cumplirá que P(A)*P(B) = P(A  B). Si A y B son independientes, entonces A y Bc
son independientes, Ac y B son independientes, y Ac y Bc son independientes.
Probabilidad Compuesta. La probabilidad compuesta (o regla de multiplicación de
probabilidades) se deriva de la probabilidad condicionada. La probabilidad de que se
den simultáneamente dos sucesos (suceso intersección de A y B) es igual a la
probabilidad a priori del suceso A multiplicada por la probabilidad del suceso B
condicionada al cumplimiento del suceso A.
P( A  B)  P(B / A )  P( A )
En general P(A1  A2  A3 ...) = P(A1) P(A2/A1) P(A3/A1  A2) ... llamado
Principio de las probabilidades compuestas y especialmente útil para aquellas
situaciones en que las probabilidades condicionadas son más fáciles de obtener que
las probabilidades de las intersecciones.
Ejemplo, Se sabe por estudios previos que el 0,1% de la población tiene problemas
vasculares. Un estudio sobre individuos con problemas vasculares revela que el 20%
de ellos son placas de ateroma. Si el 10% de los individuos con placas de ateroma
está expuesto a muerte súbita por desprendimiento de trombos ¿qué probabilidad
tiene un individuo cualquiera de estar expuesto a muerte súbita por desprendimiento
de trombos de una placa de ateroma?
A1 = {problemas vasculares}; A2 = {placas de ateroma}; A3 = {expuesto a muerte
súbita por ....} P(A1) = 0,001; P(A2/A1) = 0,20; P(A3/A1  A2) = 0,1 P(A1 A2 
A3) = 0,001 x 0,20 x 0,1 = 0,000002
15
Ejemplo, Una urna contiene 10 bolas, de las cuales 3 son rojas, 5 verdes y 2 azules.
Se extraen al azar 3 bolas. Calcular la probabilidad de que la primera sea azul, y las
otras dos verdes.
Definimos A1 = {la 1ª bola es azul}; A2 = {la 2ª bola es verde}; A3 = {la 3ª bola es
verde} P(A1) = 2/10 aplicando la definición clásica de probabilidad, puesto que hay
10 bolas y 2 son verdes. P(A2/A1) = 5/9; si la primera bola extraída es azul, en la urna
quedan 9 bolas, 5 de ellas verdes. P(A3/A1  A2) = 4/8; si la primera bola extraída es
azul y la segunda verde en la urna quedan 8 bolas, 4 de ellas verdes. P(A1  A2 
A3) = 2/10 x 5/9 x 4/8 = 1/18
PROBABILIDAD TOTAL
Si A 1 , A 2 , ......., A n son un sistema completo de sucesos tal que P(A i )  0,
 i  1,....n , entonces la probabilidad de un suceso B cualquiera es:
P(B) = P(A1)*P(B/A1)+P(A2)*P(B/A2)+…+P(An)*P(B/An)
Ejemplo, Estudiamos el suceso A (porcentaje de varones mayores de 40 años
casados) y el suceso B (varones mayores de 40 años con más de 2 hijos) y obtenemos
la siguiente información: Un 35% de los varones mayores de 40 años están casados.
De los varones mayores de 40 años y casados, un 30% tienen más de 2 hijos (suceso
B condicionado al suceso A).
Calcular la probabilidad de que un varón mayor de 40 años esté casado y tenga más
de 2 hijos (suceso intersección de A y B). Por lo tanto, P (A) = 0,35, P (B/A) = 0,30
P(A  B) = 0,35 * 0,30 = 0,105. Es decir, un 10,5% de los varones mayores de 40
años están casados y tienen más de 2 hijos.
Ejemplo, Estudiamos el suceso A (alumnos que hablan inglés) y el suceso B
(alumnos que hablan alemán) y obtenemos la siguiente información: Un 50% de los
alumnos hablan inglés.
De los alumnos que hablan inglés, un 20% hablan también alemán (suceso B
condicionado al suceso A). Calcular la probabilidad de que un alumno hable inglés y
alemán (suceso intersección de A y B). Por lo tanto, P (A) = 0,50, y P (B/A) = 0,20
P(A  B) = 0,50 * 0,20 = 0,10, es decir, un 10% de los alumnos hablan inglés y
alemán.
El Teorema de la probabilidad total nos permite calcular la probabilidad de un suceso
a partir de probabilidades condicionadas,
P(B)  i1P( A i )  P(B / A i )
n
16
Es decir, la probabilidad de que ocurra el suceso B (en nuestro ejemplo, que ocurra un
accidente) es igual a la suma de multiplicar cada una de las probabilidades
condicionadas de este suceso con los diferentes sucesos A (probabilidad de un
accidente cuando llueve y cuando hace buen tiempo) por la probabilidad de cada
suceso A. Para que este teorema se pueda aplicar hace falta cumplir que Los sucesos
A tienen que formar un sistema completo, es decir, que contemplen todas las
posibilidades (la suma de sus probabilidades debe ser el 100%).
Ejemplo, En una urna hay papeletas de tres colores, con las siguientes probabilidades
de ser elegidas: a) Amarilla: probabilidad del 50%, b) Verde: probabilidad del 30%, y
c) Roja: probabilidad del 20%. Según el color de la papeleta elegida, podrás participar
en diferentes sorteos.
Así, si la papeleta elegida es: a) Amarilla: participas en un sorteo con una
probabilidad de ganar del 40%; b) Verde: participas en otro sorteo con una
probabilidad de ganar del 60%, o c) Roja: participas en un tercer sorteo con una
probabilidad de ganar del 80%.
Con esta información, ¿qué probabilidad tienes de ganar el sorteo en el que
participes?
Las tres papeletas forman un sistema completo: sus probabilidades suman 100%,
luego,
P (B) = (0,50 * 0,40) + (0,30 * 0,60) + (0,20 * 0,80) = 0,54
Por tanto, la probabilidad de ganar el sorteo es del 54%.
Probabilidad Total. Sea A1,..,An están incluidas en E, un sistema exhaustivo y
n
excluyente de sucesos. Entonces
B  E  P(B)   P(B / A i )  P(A i ) ,
i 1
tal como se puede observar en la figura: Si A1, A2, A3, A4 forma un sistema exhaustivo
y excluyente se sucesos, podemos calcular la probabilidad de B a partir de las
cantidades P(B  A i ) , o lo que es lo mismo, P(B / A i )  P(A i )
17
n
n


 n 
 n






P(B)  P(B  E)  P B    A   P  (BA )     P(A i )   P(B / A i )  P(A i )
i 
i  i 1


i 1
i 1
 i 1  



Ejemplo, Van a cambiar a tu jefe y se barajan diversos candidatos: a) Abe, con una
probabilidad del 60%, b) Ver, con una probabilidad del 30%, y c) Diego, con una
probabilidad del 10%.
En función de quien sea tu próximo jefe, la probabilidad de que te suban el sueldo es
la siguiente: a) Si sale Abe: la probabilidad de que te suban el sueldo es del 5%, b) Si
sale Ver: la probabilidad de que te suban el sueldo es del 20%, o c) Si sale Diego: la
probabilidad de que te suban el sueldo es del 60%.
En definitiva, ¿cual es la probabilidad de que te suban el sueldo?
Los tres candidatos forman un sistema completo
P (B) = (0,60 * 0,05) + (0,30 * 0,20) + (0,10 * 0,60) = 0,15
Por tanto, la probabilidad de que te suban el sueldo es del 15%.
Leyes de Morgan. Las leyes de Morgan permiten relacionar la complementariedad
entre los conjuntos y las operaciones de Intersección y Unión,
A  BC  A C  B C o A  B  A  B
A  BC
A  B  A  B
 A C  BC
o
A estas leyes se les puede aplicar las normas que hemos mencionado de
probabilidades y se obtendrán resultados muy interesantes
TEOREMA DE BAYES
Teorema de Bayes. El Teorema de Bayes viene a seguir el proceso inverso al que
hemos visto en el Teorema de la probabilidad total. Si A 1 , A 2 , ......., A n son un
sistema completo de sucesos tal que P(A i )  0,  i  1,....n , entonces para un suceso
B cualquiera se verifica:
P(A i / B) 
P( A i )  P( B / A i )

n
P( A i )  P( B / A i )
i 1
,
y esto para cualquier i = 1, ...., n.
Teorema de la probabilidad total: a partir de las probabilidades del suceso A
(probabilidad de que llueva o de que haga buen tiempo) deducimos la probabilidad
del suceso B (que ocurra un accidente). Teorema de Bayes: a partir de que ha
ocurrido el suceso B (ha ocurrido un accidente) deducimos las probabilidades del
suceso A (¿estaba lloviendo o hacía buen tiempo?).
18
Ejemplo, El parte meteorológico ha anunciado tres posibilidades para el fin de
semana: a) Que llueva: probabilidad del 50%, b) Que nieve: probabilidad del 30%, y
c) Que haya niebla: probabilidad del 20%.
Según estos posibles estados meteorológicos, la posibilidad de que ocurra un
accidente es la siguiente, a) Si llueve: probabilidad de accidente del 10%, b) Si nieva:
probabilidad de accidente del 20%, o c) Si hay niebla: probabilidad de accidente del
5%.
Resulta que efectivamente ocurre un accidente y como no estábamos en la ciudad no
sabemos que tiempo hizo (nevó, llovió o hubo niebla). El teorema de Bayes nos
permite calcular estas probabilidades: Las probabilidades que manejamos antes de
conocer que ha ocurrido un accidente se denominan probabilidades a priori (lluvia
con el 60%, nieve con el 30% y niebla con el 10%).
Una vez que incorporamos la información de que ha ocurrido un accidente, las
probabilidades del suceso A cambian: son probabilidades condicionadas P (A/B), que
se denominan probabilidades a posteriori.
a) Probabilidad de que estuviera lloviendo:
P(A i / B) 
0.50  0.20
 0.714
(0.50  0.20)  (0.30  0.10)  (0.20  0.05)
La probabilidad de que efectivamente estuviera lloviendo el día del accidente
(probabilidad a posteriori) es del 71,4%.
b) Probabilidad de que estuviera nevando:
P(A i / B) 
0.30  0.10
 0.214
(0.50  0.20)  (0.30  0.10)  (0.20  0.05)
La probabilidad de que estuviera nevando es del 21,4%.
c) Probabilidad de que hubiera niebla:
P(A i / B) 
0.20  0.05
 0.071
(0.50  0.20)  (0.30  0.10)  (0.20  0.05)
La probabilidad de que hubiera niebla es del 7,1%.
Sea A1,..,An estén incluidos en E, un sistema exhaustivo y excluyente de sucesos. Sea
B incluido en E, un suceso del que conocemos todas las cantidades P(B/Ai), con
i=1,…,n, a las que denominamos verosimilitudes, entonces se verifica,
19
P(A j / B) 
p( B / A j )  P ( A j )
n
 P( B / A )  P( A )
i 1
i
i
Demostrando este teorema tenemos que es una consecuencia de la definición de
probabilidad condicionada en términos de la intersección, y del teorema de la
probabilidad total,
P(A j  B)
p( B / A j )  P ( A j )
P(A j / B) 
 n
P(B)
 P( B / A i )  P( A i )
i 1
INDEPENDENCIA DE SUCESOS
De acuerdo con lo visto anteriormente, tenemos que dos sucesos son independientes
entre sí, si la ocurrencia de uno de ellos no afecta para nada a la ocurrencia del otro.
Ejemplo, el suceso estatura de los alumnos de una clase y el color del pelo son
independientes: el que un alumno sea más o menos alto no va a influir en el color de
su cabello, ni viceversa. Para que dos sucesos sean independientes tienen que
verificar al menos una de las siguientes condiciones
-
P(B/A) = P(B). Esto es, que la probabilidad de que se de el suceso B,
condicionada a que previamente se haya dado el suceso A, es exactamente igual a
la probabilidad de B. Ejemplo, la probabilidad de que al tirar una moneda salga
cara (suceso B), condicionada a que haga buen tiempo (suceso A), es igual a la
propia probabilidad del suceso B.
-
P(A/B) = P(A). Esto es, que la probabilidad de que se de el suceso A,
condicionada a que previamente se haya dado el suceso B, es exactamente igual a
la probabilidad de A. Ejemplo: la probabilidad de que haga buen tiempo (suceso
A), condicionada a que al tirar una moneda salga cara (suceso B), es igual a la
propia probabilidad del suceso A.
-
P(A  B) = P(A) * P(B). Esto es, que la probabilidad de que se de el suceso
conjunto A y B es exactamente igual a la probabilidad del suceso A multiplicada
por la probabilidad del suceso B. Ejemplo, la probabilidad de que haga buen
tiempo (suceso A) y salga cara al tirar una moneda (suceso B), es igual a la
probabilidad del suceso A multiplicada por la probabilidad del suceso B
Si el suceso A es independiente del suceso B, entonces el suceso B también es
independiente del suceso A.
20
Ejemplo, Sean los dos sucesos: P(A) = la probabilidad de que haga buen tiempo es
del 0,4, y P(B) = la probabilidad de tener un accidente es del 0,1, y P(A  B) = la
probabilidad de que haga buen tiempo y tener un accidente es del 0,08
Veamos si se cumple alguna de las condiciones señaladas:
P (B/A) = P(A  B) / P (A) = 0,08 / 0,4 = 0,2 (que no es igual a P (B))
P (A/B) = P(A  B) / P (B) = 0,08 / 0,6 = 0,133 (que no es igual a P (A))
P(A  B) = 0,08 (que no es igual a P (A) multiplicado por P (B))
Por lo tanto, no se cumple ninguna de las tres condiciones señaladas por lo que estos
dos sucesos no son independientes, sino que existe algún grado de dependencia entre
ellos.
Ley de los Grandes Números. Suponga que X1, X2,...,Xn es una secuencia arbitraria
de variables aleatorias con valores esperados E(X1), E(X2),...,E(Xn). Suponga además
n
que la variable aleatoria i1 x i tiene varianza para cada valor de n entero.
1 n

Si V i 1 X i   0 cuando n y  es un número positivo, entonces,
n

1 n

P i 1 x i   0 cuando n
n

cuando n
Una secuencia de variables aleatorias Zn converge en probabilidad o converge
estocásticamente a una constante "a" si para cada número positivo 
cuando n
 n X  EX   P
 i
i
o
El teorema enunciado anteriormente puede escribirse como  i 1

n



cuando n
los grandes
números".
Si es la media muestral de una muestra de tamaño n de una población inducida por
una variable aleatoria X con media  y varianza 2, y si >0, entonces
21
Conclusión: Si la muestra es grande existe una alta probabilidad de que la media
muestral esté cerca de la media poblacional . Escogiendo un tamaño de muestra
suficientemente grande podemos hacer que la probabilidad de que la media muestral
tienda a la media poblacional sea tan alta (tan cerca de uno) como queramos.
22