Download Nociones Básicas de Probabilidad

Document related concepts
no text concepts found
Transcript
Nociones Básicas de Probabilidad
La teoría de probabilidades trata con experimentos aleatorios, es decir, con
experimentos cuyo resultado no podemos prever de antemano (experimento: modo de
obtener observaciones; para Toranzos “los acontecimientos aleatorios se caracterizan
porque admiten dos o más resultados posibles, y no tenemos elementos de juicio
suficientes para predecir cuál de ellos ocurrirá en una determinada realización”).
Puntualmente deben cumplirse tres condiciones: no se puede predecir el resultado; se
conocen todos los resultados posibles; el experimento se puede repetir sin cambiar
esencialmente las condiciones. Las condiciones anteriores, o sea lo que se llama
experimento aleatorio, son comunes a todos los juegos de azar, que fueron los que
dieron origen a la Teoría de la Probabilidad. Esto se debió a que en los años 1650 era
común en la sociedad francesa dedicarse a tales pasatiempos. De aquella época surgen
las primeras inquietudes sobre el tema, por iniciativa del “caballero” De Mérè,
reconocido como jugador empedernido, quien hizo consultas al matemático y filósofo
Blaise Pascal.
A todo experimento aleatorio le asociamos un conjunto llamado espacio
muestral tal que representa todos los posibles resultados asociados al experimento:
Ὠ={w1, w2, w3,……., wn,…….} donde a cada wk se les llama sucesos elementales.
Para un experimento aleatorio cualquiera será de interés primordial considerar conjuntos
de resultados, esto es, subconjuntos del espacio muestral. Entonces, si lo vemos desde
una perspectiva algebraica, siendo Ὠ el espacio muestral cada wk es un elemento del
mismo y un conjunto de ellos lo denominamos suceso; cada suceso es uno de esos
posibles resultados que esperamos se puedan presentar en el experimento. Un suceso
entonces verifica la propiedad wk  A  Ὠ (por eso el suceso nulo y todo el conjunto Ὠ
también son sucesos).
Así visto, podemos enumerar una serie de operaciones y relaciones para sucesos:
Inclusión: Se dice que un suceso A está contenido en otro B, si cualquier suceso
elemental de A lo está en B: A  B si para todo w ϵ A también w € B.
Igualdad: Dos sucesos son iguales si se verifica la doble inclusión entre ellos. A=B si
A  B y .B  A.
Unión (A  B): El suceso unión está formado por la agrupación de los sucesos
elementales de A y B. Es el suceso que ocurre si ocurre al menos uno de los sucesos A ,
B. A  B = {w : w ϵ A ó w ϵ B}
Esquemáticamente:
A

B
Intersección (A  B): El suceso intersección de dos está formado por los sucesos
elementales comunes a ambos sucesos. Es el suceso que ocurre si y sólo si ocurren
ambos sucesos. A  B = AB = {w : w ϵ A y w ϵ B}
Esquemáticamente:
AB
B
A
En particular, si A  B =  , diremos que A y B son “sucesos mutuamente excluyentes”
/ “disjuntos” / “incompatibles”.
Complementario: El suceso complementario de A lo forman los elementos del espacio
muestral que no pertenecen al suceso A. Ac = {w : w no ϵ A}
Diferencia: El suceso diferencia de dos sucesos A y B lo forman los elementos de A no
comunes con B. A-B = {w : w ϵ A y w no ϵ B} = A  Bc = ABc
Diferencia Simétrica: La diferencia simétrica de dos sucesos lo forman los sucesos
elementales no comunes de ambos. AΔB = (AB) - AB = (ABc)  (AcB) =
ABc AcB
Todas estas relaciones y operaciones son extensibles a dos o más sucesos.
Existen algunas leyes/propiedades interesantes que relacionan las operaciones
vistas arriba:
CONMUTATIVAS
AB=BA
AB=BA
ASOCIATIVAS
(A  B)  C = A  (B  C) = A  B  C
(A  B)  C = A  (B  C) = A  B  C
DISTRIBUTIVAS
(A  B)  C = (A  C)  (B  C)
(A  B)  C = (A  C)  (B  C)
LEYES DE DE MORGAN
(A  B)c = Ac  Bc
(A  B)c = Ac  Bc
Probabilidad
A lo largo de la historia, son varias las definiciones de probabilidad que se han
intentado dar; la más clásica e intuitiva es la de Laplace.
Probabilidad Clásica (o de Laplace): supongamos que nos ofrecen comprar una rifa y
nos dicen que sólo se venderán una cantidad n de rifas; entonces a priori, diríamos que
nuestra probabilidad/chance de ganar es de: la cantidad de rifas que compremos sobre
las rifas totales. Esta definición básica es la de Laplace. Era mayormente usada en los
juegos de azar: por ejemplo para saber la probabilidad de que saliera tal número al
lanzar un número x de dados, o asimismo en los juegos de cartas.
Formalicémosla un poco más: dado un acontecimiento aleatorio E, tal que: a) el
número de total de contingencias de E sea finito e igual a n (casos posibles), b) sea S
una propiedad que se refiera a las contingencias de E y respecto de la cual estas
contingencias pueden agruparse en dos clases, la primera formada por las m de entre
ellas que tienen la propiedad S, y la otra formada por las n-m restantes, que no la tienen,
a las m primeras las llamaremos casos favorables, c) hay elementos de juicio suficientes
para afirmar que todos los n son casos igualmente posibles, entendiendo que dos casos
son igualmente posibles cuando no hay razón para suponer que uno de ellos pueda
producirse con preferencia al otro, d) los n casos posibles son, entre ellos, excluyentes,
es decir que no pueden producirse dos de ellos simultáneamente, e) los n casos cubren la
totalidad de las contingencias de E. Si se cumplen todas las anteriores, es posible definir
un número P(S) llamado probabilidad de S en E tal que P(S) = m/n. Según las propias
palabras de Laplace: “Probabilidad es el cociente del número de casos favorables sobre
el número de casos igualmente posibles.”
Entendamos que la definición de Laplace sólo es aplicable a
experimentos con sucesos equiprobables, lo cual nos conduce a una tautología. Además
no puede ser utilizada cuando trabajamos con casos donde la variable toma valores
continuos (no puntuales). Aún así, podemos rescatar algunas observaciones:
1) 0 ≤ P(S) ≤ 1, cualquiera sea el suceso S
2) Si tenemos dos sucesos excluyentes A y B, entonces P(A  B) = P(A) + P(B)
3) P(E)=1 y P()=0
Probabilidad Frecuencial (Von Mises): se trata de definir la probabilidad partiendo del
concepto empírico que resulta al contar el número M de casos favorables producidos en
N pruebas. El cociente M/N es la frecuencia relativa, y la probabilidad es el valor límite
hacia el cual tiende ese cociente a medida que vamos incrementando la cantidad de
pruebas. El valor hacia el cual tiende esta frecuencia es el mismo que si usáramos la
definición clásica de probabilidad; a tal comportamiento de las frecuencias relativas se
lo conoce con el nombre de estabilidad de las frecuencias relativas, o se dice también
que el experimento aleatorio tiene regularidad estadística
Definición Axiomática de Probabilidad (Kolmogorov): Sea Ω un espacio muestral
asociado a un experimento aleatorio; una aplicación que a cada suceso A le asigna un
número real P(A) entre cero y uno es una probabilidad, si se verifican los siguientes
axiomas:
1- P(A) ≥ 0
2- P(Ω) = 1
3- Si A y B son sucesos incompatibles, entonces P(A  B) = P(A) + P(B)
4- Si A1 , A2 , ... , An , ... son sucesos mutuamente excluyentes (Ai  Aj =   i 


j) entonces: P(  A ) =  P(A )
i
i =1 i
i =1
De estos cuatro axiomas se deducen varias propiedades:
1) P()=0; por el axioma IV.
2) P(Ac) = 1 – P(A).
Supongamos
que
Ω=AAc,
entonces
c
c
P(Ω)=P(AA )=P(A)+P(A )=1
3) Teorema de la Probabilidad Total: P(A  B) = P(A) + P(B) - P(A  B).
4) Si A  B, entonces P(A) ≤ P(B). Podemos escribir B=AC siendo C el
complementario de A respecto de B, como C es disjunto respecto de A resulta
que P(B) = P(A) + P(C) y como P(C)≥0 entonces resulta P(A) ≤ P(B).
5) Si A Ω, entonces P(A) ≤ 1.
Probabilidad Condicional
Dado un acontecimiento aleatorio al que corresponde el espacio muestral Ω.
Consideremos los eventos A y B de Ω tales que A  B. Deseamos estudiar la
probabilidad de que ocurra A, bajo la condición que haya ocurrido B. A esto llamamos
la “probabilidad condicional de A respecto a B”. Vayamos a un ejemplo concreto:
supongamos que queremos saber la probabilidad de que al tirar un dado salga el número
A=6, sabiendo que ha salido un número par; sabemos que la probabilidad ya no va a ser
1/6 ya que el posible resultado estará contenido en el conjunto B={2;4;6}, entonces la
probabilidad es 1/3 (aplicamos probabilidad clásica). Formalicémoslo:
Usaremos la notación P(A|B) que leemos probabilidad de A si B. Para
determinar esta probabilidad debemos considerar la probabilidad de A dentro del
conjunto B, es decir: P(A|B)=P(A) / P(B). La definición se puede extender al caso en
que no sea necesariamente A  B. Entonces debemos considerar en el numerador la
parte de A común con B, es decir A  B; resulta por lo tanto: P(A|B) = P(AB) / P(B).
Por simetría se puede decir que P(B|A)=P(BA)/P(A). Además se puede mostrar
que P(A|B) cumple con los axiomas para definir una probabilidad. Tener en cuenta que
P(B) debe ser mayor a 0.
Al calcular una probabilidad condicional pueden darse tres posibles situaciones,
que dan lugar a tres posibles interpretaciones:
a) P(A|B) ˃ P(A), entonces B informa positivamente sobre A
b) P(A|B) ˂ P(A), entonces B informa negativamente sobre A
c) P(A|B) = P(A), entonces B es independiente de A. Dos sucesos A y B son
independientes si la ocurrencia de uno de ellos no influye en la ocurrencia del
otro.
Si de la fórmula de probabilidad condicional despejamos la probabilidad de la
intersección de A y B, obtenemos la llamada Regla del Producto: P(AB) = P(B) P(A|B).
Entonces la probabilidad de la ocurrencia simultánea de A y B es igual a la probabilidad
de que ocurra B por la probabilidad de que ocurra A habiendo ocurrido B. Esta fórmula
tiene especial utilidad cuando los sucesos ocurren de forma secuencial en el tiempo, de
modo que el resultado de un suceso depende del resultado obtenido por el suceso
anterior. La noción es aplicable también al caso de más de dos sucesos.
De la regla del producto podemos derivar que si A y B son independientes,
entonces P(AB) = P(A) P(B). En forma general, un número k de sucesos son
independientes si su probabilidad conjunta es igual a la multiplicatoria de sus
probabilidades marginales. Además, tenemos las siguientes propiedades:
Si A y B son sucesos independientes, se verifica que:
1) A es independiente de Bc.
P(Bc|A)=1-P(B|A)=1-P(B)=P(Bc)
c
2) A es independiente de B.
P(Ac|B)=1-P(A|B)=1-P(A)=P(Ac)
3) Ac es independiente de Bc.
Probabilidad de las Causas. Teorema de Bayes
El siguiente teorema permite obtener la probabilidad de un suceso cuando se
conocen las probabilidades condicionadas de dicho suceso por medio de un conjunto de
sucesos de sucesos que forman una partición (teorema de las probabilidades totales).
Concretamente, consideremos un acontecimiento A y supongamos, por hipótesis, que
para que se produzca A es indispensable que se haya producido también una y sólo uno
de los acontecimientos excluyentes: B1, B2,…….., Bn. El teorema de Bayes busca
responder a la pregunta: suponiendo que se haya realizado A ¿cuál es la probabilidad de
que lo haya sido conjuntamente con algún Bi?
Supongamos que conocidas las P(Bi) y las P(A|Bi); se desea calcular las P(Bi|A).
Por la fórmula de la probabilidad compuesta sabemos que P(ABi) = P(Bi) P(A|Bi) =
P(A) P(Bi|A). [1]
De la segunda igualdad sale: P(Bi|A) = P(ABi) / P(A), [2]
y sustituyendo en ella P(A) = Σ P(ABi)
Tenemos: P(Bi|A) = P(ABi) / Σ P(ABi) [3]
Y reemplazando las distintas P(ABi) en [3] por su equivalente P(Bi) P(A|Bi), según [1]
resulta finalmente: P(Bi|A) = P(Bi) P(A|Bi) / Σ P(A|Bi) P(Bi), que es la fórmula de
Bayes.
Cálculo Combinatorio
Para calcular las probabilidades de varios eventos es necesario contar el número
de resultados posibles de un experimento, o contar el número de resultados que don
favorables a un evento dado. El proceso de conteo puede simplificarse mediante el
empleo de algunas técnicas (variaciones, permutaciones, combinaciones).
Variaciones (sin repeticiones): se aplicará para contar la cantidad de grupos de m
elementos elegidos entre n elementos con la condición de que un grupo difiere de otro
por tener algún elemento distinto o por diferir en el orden. Pensemos... para el primer
elemento tenemos disponibles los n del grupo original.. Para el segundo elemento, que
no puede ser igual al primero, hay entonces n-1 posibilidades, para el tercero hay n-2
posibilidades, y así siguiendo llegamos a: n (n - 1) (n - 2) ... (n - (m - 1)) = n (n - 1) (n 2) ... (n -m + 1) = n ! / (n - m )!
Vn ; m =
n!
(n - m)!
Variaciones (con repeticiones): supongamos que tenemos un conjunto C={2,3,6} y
queremos saber cuántos números de 4 cifras puedo formar con estos 3 números. En el
primer lugar tenemos 3 posibilidades, y en el segundo y sucesivos también tenemos 3
posibilidades porque podemos repetir cada elemento del conjunto, entonces tenemos:
3x3x3x3=34. O sea:
Vn ; m = nm
Permutaciones (sin repeticiones): una permutación es un arreglo de un orden particular,
de los objetos que forman un conjunto, o sea que dos grupos difieren entre sí sólo por
diferir en el orden. Imaginemos que tenemos un conjunto Z={a,b,c}, y queremos ver
cuántas formas de ordenarlo tenemos: para la primera posición tenemos 3 opciones,
para la segunda 2 (“perdimos” un número en el paso anterior), y para la última sólo 1;
entonces tenemos 3x2x1=6=3!
Al número resultante se lo llama: permutaciones de n elementos, que notaremos:
Pn , dado por:
Pn = n!
Permutaciones (con repeticiones): partimos de las permutaciones de los n elementos del
grupo, esto es, de los n! grupos que difieren entre sí sólo en el orden, lo que hay que
corregir por el hecho de que al permutar elementos iguales, no cambia el grupo, por lo
tanto, si en el grupo de m elementos hay una cantidad m1 de elementos iguales, el
número de grupos estará dado por:
Pn
n!
P'n ; m =
=
Pm
m1 !
1
1
Combinaciones: una combinación de los objetos de un conjunto es una selección de
éstos sin importar el orden; se entenderá por el número de combinaciones de m objetos
tomados de un conjunto que contiene a n de éstos, al número total de selecciones
distintas en las que cada una de éstas contiene m objetos. Puede obtenerse el número de
combinaciones de n objetos tomando m a la vez, dividiendo el correspondiente número
de permutaciones por m! dado que en cada combinación existen m! permutaciones. Por
lo tanto:
Vn ; m
n 
n!
Cn ; m =
=  
=
 m
Pm
(n - m ) ! m !
Ejercicios para testear los conocimientos adquiridos
1) Un artículo defectuoso es clasificado en tres categorías: A “defectos que permiten
venderlo al 70% del valor de venta” , B “con defectos que permiten venderlo al 30%”,
C: “defectos que implican descarte”. Si un 75% de la producción carece de defectos,
mientras que la probabilidad para la clase A de defectos es del 15% y el 7% para la
clase B, ¿cuál es la probabilidad de que un artículo sea de descarte?
2) Consideremos un test que detecta pacientes enfermos de un tipo específico de
enfermedad. La detección corresponde a que el test de positivo. El resultado de un test
negativo se interpreta como no detección de enfermedad.
Sea
A1: el evento “el paciente seleccionado no tiene la enfermedad”
A2: el evento “el paciente seleccionado tiene la enfermedad”
Entonces {A1, A2} constituye una partición del espacio de probabilidad
Consideremos además
T+: el evento “el test da positivo”
T−: el evento “el test da negativo”
Supongamos conocidas las probabilidades de ser sano o enfermo antes
de hacer el test (probabilidades a priori).
P (A1) = 0,99; P (A2) = 0,01.
Además supongamos que P (T+|A1) = 0,001; P (T+|A2) = 0,999
Calculemos la probabilidad de que dado que el test detecta enfermedad el paciente sea
efectivamente enfermo (esta probabilidad se denomina probabilidad a posteriori).
3) Para el pedido de tres programadores en lenguaje “C”, se presentaron 40 licenciados
en computación y 10 ingenieros de distintas especialidades. Si se van a entrevistar a
doce personas elegidas al azar, ¿cuál es la probabilidad de que por lo menos sea
entrevistado un ingeniero?
Rtas:
1) = 0.03
2) = 0.91
3) ≈ 0.95