Download Nociones Básicas de Probabilidad
Document related concepts
no text concepts found
Transcript
Nociones Básicas de Probabilidad La teoría de probabilidades trata con experimentos aleatorios, es decir, con experimentos cuyo resultado no podemos prever de antemano (experimento: modo de obtener observaciones; para Toranzos “los acontecimientos aleatorios se caracterizan porque admiten dos o más resultados posibles, y no tenemos elementos de juicio suficientes para predecir cuál de ellos ocurrirá en una determinada realización”). Puntualmente deben cumplirse tres condiciones: no se puede predecir el resultado; se conocen todos los resultados posibles; el experimento se puede repetir sin cambiar esencialmente las condiciones. Las condiciones anteriores, o sea lo que se llama experimento aleatorio, son comunes a todos los juegos de azar, que fueron los que dieron origen a la Teoría de la Probabilidad. Esto se debió a que en los años 1650 era común en la sociedad francesa dedicarse a tales pasatiempos. De aquella época surgen las primeras inquietudes sobre el tema, por iniciativa del “caballero” De Mérè, reconocido como jugador empedernido, quien hizo consultas al matemático y filósofo Blaise Pascal. A todo experimento aleatorio le asociamos un conjunto llamado espacio muestral tal que representa todos los posibles resultados asociados al experimento: Ὠ={w1, w2, w3,……., wn,…….} donde a cada wk se les llama sucesos elementales. Para un experimento aleatorio cualquiera será de interés primordial considerar conjuntos de resultados, esto es, subconjuntos del espacio muestral. Entonces, si lo vemos desde una perspectiva algebraica, siendo Ὠ el espacio muestral cada wk es un elemento del mismo y un conjunto de ellos lo denominamos suceso; cada suceso es uno de esos posibles resultados que esperamos se puedan presentar en el experimento. Un suceso entonces verifica la propiedad wk A Ὠ (por eso el suceso nulo y todo el conjunto Ὠ también son sucesos). Así visto, podemos enumerar una serie de operaciones y relaciones para sucesos: Inclusión: Se dice que un suceso A está contenido en otro B, si cualquier suceso elemental de A lo está en B: A B si para todo w ϵ A también w € B. Igualdad: Dos sucesos son iguales si se verifica la doble inclusión entre ellos. A=B si A B y .B A. Unión (A B): El suceso unión está formado por la agrupación de los sucesos elementales de A y B. Es el suceso que ocurre si ocurre al menos uno de los sucesos A , B. A B = {w : w ϵ A ó w ϵ B} Esquemáticamente: A B Intersección (A B): El suceso intersección de dos está formado por los sucesos elementales comunes a ambos sucesos. Es el suceso que ocurre si y sólo si ocurren ambos sucesos. A B = AB = {w : w ϵ A y w ϵ B} Esquemáticamente: AB B A En particular, si A B = , diremos que A y B son “sucesos mutuamente excluyentes” / “disjuntos” / “incompatibles”. Complementario: El suceso complementario de A lo forman los elementos del espacio muestral que no pertenecen al suceso A. Ac = {w : w no ϵ A} Diferencia: El suceso diferencia de dos sucesos A y B lo forman los elementos de A no comunes con B. A-B = {w : w ϵ A y w no ϵ B} = A Bc = ABc Diferencia Simétrica: La diferencia simétrica de dos sucesos lo forman los sucesos elementales no comunes de ambos. AΔB = (AB) - AB = (ABc) (AcB) = ABc AcB Todas estas relaciones y operaciones son extensibles a dos o más sucesos. Existen algunas leyes/propiedades interesantes que relacionan las operaciones vistas arriba: CONMUTATIVAS AB=BA AB=BA ASOCIATIVAS (A B) C = A (B C) = A B C (A B) C = A (B C) = A B C DISTRIBUTIVAS (A B) C = (A C) (B C) (A B) C = (A C) (B C) LEYES DE DE MORGAN (A B)c = Ac Bc (A B)c = Ac Bc Probabilidad A lo largo de la historia, son varias las definiciones de probabilidad que se han intentado dar; la más clásica e intuitiva es la de Laplace. Probabilidad Clásica (o de Laplace): supongamos que nos ofrecen comprar una rifa y nos dicen que sólo se venderán una cantidad n de rifas; entonces a priori, diríamos que nuestra probabilidad/chance de ganar es de: la cantidad de rifas que compremos sobre las rifas totales. Esta definición básica es la de Laplace. Era mayormente usada en los juegos de azar: por ejemplo para saber la probabilidad de que saliera tal número al lanzar un número x de dados, o asimismo en los juegos de cartas. Formalicémosla un poco más: dado un acontecimiento aleatorio E, tal que: a) el número de total de contingencias de E sea finito e igual a n (casos posibles), b) sea S una propiedad que se refiera a las contingencias de E y respecto de la cual estas contingencias pueden agruparse en dos clases, la primera formada por las m de entre ellas que tienen la propiedad S, y la otra formada por las n-m restantes, que no la tienen, a las m primeras las llamaremos casos favorables, c) hay elementos de juicio suficientes para afirmar que todos los n son casos igualmente posibles, entendiendo que dos casos son igualmente posibles cuando no hay razón para suponer que uno de ellos pueda producirse con preferencia al otro, d) los n casos posibles son, entre ellos, excluyentes, es decir que no pueden producirse dos de ellos simultáneamente, e) los n casos cubren la totalidad de las contingencias de E. Si se cumplen todas las anteriores, es posible definir un número P(S) llamado probabilidad de S en E tal que P(S) = m/n. Según las propias palabras de Laplace: “Probabilidad es el cociente del número de casos favorables sobre el número de casos igualmente posibles.” Entendamos que la definición de Laplace sólo es aplicable a experimentos con sucesos equiprobables, lo cual nos conduce a una tautología. Además no puede ser utilizada cuando trabajamos con casos donde la variable toma valores continuos (no puntuales). Aún así, podemos rescatar algunas observaciones: 1) 0 ≤ P(S) ≤ 1, cualquiera sea el suceso S 2) Si tenemos dos sucesos excluyentes A y B, entonces P(A B) = P(A) + P(B) 3) P(E)=1 y P()=0 Probabilidad Frecuencial (Von Mises): se trata de definir la probabilidad partiendo del concepto empírico que resulta al contar el número M de casos favorables producidos en N pruebas. El cociente M/N es la frecuencia relativa, y la probabilidad es el valor límite hacia el cual tiende ese cociente a medida que vamos incrementando la cantidad de pruebas. El valor hacia el cual tiende esta frecuencia es el mismo que si usáramos la definición clásica de probabilidad; a tal comportamiento de las frecuencias relativas se lo conoce con el nombre de estabilidad de las frecuencias relativas, o se dice también que el experimento aleatorio tiene regularidad estadística Definición Axiomática de Probabilidad (Kolmogorov): Sea Ω un espacio muestral asociado a un experimento aleatorio; una aplicación que a cada suceso A le asigna un número real P(A) entre cero y uno es una probabilidad, si se verifican los siguientes axiomas: 1- P(A) ≥ 0 2- P(Ω) = 1 3- Si A y B son sucesos incompatibles, entonces P(A B) = P(A) + P(B) 4- Si A1 , A2 , ... , An , ... son sucesos mutuamente excluyentes (Ai Aj = i j) entonces: P( A ) = P(A ) i i =1 i i =1 De estos cuatro axiomas se deducen varias propiedades: 1) P()=0; por el axioma IV. 2) P(Ac) = 1 – P(A). Supongamos que Ω=AAc, entonces c c P(Ω)=P(AA )=P(A)+P(A )=1 3) Teorema de la Probabilidad Total: P(A B) = P(A) + P(B) - P(A B). 4) Si A B, entonces P(A) ≤ P(B). Podemos escribir B=AC siendo C el complementario de A respecto de B, como C es disjunto respecto de A resulta que P(B) = P(A) + P(C) y como P(C)≥0 entonces resulta P(A) ≤ P(B). 5) Si A Ω, entonces P(A) ≤ 1. Probabilidad Condicional Dado un acontecimiento aleatorio al que corresponde el espacio muestral Ω. Consideremos los eventos A y B de Ω tales que A B. Deseamos estudiar la probabilidad de que ocurra A, bajo la condición que haya ocurrido B. A esto llamamos la “probabilidad condicional de A respecto a B”. Vayamos a un ejemplo concreto: supongamos que queremos saber la probabilidad de que al tirar un dado salga el número A=6, sabiendo que ha salido un número par; sabemos que la probabilidad ya no va a ser 1/6 ya que el posible resultado estará contenido en el conjunto B={2;4;6}, entonces la probabilidad es 1/3 (aplicamos probabilidad clásica). Formalicémoslo: Usaremos la notación P(A|B) que leemos probabilidad de A si B. Para determinar esta probabilidad debemos considerar la probabilidad de A dentro del conjunto B, es decir: P(A|B)=P(A) / P(B). La definición se puede extender al caso en que no sea necesariamente A B. Entonces debemos considerar en el numerador la parte de A común con B, es decir A B; resulta por lo tanto: P(A|B) = P(AB) / P(B). Por simetría se puede decir que P(B|A)=P(BA)/P(A). Además se puede mostrar que P(A|B) cumple con los axiomas para definir una probabilidad. Tener en cuenta que P(B) debe ser mayor a 0. Al calcular una probabilidad condicional pueden darse tres posibles situaciones, que dan lugar a tres posibles interpretaciones: a) P(A|B) ˃ P(A), entonces B informa positivamente sobre A b) P(A|B) ˂ P(A), entonces B informa negativamente sobre A c) P(A|B) = P(A), entonces B es independiente de A. Dos sucesos A y B son independientes si la ocurrencia de uno de ellos no influye en la ocurrencia del otro. Si de la fórmula de probabilidad condicional despejamos la probabilidad de la intersección de A y B, obtenemos la llamada Regla del Producto: P(AB) = P(B) P(A|B). Entonces la probabilidad de la ocurrencia simultánea de A y B es igual a la probabilidad de que ocurra B por la probabilidad de que ocurra A habiendo ocurrido B. Esta fórmula tiene especial utilidad cuando los sucesos ocurren de forma secuencial en el tiempo, de modo que el resultado de un suceso depende del resultado obtenido por el suceso anterior. La noción es aplicable también al caso de más de dos sucesos. De la regla del producto podemos derivar que si A y B son independientes, entonces P(AB) = P(A) P(B). En forma general, un número k de sucesos son independientes si su probabilidad conjunta es igual a la multiplicatoria de sus probabilidades marginales. Además, tenemos las siguientes propiedades: Si A y B son sucesos independientes, se verifica que: 1) A es independiente de Bc. P(Bc|A)=1-P(B|A)=1-P(B)=P(Bc) c 2) A es independiente de B. P(Ac|B)=1-P(A|B)=1-P(A)=P(Ac) 3) Ac es independiente de Bc. Probabilidad de las Causas. Teorema de Bayes El siguiente teorema permite obtener la probabilidad de un suceso cuando se conocen las probabilidades condicionadas de dicho suceso por medio de un conjunto de sucesos de sucesos que forman una partición (teorema de las probabilidades totales). Concretamente, consideremos un acontecimiento A y supongamos, por hipótesis, que para que se produzca A es indispensable que se haya producido también una y sólo uno de los acontecimientos excluyentes: B1, B2,…….., Bn. El teorema de Bayes busca responder a la pregunta: suponiendo que se haya realizado A ¿cuál es la probabilidad de que lo haya sido conjuntamente con algún Bi? Supongamos que conocidas las P(Bi) y las P(A|Bi); se desea calcular las P(Bi|A). Por la fórmula de la probabilidad compuesta sabemos que P(ABi) = P(Bi) P(A|Bi) = P(A) P(Bi|A). [1] De la segunda igualdad sale: P(Bi|A) = P(ABi) / P(A), [2] y sustituyendo en ella P(A) = Σ P(ABi) Tenemos: P(Bi|A) = P(ABi) / Σ P(ABi) [3] Y reemplazando las distintas P(ABi) en [3] por su equivalente P(Bi) P(A|Bi), según [1] resulta finalmente: P(Bi|A) = P(Bi) P(A|Bi) / Σ P(A|Bi) P(Bi), que es la fórmula de Bayes. Cálculo Combinatorio Para calcular las probabilidades de varios eventos es necesario contar el número de resultados posibles de un experimento, o contar el número de resultados que don favorables a un evento dado. El proceso de conteo puede simplificarse mediante el empleo de algunas técnicas (variaciones, permutaciones, combinaciones). Variaciones (sin repeticiones): se aplicará para contar la cantidad de grupos de m elementos elegidos entre n elementos con la condición de que un grupo difiere de otro por tener algún elemento distinto o por diferir en el orden. Pensemos... para el primer elemento tenemos disponibles los n del grupo original.. Para el segundo elemento, que no puede ser igual al primero, hay entonces n-1 posibilidades, para el tercero hay n-2 posibilidades, y así siguiendo llegamos a: n (n - 1) (n - 2) ... (n - (m - 1)) = n (n - 1) (n 2) ... (n -m + 1) = n ! / (n - m )! Vn ; m = n! (n - m)! Variaciones (con repeticiones): supongamos que tenemos un conjunto C={2,3,6} y queremos saber cuántos números de 4 cifras puedo formar con estos 3 números. En el primer lugar tenemos 3 posibilidades, y en el segundo y sucesivos también tenemos 3 posibilidades porque podemos repetir cada elemento del conjunto, entonces tenemos: 3x3x3x3=34. O sea: Vn ; m = nm Permutaciones (sin repeticiones): una permutación es un arreglo de un orden particular, de los objetos que forman un conjunto, o sea que dos grupos difieren entre sí sólo por diferir en el orden. Imaginemos que tenemos un conjunto Z={a,b,c}, y queremos ver cuántas formas de ordenarlo tenemos: para la primera posición tenemos 3 opciones, para la segunda 2 (“perdimos” un número en el paso anterior), y para la última sólo 1; entonces tenemos 3x2x1=6=3! Al número resultante se lo llama: permutaciones de n elementos, que notaremos: Pn , dado por: Pn = n! Permutaciones (con repeticiones): partimos de las permutaciones de los n elementos del grupo, esto es, de los n! grupos que difieren entre sí sólo en el orden, lo que hay que corregir por el hecho de que al permutar elementos iguales, no cambia el grupo, por lo tanto, si en el grupo de m elementos hay una cantidad m1 de elementos iguales, el número de grupos estará dado por: Pn n! P'n ; m = = Pm m1 ! 1 1 Combinaciones: una combinación de los objetos de un conjunto es una selección de éstos sin importar el orden; se entenderá por el número de combinaciones de m objetos tomados de un conjunto que contiene a n de éstos, al número total de selecciones distintas en las que cada una de éstas contiene m objetos. Puede obtenerse el número de combinaciones de n objetos tomando m a la vez, dividiendo el correspondiente número de permutaciones por m! dado que en cada combinación existen m! permutaciones. Por lo tanto: Vn ; m n n! Cn ; m = = = m Pm (n - m ) ! m ! Ejercicios para testear los conocimientos adquiridos 1) Un artículo defectuoso es clasificado en tres categorías: A “defectos que permiten venderlo al 70% del valor de venta” , B “con defectos que permiten venderlo al 30%”, C: “defectos que implican descarte”. Si un 75% de la producción carece de defectos, mientras que la probabilidad para la clase A de defectos es del 15% y el 7% para la clase B, ¿cuál es la probabilidad de que un artículo sea de descarte? 2) Consideremos un test que detecta pacientes enfermos de un tipo específico de enfermedad. La detección corresponde a que el test de positivo. El resultado de un test negativo se interpreta como no detección de enfermedad. Sea A1: el evento “el paciente seleccionado no tiene la enfermedad” A2: el evento “el paciente seleccionado tiene la enfermedad” Entonces {A1, A2} constituye una partición del espacio de probabilidad Consideremos además T+: el evento “el test da positivo” T−: el evento “el test da negativo” Supongamos conocidas las probabilidades de ser sano o enfermo antes de hacer el test (probabilidades a priori). P (A1) = 0,99; P (A2) = 0,01. Además supongamos que P (T+|A1) = 0,001; P (T+|A2) = 0,999 Calculemos la probabilidad de que dado que el test detecta enfermedad el paciente sea efectivamente enfermo (esta probabilidad se denomina probabilidad a posteriori). 3) Para el pedido de tres programadores en lenguaje “C”, se presentaron 40 licenciados en computación y 10 ingenieros de distintas especialidades. Si se van a entrevistar a doce personas elegidas al azar, ¿cuál es la probabilidad de que por lo menos sea entrevistado un ingeniero? Rtas: 1) = 0.03 2) = 0.91 3) ≈ 0.95