Download Probabilidad y Estadística (teoría)

Document related concepts
no text concepts found
Transcript
IES SC. BP.
Estadística y Probabilidad
PROBABILIDAD Y ESTADÍSTICA

Experimento aleatorio .- Se llama experimento aleatorio a todo fenómeno cuyos resultados
no se pueden predecir de antemano, aun cuando cada prueba se repita bajo las mismas
condiciones.
Ejemplos de experimentos aleatorios:
- Lanzar una moneda al aire
- Estudiar el sexo en la descendencia
- Sacar una carta de una baraja
- Jugar a: la lotería, las quinielas, al bingo, a la primitiva, etc.

Espacio muestral.- Se llama espacio muestral al conjunto de todos los posibles resultados de un
experimento, y se representa por E.

Ejemplos:- Si el experimento es lanzar una moneda al aire: E=  cara ,cruz - Si el experimento es
lanzar un dado al aire: E= 1,2 ,3 ,4,5,6

SUCESO. SUCESO ELEMENTAL. SUCESO IMPOSIBLE. SUCESO SEGURO. SUCESO
CONTRARIO.

Se llama suceso a cada uno de los subconjuntos del espacio muestral.
En el lanzamiento de un dado es un suceso “ sacar par”: A=  2 ,4,6

Se llama suceso elemental a todo subconjunto unitario del espacio muestral.
Sacar par y mayor que 5 en el lanzamiento de un dado, es un ejemplo de suceso elemental.
Suceso imposible es el que no se produce nunca, se le designa por  : que se lance una moneda al aire y
que no caiga, que una gata haya parido una gaviota.

Suceso seguro es el que se verifica siempre: el día siguiente del lunes es el martes.

Suceso contrario o complementario del suceso A es el que se verifica cuando no ocurre A: Al
lanzar un dado el suceso contrario de A=  2 ,4,6 , es Ac   1,3 ,5 .
OPERACIONES CON SUCESOS
Sea   P( E ) el conjunto de todos los posibles resultados de un experimento aleatorio con espacio
muestral E.
Si el experimento aleatorio es lanzar una moneda al aire:
E=  C ,F ,   P( E )   , C , F , C , F .

Se dice que el suceso A está incluido en B, y se escribe AB, cuando siempre que ocurre A, se
verifica B.
- En el lanzamiento de un dado si A= “sacar 6” y B= “sacar par”; AB.

La operación unión de dos sucesos A y B es el suceso AB, que se dará cuando se dé al menos uno
de los dos, es decir, cuando se verifique A o B, o ambos.

La operación intersección de los sucesos A y B: AB es el suceso que se verificará cuando
ocurran simultáneamente A y B.

Dos sucesos A y B son incompatibles cuando no se pueden dar a la vez, es decir el suceso AB es
imposible: AB=  .
Y dos sucesos A y B son compatibles si se pueden dar a la vez: AB  .
1
IES SC. BP.
Estadística y Probabilidad

La diferencia de los sucesos A y B, que escribimos A-B, se da cuando se da A y no se da B. AB=ABc.
Ejemplos:
En el experimento aleatorio “ tirar un dado” se consideran los sucesos:
A: “sacar par” ; B= “sacar menor que 3” ; C: “sacar múltiplo de 5”
AB=  1,2 ,4 ,6 , AB=  2 . A-B=  4,6 .
Los sucesos A y C son incompatibles, así como B y C. Los sucesos A y B son compatibles, ya que AB=
 2   .
PROPIEDADES DE LA UNIÓN , INTERSECCIÓN Y CONTRARIO
1. Asociativa: A  (B  C)  (A  B)  C ; A  (B  C)  (A  B)  C
2. Conmutativa: A  B  B  A ; A  B  B  A
3. Distributiva: A  ( B  C)  (A  B)  (A  C) ; A  (B  C)  (A  B)  ( A  C)
4. De los complementarios: A  A c  E ; A  A c  
5. Involución del contrario: (A c ) c  A
6. Contrario del suceso seguro e imposible: E c   ;  c  E
7. Leyes de Morgan: (A  B) C  A c  B c
; (A  B) c  A c  B c
FRECUENCIAS ABSOLUTA Y RELATIVA

Sea A un suceso correspondiente a un determinado experimento aleatorio. Si efectuamos n pruebas
y representamos por m el número de veces en que ocurre el suceso A en las n pruebas, entonces se llama
frecuencia absoluta del suceso A a m, es decir fa(A)=m.
Llamaremos frecuencia relativa del suceso A y se denota fr(A)=
m
.
n
Ejemplo: En el experimento de lanzar un dado se realizan 100 pruebas obteniendo el siguiente resultado:
nº
aparece
fa(2)=16, fr(2)=
1
12
2
16
3
18
4
20
5
15
6
19
16
.
100
Propiedades de frecuencia relativa
1. 0  f r ( A )  1
n
1
n
3. f r (A  B)  f r ( A )  f r ( B)
2. f r ()  0 / n  0 ; f r (E ) 
2
IES SC. BP.
Estadística y Probabilidad
DEFINICIONES DE PROBABILIDAD
 Introducción al concepto de probabilidad como límite de frecuencias (Ley de los grandes
números)
Jacques Bernouilli (1654-1705) demostró la llamada ley de los grandes números, que enunciada de forma
sencilla dice así: “La frecuencia relativa de un suceso tiende a estabilizarse en torno a un valor a medida
que el número de pruebas del experimento crece indefinidamente, y a este valor lo llamaremos probabilidad
del suceso.
Ejemplo: Obsérvese la siguiente tabla que recoge los resultados obtenidos al lanzar una moneda:
nº de pruebas
frecuencia relativa de cara
10
0’6
50
0’54
100
0’53
200
0’505
Se observa que la frecuencia relativa tiende a estabilizarse en torno a ___. Esta definición presenta el
inconveniente de ser una probabilidad a posteriori, es decir para calcular la probabilidad de un suceso hay
que realizar un gran número de pruebas previamente, y además se obtiene un valor aproximado de la
probabilidad.
 Definición clásica de probabilidad. Regla de Laplace
La definición de Laplace (1749-1827) se suele enunciar así: La probabilidad de un suceso A es el cociente
entre el número de casos favorables y el número de casos posibles. Si indicamos la probabilidad del suceso
A por p(A), esta definición se puede expresar así:
p( A ) 
nº de casos favorables al suceso A
nº de casos posibles
Los casos favorables son los elementos que componen el suceso A el suceso A. Los casos posibles son
todos los resultados del experimento, es decir todos los elementos del espacio muestral. A la hora de aplicar
esta definición hay que tener en cuenta que los sucesos elementales tienen que ser equiprobables
(igualmente probables).
Ejemplos:

En el lanzamiento de un dado:
P(obtener un 3)=1/6, p(obtener par)=3/6

En la extracción de una carta de la baraja española:
p(obtener un oro)=10/40,p(obtener un rey)=4/40
p(obtener el caballo de copas)=1/40
 Definición axiomática de probabilidad
La definición clásica de probabilidad tiene el inconveniente que todos los sucesos son equiprobables. La
idea de la axiomática de Kolmogorov (1903-1987) es considerar la íntima relación que existe entre el
concepto de frecuencia relativa y probabilidad, cuando el número de pruebas es muy grande y basándose en
la ley de los grandes números construye un sistema de axiomas inspirados en las propiedades de las
frecuencias relativas.
Se llama probabilidad a una aplicación que asocia a cada suceso A, un número real que llamaremos
probabilidad de A, y representaremos por p(A), que cumple los siguientes axiomas:
1. La probabilidad de un suceso cualquiera es positiva o nula: p(A)0.
3
IES SC. BP.
Estadística y Probabilidad
2. La probabilidad del suceso seguro es igual a la unidad: p(E)=1
3. La probabilidad de la unión de dos sucesos incompatibles es igual a la suma de las probabilidades de
cada uno de los sucesos:
Si A y B son incompatibles: P(AB)=p(A)+p(B).

Propiedades de la probabilidad
1. La probabilidad del suceso contrario de A es igual a unos menos la probabilidad del suceso A: p(A c)=1p(A).
2. La probabilidad del suceso imposible es cero: p()=0.
3. Si el suceso A está contenido en B, entonces p(A) es menor o igual
que p(B), es decir:
Sí AB  p(A)  p(B)
B
C
4. Cualquiera que sea el suceso A se tiene: p(A)  1.
A
5. Si A y B son sucesos compatibles se verifica:
p(AB)=p(A)+p(B)-p(AB).
E
AB
A
AB
B
PROBABILIDAD CONDICIONADA
En una empresa hay 100 hombres y 100 mujeres, de los hombres fuman 70 y de las mujeres fuman 10.
Hombres
Mujeres
Fuman
70
10
No fuman
30
90
100
100
p (H  F) 70 / 200
p (H / F ) 

 7/8
p ( F)
80 / 200
80
120
p(H)=100/200
p(H/F)=7/8
p(F/H)=7/10
p(F/M)=1/10
p(H/no F)=1/4
p(M)=100/200
p(M/F)=1/8
p(no F/H)=3/10
p(no F/M)=9/10
p(M/no F)=3/4
Definición: dados dos sucesos A y B se denomina probabilidad condicionada del suceso A respecto del
suceso B, y denotamos por p(A/B), al cociente:
p (A / B) 
p (A  B)
p (B)
; si p (B)  0
De esta definición se deduce : p(AB)=p(A/B) · p(B)
SUCESOS DEPENDIENTES E INDEPENDIENTES
4
IES SC. BP.
Estadística y Probabilidad
Dos suceso A y B son independientes sí p(A/B)=p(A). En caso contrario se dicen dependientes:
p(A/B)p(A).
Si A es independiente de B, también B es independiente de A.
Ejemplo: En las extracciones de las cartas de una baraja serán independientes las extracciones con
devolución.
PROBABILIDAD COMPUESTA O DE LA INTERSECCIÓN DE SUCESOS
Si A y B son sucesos independientes: p(AB)=p(A) · p(B).
Si A y B son sucesos dependientes: p(AB)= p(A) · p(B/A)=p(B) · p(A/B).
Estas dos fórmulas se pueden generalizar para más sucesos.
Ejemplo: En la extracción de dos cartas sucesivas de una baraja española, ¿cuál es la probabilidad de
extraer dos reyes?
a) Sin devolver la carta después de la 1ª extracción:
p(R1R2)=p(R1) p(R2/R1)=4/40 · 3/39=1/130
b) Devolviéndola:
p(R1R2)=p(R1) p(R2/R1)= p(R1) p(R2)=4/40 · 4/40=1/100
TEOREMA DE LA PROBABILIDAD
TOTAL
Sean A1, A2,... An un sistema completo de sucesos:
 A1  A 2 A n  E
A  A  
i  j
j
 i

n
Sea B un suceso cualquiera, entonces: p(B)=
 p(A )p( B / A )
i
i
i 1
n
Demostración: p( B)  p( B  E)  p( B  (

n
A i ))  p(
i 1

i 1
n
( B  A i )) 

i 1
n
p( B  A i ) 
 p( A ) p ( B / A )
i
i
i 1
Ejemplo: Una caja contiene tres monedas P, S, T, la primera normal, la segunda tiene cara por los dos
lados y la tercera está trucada de forma que la probabilidad de salir cara es 1/3. Se elige una moneda al azar
y se tira al aire; hallar la probabilidad de que se obtenga cara.
p(C)=
11 1
1 1 11
 1

32 3
3 3 28
Teorema de Bayes
5
IES SC. BP.
Estadística y Probabilidad
 A1  A 2 A n  E
i  j
Sean A1, A2,... An un sistema completo de sucesos:  A  A  
j
 i
Nota: Al sistema completo de sucesos también se le denomina partición del espacio muestral E.
Sea B un suceso cualquiera, Si P( A1 ),  , P ( A2 ),  , P ( An ) son no nulas, entonces se verifica:
P( Ai / B ) 
P ( Ai  B )
P ( A ) · P ( B / Ai )
 n i
p( B )
 p( Ai ) p( B / Ai )
i 1
Notación:
Probabilidades iniciales o a priori: p(Ai)
Verosimilitudes: p(B/Ai)
Probabilidades finales o a posteriori: p(Ai/B)
Ejemplo: Si en ejemplo anterior de las tres monedas hemos obtenido cara, cuál sería la probabilidad de que
hubiésemos sacado la moneda T.
P(T / C ) 
P (T  C ) P (T ) · P (C / T ) 1 / 3 · 1 / 3


 28 / 99
P (C )
P (C )
11 / 28
DISTRIBUCIONES: BINOMIAL Y NORMAL
Variable aleatoria: Se llama variable aleatoria a toda aplicación del espacio muestral en el
conjunto de los números reales.
Ejemplo: En el lanzamiento de dos monedas al aire, E={(C,C),(C,X),(X,C),(X,X)}; la variable
aleatoria "nº de caras obtenidas" toma los valores: 0,1,2.
Tipos de variables aleatorias
Variable aleatoria discreta: es aquella que toma un nº finito de valores.
Ejemplo: El nº de pulsaciones de un enfermo, nº de aviones que aterrizan en un aeropuerto.
Variable aleatoria continua: es aquella que puede tomar cualquier valor de un intervalo real.
Ejemplo: La temperatura del cuerpo, la velocidad de un automóvil.
Variables aleatorias discretas
Función de masa de probabilidad: es una aplicación que asocia a cada valor xi de la variable
aleatoria su probabilidad pi=f(xi).
Normalmente se representa así:
xi
pi
x1
p1
x2
p2
...
...
xn
pn
n
 n
pi  1
 f (x i ) 
Obviamente se verifica :  i 1
i1
 f (x )  p  0
i
i

Ejemplo: Si consideramos el experimento aleatorio de lanzar dos dados al aire y la variable
aleatoria " número de puntos obtenidos". Su función de probabilidad será:


6
IES SC. BP.
Estadística y Probabilidad
xi
pi
2
1/36
3
2/36
4
3/36
5
4/36
6
5/36
7
6/36
8
5/36
9
4/36
10
3/36
11
2/36
12
1/36
Función de distribución:
Sea X una variable aleatoria discreta, cuyos valores suponemos ordenados de menor a mayor.
Llamaremos función de distribución de la variable aleatoria X a la función:
F
R 
R
x
 F(x)  P( X  x)
es decir la función de distribución asocia a cada valor de la variable aleatoria la probabilidad
acumulada hasta ese valor. Puede decirse que la función de distribución es la traducción al
modelo teórico de las frecuencias relativas acumuladas de una variable estadística.
Ejemplo: Sea X la variable aleatoria "nº de caras obtenidas al lanzar al aire dos monedas". La
función de probabilidad es:
xi
pi
0
1/4
1
1/2
2
1/4
0

1 / 4
F( x)  
3 / 4

1
Y la función de distribución es :
si
x0
si
0 x1
si
1 x  2
si
x2
Ejercicio: Hacer la representación gráfica de la función de distribución.
Propiedades de la función de distribución:
a) Es acumulativa
b) x R; F( x)  0
c) Es monótona creciente: x 1  x 2  F( x 1 )  F( x 2 )

 si
x  x1; F( x)  0

 si
x  xn ; F( x)  1
d) 
Media, Varianza y Desviación Típica de una variable aleatoria discreta
Media: x    Ex  
n
x p
i i
I 1
2
Varianza:   VAR x  
n
 (x
i
 x ) 2 pi 
I 1
n
x
2
i
pi  x 2
i 1
Desviación típica:   var ianza 
n
 (x
i
 x )2 pi 
I 1
n
x
2
i
pi  x 2
i 1
Ejemplo: Consideremos una variable aleatoria cuya función de probabilidad es:
X
P(x)
1
2/15
2
5/15
3
1/15
4
3/15
5
4/15
7
IES SC. BP.
Estadística y Probabilidad
Calculemos la media, varianza y desviación típica:
xi
1
2
3
4
5
pi
2/15
5/15
1/15
3/15
4/15
1
xipi
2/15
10/15
3/15
12/15
20/15
47/15
xi2pi
2/15
20/15
9/15
48/15
100/15
179/15
n
x
x p
i
i 1
n

i
47
15
 3.13
   xi p i  x 
2
2
2
179
i1
15
2
 3.13  2.13
  2.13  1.46
LADISTRIBUCIÓN BINOMIAL O DE BERNOUILLI
Se llama experimento de Bernouilli de n pruebas al experimento aleatorio que verifica las
siguientes condiciones:
a) En cada prueba sólo son posibles dos resultados, el suceso A y su contrario A . Al suceso A
lo llamaremos éxito, ya al contrario A fracaso.
b) El resultado obtenido en cada prueba es independiente de los resultados anteriores.
c) La probabilidad de que ocurra el suceso A no varía durante toda la prueba.
Ejemplos:
a) El lanzamiento de una moneda al aire 10 veces.
b) Los descendientes de una determinada pareja.
Representaremos por B(n,p) a la variable de la distribución binomial, siendo n y p los
parámetros de dicha distribución.
Función de Probabilidad
Si llamamos p=p(A) es decir a la probabilidad de éxito y q=1-p a la probabilidad de fracaso q=p(
A ). Realizamos n pruebas del experimento y deseamos saber la probabilidad de obtener r éxitos
en las n pruebas.
1º Consideremos uno de los casos en los que se obtienen r éxitos en las n pruebas. Será el
suceso:
B  A  A ... A  A  A ... A
r
exitos
nr
fracasos
La probabilidad de este suceso teniendo en cuenta la independencia en pruebas sucesivas es:
p(B)=prqn-r
 n
2º Las maneras posibles de obtener r éxitos y n-r fracasos es el número combinatorio   .
r 
3º Si representamos por X la variable aleatoria binomial que representa el número de éxitos
obtenidos en las n pruebas del experimento, se concluye:
 n
p(obtener r éxitos)=p(X=r)=   prqn-r
r 
Esta expresión recibe el nombre de función de probabilidad de la distribución binomial.
Media, Varianza y Desviación Típica de una Binomial
8
IES SC. BP.
Estadística y Probabilidad
x    E x  np;
Var ( X )    npq; DT  npq
Función de distribución
F
R  R
x  F( x)  P X  x 
x
 n i n  i
  p q
i1  i 

Ejemplos:
A) ¿Cuál es la probabilidad de que una familia con 6 hijos tenga 2 varones?
2
4
 6  1   1 
6! 1 15
•

Es una binomial B(6,1/2): Px  2       
4!2! 2 6 64
 2  2   2 
Con las tablas P[x=2=0.2344
Nota: Si tuviésemos una binomial B(8,0.6) Procederíamos con las tablas de la siguiente forma:
 8 2 6  8
6
2
P X  2    0.6 0.4    0.4 0.6  0.0413
tablas
 2
 6
B) Un examen tipo test consta de 10 preguntas, cada una de las cuales tiene 4 respuestas,
siendo sólo una de ellas correcta. Un alumno tiene "prisa" y decide contestar al azar. Se pide:
a) Probabilidad de acertar exactamente cuatro preguntas.
b) Probabilidad de no acertar ninguna.
c) Probabilidad de acertar todas.
d) Probabilidad de acertar al menos cinco (probabilidad de aprobar)
Sol:
 10
4
6
a) B(10,0.25); P( X  4 )    0.25 0.75  0.1460
4 
b) P(X=0)=0.0563
c) P(X=10)=0
d) P(X5)=p(X=5)+p(X=6)+p(X=7)+p(X=8)+p(X=9)+p(x=10)=0.0782
DISTRIBUCIONES CONTINUAS
FUNCIÓN DE DENSIDAD
La probabilidad en las distribuciones continuas se determina mediante funciones f(x), que
llamaremos funciones de densidad, caracterizadas por:
a) f(x)  0, para todo x, a  x b siendo a y b los extremos del campo de existencia de la variable
X.
b) El área bajo la curva determinada por f(x), entre a y b, es 1. Es decir:
b
 f (x)dx  1
a
c) La probabilidad de que la variable continua X esté en el intervalo [a,b, viene dada por el área
bajo la curva f(x) y los límites a y b; es decir:
9
IES SC. BP.
Estadística y Probabilidad
p( a  X  b ) 
b
 f (x)dx
a
Ejercicio:
0 x  0

Comprobar que f ( x)  2x 0  x  1 es una función de densidad de la variable aleatoria X.

0 x  1
FUNCIÓN DE DISTRIBUCIÓN
Como en el caso de la variable aleatoria discreta, la función de distribución proporciona la
probabilidad acumulada hasta un determinado valor de la variable:
F
R  R
x  F( x)  p( X  x ) 
x
 f ( t )dt
a
La relación entre la función de densidad y la de distribución es F'(x)=f(x)
Geométricamente: si la variable toma valores en todo R, la función de distribución es el área
comprendida entre la función de densidad, el eje OX desde - hasta x.
Propiedades de la función de distribución
Si el dominio de la variable aleatoria es todo R
a) Es monótona creciente: x 1  x 2  F( x 1 )  F( x 2 )
b) F(+)=1
c) F(-)=0
NOTA: Si a y b son números reales tales que a<b entonces:
p( a  x  b )  F ( b )  F ( a ) 

b


f ( x)dx 
a

b
 f (x)dx
f ( x)dx 
a
MEDIA, VARIANZA Y DESVIACIÓN TÍPICA DE VARIABLES ALEATORIAS CONTINUAS
x    E X 
 2  var( X) 






x f ( x)dx
( x  ) 2 f ( x) dx 




x 2 f ( x)dx   2
var( x)
Ejemplo: Dada la función de densidad de la variable aleatoria X:
x 0
0

f ( x)  kx 0  x  1

x1
0
Calcular:
a) k para que f sea una función de densidad
b) Calcular la función de distribución
c) p(0'25<x<0'75)
d) la media y la desviación típica
a)



f ( x)dx 

0


1
odx  kxdx 
0


1
1
2
kx 
k
odx 
   1 k  2
2  0 2
b)
10
IES SC. BP.
Estadística y Probabilidad

x
si x<0; F( x )  0dx  0

si 0  x  1; F( x ) 
si x>1; F( x ) 

0


0

odx 
odx 
1

0

x
0
2 xdx  x 2

x
2 xdx  0dx  1
1
x0
0  x 1
x 1
0
 2
entonces F( x )  x
1

c) p( 0'25  x  0'75)  F( 0'75)  F( 0'25)  0'75 2  0'25 2  0'5

1
d)   x f ( x) dx 
0
2
 
1
x
0
2

1
0
1
2 x 2 dx 
2x2 
2
 
3 
3
0
2
f ( x) dx   
1
4
1
 2x dx  3  18
3
0
LA DISTRIBUCIÓN NORMAL
Una variable aleatoria continua X sigue una distribución normal de parámetros  y  si verifica:
a) la variable aleatoria X recorre el intervalo (-,+).
b) Tiene como función de densidad f ( x) 
1
2
e
1 x  2
 (
)
2 
A esta distribución se la denota: N(,)
A la vista de la curva podemos destacar
las siguientes características:
1. El dominio o campo de existencia se
extiende a todo R.
2. Es simétrica respecto a la media de la
distribución.
3. Posee un máximo en (,f()), donde
se sitúan también la moda y la mediana.
4. En las abscisas - y + posee
sendos puntos de inflexión.
5. Tiene como asíntota horizontal y=0.
6. El área comprendida por la curva y
los límites del intervalo [-,+ es el
68.26% del total; si el intervalo es [-2,+2 es el 95.44% del total; y si es [-3,+3 el área
es el 99.74%.
LA DISTRIBUCIÓN N(0,1)
Si hacemos =0 y =1 la función de densidad es f ( x) 
1
2
e
2
 x /2
.
En general, el área bajo una curva normal cualquiera N(,) entre los valores +k y +k' sólo
depende de k y de k', por tanto coincide con el área bajo la normal N(0,1) entre k y k'.
Esta coincidencia permite conocer las área bajo una curva normal cualquiera, conocida una de
ellas, concretamente la más sencilla: N(0,1).
MANEJO DE LAS TABLAS DE LA N(0,1)
11
IES SC. BP.
Estadística y Probabilidad
CASO 1
P(xa)
P(x1'85)=0'9678
CASO 2
P(x-a)=P(xa)=1- P(xa)
P(x-1'85)=1- P(x1'85)=1-0'9678
CASO 3 P(axb)=P(xb)-P(xa)
P(1x1'85)=P(x1'85)-P(x1)=0'9678-0'8413
CASO 4
CASO 5
P(-axb)=P(xb)-P(x-a)=P(xb)-[1-P(xa)
P(-ax-b)=P(x-b)-P(x-a)=[1-P(xb)-[1-P(xa)=P(xa)-P(xb).
TIPIFICACIÓN DE LA VARIABLE
Si a una variable aleatoria X, de media  y desviación típica , la sometemos a la transformación
de restarle  y dividirla por  (llamada tipificación de la variable), la variable obtenida Z, tiene
media 0 y desviación típica 1. Es decir:
X
Si X es una variable aleatoria N(,), entonces la variable Z 
es N(0,1).

CÁLCULO DE ÁREAS PARA UNA N(,)
* Calcular P(x3) en N(8,3).
3 
3 8
5
P( x  3)  P( Z 
)  P( Z 
)  P( Z   )  0.9525

3
3
P
(
1

x

2
)
** Calcular
en N(8,3).
P(1  x  2)  P(
1 
2
7
7
Z
)  P(
 Z  2)  P( 2  Z  )  0.0129


3
3
LA NORMAL COMO APROXIMACIÓN DE LA BINOMIAL
Teorema de Moivre: Si X es una variable con distribución binomial B(n,p); entonces la variable
X  np
Z
es N(0,1) si n tiende a infinito.
npq
Aún cuando n no tienda a infinito se puede aproximar una binomial a una N(0,1) si np y nq son
ambos mayores o iguales que 5. Cuanto mayor sea n y p esté más próximo a 0'5, mejor será la
aproximación.
Ejemplo:
Para determinar la probabilidad de que haya más de 15 piezas defectuosas en una muestra de
110 piezas, si la probabilidad de defectuosa es 0’09; habrá que tener en cuenta que se trata de
una binomial B(110,0’09) y hacer el siguiente cálculo:
110
p (X  15) 
 110
x
110 x
 ( 0'09 ) ( 0'91)
x

i  16
 
que requiere el cálculo de 95 sumandos.
12
IES SC. BP.
Estadística y Probabilidad
Si hacemos la aproximación a la normal X’, N(110·0’09, 110 • 0'09 • 0'91 )
15'5  9'9
) =p(Z  1'87) =0’0307
3
La igualdad () está motivada porque la variable X discreta es sustituida por la variable X’ que es
continua, debiéndose hacer la corrección de continuidad, por la que las probabilidades puntuales
( de valor 0 para las variables continuas) son sustituidas por probabilidades de intervalo del
modo siguiente:
p(X=k)=p(k-0’5X’k+0’5)
y para otras situaciones:
p(Xk)=p(X’k+0’5)
p(X<k)=p(X’k-0’5)
p(X>k)=p(X’k+0’5)
p(Xk)=p(X’k-0’5)
p(X>15) * p(X’  15’5)=p(Z 
13