Download Introducción al análisis de datos experimentales

Document related concepts

Variable aleatoria wikipedia , lookup

Media (matemáticas) wikipedia , lookup

Distribución de probabilidad wikipedia , lookup

Muestra estadística wikipedia , lookup

Función de densidad de probabilidad wikipedia , lookup

Transcript
Estadística y Programación aplicada a la Química
Introducción al análisis de datos experimentales
Dr. Pedro Alberto Enríquez Palma
Área de Química Física
Departamento de Química
Licenciatura en Química, Universidad de La Rioja
Índice general
1. Errores, incertidumbres, precision y exactidud.
1.1. Errores e incertidumbres . . . . . . . . . .
1.2. Cifras o digitos significativos . . . . . . . .
1.3. Ejercicios y problemas . . . . . . . . . . .
1.3.1. Soluciones a los ejercicios . . . . .
1.4. Lecturas recomendadas . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2. Teoría estadística de los errores(I). Probabilidad
2.1. Definición de probabilidad . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1. El espacio muestral . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2. Definición empírica de probabilidad . . . . . . . . . . . . . . .
2.1.3. Definición aximática de probabilidad . . . . . . . . . . . . . .
2.1.4. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . .
2.2. Funciones de distribución de probabilidad. . . . . . . . . . . . . . . . .
2.2.1. Distribuciones de probabilidad de variables aleatorias discretas.
2.2.2. Distribuciones de probabilidad de variables aleatorias continuas
2.3. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . .
2.4. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3. Teoría estadística de los errores(II). Esperanza matemática
3.1. Esperanza matemática de una magnitud aleatoria . . . . . . . . . . . . .
3.1.1. Magnitudes aleatorias discretas . . . . . . . . . . . . . . . . . .
3.1.2. Magnitudes aleatorias continuas . . . . . . . . . . . . . . . . . .
3.1.3. Propiedades de la esperanza matemática . . . . . . . . . . . . . .
3.1.4. Momentos de una distribución. . . . . . . . . . . . . . . . . . . .
3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria
3.2.1. Media general de una magnitud aleatoria . . . . . . . . . . . . .
3.2.2. Media muestral de una magnitud aleatoria . . . . . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
6
10
12
13
14
.
.
.
.
.
.
.
.
.
.
.
15
16
16
16
18
19
20
21
24
29
30
31
.
.
.
.
.
.
.
.
33
34
34
34
34
35
38
39
39
0.0
Índice general
3.2.3. Varianza de una magnitud aleatoria. . . . . . . . . . . .
3.2.4. Dispersion o varinza muestral de una magnitud aleatoria
3.3. Mediana y moda . . . . . . . . . . . . . . . . . . . . . . . . .
3.4. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . .
3.4.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . .
3.5. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4.
Distribuciones de probabilidad de variables aleatorias discretas
4.1. Distribución uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Distribución binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1. Teorema de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1. La distribución de Poisson como límite de la distribución binomial . . . . . .
4.3.2. La distribución de Gaussiana o normal como límite de la distribución de Poisson
4.4. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.
Distribuciones de probabilidad de variables aleatorias continuas
5.1. Distribución uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Distribución normal o Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1. ¿Qué variables aleatorias siguen una distribución normal? . . . . . . .
5.3. La distribución t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.1. ¿Qué variables aleatorias siguen una distribución t de Student? . . . . .
5.4. La distribución χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4.1. ¿Qué variables aleatorias siguen una distribución χ2 ? . . . . . . . . .
5.4.2. Relación entre la distribución χ2 y la distribución normal . . . . . . . .
5.5. La distribución F de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5.1. ¿Qué variables aleatorias de interés siguen una distribución F de Fisher?
5.6. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.6.1. Soluciones a las cuestiones . . . . . . . . . . . . . . . . . . . . . . . .
5.6.2. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . .
5.7. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6. Intervalos de probabilidad e intervalos de confianza
6.1. Distribución de probabilidad del error aleatorio. . . . . . . . . . . . .
6.2. Intervalos de probabilidad . . . . . . . . . . . . . . . . . . . . . . .
6.2.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.2. Intervalos de probabilidad de las medidas . . . . . . . . . . .
6.2.3. Intervalos de probabilidad de las medias . . . . . . . . . . . .
6.2.4. Intervalos de probabilidad de las varianzas . . . . . . . . . .
6.3. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4. Calculo de intervalos de confianza para la media . . . . . . . . . . . .
6.4.1. Datos distribuidos normalmente con varianza σ 2 (x) conocida
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
42
44
45
46
47
49
50
51
55
55
57
58
59
62
65
.
.
.
.
.
.
.
.
.
.
.
.
.
.
67
. 69
. 70
. 75
. 80
. 81
. 84
. 84
. 87
. 88
. 88
. 92
. 95
. 96
. 103
.
.
.
.
.
.
.
.
.
.
105
106
106
106
107
108
108
109
109
113
113
.
.
.
.
.
.
.
.
.
.
0
6.5.
6.6.
6.7.
6.8.
6.9.
Índice general
6.4.2. Datos distribuidos normalmente con varianza finita y con n grande . . . . . .
6.4.3. Datos distribuidos normalmente con varianza σ 2 (x) desconocida . . . . . . .
6.4.4. Datos que siguen una distribución desconocida con varianza finita y con n
pequeña . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Calculo de intervalos de confianza para la varianza . . . . . . . . . . . . . . . . . .
Cálculo de intervalos de confianza para la diferencia de las medias . . . . . . . . . .
6.6.1. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) conocidas . . .
6.6.2. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconocidas
pero iguales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.6.3. Datos que siguen cualquier distribución con varianza finita y con n1 y n2
grandes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.6.4. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconocidas y
distintas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Análisis de datos emparejados . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7. Cálculo de errores
7.1. Cálculo de errores en medidas directas . . . . . . .
7.1.1. Errores de escala . . . . . . . . . . . . . .
7.1.2. Errores de sistemáticos . . . . . . . . . .
7.1.3. Errores accidentales o aleatorios . . . . . .
7.2. Desestimación de medidas . . . . . . . . . . . . .
7.2.1. El ensayo de la Q de Dixon . . . . . . . . .
7.2.2. La técnica de la τ de Thompson modificada
7.3. Cálculo de errores de medidas indirectas . . . . . .
I Apéndices
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
113
114
116
116
117
118
118
119
120
120
123
130
131
132
132
132
132
135
135
136
138
141
A. Tablas estadísticas
143
A.1. Área bajo la curva normal tipificada . . . . . . . . . . . . . . . . . . . . . . . . . . 143
A.2. Valores de las percentilas tp para un distribución t de Student con ν grados de lbertad 145
A.3. Valores de las percentilas χ2p para un distribución χ2 de Student con ν grados de lbertad146
A.4. Valores de las percentilas F0,95 (ν1 , ν2 ) para un distribución F . . . . . . . . . . . . . 147
A.5. Valores de las percentilas F0,99 (ν1 , ν2 ) para un distribución F . . . . . . . . . . . . . 148
3
0.0
Índice general
4
1
Errores, incertidumbres, precision y exactidud.
Contenidos
Objetivos
✍ Errores e incertidumbres. Concepto de error. Tipos de errores. Error
de escala y resolución. Exactitud y precisión.
✍ Cifras y dígitos significativos. Normas de redondeo y truncamiento.
✓ Errores e incertidumbre
☞ Comprender el concepto de error
☞ Distinguir entre los errores sistemáticos y aleatorios
☞ Reconocer el error de escala
☞ Comprender los conceptos de precisión, exactitud y sesgo
✓ Cifras significativas
☞ Determinar el número de cifras significativas de un número
☞ Escribir correctamente un número en notación científica
☞ Redondear correctamente un resultado
5
1.1
1.1. Errores e incertidumbres
1.1.
Errores e incertidumbres
En la determinación experimental de una magnitud no podemos definir error como la diferencia
entre el valor observado de la magnitud y su valor real: no conocemos este supuesto valor real sólo
disponemos de aproximaciones a ese valor obtenidas en otros experimentos o a partir de predicciones
teóricas. Sin embargo, podemos acotar el intervalo de valores que puede asumir esa magnitud al
realizar la medida.
Suponga que conocemos el valor real del observable1 , A. A la diferencia entre el valor del observable A y el valor obtenido en la medida, ai , la denominaremos error absoluto, ei :
ei = |A − ai |
(1.1)
Como es imposible determinar A, no podemos determinar ei . Lo que si podemos hacer es estimar
el intervalo de valores en que esperamos encontrar A de modo que la diferencia entre la medida, ai , y
A sea menor o igual que un cierto error, εi :
εi = |A − ai |
(1.2)
A − ai ≤ ε i ≥ A + ai
(1.3)
Así, es conveniente representar el valor real que intentamos aproximar (y no conocemos) con un
intervalo centrado en la medida ai :
A = ai ± ε i
(1.4)
εi es el error absoluto o incertidumbre de la medida.
Podemos distinguir tres tipos de contribuciones a la disparidad entre las observaciones experimentales y el valor real:
errores ilegítimos
errores sistemáticos
errores aleatorios
Los errores ilegítimos2 son aquellos causados por errores de cálculo o en la realización del experimento. Afortunadamente estos son fácilmente detectables, ya sea porque el resultado de la medida
es un valor físicamente improbable o porque los resultados difieren considerablemente de otras determinaciones. Estos errores se corrigen repitiendo las operaciones erroneas o el experimento.
Los errores sistemáticos (o determinados) son aquellos que afectan a las distintas medidas de un
modo previsible. Su determinación no es siempre fácil, puesto que no siempre es posible estimar su
efecto y sólo pueden detectarse mediante un análisis detallado del procedimiento experimental. Si el
tipo y magnitud de este error es conocido, la medida puede ser corregida para compensar por este
1
2
observable: propiedad que puede medirse experimentalmente
También llamados errores groseros o accidentales
6
1
1.Errores, incertidumbres, precision y exactidud.
error. En otros casos la incertidumbre asociada a este efecto ha de ser estimada y combinada con
aquella asociada a los errores aleatorios.
Un caso particular de error sistemático es el error de escala. Este resulta de la capacidad limitada,
resolución, para distinguir dos valores muy próximos de la magnitud medida. La resolución es por
tanto una característica del instrumento y siempre tiene un valor distinto de cero. Salvo que el constructor indique lo contrario, su valor puede estimarse como un medio de la unidad que corresponde
a las divisiones más próximas de la escala (lectura analógica) o a los cambios más pequeños de un
contador (lectura digital).
Ejemplo 1. Error de escala
Considere un termómetro con una graduación en divisiones de decimas de grado. El error de
escala puede estimarse como en 0.05 o C.
Este error es constante y afecta a todos las medidas efectuadas. Así, si leemos una temperatura
de 36.5 o C, al tener en cuenta la resolución del termómetro, podemos expresar el valor de la
temperatura como 36.50 ± 0.05 o C. Es decir, la temperatura está comprendida entre 36.45 y
36.55 o C.
Ejemplo 2. Error sistemático
Para una determinación de una longuitud se utilizó un metro de aluminio.
Las medidas fueron realizadas a una temperatura de 20 o C, obteniendose una media de las medidas de 1.982 m.
Tras completar el experimento se advirtió que el metro se habia calibrado a 25 o C y que el
aluminio utilizado tenia un coeficiente de expansión lineal de 0.005 m.o C−1 . Es decir, las lecturas
del metro a 20 o C no son correctas.
7
1.2
1.1. Errores e incertidumbres
¿Pueden corregirse el resultado obtenido?. Para corregir el error tendemos en cuenta como afecta
la temperatura a las medidas del metro:
l(T ) = l(25o C) × (1 − 0,005T )
donde l(T ) es la longitud del metro a distintas temperaturas, y T la temperatura en grados Celsius.
Utilizando esta ecuación se obtiene que el valor de la longitud es 1.977± 0.005 m. Este valor
difiere del valor sin corregir.
Los errores aleatorios (accidentales o indeterminados) son debidos a factores que sufren pequeñas
variaciones durante la medida y que hacen que medidas sucesivas de la misma magnitud difieran.
Por ejemplo, el resultado de una pesada en una balanza de precisión puede verse afectado por las
vibraciones del platillo, las vibraciones producidas por otros aparatos presentes en el laboratorio,
etc. En general la fuente de estos errores no es conocida y por su carácter aleatorio pueden tratarse
estadísticamente.
La figura 1.1. muestra el efecto de errores sistemáticos y accidentales sobre el resultado de una
medida.
Algunas definiciones relacionadas con los errores son:
exactitud segun la ISO [3] se define como "grado de concordancia entre el resultado de un ensayo y
el valor de referencia aceptado". Tiene en cuenta todas las fuentes de error del experimento.
precisión propiedad relacionada con la magnitud de los errores aleatorios. Cuanto mayor es la precisión, menor es la magnitud de los errores aleatorios.
sesgo medida del error sistemático. Unas medidas sesgadas tienden a ser mayores o menores que el
valor de referencia.
Ejemplo 3. Precisión y sesgo
La tabla recoge los resultados de volumetrías de 10 ml de NaOH 0.1 M con HCl 0.1 M realizadas
por distintos experimentadores. Teniendo en cuenta, la media, desviación típica y la distribución
de los datos podemos describir la exactitud, precisión y sesgo de los datos [3, tabla 1.1].
experimentador
volumen (ml)
precisión y sesgo
A
10.08 10.11 10.09 10.10 10.12
preciso
sesgado
B
9.88 10.14 10.02 9.80 10.21 impreciso insesgado
C
10.19 9.79
9.69 10.05 9.78 impreciso sesgado
D
10.04 9.98 10.02 9.97 10.04
preciso
insesgado
En general, los errores sistemáticos y accidentales tienen distinta fuentes y pueden ser tratados
independientemente, la incertidumbre de una medida puede expresarse como
εtotal = εsistematica + εaleatorio
8
(1.5)
1
1.Errores, incertidumbres, precision y exactidud.
Figura 1.1: Comparación de errores sistemáticos y accidentales. Los errores sistemáticos están asociados con la exactitud de la medida mientras que los errores accidentales o aleatorios con su precisión.
Figura 1.2: Distribución de las medidas de la tabla del ejemplo 3 [3, figura1]
9
1.2
1.2. Cifras o digitos significativos
1.2.
Cifras o digitos significativos
Para indicar el valor de una magnitud experimental se han de proporcionar el máximo número de
cifras significativas que permita la precisión del experimento.
Cualquier número en valor absoluto puede expresarse como una serie de potencias
|x| =
∞
X
αi 10m
(1.6)
m=i
donde αm es un dígito del 0 al 9, e i es un entero tal que
1 ≤
|x|
≤ 10
10i
(1.7)
Las cifras significativas se definen como:
1. el dígito menos significativo es aquel no nulo más a la izquierda
2. el dígito más significativo es aquel más a la derecha que tenga el mismo orden de magnitud que
la incertidumbre del experimento
3. el número total de dígitos significativas comprende todos aquellos que van del dígito más al
menos significativo
Ejemplo 4. Número de cifras significativas
¿Cuantas cifras significativas tiene el número 0, 00370?.
En el número 0, 00370 los tres primeros dígitos no son significativos puesto que sólo sirven para
indicar el orden de magnitud de la medida.
El último cero si es significativo puesto que el número 0,00370 es diferente a 0, 00369, 0, 00371,
0, 00372, . . . . El número tiene 3 cifras significativas.
Note que 0,00370 es diferente a 0,0037 porque este número sólo tiene dos cifras significativas.
Una consecuencia del resultado del ejemplo anterior es que hay que tener cuidado cuando escribimos el resultado de una medida en distintas unidades. Hay que tener cuidado con el número de cifras
significativas. Por ejemplo, el equivalente en gramos de 3,2 Kg es 3,2 103 g no 3200 g. Esta número
no es correcto puesto que supondría que el resultado del peso en Kg lo conocemos con cuatro cifras
significativas.
Un método que evita ambigüedades a la hora de determinar que cifras son significativas es expresar los números en notación científica. En esta notación el número se expresa como el producto de
otro número (mantisa) que contiene las cifras significativas, la primera de las cuales ocupa la columna
de las unidades, por una potencia de diez.
10
1
1.Errores, incertidumbres, precision y exactidud.
Ejemplo 5. Notación científica
El número 150000 puede expresarse en notación científica como
1.5 105 → si tiene dos cifras significativas.
1.50 105 → si tiene tres cifras significativas.
1.500 105 → si tiene cuatro cifras significativas.
Cuando una magnitud se calcula con un número de cifras superior al de cifras significativas conviene suprimir las no significativas. A este procedimiento se le denomina redondeo. Al suprimir estas
se introduce un error (error de truncamiento) que afectará a las operaciones en las que se incluya esta
magnitud. Este error ha de minimizarse, e intentar mantenerlo por debajo de la incertidumbre de la
medida. Para ello seguiremos las reglas siguientes:
1. Si el primer dígito despreciado es menor que 5 no se modifica el dígito más significativo.
2. Si el primer dígito despreciado es mayor que 5 se suma uno al dígito más significativo.
3. Si el primer dígito despreciado es 5, suma uno al dígito más significativo si éste es impar; no se
modifica en caso contrario. Aunque esta regla parezca arbitraria, se puede demostrar que de no
usarse esta u otra similar, induciríamos un error sistemático.
Otra regla a tener en cuenta al determinar las cifras significativas supone que si no se proporciona
ningún dato relativo a la incertidumbre de la medida consideramos que todas sus cifras son significativas y que estas son el mayor número que se puede leer con la escala del aparato usado en la
medida.
Ejemplo 6. Redondeo y truncamiento
Redondee los siguientes número al número de cifras significativas adecuado:
7,56128 ± 0,02 →7,56 ± 0,02
7,56128 ± 0,1 →7,6 ± 0,1
1,2451 ± 0,01 →1,24 ± 0,01
1,245 ± 0,01 →1,24 ± 0,01
1,235 ± 0,01 →1,24 ± 0,01
413,73500 ± 0,05 →(4,1374 ± 0,0005)102
11
1.3
1.3. Ejercicios y problemas
1.3.
Ejercicios y problemas
Errores
Cuestión 1.1 Verdadero o falso.
Los errores aleatorios de una medida son impredecibles. Sin embargo, la media de estos errores
es cero.
Cuestión 1.2 Verdadero o falso.
Los errores sistemáticos de una medida pueden permanecer constantes o variar de una manera
predecible (aunque no conozcamos la forma de esa variación).
Cuestión 1.3 Verdadero o falso.
Los errores sistemáticos no pueden eliminarse calculando la media de un conjunto de medidas.
Cuestión 1.4 Eliga la respuesta adecuada
Cuando se resta el blanco a una serie de medidas se intenta eliminar una fuente de error aleatorio|sistemático|escala.
Ejercicio 1.1 Una muestra patrón de suero sanguíneo humano contiene 42.0 g de albúmina por litro.
Cinco laboratorios (A-E) realizan cada uno seis determinaciones (en el mismo día) de la concentración de albúmina, con los siguientes resultados (en gl−1 ):
laboratorio
A
B
C
D
E
concentración de albumina, gl−1
42.5 41.6 42.1 41.9 41.1 42.2
39.8 43.6 42.1 40.1 43.9 41.9
43.5 42.8 43.8 43.1 42.7 43.3
35.0 43.0 37.1 40.5 36.8 42.2
42.2 41.6 42.0 41.8 42.6 39.0
Comentar el sesgo, precisión y exactitud de cada uno de estos conjuntos de resultados.
[3, Ejercicio 1]
Ejercicio 1.2 Utilizando la misma muestra y el método del ejercicio anterior, el laboratorio A realiza otras seis determinaciones posteriores de la concentración de albúmina, esta vez en seis días
sucesivos. Los valores obtenidos son 41.5, 40.8, 43.3, 41.9, y 41.7 g.l−1 . Comentar estos resultados.
[3, Ejercicio 2]
Ejercicio 1.3 Se ha determinado cuatro veces el número de lugares de unión por molécula en una
muestra de anticuerpos monoclonados, con resultados de 1.95, 1.95, 1.92 y 1.97.
Comentar el sesgo, precisión y exactidud de estos resultados
[3, Ejercicio 3]
12
1
1.Errores, incertidumbres, precision y exactidud.
Cifras significativas
Cuestión 1.5 Explique la diferencia entre redondeo y trncamiento
Ejercicio 1.4 Indique el número de cifras significativas y exprese en notación cientifica las siguientes
magnitudes:
(a) 12.08 m. (b) 5.43 1012 s−1 (c) 0.12 10−3 cal
(d) 0.0250 g (e) 2500.2 Å (f) 10.5 10 2 eV
Ejercicio 1.5 A partir de los resultados de un experimento se calculo que el valor de la energía de
ionización del rubidio es de 403.028 kJ mol −1 . Por otra parte se estimo que la incertidumbre de
dicho calculo en 0.2 kJmol−1 . Indique el resultado con el número correcto de cifras significativas.
1.3.1.
Soluciones a los ejercicios
Errores
Ejercicio 1.1 Los resultados de la media g.l−1 para los laboratorios A-E son: 41.9, 41.9, 43.2, 39.1,
41.5. De aquí:
A - preciso, poco sesgo, media exacta
B - precisión pobre, poco sesgo, media exacta pero no muy fiable
C - preciso pero sesgado a valores altos, exactitud pobre
D - precisión pobre, sesgado a valores bajos, pobre exactitud
E -similar a A, pero el último resultado podría ser un valor anómalo
Ejercicio 1.2 El laboratorio A aún muestra poco sesgo, pero la precisión es más pobre, reflejando
reproducibilidad (es decir, precisión entre días) pero no repetibilidad (precisión dentro de días).
Ejercicio 1.3 El número de posiciones de enlace debe ser un número entero, 2 en este caso, de
manera que los resultados son precisos, pero sesgados a valores bajos. El sesgo no es importante, ya
que pueden de ducirse dos posiciones de enlace.
Cifras significativas
Ejercicio 1.4 (a) Cuatro cifras significativas. → 1.208 101 m.
(b) Tres cifras significativas. → 5.43 1012 s−1 .
(c) Dos cifras significativas. → 1.2 10−4 cal.
(d) Tres cifras significativas. → 2.50 10−2 g.
(e) Cinco cifras significativas. → 2.5002 103 Å.
(f) Tres cifras significativas. → 1.05 103 eV.
Ejercicio 1.5 4,03 ± 0,20 kJ.mol−1
13
1.4
1.4. Lecturas recomendadas
1.4.
Lecturas recomendadas
Para completar la preparación de este tema recomendamos la lectura de:
☞ Capítulo 1. Introducción del libro de Miller y Miller[3]. X
El texto es claro y del mismo nivel que el del curso. Aunque el libro está orientado hacia las
aplicaciones de la Quimiometría en Química Analítica, los contenidos son de carácter general.
☞ Introducción del texto de Spiridonov y Lopatkin[7].
☞ Chapter 1. Uncertainties in measurements del libro de Bevington y Robinson[1]
14
2
Teoría estadística de los errores(I). Probabilidad
Contenidos
Objetivos
✍ Introducción. Error aleatorio y probabilidad.
✍ Definición de probabilidad. Espacio muestral y sucesos. Magnitud
aleatoria discreta y continua. Definición empírica de probabilidad. Definición axiomática de probabilidad.
✍ Funciones de distribución de probabilidad: variables aleatorias discretas. Función de probabilidad o función de frecuencia. Función de distribución de probabilidad acumulada.
✍ Funciones de distribución de probabilidad: variables aleatorias
continuas. Función de distribución de probabilidad o de densidad de probabilidad. Función de distribución de probabilidad integrada.
✓ Definición de probabilidadErrores e incertidumbre
☞ Comprender la relación entre el error aleatorio y la probabilidad
☞ Conocer la definición axiomática de probabilidad y las consecuencias
que se derivan de ésta
☞ Comprender la relación entre frecuencia de un suceso y probabilidad de
que este se produzca
✓ Funciones de distribución de probabilidad
☞ Realizar cálculos básicos de probabilidad para variables aleatorias discretas
☞ Realizar cálculos básicos de probabilidad para variables aleatorias continuas
15
2.1
2.1. Definición de probabilidad
Como vimos en el tema 1, los errores accidentales son debidos a las fluctuaciones de las distintas
variables que influyen sobre el experimento. Esto se manifiesta en que medidas repetidas en condiciones aparentemente idénticas difieren. Por este carácter aleatorio, los errores accidentales pueden
tratarse estadísticamente.
El objetivo de la teoría estadística de los errores es múltiple: obtener una apreciación óptima del
valor de la magnitud medida, estimar el error accidental en su determinación, verificar si el resultado
es compatible con determinadas hipótesis que puedan establecerse sobre la magnitud que se mide,
etc.
Toda teoría estadística de los errores se basa en dos postulados generales:
(a) la medida experimental de una magnitud es una variable aleatoria que cumple la ley de estabilidad estadística o de los grandes números según la cual las medidas se concentran en torno a un valor
medio, que cuando el número de observaciones es grande (en el límite de infinito) se convierte en un
valor constante, independiente del número de observaciones.
(b) la probabilidad de que observemos un valor distinto del valor medio puede caracterizarse
mediante una función (función de distribución de probabilidad).
La forma concreta de la función de distribución de probabilidad puede ser establecida a partir de
medidas experimentales o, postulada y posteriormente contrastada con los experimentos. Al postular
distintas distribuciones de probabilidad se tendrá una determinada teoría estadística y la interpolación de los resultados experimentales será diferente. Generalmente consideraremos que la función de
distribución que caracteriza nuestras medidas es una función de distribución normal o Gaussiana1 .
2.1.
Definición de probabilidad
2.1.1. El espacio muestral
En teoría estadística al conjunto de todos los posibles resultados de una medida se le denomina
espacio muestral, S. Por ejemplo,
(i) En un experimento se miden el número de partículas emitidas por una fuente radiactiva. El
espacio muestral está formado por los números 0, 1, 2, ... Puesto que la magnitud determinada en el
experimento es una magnitud aleatoria discreta, el espacio muestral es un conjunto contable.
(ii) En un experimento se determina el volumen necesario de ácido que hay que utilizar para
alcanzar el punto de equivalencia en una valoración ácido-base. El volumen puede tomar cualquier
valor, tal que V > 0. La magnitud estudiada es una magnitud aleatoria continua y el espacio muestral
puede ser cualquier número real positivo (V > 0) y el espacio muestral es un conjunto no contable.
Cada posible subconjunto del espacio muestral se le denomina suceso, A. Un suceso que corresponde al resultado de una medida constituye un suceso elemental o simple.
2.1.2. Definición empírica de probabilidad
Intuitivamente identificamos la probabilidad de un suceso con la frecuencia con la que esperamos
que este ocurra. Podeamos definir la probabilidad de suceso A, P(A), como la frecuencia con que este
1
Estudiaremos esta función de distribución de probabilidad en el tema 5 Distribuciones de probabilidad de variables
aleatorias continuas
16
2
2.Teoría estadística de los errores(I). Probabilidad
se produce en un experimento. De acuerdo con esta definición
P (A) =
nA
N
(2.1)
donde nA es el número de veces que se repite el suceso A, y N es el número total de experimentos.
Aunque esta definición sea suficiente para satisfacer nuestra intuición tiene serias limitaciones.
Entre otras:
P(A) depende del número total de medidas.
P(A) depende del experimento: al repetir el experimento el valor de P(A) puede variar.
Ejemplo 1. Limitaciones de la definición empírica de probabilidad
Para demostrar las limitaciones de la definición empírica de probabilidad examinaremos un experimento consistente en contar el número de caras que aparecen al lanzar cuatro monedas al
aire.
Para estimar la frecuencia esperada para cada suseso calcularemos el número de veces que esperamos observar un evento,nA , (contar dos caras) frente al número total posibles combinaciones
de caras y cruces.
Número de caras
0
1
2
3
4
combinaciones
XXXX
CXXX, XCXX
XXCX, XXXC
CCXX, CXCX, CXXC
XCCX, XCXX, XXCC
CCCX, CXCC,
CXCC, XCCC
CCCC
nA
P (A)
1
4
1
16
4
16
6
6
16
4
4
16
1
1
16
Utilizando un programa de ordenador se simuló el experimento de lanzar cuatro monedas al
aire un gran número de veces. Para calcular el número de caras que se espera observar en cada
experimento se calculo este como N × P (A).
17
2.1
2.1. Definición de probabilidad
Número de caras
16 lanzamientos
Esperado
Experimento 1
Experimento 2
160 lanzamientos
Esperado
Experimento 3
1600 lanzamientos
Esperado
Experimento 3
16000 lanzamientos
Esperado
Experimento 3
0
1
2
3
4
1
2
3
4
7
4
6
2
4
4
4
5
1
1
0
10
9
40
40
60
61
40
38
10
12
100
125
400
403
600
567
400
409
100
96
1000 4000 6000 4000 1000
1009 3946 5992 4047 1006
En el ejemplo anterior se observa que el acuerdo entre la predicción teórica (número de observaciones esperadas) y el resultado experimental mejora con el número de ensayos. Esto indica que
conforme el número de experimentos aumenta la frecuencia muestral o experimental se aproxima a
la frecuencia teórica. Este observación ilustra la ley de los grandes números: para valores suficientemente grandes del número de medidas, N, las frecuencias muestrales se aproximan a la probabilidad
conforme aumenta de N.
2.1.3. Definición aximática de probabilidad
Supongamos que tenemos un espacio muestral S. Para cada suceso A de este espacio muestral,
asociamos un número real P(A). Entonces P es una función real que se denomina función de probabilidad y P(A) la probabilidad del suceso A, si se cumplen los axiomas siguientes:
Axioma 1. Para cada suceso A, P (A) ≥ 0.
Axioma 2. Para el suceso cierto o seguro: P (S) = 1.
Axioma 3. Para dos sucesos cualesquiera, A y B, la probabilidad del suceso que se obtenga A o se
obtenga B, P (A ∪ B), viene dada por
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
(2.2)
que se simplifica cuando los sucesos son mutuamente excluyentes ( P (A ∩ B) = 0)
P (A ∪ B) = P (A) + P (B)
como se ilustra en el diagramas de Venn de la figura 2.1.
Esta propiedad puede generalizarse a cualquier número de sucesos.
18
(2.3)
2
2.Teoría estadística de los errores(I). Probabilidad
Figura 2.1: Diagrama de Venn que ilustra el significado de P (A ∩ B).
Algunas consecuencias de estos axiomas son:
☞Para cada suceso P(A):
0 ≤ P (A) ≤ 1
(2.4)
es decir la probabilidad de un suceso está entre cero y uno.
☞El suceso imposible tiene probabilidad nula, P (∅) = 0.
☞Si A’ es el suceso complemento de A entonces:
P (A0 ) = 1 − P (A)
(2.5)
2.1.4. Probabilidad condicional
La probabilidad de que dos sucesos A y B ocurran simultáneamente, P (A ∩ B), viene dada por
P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)
(2.6)
donde P (B|A) es la probabilidad condicional de que suceda B si ha ocurrido A.
Si A y B son sucesos independientes, P (B|A) = P (B),
P (A ∩ B) = P (A) × P (B)
19
(2.7)
2.2
2.2. Funciones de distribución de probabilidad.
Ejemplo 2. Calculos con probabilidades condicionales
Suponga que dispone de una bolsa con tres bolas rojas y cuatro bolas azules. Calcule la probabilidad de extraer una bola roja y después una azul, si (a) no reemplaza la bola extraída, y (b) se
reemplaza la bola extraída.
(a)
3 4
P (R1 ∩ A2 ) = P (R) P (A|R) = × = 0,29
7 6
P (R) =
P (A|R) =
bolas rojas
3
=
bolas
7
bolas azules
4
=
bolas
6
(b)
P (R1 ∩ A2 ) = P (R) P (A|R) = = P (R) P (A) =
P (R) =
P (A|R) =
2.2.
3 4
× = 0,24
7 7
bolas rojas
3
=
bolas
7
bolas azules
4
=
bolas
7
Funciones de distribución de probabilidad.
Debido a los errores aleatorios los resultados de medidas realizadas en idénticas condiciones producen valores distintos. Esto supone que las medidas experimentales son magnitudes aleatorias.
De acuerdo con los posibles resultados de la medida podemos tener:
Magnitudes discretas: pueden tomar valores discretos y corresponden a variables aleatorias
discretas.
Magnitudes continuas pueden tomar cualquiera de los valores de un intervalo finito o infinito
y corresponden a variables aleatorias continuas..
En la primera categoría entra un experimento de conteo de fotones. En este se mide el número
de fotones que cuenta un fotomultiplicador en la unidad de tiempo. Este sólo puede ser un número
natural: 0,1,2,..., 200, . . . , puesto que no podemos contar fracciones de fotón. A la segunda categoría
pertenecen las medidas de conductividad de una disolución de electrolitos que pueden tomar cualquier
valor dentro de un intervalo: el resultado de la medida es un número real.
En adelante para hacer referencia a la magnitud aleatoria utilizaremos letras mayúsculas, mientras
que para los resultados de un experimento utilizaremos letras minúsculas.
20
2
2.Teoría estadística de los errores(I). Probabilidad
2.2.1. Distribuciones de probabilidad de variables aleatorias discretas.
Sea X una variable aleatoria discreta. Supongamos que los valores que puede tomar estan dados
por x1 , x2 , x3 , . . . ordenados en orden creciente de valor.
La probabilidad de obtener el valor xi , P (xi ), viene dada por
P (xi ) = f (xi )
(2.8)
donde f (xi ) es la función de probabilidad o función de frecuencia de X.
De acuerdo con la definición axiomática de probabilidad, f (xi ) cumple:
f (xi ) ≥ 0
N
X
(2.9)
f (xi ) = 1
(2.10)
i=1
donde N es el número total de posibles valores que puede tomar xi .
Se define como función de distribución probabilidad acumulada o función de distribución de X,
F (xk ) a la probabilidad de que la variable aleatoria tome un valor x tal que x ≤ xk ,
F (xk ) = P (X ≤ xk )
(2.11)
donde xk es cualquier número real en el intervalo - ∞ < x < +∞.
Es importante que tenga en cuenta que cuando trabajamos con magnitudes aleatorias discretas:
f (xi ), función de probabilidad o función de frecuencia de X. Probabilidad de que la variable
aleatoria X tome el valor xi
F (xi ): función de distribución probabilidad acumulada. Probabilidad de que la variable aleatoria X tome cualquier valor, xj que cumpla xj ≤ xi
¿Cómo se calcula F (xk )?
F(xk ) se puede calcular a partir de f(x) como
F (xk ) =
X
xi ≤xk
F (xk ) es una función monótona creciente.
21
f (xi )
(2.12)
2.2
2.2. Funciones de distribución de probabilidad.
Si X toma únicamente un número finito de valores x1 , x2 , x3 , . . . xk entonces la función de distribución acumulada viene dada por:

0
−∞ < xk < x1




f
(x
)
−∞
< xk < x2

1



f (x1 ) + f (x2 )
−∞ < xk < x3

...
...
F (xk ) =
(2.13)


f
(x
)
+
f
(x
)
+
·
·
·
+
f
(x
)
−∞
<
x
<
x

1
2
n
k
n+1



.
.
.
.
.
.



1
xk < +∞
Ejemplo 3. Cálculo de la función de distribución de probabilidad acumulada, F (xk ), de
una variable aleatoria discreta
Considere la variable aleatoria X="número de caras que se obtiene al lanzar cuatro monedas al
aire".
Determinar las funciones de probabilidad y de distribución de X.
x
f (x)
0
1
2
3
4
1
16
4
16
6
16
4
16
1
16
F (xk ) puede obtenerse a partir de f (x) utilizando la ecuación 2.12
X
F (xk ) =
f (xi )
xi ≤xk
x<0 x<1 x<2 x<3 x<4 x≥0
1
5
11
15
F (x)
0
1
16
16
16
16
22
2
2.Teoría estadística de los errores(I). Probabilidad
Figura 2.2: Funciones de probabilidad, f (xi ) y de distribución de probabilidad acumulada, F (xk )
para el ejemplo 3.
23
2.2
2.2. Funciones de distribución de probabilidad.
2.2.2. Distribuciones de probabilidad de variables aleatorias continuas
Sea una variable continua X. La función de distribución de probabilidad o función de densidad
de probabilidad , f (x), proporciona la probabilidad de que la magnitud aleatoria se encuente en el
intervalo [x, x + dx]
P (x ≤ X ≤ x + dx) = f (x)
(2.14)
De acuerdo con la definición axiomática de probabilidad, f (x) cumple:
f (x) ≥ 0
Z
(2.15)
+∞
f (x)dx = 1
(2.16)
−∞
La probabilidad de que X se encuentre en el intervalor [a, b] viene dada por
Z
P (a ≤ X ≤ b) =
b
f (x)dx
(2.17)
a
Es importante tener en cuenta que para una variable aleatoria continua, P (X = xi ) = 0,
P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X ≤ b) = P (a < X < b)
(2.18)
Figura 2.3: Funciones de densidad de probabilidad, f (x) de una variable aleatoria continua. SignifiRb
cado de P (a ≤ x ≤ b) = a f (x)dx.
24
2
2.Teoría estadística de los errores(I). Probabilidad
Por analogía con las funciones de distribución de probabilidad discretas se puede definir la función
de distribución de probabilidad integrada de una variable aleatoria continua, F (xi ), continua como:
Z xi
F (xi ) = P (X ≤ xi ) = P (−∞ ≤ X ≤ xi ) =
f (u)du
(2.19)
−∞
A partir de esta definición se pueden obtener las siguientes relaciones:
b
Z
P (a ≤ X ≤ b) =
Z
b
Z
a
a
f (x)dx −
f (x)dx =
−∞
f (x)dx = F (b) − F (a)
(2.20)
−∞
P (X > a) = 1 − P (X ≤ a) = 1 − F (a)
(2.21)
ya que x>a es el suceso complementario a x ≤ a.
Algunas propiedades de F(x) son:
En todo el intervalo en que f(x) es continua,
f (x) =
dF (x)
dx
Si x2 >x1 tendremos que F(x2 ) >F(x1 ). Es decir F(x) es monótona creciente.
F (−∞) = 0 y F (+∞) = 1
Figura 2.4: Funciones de distibución de probabilidad, F (x). Significado de P (a ≤ x ≤ b) = F (b) −
F (a)
25
2.2
2.2. Funciones de distribución de probabilidad.
Ejemplo 4. Cálculo de la constante de normalización de una función de distribución de
probabilidad, f (x), de una variable aleatoria continua
Hallar la constante c para que la función de densidad de probabilidad

 0 x<0
cx2 0 ≤ x ≤ 3
f (x) =

0 x>3
sea una función de distribución de probabilidad y calcular P(1<x<2).
Para que f(x) sea una función de distribución de probabilidad debe cumplir la condición (ver
ecuación 2.16)
Z +∞
f (x)dx = 1
−∞
Sustituyendo en la ecuación 2.16
Z
+∞
Z
3
1 3 c x dx =
cx = 9 c = 1
3
0
3
2
f (x)dx =
−∞
0
se obtiene que c = 1/9.
Utilizando la ecuación 2.17
Z
P (a ≤ X ≤ b) =
b
f (x)dx
a
se obtiene
Z
2
P (1 ≤ X ≤ 2) =
1
2
1 2
1 3 7
x dx =
x =
9
27
27
1
Ejemplo 5. Cálculo de la función de distribución de probabilidad integrada, F (x), de una
variable aleatoria continua
Sea x una variable aleatoria con función de densidad de probabilidad normalizada

0
x<0



1−x 0≤x≤1
f (x) =
x−1 1≤x≤2



0
x>2
(a) Determine F(x), (b) calcule P (0 ≤ X ≤ 1) y (c) P (x = 0, 1/2, 1, 3/2, 2).
26
2
2.Teoría estadística de los errores(I). Probabilidad
(a) Para calcular F(x) utilizaremos la ecuación 2.19
Z x
F (x) =
f (u)du
−∞
Para x < 0, F (x) = 0.
En el intervalo 0 ≤ x ≤ 1,
Z x
Z
F (x) =
f (u)du =
x
1 2 1
(1 − u) du = t − t = x − x2
2 0
2
−∞
−∞
x
En el intervalo 1 ≤ x ≤ 2,
Z
x
Z
1
Z
2
f (u)du =
(1 − u) du +
(u − 1) du
−∞
−∞
1
1
x
1 2
1
1 2 = t − t + t − t = x2 − x + 1
2 0
2
2
1
F (x) =
En el intervalo x > 2,F (x) = 1, ya que la función de densidad de probabilidad está normalizada.

0
x<0



1 2
0≤x≤1
x − 2x
F (x) =
1 2
x −x+1 1≤x≤2


 2
1
x>2
(b) Teniendo en cuenta que - ecuación 2.20
P (a ≤ X ≤ b) = F (b) − F (a)
P (0 ≤ X ≤ 1) = F (1) − F (0) = 0,5
(c) P (x = 0, 1/2, 1, 3/2, 2) = P (0) + P (1/2) + P (3/2) + P (2) = 0, por ser la variable x una
variable continua.
27
2.2
2.2. Funciones de distribución de probabilidad.
Ejemplo 6. Cálculo f (x) a partir de F (x)
Sea x una variable aleatoria con función de distribución de probabilidad

0
x<0



1 2
x
0≤x≤1
2
F (x) =
1 2
2x − 2 x − 1 1 ≤ x ≤ 2



1
x>2
Hallar f(x)
f (x) =



dF (x) 
dx
0
x
2−x



0
x<0
0≤x≤1
1≤x≤2
x>2
Concepto de cuantila
Finalmente, se define como la β cuantila, xβ , el valor de la variable aleatoria X para el que se
cumple
F (xβ ) = P (x ≤ xβ ) = β
(2.22)
Habitualmente se utilizan las 100β percentila. Por ejemplo, la cuantila 0.1 (o la percentila 10)
corresponde al valor de la variable aleatoria, x0,1 , tal que F (x0,1 ) = 0,1.
28
2
2.3.
2.Teoría estadística de los errores(I). Probabilidad
Ejercicios y problemas
Funciones de distribución de probabilidad
Cuestión 2.1 Elija la mejor respuesta.
Considere una variable alatoria continua X. La función de distribución o densidad de probabilidad,f (x),
proporciona:
(a) f (x) = P (X = x)
(b) f (x) = P (x < X < x + dx)
(c) f (x) = P (x ≤ X < x + dx)
(d) f (x) = P (x < X ≤ x + dx)
(e) f (x) = P (x ≤ X ≤ x + dx)
(e) f (x) = P (x ≤ X)
(f) Las respuestas b,c,d,e son correctas, ya que son equivalentes
(g) Ninguna de las anteriores. La respuesta correcta es .........
Cuestión 2.2 Verdadero o falso. Jusitfique la respuesta.
Para una variable alatoria continua X, P (X = xi ) = 0
Cuestión 2.3 Indique las respuesta o respuestas correctas.
Considere una variable alatoria continua X con función de densidad de probabilidad f (x), P(X<a)
viene dado por
(a)
Ra
(d) 1 −
Ra
f (x)dx
(b) 1 −
R∞
(e) F (a)
−∞
a
f (x)dx
−∞
f (x)dx
(c)
R∞
a
f (x)dx
(e) 1 − F (a)
(f) Ninguna de las anteriores.
Ejercicio 2.1 Dada la función de densidad de probabilidad

 0 x<0
1 2
x 0≤x≤3
f (x) =
 9
0 x>3
(a) Encuentre la función de distribución, F(x), correspondiente. (b) Utilice este resultatado para
calcular P (1 ≤ x ≤ 2).
Ejercicio 2.2 La función de distribución de la variable aleatoria X es
F (x) =
0
x<0
1 − e−2x x ≥ 0
(a) Encuentre la función de densidad, f(x), correspondiente. (b) Utilice las funciones de distribución
y densidad para calcular la probabilidad de que X>2. (c) Utilice las funciones de distribución y
densidad para calcular la probabilidad de que −3 ≤ X ≤ 4.
29
2.3
2.3. Ejercicios y problemas
Ejercicio 2.3 Una variable aleatoria X tiene una función de densidad
f (x) =
c
x2 + 1
donde −∞ < x < ∞
(a) Encuentre el valor de la constante c. (b) Encuentre la probabilidad de que X2 se encuentre
entre 1/3 y 1.
Ejercicio 2.4 Dada la función de distribución de probabilidad

 0 x<a
k a≤x≤b
f (x) =

0 x>b
Determine el valor de k. ¿Qué valor tendrán esta magnitud si a = -e y b = e?.
2.3.1.
Soluciones a los ejercicios
Funciones de distribución de probabilidad
Ejercicio 2.1 (a)
F (x) =
(b)

 0
x3
27
x<0
0≤x≤3
x>3

1
0
x<0
2e−2x x ≥ 0
7
27
Ejercicio 2.2 (a)
f (x) =
(b) e−4 . (c) 1 − e−8
Ejercicio 2.3 (a) De acuerdo con la ecuación 2.16
Z
+∞
f (x)dx = 1
−∞
Z
+∞
−∞
h π π i
c
−1 ∞
dx = c tan x −∞ = c
− −
= 1
x2 + 1
2
2
c = 1/π
√
(b) Si 13 ≤ X 2 ≤ 1, los valores de X pueden estar en los intervalos − 33 ≤ X ≤ −1 y
1.
Por lo tanto la probabilidad requerida es
30
√
3
3
≤X≤
2
2.Teoría estadística de los errores(I). Probabilidad
√
√
1
π
Z
−
−1
3
3
dx 1
x2 + 1 π
Z
1
3
3
dx
2
=
x2 + 1
π
=
2
π
=
2
π
Z
"1
√
3
3
dx
x2 + 1
√ #
3
tan−1 (1) − tan−1 (
)
3
hπ π i
1
−
=
4
6
6
2.4. Lecturas recomendadas
Para completar la preparación de este tema recomendamos la lectura de:
☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7].
X
Repasa los conceptos básicos de probabilidad y función de distribución de propabilidad. Adecuado para revisar la teoría del tema.
☞ Capítulo 2. Variables aleatorias y distribución de probabilidad del libro de Spiegel y cols.[5].
En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las
distribuciones de probabilidad conjunta, ... Se recomienda revisar las secciones cuyos contenidos coinciden con los del curso: Variables aleatorias. Distribuciones de probabilidad discreta.
Funciones de distribución para variables aleatorias. Funciones de distribución para variables
aleatorias discretas. Funciones de distribución para variables aleatorias continuas. Interpretaciones gráficas.
También se recomienda la realización de los ejercicios suplementarios 2.47 a 2.53.X
☞ Tema 2. Variables aleatorias y distribuciones de probabilidad. del texto de Walpole y Myers[6].
Se recomienda la consulta de las secciones: 1.Concepto de variable aleatoria; 2. Distribución
discreta de probabilidad; 3. Distribución continua de probabilidad; y 4. Distribuciones empíricas.
31
3
Teoría estadística de los errores(II). Esperanza matemática
Contenidos
Objetivos
✍ Esperanza matemática de una magnitud aleatoria Definición de esperanza matemática. Propiedades de la esperanza matemática Momentos
de una distribución. Media y varianza.
✍ Propiedades generales y propiedades muestrales de una magnitud
aleatoria Media general de una magnitud aleatoria, µ. Media muestral
de una magnitud aleatoria, x̄. Varianza de una magnitud aleatoria, σ 2 (x).
Dispersion o varinza muestral de una magnitud aleatoria, s2 (x).
✓ Comprender el concepto de esperanza matemática
✓ Calcular la esperanza matemática , E {y(x)}, de una función y(x) de una
variable aleatoria discreta conocida f(x)
✓ Calcular la esperanza matemática , E {y(x)}, de una función y(x) de una
variable aleatoria continua conocida f(x)
✓ Conocer y utilizar las propiedades de la esperanza matemática
✓ Calcular los momentos de orden k respecto del parámetro c, Mk de una
variable aleatoria discreta o continua
✓ Distinguir entre magnitudes generales y mmuestrales
✓ Comprender la diferencia entre mux y x̄
✓ Comprender la diferencia entre σ 2 (x) y s2 (x)
✓ Evaluar mux y σ 2 (x) de una magnitud aleatoria
✓ Calcularla media y la varianza muestral de un conjunto de medidas
33
3.1
3.1. Esperanza matemática de una magnitud aleatoria
3.1.
Esperanza matemática de una magnitud aleatoria
3.1.1. Magnitudes aleatorias discretas
Sea una magnitud aleatoria discreta, x, y una función y(x). Si f (x) es la función de distribución
de probabilidad de la variable x, se define como esperanza matemática de la función y(x),
E {y(x)} =
k
X
y(xi ) · f (xi )
(3.1)
i=1
donde la suma se extiende a todos los posibles valores de x.
3.1.2. Magnitudes aleatorias continuas
Sea una magnitud aleatoria continua, x, y una función y(x). Si f (x) es la función de densidad de
probabilidad de la variable x, se define como esperanza matemática de la función y(x),
Z ∞
E {y(x)} =
y(x) · f (x) dx
(3.2)
−∞
donde la suma se extiende a todos los posibles valores de x.
3.1.3. Propiedades de la esperanza matemática
Algunas propiedades de la esperanza matemática son:
Si c es una constante (magnitud no aleatoria) tendremos que
E {c} = c
(3.3)
E {c y(x)} = c · E {y(x)}
(3.4)
Si la magnitud aleatoria x es la suma de n magnitudes aleatorias independientes
x = x1 + x2 + . . . + xn
(3.5)
su esperanza matemática es la suma de la esperanza matemática las n magnitudes sumadas
E {x} = E {x1 } + E {x2 } + . . . + E {xn }
34
(3.6)
3
3.Teoría estadística de los errores(II). Esperanza matemática
Si la magnitud aleatoria y es una función no lineal de n magnitudes aleatorias independientes
y = f (x1 , x2 , . . . , xn )
(3.7)
que varia poco en intervalos pequeños de variación de los argumentos, el valor de E {y} es
aproximadamente
E {y} = f (E {x1 } , E {x2 } , . . . E {xn })
3.1.4.
(3.8)
Momentos de una distribución.
Dada una variable aleatoria, x, discreta o continua, se llama momento de orden k respecto del
parámetro c, Mk a las esperanza matemática de la variable (x − c)k
Mk = E (x − c)k
(3.9)
Si c = 0 tenemos los momentos respecto del origen a los que suele representarse por αk
αk = E (x)k
(3.10)
Dos momentos de importantes son α0 = 1 y α1 = µX (valor medio de x o media de x).
α0 = E (x)0 = E {1} = 1
(3.11)
α1 = E (x)1 = E {x} = µx
(3.12)
Si c = µX hablamos de momentos centrales o momentos respecto de la media. Suele represetarse
por µk y vienen dados por
µk = E (x − µx )k
(3.13)
Momentos de importantes son µ0 = 1, µ1 = 0 y µ2 = σx2 (varianza de x).
µ2 = E (x − µx )2 = σx2
35
(3.14)
3.1
3.1. Esperanza matemática de una magnitud aleatoria
Ejemplo 1. Cálculo de la media y la varianza de una variable aleatoria discreta
Considere la variable aleatoria X que tiene la siguiente función de distribución de probabilidad
x
f (x)
8
12
16
20
24
1
8
1
6
3
8
1
4
1
12
Cálcule la media y la varianza de X.
La media viene dada por la ecuación 3.12
µx = E {x}
Sustituyendo
1
3
1
1
1
+ 12 · + 16 · + 20 · + 24 ·
= 16
8
6
8
4
12
La varianza viene dada por la ecuación 3.14
µx =
X
x · f (x) = 8 ·
σx2 = E (x − µx )2
X
σx2 = E (x − µx )2 =
(x − 16)2 · f (x)
1
3
1
1
1
+ (16 − 12)2 · + (16 − 16)2 · + (20 − 16)2 · + (24 − 16)2 ·
8
6
8
4
12
1
1
3
1
1
= 64 · + 16 · + 0 · + 16 · + 64 ·
8
6
8
4
12
= 20
= (8 − 16)2 ·
La varianza también viene dada por
σx2 = E (x2 ) − µ2x
X
1
1
3
1
1
E x2 =
x2 · f (x) = 64 · + 144 · + 256 · + 400 · + 24 ·
= 276
8
6
8
4
12
σx2 = E (x − µx )2 = 276 − (16)2 = 276 − 256 = 20
Como muestran los resultados los dos métodos utilizados para calcular la varianza son equivalentes.
36
3
3.Teoría estadística de los errores(II). Esperanza matemática
Ejemplo 2. Cálculo de la media y la varianza de una variable aleatoria continua
Sea la variable aleatoria X que tiene por función de densidad

0 −∞ < a < x
dF (x) 
k a<x<b
f (x) =
dx 
0 x<b
Calcular la media y la varianza de X.
Antes de poder calcular la media y la varianza tenemos que determinar el valor de k.
Para que f(x) sea una función de densidad de probabilidad debe cumplir (ver ecuación 2.16)
Z +∞
f (x)dx = 1
−∞
Es decir,
Z
b
kdx = k · (b − a) = 1
a
por tanto k = 1/(b − a)
La media viene dada por (ecuación 3.12)
Z
+∞
µx = E {x} =
x · f (x) dx
−∞
Z
b
µx =
a
b+a
x
dx =
b−a
2
La varianza viene dada por la ecuación 3.14
σx2 = E (x − µx )2
que es equivalente a
σx2 = E x2 − µ2x
E x2 =
Z
+∞
b
Z
2
x · f (x) dx =
−∞
a
σx2 =
b
x2
1 x3 1 b 3 − a3
dx =
=
b−a
3 b − a a
3 b−a
1
(b − a)2
12
37
3.2
3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria
3.2.
Propiedades generales y propiedades muestrales de una magnitud aleatoria
De acuerdo con los postulados de la teoría estadística de los errores tras un número suficientemente grande de experimentos, lo valores obtenidos para la magnitud medida tienden a agruparse
alrededor de un valor, y su dispersión alrededor de este valor está caracterizada por una función de
distribución de probabilidad. En general, una vez conocida la forma de la distribución de probabilidad, basta para caracterizarla un número limitado de constantes. Estos parámetros que caracterizan
al conjunto de todas las medidas que puedan obtenerse de un experimento en ciertas condiciones se
denominan parámetros poblacionales.
El conjunto de medidas obtenidas en una serie experimentos se denomina muestra. Como el número de medidas que componen la muestra normalmente es pequeño, los parámetros que caracterizan
la muestra, propiedades o parámetros muestrales. En general los parámetros muestrales no coinciden
con los parámetros poblacionales. Sin embargo, podemos obtener valores aproximados de losparámetros poblacionales a partir de los parámetros muestrales (estimas) 1 .
Una propiedad de las estimas es que son variables aleatorias mientras que los parámetros poblacionales son valores constantes y característicos de la función de distribución de probabilidad
asociada a los errores aleatorios.
Finalmente, una cuestión de notación. En esta sección designaremos las propiedades poblacionales utilizando el alfabeto griego, mientras que utilizaremos el alfabeto latino para propiedades muestrales.
Propiedades generales de las estimas
Si T es una estima del parámetro poblacional θ, T debe cumplir entre otros criterios que
E {T } = µT = θ. Esto equivale a decir que la estima T no es una estima sesgada.
La estima es consistente. Es decir, cuanto mayor es el número de medidas utilizadas para calcular T , mayor es la proximidad entre los valores de T y θ
Propiedades muestrales de uso frecuente
Para describir nuestras medidas haremos referencia a dos tipos de propiedades muestrales:
un número alrededor del que las medidas se agrupan: media muestral, x.
un número que da una medida de la dispersión de los valores alrededor de la media: la desviación típica muestral, s(x).
Utilizaremos la media muestral, x̄ como estima del valor real. Como medida de la incertidumbre
de cada medida utilizaremos la desviación típica de nuestros datos, s(x), mientras que para acotar la
incertidumbre de la estima de la media utilizaremos la desviación típica muestral de la media, s(x̄).
1
Existen distintos métodos para obtener estimas. Algunos de ellos son el método de máxima verosimilitud, el método
de mínimos cuadrados, el método de los momentos y el método Bayesiano. La descripción de estos métodos excede los
objetivos del curso
38
3
3.Teoría estadística de los errores(II). Esperanza matemática
3.2.1. Media general de una magnitud aleatoria
El valor medio de la magnitud aleatoria x para el conjunto general es la esperanza matemática de
la magnitud aleatoria
µx = E {x}
(3.15)
3.2.2. Media muestral de una magnitud aleatoria
La media muestral de la magnitud aleatoria x se define como el valor medio de los valores observados x1 ,x2 , . . . ,xn,
n
x1 + x2 + . . . + xn
1 X
x̄ =
=
·
xj
n
n j=1
(3.16)
3.2.3. Varianza de una magnitud aleatoria.
La varianza o dispersión de una magnitud aleatoria x se define como la esperanza matemática de
las desviaciones respecto a la media general:
σx2 = E (x − µx )2
(3.17)
Al valor positivo de la raíz cuadrada de la varianza, σ(x), se le llama desviación cuadrática media,
desviación típica o desviación normal.
Algunas propiedades de la varianza son:
Si c es una constante (magnitud no aleatoria) tendremos que:
σ 2 (c) = 0
(3.18)
σ 2 (c x) = c2 σ 2 (x)
(3.19)
Si la magnitud aleatoria x es la suma de n magnitudes aleatorias independientes
x = x1 + x2 + . . . + xn
(3.20)
la varianza de x es la suma de las varianzas de las n magnitudes sumadas
σ 2 (x) = σ 2 (x1 ) + σ 2 (x2 ) + . . . + σ 2 (xn )
39
(3.21)
3.2
3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria
Sin embargo,σ(x) viene dado por
σ(x) =
p
σ 2 (x1 ) + σ 2 (x2 ) + . . . + σ 2 (xn )
(3.22)
La varianza se puede calcular a partir de los momentos respecto del origen α1 y α2 :
σ 2 (x) = E x2 − µ2x
(3.23)
Si la magnitud aleatoria y es una función no lineal de n magnitudes aleatorias independientes
y = f (x1 , x2 , . . . , xn )
(3.24)
que varia poco en intervalos pequeños de variación de los argumentos, el valor de σ 2 (y) es
aproximadamente
2
σ (y) =
∂f
∂x1
2
2
σ (x1 ) +
∂f
∂x2
2
2
σ (x2 ) + . . .
∂f
∂xn
2
σ 2 (xn )
(3.25)
Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas.
Ejemplo 3. Varianza de una magnitud indirecta
Utilizando un puente de Wheatstone, la resistencia de una disolución de electrolitos, W , puede
calcularse mediante la ecuación
1000 − a
1000
W = R·
= R·
−1
a
a
donde R es el valor de una resistencia patrón conocida y a es la lectura de la resistencia que se
obtiene experimentalmente cuando se equilibra el puente de Wheatstone.
Calcule la incertidumbre de W . Considere que la incertidumbre de R es despreciable.
De acuerdo con la ecuación 3.30
2
2
2
∂f
∂f
∂f
2
2
2
σ (y) =
σ (x1 ) +
σ (x2 ) + . . .
σ 2 (xn )
∂x1
∂x2
∂xn
que en nuestro caso se reduce a
2
σ (W ) =
40
∂W
∂a
2
σ 2 (a)
3
3.Teoría estadística de los errores(II). Esperanza matemática
∂W
∂a
= −R ·
σ 2 (W ) = R2 ·
1000
a2
106 2
σ (a)
a4
Ejemplo 4. Varianza de una magnitud indirecta (II)
Determine la incertidumbre en la medida de la entalpia para la reacción
NH3 (g) + 54 O2 (g) O(g) + 32 H2 O(g) ∆Hr
R.1
Considere las reacciones:
H2 O(g) H2 O(l) ∆H2
R.2
1
N (g)
2 2
+ 32 H2 (g) NH3 (g) ∆H3
R.3
1
H (g)
2 2
+ 12 O2 (g) H2 O(g) ∆H4
R.4
1
NO(g)
2
12 N2 (g) + 12 O2 (g) ∆H5
R.5
Utilizando la ley de Hess podemos expresar ∆Hr en función de las entalpias de las reacciones
R.2 a R.5
3
3
∆Hr = − ∆H2 − ∆H3 + ∆H4 − ∆H5
2
2
y de acuerdo con las propiedades de la dispersión muestral, ecuación 3.30, la incertidumbre en
∆Hr es
3
3
σ 2 (∆Hr ) = ( )2 σ 2 (∆H2 ) + σ 2 (∆H3 ) + ( )2 σ 2 (∆H4 ) + σ 2 (∆H5 )
2
2
41
3.2
3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria
3.2.4. Dispersion o varinza muestral de una magnitud aleatoria
La dispersión muestral de una magnitud aleatoria prodría definirse como
n
s∗2 =
1X
(xj − µx )2
n j=1
(3.26)
Esta expresión presupone que conocemos el valor de µx . Como sólo disponemos de una estima de
esta magnitud, la media muestral,x̄. Si sustituimos la media muestral por la media poblacional con lo
que tendriamos:
n
1X
s∗ =
(xj − x̄)2
n j=1
2
(3.27)
Sin embargo cuando comprobamos la propiedades de esta estma observamos que la estima de σ(x)2
que obtenemos, s∗2 es una estima sesgada: E{s∗2 } < σ 2 (x).
Podemos obtener una buena estima sustituiyendo N en el cociente en la expresión de s2∗ por el
número de grados de libertad. El número grados de libertad es el número de observaciones independientes, es decir aquellas en exceso a las necesarias para determinar los parametros que aparecen en
la ecuación. En este caso, el número de grados de libertad es N-1 pues al menos necesitamos 1 dato
para determinar la media muestral.
n
1 X
(xj − x̄)2
s (x) =
n − 1 j=1
2
(3.28)
En este caso E{s2 (x)} = σ 2 (x). s2 (x) es la varianza muestral de x.
Como en el caso de la varianza, si la magnitud aleatoria y es una función no lineal de n magnitudes
aleatorias independientes
y = f (x1 , x2 , . . . , xn )
(3.29)
que varia poco en intervalos pequeños de variación de los argumentos, el valor de s2 (y) es aproximadamente
2
s (y) ≈
∂f
∂x1
2
2
s (x1 ) +
∂f
∂x2
2
2
s (x2 ) + . . .
∂f
∂xn
2
s2 (xn )
(3.30)
Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas o indirectas2 .
2
Cálculos de propagación de errores
42
3
3.Teoría estadística de los errores(II). Esperanza matemática
Ejemplo 5. Calculo de la media y la varianza muestral
En una serie de experimentos para determinar la entalpia neutralización del HCl y NaOH a
300 K se obtuvieron los siguientes valores:
∆H(kcal/mol) : 54,4, 56,4, 57,5, 56,6, 57,0, 56,5, 58,4, 57,0, 55,2
Determine el valor de media y la desviación típica de las medidas.
La media muestral viene dada por la ecuación 3.16
x̄ =
n
1 X
x1 + x2 + . . . + xn
=
·
xj
n
n j=1
mientras que la varianza muestral se calcula utilizando la ecuación 3.28
n
1 X
s (x) =
(xj − x̄)2
n − 1 j=1
2
Medida
xi
1
54.4
2
56.4
3
57.5
4
56.6
5
57.0
6
56.5
7
58.4
8
57.0
9
55.2
SUMA 509.0
xi − x̄
-2.15
-0.16
0.94
-0.04
0.44
-0.06
1.84
0.44
-1.36
0.0
(xi − x̄)2
4.6225
0.0256
0.8836
0.0016
0.1936
0.0036
3.3856
0.1936
1.8496
11.593
Sustituyendo en las ecuaciones 3.16 y 3.28 se obtiene x̄ = 509,0/9 = 56,56 kcal.mol−1 .
s2 = 11,1593/8 = 1,3949( kcal.mol−1 )2 y s = 1,18 kcal.mol−1 .
El resultado final ∆H = 56,6 ± 1,2 kcal.mol−1 .
43
3.3
3.3.
3.3. Mediana y moda
Mediana y moda
La media, o esperanza, de una variable aleatoria X proporcion una medida de la tendencia central
para los valores de una distribución. Otras medidas de la tendencia central frecuentemente usadas son:
Moda Para una variable aleatoria discreta es el valor que ocurre con más frecuencia o, en el que tiene
la mayor probabilidad de ocurrencia. Algunas veces tenemos dos, tres o más len probabilidades
relativamente grandes de ocurrencia. En tales casos, decimos que la bimodal, trimodal o multimodal, respectivamente.
En el caso de una variable aleatoria continua X es el valor o valores de X donde la función de
densidad de probabilidad tiene un máximo relativo.
Mediana Valor de x para el cual P (X < x) = 12 y P (X > x) ≤ 12 . En el caso de una variable
continua tenemos P (X < x) = 12 = P (X > x), y la mediana separa la curva de densidad en
dospartes con áreas iguales de 1/2 cada una. En el caso de una distribución discreta, no existe
una mediana única
44
3
3.4.
3.Teoría estadística de los errores(II). Esperanza matemática
Ejercicios y problemas
Cuestión 3.1 Demuestre
µ0 = 1
Cuestión 3.2 Demuestre
µ1 = 0
Cuestión 3.3 Demuestre
σx2 = E x2 − µ2x
Cuestión 3.4 Verdadero o falso. Jusitfique la respuesta.
La media muestral, x̄ es una variable aleatoría
Cuestión 3.5 Verdadero o falso. Jusitfique la respuesta.
La varianza, σ 2 (x) es una variable aleatoría
Cuestión 3.6 Verdadero o falso. Jusitfique la respuesta.
La media µx y la varianza σ 2 (x) son dos propiedas características de una variable aleatoria
Esperanza matemática de una magnitud aleatoria
Ejercicio 3.1 Dada la función de densidad de probabilidad
Sea la variable aleatoria X que tiene por función de densidad

−∞ < x < 0

 0
dF (x)  x
0≤x<1
f (x) =
2−x 1≤x≤2
dx 


0
x>2
Calcular la media y la varianza de X.
Calculo de magnitudes muestrales
Ejercicio 3.2 Al realizar cinco medidas del indice de refracción de una mecla se obtuvieron los
siguientes valores:
1.591, 1.521,1.528,1.570,1.587
45
3.4
3.4. Ejercicios y problemas
Ejercicio 3.3 Los resultados de una serie de medidas de la temperatura con un termometro agrupados en clases de anchura 0.1 K son
T/K
Fi
298
0.2
298.1
0.2
298.2
0.3
298.3
0.1
298.4
0.1
298.5
0.1
Dibuje el histograma asociado a estos datos.
Ejercicio 3.4 En una serie de experimentos se determino la capacidad de absorber metales pesados
presentes en el medio natural de ciertas especies de pescado. Los siguientes datos corresponden a
medidas de la concentración promedio de cadmio (mg Cd por Kg de pez) para una especie en distintos
bancos del Atlántico.
13.1
5.5
6.4
5.1
7.9
6.5
8.4 16.9
12.7 17.1
13.1 8.5
5.6 5.5
8.9 3.7
10.8 14.7
2.7
10.8
7.5
5.0
9.5
14.4
9.6
18.9
12.1
10.1
14.1
5.1
4.5 12.5
27.0 18.0
8.0 11.4
4.5 7.9
7.7 5.7
Determine la media y la desviación típica de los datos. Dibuje el histograma correspondiente.
Ejercicio 3.5 Una medida de la eficiencia de una torre de destilación es la velocidad de producción
de vapor. En la tabla se recogen una serie de valores correspondientes a esta propiedad.
1170
1260
1800
1440
1170
1530
1620
1440
1800
1530
1710
1440
1495
1800
1530
1260
1620
1620
1170
1170
1350
1350
1350
1710
1260
1800
1350
1730
1710
1170
1530
1350
1800
1530
1640
1170
1440
1800
Determine la media y la desviación típica de los datos. Dibuje el histograma y diagrama de
frecuencias asociado a estos datos. ¿Por debajo de que valor se encuentra el 90 % de los datos?.
3.4.1.
Soluciones a los ejercicios
Esperanza matemática de una magnitud aleatoria
Ejercicio 3.1 La media viene dada por (ecuación 3.12)
Z
+∞
µx = E {x} =
x · f (x) dx
−∞
46
3
3.Teoría estadística de los errores(II). Esperanza matemática
Z
1
2
x · x dx +
µx =
=
Z
0
3 1
x · (2 − x) dx
1
3 2
x x
1
2
+ x2 − =
+
= 1
3 0
3 1
3
3
La varianza viene dada por la ecuación 3.14
σx2 = E (x − µx )2 = E x2 − µ2x
E x2 =
Z
1
Z
2
2
x · x dx +
x2 · (2 − x) dx
0
1
2
3
4 1
2x
x4 1
14
15
7
x +
− =
+
−
=
=
4 0
3
4 1
4
3
4
6
σx2 =
7
1
− (1)2 =
6
6
3.5. Lecturas recomendadas
Para completar la preparación de este tema recomendamos la lectura de:
☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7].
X
Revisa los contenidos del tema. Adecuado para revisar la teoría del tema.
☞ Capítulo 3. Esperanza matemática del libro de Spiegel y cols.[5].
En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las
funciones generatrices, ... Se recomienda revisar las secciones cuyos contenidos coinciden con
los del curso.
Se recomienda revisar los ejercicios resueltos 3.1, 3.2, 3.19(a).X
☞ Tema 3.Esperanza matemática. del texto de Walpole y Myers[6].
Se recomienda la consulta de las secciones: 1. Media de una variable aleatoria, 2. Varianza y
covarianza.
47
4
Distribuciones de probabilidad de variables aleatorias discretas
Contenidos
Objetivos
✍ Distribución uniforme Descripción y propiedades.
✍ Distribución binomial Descripción y propiedades. Teorema de Moivre.
✍ Distribución de Poisson Descripción y propiedades. La distribución
de Poisson como límite de la distribución binomial. Convergencia de la
distribución de Poisson a la distribución de Gauss.
✓ Reconocer las características de la distribución uniforme de una variable
aleatoria discreta
✓ Reconocer las características de un experimento de Bernuilli
✓ Realizar calculos de probabilidades de variables aleatorias que siguen un
distribución binomial
✓ Calcular µ y σ de variables que siguen un distribución binomial
✓ Utilizar el teorema de Moivre para calcular probabilidades de resultados de
un experimento de Bernuilli utilizando una distribución normal
✓ Realizar calculos de probabilidades de variables aleatorias que siguen un
distribución de Poisson
✓ Calcular µ y σ de variables que siguen un distribución de Poisson
✓ Utilizar la distribución normal para calcular probabilidades de resultados
de un experimento de Poisson
✓ Utilizar la distribución de Poisson para calcular probabilidades de resultados de un experimento de Bernuilli en el límite de probabilidades de exito
bajas y número de pruebas grande
49
4.2
4.1. Distribución uniforme
4.1.
Distribución uniforme
¿Qué variables aleatorias siguen esta función de probabilidad?. Esta distribución de probabilidad
corresponde a variables aleatorias discretas que pueden tormar n valores, xi = x1 , x2 ,..., xn y todos sus
posibles valores tienen la misma probabilidad.
La función de distribución de probabilidad es
f (x) = P (X = xi ) =
1
donde i = 1, 2, . . . , n
n
(4.1)
La media y la varianza de la distribución vienen dadas por
µ =
n+1
2
(4.2)
σ2 =
n2 − 1
12
(4.3)
Ejemplo 1. Distribución de probabiblidad uniforme
Considere la variable aleatoria X que corresponde a lanzar un dado y leer la cara superior del
dado. Si el dado no está trucado, todos los resultados tienen la misma probabilidad y la función
de distribución de probabilidad de esta variable aleatoria es
x
f (x)
1
2
3
4
5
6
1
6
1
6
1
6
1
6
1
6
1
6
El diagrama de barras muestra la función de distribución de probabilidad.
50
4
4.2.
4. Distribuciones de probabilidad de variables aleatorias discretas
Distribución binomial
¿Qué variables aleatorias siguen esta función de probabilidad?. Las variables que siguen la distribución binomial corresponden a los experimentos que cumplen
tenemos un número fijo n de experimentos (pruebas)
el resultado de cada experimento sólo puede tener dos valores (exito y fracaso)
el resultado de un experimento es independiente de los anteriores y no influye en los posteriores
Estos experimentos también son conocidos como pruebas de Bernuilli.
Sea p (probabilidad de éxito) la probabilidad de que un suceso ocurra en una sola prueba de
Bernuilli y q = 1 − p (probabilidad de fracaso) será la probabilidad de que ocurra el suceso opuesto
. La probabilidad de obtener x éxitos en n ensayos (x éxitos, n − x fracasos) esta dada por la función
de probabilidad
n x n−x
n!
f (x) = P (X = x) = PB (X = x; n, p) =
p q
=
px q n−x
(4.4)
x
x!(n − x)!
donde la variable aleatoria X denota el número de éxitos en n pruebas. Esta función de probabilidad
discreta se denomina distribución binomial o de Bernuilli. Una variable aleatoria con está distribución de probabilidad se dice que está distribuida binomialmente.
La media y la varianza de la distribución vienen dadas por
µ = np
(4.5)
σ 2 = npq = np(1 − p)
(4.6)
Ejemplo 2. Cálculo de probabiblidades de una variable binomial
Determine la probabilidad de obtener 2 caras en un seis lanzamientos de una moneda al aire.
¿Es este experimento una prueba de Bernuilli?
tenemos un número fijo de experimentos n = 6
el resultado de cada experimento sólo puede tener dos valores (cara, p = 0,5 y cruz,
q = 0,5)
el resultado de cada experimento (lanzar una moneda al aire) es independiente de los
anteriores y no influye en los posteriores
Utilizando la ecuación 4.4 calcularemos la probabildad del resultado
6
6!
PB (X = 2; 6, 0,5) =
0,52 0,56−2 =
0,52 0,54 = 15 × 0,25 × 0,0625 = 0,235
2
2!4!
51
4.2
4.2. Distribución binomial
Ejemplo 3. Cálculo de probabiblidades de una variable binomial (II)
Suponga que la probabilidad de que los resultados de un experimento sean aceptables es 0.6.
Si el experimento se repite 5 veces, obtenga la distribución de resultados útiles y determine la
probabilidad de obtener al menos dos resultados útiles.
¿Estamos ante una prueba de Bernuilli?.
tenemos un número fijo de experimentos n = 5
el resultado de cada experimento sólo puede tener dos valores (resultado aceptable, p =
0,6 y resultado no aceptable, q = 0,4). Tenga en cuenta que no nos estamos preguntando
por el valor de la propiedad que medimos, sino por la validez del experimento.
los resultado de cada experimento son independientes entre si
Para deteminar la función de distribución utilizaremos la ecuación 4.4 p = 0,6, q = 1−0,6 = 0,4
yn=5
PB (X = 0; 5, 0,6) =
5
0
0,60 0,45 = 0,01024 PB (X = 1; 5, 0,6) =
5
1
0,61 0,44 = 0,07680
PB (X = 2; 5, 0,6) =
5
2
0,62 0,43 = 0,23040 PB (X = 3; 5, 0,6) =
5
3
0,63 0,42 = 0,34560
5
5
0,65 0,40 = 0,07776
PB (X = 4; 5, 0,6) =
5
4
0,64 0,41 = 0,2592
PB (X = 5; 5, 0,6) =
De modo que la función de distribución de probabilidad viene dada por
x
0
f (x) 0.01024
1
0.07680
2
0.23040
3
0.34560
4
0.2592
5
0.07776
El diagrama de barras muestra la función de distribución de probabilidad.
52
4
4. Distribuciones de probabilidad de variables aleatorias discretas
La probabilidad de realizar más de dos experimentos con resultados aceptables podemos calcularla como
P (X > 2) = P (X = 3) + P (X = 4) + P (X = 5) = 0,6826
También podemos tener en cuenta que el suceso complementario del calculado es obtener X ≤ 2
y utilizando la ecuación 2.5 podemos calcular la probabilidad
P (X > 2) = 1 − P (X ≤ 2) = 1 − (P (X = 2) + P (X = 1) + P (X = 0)) = 0,68256
los dos tratamientos que son equivalentes como esperabamos
Ejemplo 4. Cálculo de la varianza de una variable descrita por un distribución binomial
Un físico de partículas hace medidas de la distribución angular de mesones K. Los resultados de
la medida pueden ser hacia delante o hacia atrás. Ambos procesos son igualmente probables.
En un experimento de calibrado se realizaron 1000 medidas y se obtuvieron 472 mesones en la
dirección hacia delante y 528 mesones en la dirección hacia atrás. ¿Cuál es la desviación típica
de los resultados?.
El experimento descrito cumple con las condiciones de un experimento de Bernouilli con una
probabilidad de éxito p = 0,5.
Para calcular la desviación típica del experimento utilizaremos la ecuación 4.6
σ 2 = npq = np(1 − p)
p
(4.7)
np(1 − p)
(4.8)
1000 × 0,5 × 0,5 = 15,8
(4.9)
σ =
Sutituyendo,
σ=
p
Ejemplo 5. Cálculo de patrones de intensidad en un espectro de masas
Considere un halocarburo trisustituido RX3 . Si el sustituyente es Br, éste presenta dos isótopos
de masas 79 y 81, con abundancias relativas 0.5069 y 0.4931.
Determine cuantos picos esperaría observar en el espectro de masas del RBr3 y que intensidad
relativa esperaría que tuvieran los picos del espectro.
En un espectro de masas se representa intensidad frente a masa de modo que la intensidad obtenida a una masa dada, M , es proporcional al número de moléculas de masa M presentes en la
muestra.
53
4.2
4.2. Distribución binomial
Si X1 ≡ Br79 y X2 ≡ Br81 , los isotopos de bromo pueden presentarse en la especie RBr3 en las
combinaciones
RX1 X1 X1 , RX1 X1 X2 , RX1 X2 X2 y RX2 X2 X2
Es decir, aparecerán cuatro picos en el espectro de masas distintas.
La intensidad relativa de los picos depende de la frecuencia con la que se observe cada una de
las combinaciones. Como estamos trabajando con número de moléculas muy grandes 101 9,
podemos suponer que la intensidad relativa con la que observamos cada pico, que depende de
la frecuencia con la que observamos cada una de los halocarburos, es igual a la probailidad de
observar un halocarburo de la masa indicada.
La probabilidad de obtener cada halocarburo viene dada por una distribución binomial con n =
3, p = 0,5069 y q = 0,4931.
P (RBr379 )
= PB (X
P (RBr279 Br81 ) = PB (X
P (RBr79 Br281 ) = PB (X
P (RBr381 ) = PB (X
3
= 3; 3, 0,5069) =
0,50693 0,49310
3
3
= 2; 3, 0,5069) =
0,50692 0,49311
2
3
0,50691 0,49312
= 1; 3, 0,5069) =
1
3
= 0; 3, 0,5069) =
0,50690 0,49313
0
= 0,1302
= 0,3801
= 0,3698
= 0,1199
La distribución de intesidades de los picos puede representrase con un diagrama de barras donde
79
81
M es la masa de la especie RBr79
3 , M + 2 es la masa de la especie RBr2 Br , M + 3 es la masa
81
de la especie RBr79 Br81
2 , y M + 3 la masa de la especie RBr3 .
54
4
4. Distribuciones de probabilidad de variables aleatorias discretas
4.2.1. Teorema de Moivre
Para tamaños de la muestra tales que los valores del producto npq >5 (tamaños de muestra grnades), el comportamiento de la distribución binomial se asemeja al de una distribución normal con
media µ = np y varianza σ 2 = npq. Esta propiedad es conocida como teorema de Moivre.
Como la distribución binomial es una distribución de variables discretas, hay que hacer una corrección de continuidad de modo que al utilizar la aproximación de la distribución binomial a una distribución gaussiana las probabilidades se calculan como
PB (X = a; n, p) =PG (a − 0,5 ≤ X ≤ a + 0,5)
PB (a < X < b; n, p) =PG (a + 0,5 ≤ X ≤ b − 0,5)
PB (a ≤ X ≤ b; n, p) =PG (a − 0,5 ≤ X ≤ b + 0,5)
Este teorema permite calcular de una manera sencilla valores de la probabilidad de una distribución binomial en condiciones en las que es imposible evaluar esta magnitud utilizando la ecuación
4.4
PB (X = x; n, p) =
4.3.
n!
px q n−x
x!(n − x)!
(4.10)
Distribución de Poisson
Esta distribución describe el número de sucesos que ocurren en un intervalo de tiempo fijo o
en un volumen del espacio o por unidad de producto dado cuando los elementos están distribuidos
aleatoriamente de acuerdo con una frecuencia de ocurrencia o densidad promedio. Es decir, el número
de éxitos que observamos en cada unidad de tiempo, área o producto es totalmente al azar (sólo
conocemos su valor medio) y que cada intervalo de tiempo es independiente de otro intervalo dado,
así como cada área es independiente de otra área dada y cada producto es independiente de otro
producto dado.
Esta definición es un tanto abstracta y se comprende mejor con algunos ejemplos de variables
que tienen este comportamiento: número de partículas emitidas por una fuente radiativa en un tiempo
definido, número de fotones emitidos por una molécula en su desexcitación fluorescente desde un
estado excitado, número de errores cometidos por página al transcribir un texto,número de bacterias
por cm2 de cultivo, etc.
El espacio muestral de la variable X distribuida de acuerdo con una distribución de Poisson son
los enteros {0,1,2, ...} y la función de distribución viene dada por:
f (x) = P (X = x) =
1 x −λ
λ e
x = 0, 1, 2, . . .
x!
(4.11)
donde λ es una constante positiva.
La media y la varianza de esta distribución vienen dadas por
µ=λ
55
(4.12)
4.3
4.3. Distribución de Poisson
σ2 = λ
(4.13)
Ejemplo 6. Cálculo de la varianza de una variable que sigue una distribución de Poisson
Como parte de un experimento para determinar la vida media de dos isótopos radiactivos de
plata, se registraron simultáneamente el número de partículas emitidas en intervalos de dos segundos en las cercanías de la plata. Los experimentos se repitieron 20 veces y se obtuvo un valor
medio de 1.69 partículas por segundo.
¿Cuál es la desviación típica de las medidas?.
La distribución de Poisson describe el número de sucesos que ocurren en un intervalo de tiempo
fijo cuando los elementos están distribuidos aleatoriamente de acuerdo con una frecuencia de
ocurrencia.
De modo que µ = λ = 1,69 y σ 2 = λ = 1,69. La desviación típica viene dada por
√
σ=
λ=
p
1,69 = 1,30 partículas por segundo
Ejemplo 7. Cálculo de probabilidades de una variable que sigue una distribución de Poisson
En un experimento de detección de neutrinos se observaron 8 neutrinos coincidentes con la
observación óptica de la explosión de la supernova 1987A.
(a) Calcule la probabilidad de realizar esta observación si en promedio se detectan 2 neutrinos
por día.
(b) Calcule la probabilidad de la observación teniendo en cuenta que los ocho neutrinos se observaron en el espacio de 10 minutos.
(a) λ = 2 neutrinos.dia−1
Utilizando la ecuación 4.11
P (X = x) =
1 x −λ
λ e
x!
(4.14)
1 8 −2
2 e = 9,0 10−4
(4.15)
8!
La probabilidad es muy baja. Puede esperarse una correlación entre la explosión de la supernova
y la detección de los neutrinos.
2
(b) En este caso λ = 24∗6
= 0,014
Utilizando de nuevo la ecuación 4.11
P (X = 8) =
1
0,0148 e−0,014 = 3,3 10−20
(4.16)
8!
La ocurrencia del suceso obsevado es extremadamente improbable y posiblemente se correlacione con la explosión de la supernova u otro proceso no observado.
P (X = 8) =
56
4
4. Distribuciones de probabilidad de variables aleatorias discretas
4.3.1. La distribución de Poisson como límite de la distribución binomial
La distribución de Poisson también representa el límite de la distribución binomial cuando el número de éxitos es mucho menor que el número de ensayos (µ n), es decir n grande y probabilidad
de un éxito muy baja (p 1)
Ejemplo 8. Cálculo de probabilidades: comportamientos límite
La probabilidad de que un individuo sufra una reacción al inyectarle un suero es 0.001. Determinar la probabilidad de que de un total de 2000 personas más de dos individuos sufran una
reacción
El caso descrito corresponde a un experimento de Bernouilli con µ = np = 2000 · 0,001 = 2.
Utilizar la ecuación 4.4
PB (X = x; n, p) =
n!
px q n−x
x!(n − x)!
(4.17)
no es un método razonable para calcular probabilidades de ocurrencia.
Teniendo en cuenta que µ = λ = 2 2000 podemos utilizar en nuestros cálculos la ecuación
4.11
1 x −λ
λ e
x!
La probabilidad de que más de dos individuos sufran reacción viene dada por
P (X = x) =
P (X > 2) =1 − P (X ≤ 2) = P (0) + P (1) + P (2)
0 −2
21 e−2 22 e−2
2 e
+
+
= 0,323
=
0!
1!
2!
57
(4.18)
4.3
4.3. Distribución de Poisson
4.3.2. La distribución de Gaussiana o normal como límite de la distribución
de Poisson
Para valores grandes de λ la función de distribución de Poisson puede aproximarse mediante una
distribución de probabilidad gaussiana con µ = λ y σ 2 = λ.
Figura 4.1: Distribuciones de Poisson para distintos valores de λ. Observe como la forma de la distribución se aproxima a distribución normal conforme aumenta el valor de λ.
58
4
4. Distribuciones de probabilidad de variables aleatorias discretas
Figura 4.2: Relación entre las distribuciones binomial, Poisson y Gauss o normal.
4.4.
Ejercicios y problemas
Cuestión 4.1 Considere una distribución binomial PB (x; n, p) con n = 6, y p=0.5.
Calcule su media.
Cuestión 4.2 Considere una distribución binomial PB (x; n, p) con n = 6, y p=0.5.
Calcule la varianza.
Cuestión 4.3 Considere una distribución binomial PB (x; n, p) con n = 6, y p=0.25.
Calcule su media.
Cuestión 4.4 Considere una distribución binomial PB (x; n, p) con n = 6, y p=0.25.
Calcule la varianza.
Cuestión 4.5 En la realización de un programa informático el número de errores cometidos por
página sigue una distribución de Poisson de varianza 2.
¿Cuál es la probabilidad de no cometerlos en un programa de 20 páginas?
59
4.4
4.4. Ejercicios y problemas
Ejercicios de repaso
Ejercicio 4.1 En la teoría cinética de los gases, la probabilidad de que una molécula de un gas ideal
tenga una velocidad entre v y v + dv está dada por
mv 2
P (v) = cv 2 e− 2kT dv
donde k es la constante de Boltzmann y T la temperatura en Kelvin del gas.
Determine (a) la constante c, (b) la velocidad media y (c) la velocidad más probable.
Nota: Para resolver el problema utilice una tabla de integrales.
Ejercicio 4.2 La duración en horas de un componente eléctrico es una variable aleatoria con una
función de distribución acumulada dada por
x
1 − e− 50 x > 0
F (X) =
0
x≤0
Determine:(a)la función densidad de probabilidad y (b) la probabilidad de que la duración del componente exceda las 70 horas.
Ejercicio 4.3 Calcular la varianza de g(x) = 2x + 3, donde X es una variable aleatoria con distribución de probabilidad
x
f(x)
0
1
2
3
1
4
1
8
1
2
1
8
Ejercicio 4.4 Sea X una variable aleatoria con la siguiente distribución de probabilidad:
x
f(x)
-3
6
9
1
6
1
8
1
2
Calcule µg (x) donde g(x) = (2x + 1)2 .
Distribución binomial
Ejercicio 4.5 Se considera una variable aleatoria de Bernoulli que toma el valor 1 con probabilidad
0.01. Se toma una muestra de tamañoo n.
Calcular el valor mínimo que debe tener n para que la probabilidad de obtener al menos una vez
como resultado un 1 sea mayor o igual que 0.95.
Ejercicio 4.6 Si la probabilidad de que el vapor se condense en un tubo de aluminio de cubierta
delgada a 10 atm de presión es de 0.40, si se prueban 12 tubos de ese tipo y bajo esas condiciones,
determine la probabilidad de que: a) el vapor se condense en 4 de los tubos, b) en más de 2 tubos se
condense el vapor, c) el vapor se condense en exactamente 5 tubos.
60
4
4. Distribuciones de probabilidad de variables aleatorias discretas
Ejercicio 4.7 La probabilidad de que el nivel de ruido de un amplificador de banda ancha exceda de
2 dB (decibelios) es de 0.15, si se prueban 10 amplificadores de banda ancha, determine la probabilidad de que; a) en solo 5 de los amplificadores el nivel de ruido exceda los 2 dB, b) por lo menos en
2 de los amplificadores, el ruido exceda de 2 dB, c) encuentre el número esperado de amplificadores
que se exceden de un nivel de ruido de 2 dB y su desviación estándar.
Ejercicio 4.8 En un experimento se comprobó que la aplicación de un tratamiento químico aumentaba la resistencia a la corrosión de un material en un 80 % de los casos.
Si se tratan ocho piezas, determine
(i) Probabilidad de que el tratamiento sea efectivo para más de cinco piezas.
(ii) Probabilidad de que el tratamiento sea efectivo para al menos tres piezas.
(iii) Número de piezas para las que espera que el tratamiento sea efectivo.
Ejercicio 4.9 Considere el espectro de masas de un halocarburo Cn H2n+2−x Clx con x = 1,2 y 3.
Suponiendo que n = 3 y que dispone de una muestra en la que los tres compuestos están presentes en
igual concentración, determine las masas en las que esperaría encontrar un pico en el espectro y la
intensidad relativa de los picos. Tenga en cuenta que el cloro presenta dos isótopos Cl35 y Cl37 con
abundancias relativas 0.67 y 0.33 respectivamente. Suponga que todo el hidrogeno y el carbono de
las muestras corresponde a los isótopos H1 y C12 .
Ejercicio 4.10 Se dispone de un cristal que tiene dos tipos de impurezas que absorben radiación de
la misma longitud de onda. Una de ellas emite un electrón tras la absorción de un fotón, mientras
que la segunda no emite electrones. Las impurezas están en igual concentración y distribuidas homogeneamente en el cristal. Sin embargo, la sección eficaz de absorción, que es una medida de la
probabilidad de absorber un fotón, es 90 veces mayor para la impureza que emite electrones que el
de la impureza que no los emite.
Suponiendo que sobre el cristal inciden 200 fotones y que este es lo suficientemente grande para
absorber todos, calcule la probabilidad de que al menos se emitan tres electrones.
Distribución de Poisson
Ejercicio 4.11 Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son las probabilidades de que reciba, a) cuatro cheques sin fondo en un día dado, b) 10 cheques sin fondos en
cualquiera de dos días consecutivos?
Ejercicio 4.12 En la inspección de una hojalata producida por un proceso electrolítico continuo, se
identifican 0.2 imperfecciones en promedio por minuto.
Determine las probabilidades de identificar a) una imperfección en 3 minutos, b) al menos dos
imperfecciones en 5 minutos, c) un máximo de una imperfección en 15 minutos.
Ejercicio 4.13 Consideremos que el número de trozos de chocolate en una determinada galleta sigue
una distribución de Poisson. Queremos que la probabilidad de que una galleta seleccionada al azar
tenga por lo menos tres trozos de chocolate sea mayor que 0.8.
Encontrar el valor entero más pequeño de la media de la distribución que asegura esta probabilidad.
61
4.4
4.4. Ejercicios y problemas
Ejercicio 4.14 La variable X representa el número de llamadas a un teléfono en una hora y sigue
una distribución de Poisson con parámetro igual a 3,5.
(a) Calcular la probabilidad de que no se produzcan llamadas en la próxima hora.
(b) Hallar la probabilidad de que se reciban al menos dos llamadas en las dos próximas horas.
(c) ¿Cuánto tiempo podemos estar fuera si se quiere que la probabilidad de que el teléfono suene
en nuestra ausencia sea como máximo 0,5?
Aproximación de la distribución binomial a la distribucion de Poisson
Ejercicio 4.15 Un fabricante de maquinaria pesada tiene instalados en el campo 3840 generadores
de gran tamaño con garantía. Sí la probabilidad de que cualquiera de ellos falle durante el año dado
es de 1/1200 determine la probabilidad de que a) 4 generadores fallen durante el año en cuestión, b)
que más 1 de un generador falle durante el año en cuestión.
Ejercicio 4.16 Se sabe que el 5
Determine la probabilidad de que 2 de 100 libros encuadernados en ese taller, tengan encuadernaciones defectuosas, usando, la aproximación de Poisson a la distribución binomial
Ejercicio 4.17 En un proceso de manufactura, en el cual se producen piezas de vidrio, ocurren defectos o burbujas, ocasionando que la pieza sea indeseable para la venta. Se sabe que en promedio
1 de cada 1000 piezas tiene una o más burbujas. ¿Cuál es la probabilidad de que en una muestra
aleatoria de 8000 piezas, menos de 3 de ellas tengan burbujas?
4.4.1.
Soluciones a los ejercicios
Distribución binomial
Ejercicio 4.5 De acuerdo con el problema si llamanos éxito a obtener 1 tendremos p = 0,01 y
q = 0,99.
Sea S = número de éxitos en n ensayos Bernoulli
PB (S ≥ 1; n, 0,01) = 1 − PB (S < 1; n, 0,01) = 1 − PB (S = 0; n, 0,01)
Utilizando la ecuación 4.4
PB (X = x; n, p) =
n!
px q n−x
x!(n − x)!
PB (S ≥ 1; n, 0,01) = 1 − PB (S < 1; n, 0,01) = 1 −
n!
0,010 0,99n = 1 − 0,99n ≥ 0,95 (4.20)
0!n!
1 − 0,99n ≥ 0,95 → 0,05 ≥ 0,99n → log 0,05 ≥ n log 0,99 → n ≥
62
(4.19)
log 0,05
' 299
log 0,99
(4.21)
4
4. Distribuciones de probabilidad de variables aleatorias discretas
Ejercicio 4.6 a) n = 12
x representa la variable que define el número de tubos en que el vapor se condensa
x = {0, 1, 2, 3, . . . , 12}
exito: p = P (se condense el vapor en un tubo de Al a 10 atm) = 0,40
fracaso: q = P (no se condense el vapor en un tubo de Al a 10 atm) = 1 − p = 0,60 = 0,21284
PB (X = {3, 4, ..., 12}; 12, 0,40) = P (x = 3)+P (x = 4)+. . .+P (x = 12) = 1−P (X = {0, 1, 2}; 12, 0,40) =
Utilizando la ecuación 4.4 se obtiene
PB (X ≥ 3; 12, 0,40) = 1 − (0,002176 + 0,0174096 + 0,06385632) = 1 − 0,08344192 = 0,91656
c) PB (X = 5; 12, 0,40) = 0,22703
Ejercicio 4.7 a) n = 10
x representa la variable que define el número de amplificadores de banda ancha que su nivel de
ruido excede de 2 dB, x = {0, 1, 2, 3, . . . , 10}.
exito: p = P (un amplificador exceda su nivel de ruido de 2 dB) = 0,15
fracaso: q = P (un amplificador no exceda su nivel de ruido de 2 dB) = 1 − p = 0,85
PB (X = 5; 10, 0,15) = 0,00849
b) PB (X ≥ 2; 10, 0,15) = 1 − PB (X ≤ 1; 10, 0,15) = 1 − (0,1968 + 0,3474) = 1 − 0,5444 =
0,4557
c) µ = np = 1,5 ∼
= 2, se espera que 2 de los 10 amplificadores probados se excedan de un nivel
de ruido de 2 dB.
√
σ = npq = 1,1291 ∼
=1
Distribución de Poisson
Ejercicio 4.11 a) x representa la variable que define el número de cheques sin fondo que llegan al
banco en un día cualquiera, x = {0, 1, 2, 3, . . .}. λ = 6 es el número medio de cheques sin fondo por
día.
La probabilidad de recibir cuatro cheques sin fondo en un dia puede calcularse con la ecuación
4.11
P (X = x) =
1 x −λ
λ e
x!
(4.22)
1 4 −6 1296 · 0,00248
6e =
= 0,13392
4!
24
b) x representa la variable que define el número de cheques sin fondo que llegan al banco en un
día cualquiera, x = {0, 1, 2, 3, . . .}. λ = 2 × 6 = 12 es el número medio de cheques sin fondo por
día.
Utilizando de nuevo la ecuación 4.11 obtenemos
P (X = 4) =
P (X = 10) =
1 1 −10 6,1973691010 · 6,15110−6
12 0e
=
= 0,104953
10!
3628800
63
4.4
4.4. Ejercicios y problemas
Ejercicio 4.12 a) x representa la variable que define el número de que nos define el número de
imperfecciones en la hojalata cada 3 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 3 = 0,6 es el número
medio de imperfecciones en tres minutos.
Utilizando de nuevo la ecuación 4.11 obtenemos
1 1 −0,6 0,6 · 0,548845
0,6 e
=
= 0,329307
1!
1
b) x representa la variable que define el número de que nos define el número de imperfecciones
en la hojalata cada 5 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 5 = 1 es el número medio de
imperfecciones en tres minutos.
Utilizando de nuevo la ecuación 4.11 obtenemos
P (X = 1) =
P (X ≥ 2) = P (X = 2, 3, . . .) = 1 − P (X ≤ 1) = 1 − P (0) − P (1)
P (X ≥ 2) = 1 −
1 0 −1 1 1 −1
1e + 1e
0!
1!
= 1 − (0,367918 + 0,36718) = 0,26416
c) x representa la variable que define el número de que nos define el número de imperfecciones
en la hojalata cada 15 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 15 = 3 es el número medio de
imperfecciones en tres minutos.
Utilizando de nuevo la ecuación 4.11 obtenemos
P (X ≤ 1) = P (X = 0) + P (X = 1) =
1 0 −3 1 1 −3
3 e + 3 e = 0,0498026 + 0,149408 = 0,1992106
0!
1!
Ejercicio 4.13 Sea X = número de trozos de chocolate en una galleta donde queremos evaluar P (X >
3; λ) > 0,8
P (X > 3) = 1 − P (X ≤ 2) = 1 − P (0) − P (1) − P (2) = 1 − e−λ −
λe−λ λ2 e−λ
−
1
2
Dando valores a λ = 1, 2, ..., 5 se obtiene
λ
0
P (X > 3) 0.0803014
1
0.3233236
2
0.5768099
El valor más cercano a 0,8 lo proporciona λ = 4.
64
3
0.7618967
4
0.8753480
5
4
4.5.
4. Distribuciones de probabilidad de variables aleatorias discretas
Lecturas recomendadas
Para completar la preparación de este tema recomendamos la lectura de:
☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7].
X
Revisa los contenidos del tema. Adecuado para revisar la teoría del tema.
☞ Capítulo 4. Distribuciones de Probabilidad especial del libro de Spiegel y cols.[5].
Se recomienda revisar los ejercicios resueltos:
• Distribución binomial 4.1 a 4.6, y 4.9X
• Distribución de Poisson 4.22 X
Como ejercicios de repaso se recomienda realizar los ejercicios:
• Distribución binomial 4.63, 4.64, 4.65,4.67, 4.68, 4.69
• Distribución de Poisson 4.90, 4.93
Los comportamientos límite de estas distribuciones binonial y de Poisson se estudiarán en el
tema 5.
☞ Capítulo 4. Algunas distribuciones discretas de probabilidad. del texto de Walpole y Myers[6].
65
5
Distribuciones de probabilidad de variables aleatorias
continuas
Contenidos
Objetivos
✍ Distribución uniforme Descripción y propiedades.
✍ Distribución normal o gaussiana Descripción y propiedades. Descripción y propiedades. Distribución de las medias de muestras de tamaño
finito. Teorema del límite central. Intervalos de confianza para la media
muestral. Aproximación de la distribución binomial y de Poisson a la distribución normal.
✍ Distribución t de Student Descripción y propiedades.
✍ Distribución χ2 Descripción y propiedades. Intervlos de probabilidad
para la varianza muestral.
✍ Distribución F de Fisher Descripción y propiedades. Comparación de
varianzas.
✓ Reconocer las características de la distribución uniforme de una variable
aleatoria continua
✓ Reconocer las características de una distribución normal o gaussiana.
✓ Realizar cálculos de probabilidades de variables aleatorias que siguen un
distribución normal
✓ Comprender el significado de los intervalos de probabilidad 2σ y 3σ de una
variable alaeatoria normal
✓ Conocer las características de la distribución de medias muestrales una
variable aleatoria normal
✓ Comprender las consecuencias del teorema del límite central y sus limitaciones
✓ Utilizar la distribución normal para calcular intervalos de probabilidad de
variables que siguen una distribución binomial o de Poisson
67
5.0
Objetivos
✓ Reconocer las características de una distribución t de Student
✓ Calcular intervalos de probabilidad de variables que siguen una distribución
t de Student
✓ Determinar los límites del intervalo de confianza de la media muestral
✓ Reconocer las características de una distribución χ2 de Student
✓ Utilizar la distribución χ2 para calcular intervalos de confianza de la varianza muestral
✓ Reconocer las características de una distribución F de Fisher
✓ Utilizar la distribución F de Fisher para la comparación de varianzas muestrales
✓ Conocer las diferencas entre hipótesis nula, H0 , e hipótesis alternativa, H1 ,
y la relación de ambas con los intervalos de probabilidad
68
5
5.1.
5. Distribuciones de probabilidad de variables aleatorias continuas
Distribución uniforme
Una variable aleatoria X sigue una distribución uniforme en el intervalo [a,b] cuando su función
densidad de probabilidad es
f (x) =

 0
1
b−a
0

x<a
a≤x≤b
x>b
(5.1)
Su función de densidad de probabilidad integrada es
F (x) =

 0
x−a
b−a

1
x<a
a≤x≤b
x>b
(5.2)
La media y la varianza de la distribución vienen dadas por
µ =
σ2 =
a+b
2
(5.3)
(b − a)2
12
(5.4)
Esta distribución sólo depende de los parámetros a y b que están comprendidos en el intervalo
(−∞, +∞).
Figura 5.1: Distribución de densidad de probabilidad de una variable uniforme continua.
69
5.2
5.2. Distribución normal o Gaussiana
5.2.
Distribución normal o Gaussiana
La función de densidad de probabilidad de una variable x que sigue una función de distribución
normal o gausiana viene dada por
f (x) = √
(x−µx )2
1
−
e 2σ2 (x)
2 π σ(x)
(5.5)
donde µx y σ(x) son la media y la desviación típica de X respectivamente, y la variable alatoria puede
estar comprendida en el intervalo −∞ < x < +∞.
Si una variable aleatoria sigue una distribución normal sólo necesitamos conocer µx y σ(x) para
caracterizar la distribución de los datos.
La función de distribución de probabilidad viene dada por
1
F (x) = P (x ≤ x) = √
2π σ(x)
Z
x
−
e
(x−µx )2
2σ 2 (x)
dx
(5.6)
−∞
En el trabajo con variables aleatorias que siguen una distribución normal es conveniente utilzar la
variable normalizada z, que se calcula como
z=
x − µx
σ(x)
(5.7)
Esta variable tiene la ventaja de que cualesquiera sean los valores de µx y σ(x), z siempre sigue una distribución normal con media µz = 0 y desvición típica σ(z) = 1. En general f(z) o F(z)
se evaluan utilizando un programa informático o utilizando tablas1 (ver apéndices).Por comodidad
utilizaremos tablas e ilustraremos su uso en los ejemplos.
Figura 5.2: Distribución de densidad de probabilidad de Gauss estanzarizada.
1
En la tabla del apéndice correspondiente a la distribución normal se tabula P(0<Z<z).
70
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Figura 5.3: Distribución de densidad de probabilidad de Gauss con idéntica media µx = 0 y distinta
varianza σ 2 (x) = 1 (línea continua) y σ 2 (x) = 0,25 (línea discontinua).
Ejemplo 1. Cálculo de probabiblidades de una variable normal (I)
Hallar la probabilidad de que la magnitud aleatoria z (µz =0, σ(z)=1) este comprendida en el
intervalo (-1.96,1.96).
Teniendo en cuenta los postulados que definen la probabilidad:
P (−1,96 ≤ z ≤ 1,96) = P (−1,96 ≤ z ≤ 0) + P (0 ≤ z ≤ 1,96)
La distribución gausiana es una distribución simétrica
P (−z ≤ Z) = P (z ≤ Z)
P (−1,96 ≤ z ≤ 1,96) = 2 P (0 ≤ z ≤ 1,96)
De acuerdo con el apéndice 1
P (0 ≤ Z ≤ 1,96) = 0,475
y
P (−1,96 ≤ Z ≤ 1,96) = 2 ∗ 0,475 = 0,990
71
5.2
5.2. Distribución normal o Gaussiana
Figura 5.4: Distribución de densidad de probabilidad de Gauss que difieren en la media µx = 0 y
µx = 1 pero tienen idéntica σ 2 (x) = 1.
Ejemplo 2. Cálculo de probabiblidades de una variable normal (II)
Hallar la probabilidad de que el resultado de una observación única de una variable aleatoria
distribuida normalmente no exceda la media en más de ±2σ.
El problema nos pide que calculemos P (µ − 2σ ≤ x ≤ µ + 2σ).
Para calcular la probabilidad primero determinaremos los valores de la variable tipificada que
corresponden a los límites del intervalo xmin = µx − 2σ(x) y xmax = µx + 2σ(x)
z =
x − µx
(µx ± 2σ(x)) − µx
=
= ±2
σ(x)
σ(x)
Como disponemos de una tabla de la distribución gausiana estandarizada (ver apendice 1) que
nos proporciona P (0 ≤ x ≤ z), utilizaremos la simetría de la distribución gaussina para calcular
P (0 ≤ z ≤ 2):
P (x − 2σ ≤ z ≤ x + 2σ) = P (−2 ≤ z ≤ 2) = 2P (0 ≤ z ≤ 2)
Consultando el apéndice 1 obtenemos
P (0 ≤ z ≤ 2) = 0,4772
72
5
5. Distribuciones de probabilidad de variables aleatorias continuas
de modo que
P (−2 ≤ z ≤ 2) = 2 ∗ 0,4772 = 0,9544
De acuerdo con el ejemplo anterior, si las observaciones (medidas) cumplen la ley de distribución
normal, la probabilidad de que el resultado de una medida este en el intervalo µ ± 2σ es 0.9544. De
modo análogo se deduce que la probabilidad de que se obtenga una observación en el intervalo µ ± 3σ
es 0.9974. De esto se deduce que la probabilidad de que las observaciones se encuentren fuera de estos
intervalos son muy pequeñas, 0.046 y 0.0026, respectivamente. Por ello, las magnitudes 2σ y 3σ se
utilizan con frecuencia para determinar el error máximo admisible y despreciar resultados fuera de
estos intervalos. Sin embargo, hay que tener en cuenta que σ(x) hace referencia a la desviación típica
poblacional. En general sólo tenemos una estima de esta magnitud, la desviación típica muestral,
s(x). Como veremos más adelante, esto nos obliga a utilizar la distribución t de Student para calcular
los límites del error admisible.
Figura 5.5: Representación de un conjunto de 5000 medidas de la temperatura que siguen una distribución normal. Como puede observar, la mayor parte de los datos están concentrados en el intervalo
µx ± 2σ(x), y es escaso el número de datos fuera del intervalo µx ± 3σ(x).
73
5.2
5.2. Distribución normal o Gaussiana
Ejemplo 3. Cálculo de probabiblidades de una variable normal (III)
Calcule la probabilidad de que la concentración de cloruros, c, en una muestra de agua este en
el intervalo 31,50 a 38,50 mg/l si la concentración media de cloruros es 35,00 mg/l con una
desviación típica de 3,5 mg/l.
Calculamos la variable normal tipificada que corresponde a cada uno de los límites del intervalos:
zmin =
31,5 − 35
= −1,0
3,5
zmax =
38,5 − 35
= 1,0
3,5
de modo que
P (28,5 ≤ c ≤ 38,5) = P (−1 ≤ z ≤ 1) = 2 ∗ P (0 ≤ z ≤ 1) = 0,6826
Este resultado supone que si nuestros resultados siguen una distribución normal, esperamos que
el 68.26 % de las medidas se encuentren en el intervalo µx ± σ(x). En el caso estudiado este
intervalo comprende las concentraciones 28,5 ≤ c ≤ 38,5 mg/l.
Ejemplo 4. Cálculo de probabiblidades de una variable normal (IV)
Cierta magnitud X sigue una distribución normal de media 3 y varianza 4. ¿Cuál es la probabilidad de observar los resultados X > 3.5, X < 1.2 y 2.5 <X < 3.5?.
P (X > 3,5) =P (Z > 0,25) = 1 − P (Z < 0,25)
=0,5 − P (0,00 ≤ Z ≤ 0,25) = 0,4013
P (X < 1,2) =P (Z < −0,9) =
=0,5 − P (−0,9 ≤ Z ≤ 0,0)
=0,5 − P (0,0 ≤ Z ≤ 0,9) = 0,1841
P (2,5 < X < 3,5) =P (−0,25 < Z < 0,25)
=P (−0,25 ≤ Z ≤ 0,0) + P (0,0 ≤ Z ≤ 0,25)
=2 ∗ P (0,0 ≤ Z ≤ 0,25) = 2 ∗ 0,0987 = 0,1974
74
5
5. Distribuciones de probabilidad de variables aleatorias continuas
5.2.1. ¿Qué variables aleatorias siguen una distribución normal?
La media muestral x̄ de una variable X que sigue una distribución normal
Teorema 5.1
Si una variable aleatoria x1 sigue una distribución normal de media µ1 y varianza σ12 , y otra variable
aleatoria x2 sigue una distribución normal de media µ2 y varianza σ22 , y ambas son independientes, la
variable aleatoria x3 = x2 ± x1 sigue una distribución normal de media µ3 y varianza σ32
µ3 =µ1 + µ2
σ32 =σ12 + σ22
(5.8)
(5.9)
Esta propiedad puede extenderse a la suma de n variables aleatorias independientes distribuidas
normalmente.
Corolorario 5.1
La variable aleatoria media muestral x̄ de muestras de tamaño n de una variable aleatoria X que sigue
una distribución normal
f (x) = PN (x; µx̄ , σ(x̄))
de media µx̄
µx̄ = µx
(5.10)
y varianza, σ 2 (x̄)
σ 2 (x̄) =
σ 2 (x)
n
(5.11)
En este caso la magnitud tipificada z viene dada por
z=
x̄ − µx̄
x̄ − µx
√
=
σ(x̄)
σ(x)/ n
75
(5.12)
5.2
5.2. Distribución normal o Gaussiana
Figura 5.6: Funciones de densidad de probabilidad gaussianas. Comparación de la distribución de los
datos (negra) y las distribución de las medias de muestras de tamaño n (azul).
Ejemplo 5. Cálculo de probabiblidades de una variable normal: distribución de las medias
Una aleación de cobre contiene una media de 41.26 % de este metal (determinado como la media
de las determinaciones de varios laboratorios) con una desviación típica de 0.12 %.
¿Cuál es la probabilidad de que al realizar un análisis de nueve muestras se obtengan porcentajes
de cobre entre el 41.30 % y el 41.50 %?. ¿Y se tomaran dieciséis muestras?.
En este ejemplo µ(x) = 41,26 y σ(x) = 0,12 , donde x es el resultado de la medida. De acuerdo
con el corolario 5.1,√
x̄ esta distribuido normalmente con media µx̄ = µx = 41,26 y desviación
típica σ(x̄) = σ(x)/ n tendremos
(a) con nueve muestras
0,12
σ(x̄) = √ = 0,04
9
y las variables tipificadas correspondientes serán:
z=
x̄ − µx
√
σ(x)/ n
z=
41,30 − 41,26
x¯1 − µx
√ =
= 1,0
0,04
σ(x)/ n
z=
41,50 − 41,26
x¯2 − µx
√ =
= 6,0
0,04
σ(x)/ n
76
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Figura 5.7: Distribución de frecuencias de las medias muestrales de conjuntos de n medidas de una
variable que sigue una distribución gaussiana. En todos los diagramas se utilizaron las mismas 500
medidas pero se utilizaron distinto número de medidas para calcular las medias, n = (a) 1, (b)5, (c)
10, y (d) 25.
de modo que
P (1,0 ≤ z ≤ 6,0) = P (z ≤ 6,0) − P (z ≤ 1,0) = 1,0000 − 0,8413 = 0,1587
(b) con dieciseis muestras
0,12
σ(x̄) = √ = 0,03
16
y las variables tipificadas correspondientes serán:
z=
41,30 − 41,26
x¯1 − µx
√ =
= 1,33
0,03
σ(x)/ n
z=
41,50 − 41,26
x¯2 − µx
√ =
= 8,0
0,03
σ(x)/ n
de modo que
P (1,33 ≤ z ≤ 8,0) = P (z ≤ 8,0) − P (z ≤ 1,33) = 1,0000 − 0,9082 = 0,0918
77
5.2
5.2. Distribución normal o Gaussiana
La media muestral x̄ de cualquier variable aleatoria obtenida a partir de un número grande de
medidas
Teorema 5.2
Teorema del límite central. Sean las magnitudes aleatorias x1 , x2 , . . ., xn que siguen la misma distribución de probabilidad y a la que corresponde una media µx y una varianza σ 2 (x) finitas. Conforme
aumenta el valor de n la distribución de la variable aleatoria media muestral, x̄ se aproxima a una
distribución normal de media µx y varianza σ 2 (x)/n.
La importancia de este teorema estriba en que permite, si la muestra es lo suficientemente grande,
calcular estimas aceptables de µ y σ 2 (x) sin necesidad de conocer f(x).
Matemáticamente esta es una ley asintótica, es decir, la identidad con la distribución gaussiana
sólo se consigue si la población original es normal, pero su comportamiento es muy próximo a éste
conforme aumenta el tamaño de la muestra n utilizada para calcular estas estimas.
Figura 5.8: Distribución de frecuencias de las medias muestrales de n medidas de un conjunto de 500
datos que siguen una distribución uniforme. En la figura puede observarse como la distribución evoluciona desde la distribución uniforme n = 1 ha distribuciones de tipo gaussiano conforme aumenta
n. En todos los diagramas se utilizaron las mismas 500 medidas pero estas se agruparon en conjuntos
de distinto tamaño, n, para calcular las medias, n = (a) 1, (b)5, (c) 10, y (d) 25.
78
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Una variable discreta que sigue una distribución binomial cuando el número de experimentos,
n, es grande
De acuerdo con el teorema de Moivre, para tamaños de la muestra tales que los valores del producto npq >5 (tamaños de muestra grnades), el comportamiento de la distribución binomial se asemeja al
de una distribución normal con media µ = np y varianza σ 2 = npq. Esta propiedad es conocida como
teorema de Moivre.
Como la distribución binomial es una distribución de variables discretas, hay que hacer una corrección de continuidad de modo que al utilizar la aproximación de la distribución binomial a una distribución gaussiana las probabilidades se calculan como
PB (X = a; n, p) =PG (a − 0,5 ≤ X ≤ a + 0,5)
PB (a < X < b; n, p) =PG (a + 0,5 ≤ X ≤ b − 0,5)
PB (a ≤ X ≤ b; n, p) =PG (a − 0,5 ≤ X ≤ b + 0,5)
Este teorema permite calcular de una manera sencilla valores de la probabilidad de una distribución binomial en condiciones en las que es imposible evaluar esta magnitud utilizando la ecuación
4.4
PB (X = x; n, p) =
n!
px q n−x
x!(n − x)!
(5.13)
Figura 5.9: Distribución de probabilidad para una variable binomial con n = 25, p = 0,5 y q = 0,5 y
la distribución normal con µx = np = 12,5 y σ 2 (x) = npq = 6,25.
79
5.3
5.3. La distribución t de Student
Una variable discreta que sigue una distribución de Poisson con λ grande
Para valores grandes de λ la función de distribución de Poisson puede aproximarse mediante una
distribución de probabilidad gaussiana con µ = λ y σ 2 = λ.
Figura 5.10: Relación entre las distribuciones binomial, Poisson y Gauss o normal.
5.3.
La distribución t de Student
Una variable aleatoria continua t, que puede tomar valores en el intervalo 0 ≤ t < ∞ y tiene una
función densidad de probabilidad
− ν+1
1 Γ ν+1
t2 ( 2 )
2
f (t) = √
1+
ν
πν Γ ν2
(5.14)
se dice que está distribuida de acuerdo con una distribución t de Student con ν grados de libertad2 .
Es importante observar en la ecuación 5.14 que la función de distribución está completamente
caracterizada por un solo parámetro: ν el número de grados de libertad.
La media no depende del número de grados de libertad y es
µt = 0
(5.15)
mientras que la varianza sólo depende del número de grados de libertad
σ 2 (t) =
ν
ν−2
(5.16)
Cuando ν es grande, σ 2 (t) ≈ 1. Además, puede demostrarse que para valores grandes de ν (ν ≥
20) se puede considerar a la función t de Student se comporta como una distribución normal de media
0 y varianza 1.
2
En la expresión de f(t), Γ(z) es la función gamma de Euler, que viene dada por Γ(z) =
80
R∞
0
ν z−1 e−ν dν con ν > 0
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Figura 5.11: Distribución t de Student con distintos grados de libertad.
5.3.1. ¿Qué variables aleatorias siguen una distribución t de Student?
Teorema 5.3
Sean Z e Y dos variables aleatorias independientes. Si Y está normalmente distribuida con media 0 y
varianza 1, mientras que Z tiene una distribución chi-cuadrado χ2 con ν grados de libertad. Entonces
la variable aleatoria T
y
T =p
z/ν
(5.17)
sigue una distribución t de Student con ν grados de libertad.
Utilizando este teorema se puede demostrar que la variable aleatoria t definida como
t=
x̄ − µx̄
x̄ − µx
√
=
s(x̄)
s(x)/ n
(5.18)
está distribuida con arreglo a una distribución t de Student con ν = n − 1 grados de libertad.
En el apéndice 2 se proporcionan los valores de las percentilas tp para distribuciones t de Student
con ν grados de libertad. La percentila es el valor que toma la variable aleatoria, t en nuestro caso,
para que se cumpla que
P (t(ν) ≤ tp (ν)) = p
81
(5.19)
5.3
5.3. La distribución t de Student
Ejemplo 6. Cálculo del intervalo de probabiblidad de una variable que sigue la distribución
t de Student
Usando la tabla del apéndice A.2 determine el intervalo simétrico en el que se encontrará la
variable t con una probabilidad del 95 % si tienen ν=9 grados de libertad.
En este ejemplo nos piden determinar lOS valores de t que cumplan
P (t1 (ν) ≤ t ≤ t2 (ν)) =0,95
P (t ≤ t1 (ν)) =0,025
P (t ≥ t2 (ν)) =0,025
En las tablas del apéndice A.2 podemos encontrar los valores de tp tales que
P (t(ν) ≤ tp (ν)) = p
que equivalen a los valores para los que
P (t(ν) ≥ tp (ν)) = 1 − p
Teniendo en cuenta que la distribución t de Student es simétrica respecto de su media y que
µt = 0, para un intervalo también simétrico tendremos
P (−t 1+p (ν) ≤ t ≤ t 1+p (ν)) = p
2
2
En este ejemplo, p = 0,95 y ν = 9. En la tabla del apéndice A.2 encontramos t,975 (9) = 2,26,
de modo que el intervalo de probabilidad viene dado por
−t,975 ≤ t ≤ t,975
−2,26 ≤ t ≤ 2,26
82
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Ejemplo 7. Cálculo del intervalo de confianza de la media
En un experimento para la determinación de cloruros se utilizo una técnica cromatográfica. En
esta técnica la concentración de la especie detectada es proporcional al área del pico asociado a
la especie detectada. En un análisis de 9 muestras de agua de lluvia se obtuvo un valor medio del
área x̄ = 0,6752 cm2 y una desviación típica s(x) = 0,002821 cm2 .
A partir de estos datos, determine el intervalo de valores en que espera que se encuentre el valor
medio del área con una probabilidad de 0.95.
Si la media de las áreas de los picos siguen una distribución gaussiana, la variable t, ecuación
5.18,
t=
x̄ − µx̄
x̄ − µx
√
=
s(x̄)
s(x)/ n
seguirá una distribución t de Student con ν = 9 − 1 = 8 grados de libertad.
Por tanto esperamos que
P (−t,975 (8) ≤ t ≤ t,975 (8)) = 0,95
y
x̄ − µx
√
s(x)/ n
x̄ − µx
√
t,975 (8) ≥
s(x)/ n
−t,975 (8) ≤
s(x)
x̄ − t,975 (8) √ ≤ µx
n
s(x)
µx ≤ x̄ + t,975 (8) √
n
De donde sigue que esperamos que la media se encuentre en el intervalo
s(x)
s(x)
x̄ − t,975 (8) √ ≤ µx ≤ x̄ + t,975 (8) √
n
n
0,6752 − 2,31
0,002821
0,002821
√
≤ µx ≤ 0,6752 + 2,31 √
9
9
0,6730 ≤ µx ≤ 0,6772
con una probabilidad de 0.95.
Es habitual expresar este intervalo como µx = 0,6752 ± 0,0021.
83
(5.20)
5.4. La distribución χ2
5.4
5.4.
La distribución χ2
Se dice que una variable aleatoria sigue una distribución chi-cuadrado o χ2 con ν grados de
libertad si su función de distribución de probabilidad tiene la forma
(
0
si x < 0
R
ν
ν
P (χ2 ≤ x)
(5.21)
x
√ 1 ν
u 2 −1 e− 2 du si x > 0
2Γ( ) 0
2
Note que la función de distribución esta caracterizada por un sólo parámetro, ν.
Para esta distribución
µχ2 = ν
(5.22)
σ 2 (χ2 ) = 2ν
(5.23)
Figura 5.12: Distribuciones χ2 con distintos grados de libertad, ν.
En el apéndice 3 se recogen los valores de las percentilas de distribuciones χ2 con ν grados de
libertad, es decir
P (χ2 (ν) ≤ X 2 ) = χ2p (ν) = p
(5.24)
5.4.1. ¿Qué variables aleatorias siguen una distribución χ2 ?
Teorema 5.4
Suponga que dispone de n magnitudes aleatorias independientes x1 , x2 , x3 , . . ., xn distribuidas de
acuerdo con una distribución normal de parámetros µx y σ(x).
Si definimos la variable Ui tal que
Ui =
84
x i − µx
σ(x)
(5.25)
5
5. Distribuciones de probabilidad de variables aleatorias continuas
la suma
2
χ =
n
X
Ui2
i=1
=
n
X
(xi − µx )2
i=1
σ 2 (x)
(5.26)
está distribuida de acuerdo con una distribución χ2 con ν = n grados de libertad.
A partir de este teorema se puede demostrar que la variable aleatoria X 2
X 2 = (n − 1)
s2 (x)
σ 2 (x)
(5.27)
sigue una distribución χ2 con ν = n − 1 grados de libertad.
Ejemplo 8. Intervalos de probabilidad de variables que siguen una distribución χ2
Suponga que hace cinco medidas de una cantidad distribuida normalmente con media µ = 0,05
y se obtienen los valores 0.041, 0.064, 0.055, 0.046, 0.060.
Estime la varianza de la distribución. Suponga que la varianza es conocida y tiene el valor σ 2 (x) = 1,0 10−4 . Determine si el valor de X 2 obtenido se encuentra en el intervalo
P (χ20,025 (ν) ≤ x2 ≤ χ20,975 (ν)).
P
xi
0,2666
x̄ =
=
= 0,0532
n
5
P
(xi − x̄)2
2
s (x) =
= 9,17 10−5
n−1
De acuerdo con el teorema X 2
X 2 = (n − 1)
s2 (x)
9,17 10−5
=
4
= 3,68
σ 2 (x)
1 10−5
sigue una distribución χ2 con ν = 4 grados de libertad.
De acuerdo con las tablas del apándice A.3,
P (χ20,025 (ν = 4) ≤ X 2 ) = 0,484
P (χ20,975 (ν = 4) ≤ X 2 ) = 11,1
Es decir el valor de x2 obtenido está dentro del intervalo indicado
85
5.4. La distribución χ2
5.4
Ejemplo 9. Intervalos de probabilidad de la varianza muestral
Se desea contrastar la hipótesis de que la varianza de una población normal es σ 2 (x) = 1(u.a.)2 .
Para ello se realizaron 9 medidas de esa magnitud obteniendose un valor de la varianza muestral
s2 (x) = 1,71(u.a.)2 .
Determine si este resultado es compatible con la hipótesis propuesta (hipótesis nula). Utilice
como criterio para aceptar la hipótesis nula que si la hipótesis es cierta se cumple que χ20,025 (ν) ≤
X 2 ≤ χ20,975 (ν).
Determine el intervalo de valores de s2 (x) compatibles con la hipótesis nula.
Calculamos el valor de la variable X 2
s2 (x)
1,71
X = (n − 1) 2
=8
= 13,6
σ (x)
1,0
2
De acuerdo con las tablas del apándice A.3,
P (χ20,025 (ν = 8) ≤ X 2 ) = 2,18
P (χ20,975 (ν = 8) ≤ X 2 ) = 17,5
Ya que el criterio se cumple aceptamos la hipótesis nula.
El intervalo de valores de X 2 compatibles con la hipótesis nula vendrá dado por
χ20,025 (ν = 8) ≤ (n − 1)
2,18 ≤ (n − 1)
2,18
s2 (x)
≤ χ20,975 (ν = 8)
σ 2 (x)
s2 (x)
≤ 17,5
σ 2 (x)
σ 2 (x)
σ 2 (x)
≤ s2 (x) ≤ 17,5
n−1
n−1
0,273 ≤ s2 (x) ≤ 2,192
86
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Ejemplo 10. Intervalos de confianza de la varianza
En un experimento se determino la densidad de un polímero en disolución. En el experimento
se realizaron 5 medidas y se obtuvo una varianza muestral s2 (x) = 14,1.(u.a.)2 . Determinen el
intervalo simétrico en el que espera encontrar la varianza con una probabilidad p = 0.9.
Que el intervalo sea simétrico supone que
P (χ21 (ν) ≤ X 2 ≤ χ22 (ν)) =0,90
P (X 2 ≤ χ21 (ν)) =0,05
P (X 2 ≥ χ22 (ν)) =0,05
Suponiendo que las medidas están distribuidas normalmente,
χ20,05 (ν = 4) ≤ (n − 1)
s2 (x)
≤ χ20,95 (ν = 4)
σ 2 (x)
χ0 ,052 (ν = 4)
1
χ0 ,952 (ν = 4)
≤
≤
(n − 1)s2 (x)
σ 2 (x)
(n − 1)s2 (x)
(n − 1)s2 (x)
(n − 1)s2 (x)
2
≤
σ
(x)
≤
χ20,95 (ν = 4)
χ20,05 (ν = 4)
4
14,1
14,1
≤ σ 2 (x) ≤ 4
9,49
0,711
5,94 ≤ σ 2 (x) ≤ 78,8
Propiedad aditiva
Teorema 5.5
Sean X12 y X22 dos variables aleatorias independientes. Si X12 sigue una distribución χ2 con ν1 grados
de libertad y X22 sigue una distribución χ2 con ν2 grados de libertad, X32 = X12 + X22 sigue una
distribución χ2 con ν = ν1 + ν2 grados de libertad.
5.4.2. Relación entre la distribución χ2 y la distribución normal
Cuando ν es grande la distribución χ2 se aproxima a una distribución normal con media µ = ν y
varianza σ 2 = ν.
87
5.5
5.5. La distribución F de Fisher
5.5.
La distribución F de Fisher
Una variable aleatoria u está distribuida de acuerdo con una distribución F de Fisher con ν1 y ν2
grados de libertad si su función de densidad de probabilidad está dada por
f (u) =
2
ν1 +ν2
Γ( ν1 +ν
) ν1 /2 ν2 /2 ν2 /2−1
2
ν2 u
(ν1 u − ν2 )− 2
ν1
ν2 ν1
Γ( 2 )Γ( 2 )
(5.28)
donde u > 0.
Para esta distribución,
µu =
ν2
si ν2 > 2
ν2 − 2
2ν22 (ν1 + ν2 − 2)
σ (u) =
si ν2 > 4
ν1 (ν2 − 2)2 (ν2 − 4)
2
5.5.1.
(5.29)
(5.30)
¿Qué variables aleatorias de interés siguen una distribución F de Fisher?
Teorema 5.6
Sean V1 y V2 dos variables aleatorias independientes distribuidas de acuerdo con distribuciones χ2
con ν1 y ν2 grados de libertad. Entonces la variable aleatoria f dada por
f=
V1 /ν1
V2 /ν2
(5.31)
sigue una distribución F con ν1 y ν2 grados de libertad.
Una consecuencia de este teorema es
F1−p (ν1 , ν2 ) =
88
1
Fp (ν2 , ν1 )
(5.32)
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Corolorario 5.2
Sean dos muestras aleatorias independientes de tamaños m y n, respectivamente, que se obtienen
de poblaciones normales con varianzas σ12 (x) y σ22 (y) respectivamente. De acuerdo con el teorema
anterior, la variable aleatoria
f=
ms21 (x)/(m − 1)σ12 (x)
ns22 (y)/(n − 1)σ22 (y)
(5.33)
obedece una ley de Fisher con ν1 = m − 1 y ν2 = n − 1 grados de libertad.
En el caso en que σ12 = σ22 , la expresión anterior se simplifica a
f=
s21 (x)
s22 (y)
(5.34)
Los apéndices A.4 y A.5 se recogen los valores de F con ν1 y ν2 grados de libertad para los que
la función de distribución de probabilidad iguala a 0.95 y 0.99 . Es decir se tabulan los valores de la
variable aleatoria f que cumplen:
P (f ≤ F0,95 ; ν1 , ν2 ) = 0,95
P (f ≤ F0,95 ; ν1 , ν2 ) = 0,99
Ya que en general Fp (ν1 , ν2 ) 6= Fp (ν2 , ν1 ), para calcular Fexp designaremos los valores de s1 y s2
de modo que s21 > s22
Ejemplo 11. Comparación de varianzas (I)
La varianzas muestrales obtenidas al aplicar dos métodos A y B para determinar el valor de una
magnitud son
s2 (A) =45,34 10−4
s2 (B) =11,11 10−4
En ambos experimentos se realizaron 9 medidas. ¿Es mayor la varianza en el método A que la
del método B?.
Supondremos que las medidas están distribuidas normalmente.
Formularemos la hipétesis nula H0 : σ12 = σ22 , de modo que si esta hipótesis es cierta, de acuerdo
con el corolario 5.2, la variable aleatoria
fexp =
s2 (A)
s2 (B)
sigue una distribución F con ν1 = m − 1 = 8 y ν2 = n − 1 = 8 grados de libertad.
89
(5.35)
5.5
5.5. La distribución F de Fisher
Utilizaremos como criterio para aceptar esta hipótesis que el valor de fexp que obtenemos sea
razonablemente probable, es decir que este comprendida en el intervalo que comprende al 95 %
de las medidas si la hipótesis nula es cierta,
fexp ≤ F0,95 (8, 8)
Si esto no se cumple, supondremos valida la hipótesis alternativa H1 : σ12 > σ22 , que queremos
contrastar.
Calculamos fexp
fexp =
45,34 10−4
= 4,0
11,11 10−4
(5.36)
En la tabla del apéndice A.4 encontramos F0,95 (8, 8) = 3,44 de modo que fexp > F0,95 (8, 8),
rechazamos H0 , las varianzas son iguales, y aceptamos la hipotesis alternativa: la varianza del
método A es mayor que la del método B.
Ejemplo 12. Comparación de varianzas (II)
Un ingeniero químico estudió la variabilidad de dos dispositivos de monitorización de un proceso
dentro de una planta. En el estudio de la variabilidad de ambos equipos obtuvo el siguiente
resultado
Equipo 1. s21 = 13,5 n1 = 12
Equipo 2. s22 = 10,53 n2 = 10
Tras analizar los datos, ¿puede afirmar el ingeniero que la variabilidad del primer equipo es
mayor que la del segundo?.
Supondremos que las medidas están distribuidas normalmente.
Formularemos la hipétesis nula H0 : σ12 = σ22 , es decir, no hay diferencias en la variabilidad. Si
esta hipótesis es cierta, de acuerdo con el corolario 5.2, la variable aleatoria
fexp =
s21
s22
(5.37)
sigue una distribución F con ν1 = m − 1 = 11 y ν2 = n − 1 = 9 grados de libertad.
Utilizaremos como criterio para aceptar esta hipótesis que el valor de fexp que obtenemos sea
razonablemente probable, es decir que este comprendida en el intervalo que comprende al 95 %
de las medidas si la hipótesis nula es cierta,
fexp ≤ F0,95 (11, 9)
Si esta condición no se cumple, supondremos valida la hipótesis alternativa H1 : σ12 > σ22 , que
es la hipótesis que queremos contrastar.
90
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Calculamos fexp
fexp =
13,5
= 1,31
10,53
(5.38)
En la tabla del apéndice A.4 encontramos F0,95 (11, 9) = 3,10 de modo que fexp < F0,95 (11, 9).
Aceptamos H0 ,las varianzas son iguales. Esto quiere decir que la variabilidad de los dos métodos
es la misma.
Ejemplo 13. Comparación de varianzas (III)
La f.e.m. de una pila Cu|Zn fue medida con dos aparatos distintos. Con el primer aparato se
obtuvo una varianza muestral s21 (x) = 0,152 con 11 medidas. Con el segundo aparato el resultado
fue s22 (x) = 0,011 con 6 medidas.
¿Es consistente este resultado con la hipótesis σ12 (x) = σ22 (x)?.
Si la hipótesis es cierta, de acuerdo con el corolario 5.2, la variable aleatoria
fexp =
s21
s22
(5.39)
sigue una distribución F con ν1 = m − 1 = 10 y ν2 = n − 1 = 5 grados de libertad.
Consideraremos que la hipótesis se cumple si
fexp ≤ F0,99 (10, 5)
Calculamos fexp
0,152
= 13,82
(5.40)
0,011
Por tanto, no podemos aceptar la hipótesis propuesta (hipótesis nula) por que la probabilidad de
obtener ese resultado es muy pequeña. Es decir, el valor obtenido corresponde a un intervalo en
el que de ser cierta la hipótesis nula encontraríamos el 1 % de los resultados experimentales.
fexp =
91
5.6
5.6.
5.6. Ejercicios y problemas
Ejercicios y problemas
Cuestión 5.1 Dada la función de distribución normal, encuentre el área bajo la curva que cae
(a) a la izquierda de z = 1.43
(b) a la derecha de z = -0.89
(c) entre z = -2.16 y z=-0.65
(d) a la izquierda de z = -1.39
(e) a la derecha de z = 1.96
(f) entre z = -0.48 y z=1.74
Cuestión 5.2 Dada una distribución normal estándar, encuentre el valor de k, tal que:
(a) P (Z < k) = 0,0427
(b) P (Z > k) = 0,2946
(c) P (−0,93 < Z < k) = 0,7235
Cuestión 5.3 Dada una distribución normal con µ = 30 y σ = 6, encuentre:
(a) el área de la curva normal a la derecha de x=17
(b) el área de la curva normal a la izquierda de x=22
(c) el área de la curva normal entre x=32 y x=41
(d) el valor de x que tiene el 80 % del área de la curva normal a la izquierda
(e) los dos valores de x que contienen un intervalo central del 75 % del área de la curva normal
Cuestión 5.4 Si un conjunto de observaciones están normalmente distribuidas, ¿qué porcentaje de
estas difiere de la media en
(a) más de 1,3 σ
(b) menos de 0,52 σ
Cuestión 5.5 Encuentre la probabilidad de que una muestra aleatoria de 25 observaciones, de una
población con varianza σ 2 = 6 tenga una varianza s2
(a) mayor a 9.1
(b) entre 3.462 y 10.745
92
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Cuestión 5.6 Dada una muestra aleatoria de tamaño 24 de una distribución normal, encuentre k de
manera que:
(a) P (−2,069 < t < k) = 0,965
(b) P (k < t < 2,807) = 0,095
(c) P (−k < t < k) = 0,90
Cuestión 5.7 Para una distribución χ2 encuentre
(a) χ20,975 cuando ν=15
(b) χ20,99 cuando ν=7
(c) χ20,95 cuando ν=24
Cuestión 5.8 Para una distribución χ2 encuentre
(a) χ20,95 cuando ν = 5
(b) χ20,95 cuando ν = 19
(c) χ20,99 cuando ν = 12
Cuestión 5.9 Para una distribución χ2 encuentre χ2α de manera que:
(a) P (X 2 < χ2p ) = 0,99 cuando ν = 4
(b) P (X 2 < χ2p ) = 0,025 cuando ν = 19
(c) P (37,652 < X 2 < χ2p ) = 0,045 cuando ν=25
Cuestión 5.10 Encuentre
(a) t0,025 cuando ν = 14
(b) Encuentre −t0,01 cuando ν = 10
(c) Encuentre t0,995 cuando ν = 7
Cuestión 5.11 Para una distribución F encuentre:
(a) F0,95 (ν1 = 7, ν2 = 15)
(b) F0,95 (ν1 = 15, ν2 = 7)
(c) F0,99 (ν1 = 24, ν2 = 19)
93
5.6
5.6. Ejercicios y problemas
Distribución normal
Ejercicio 5.1 Dada una distribución normal estándar, encuentre el área bajo la curva que yace, (a)
a la derecha de z = 1.84 y (b) entre z = -1.97 y z= 0.86.
Ejercicio 5.2 Para una distribución normal estándar, encuentre el valor de k, tal que (a) P(Z>k) =
0.3015 y (b) P(k<Z<-0.18) = 0.4197.
Ejercicio 5.3 Dada una distribución normal con µx = 50 y s(x) = 10, encuentre la probabilidad de
que X tome un valor entre 45 y 62.
Ejercicio 5.4 Dada una distribución normal con µx = 300 y s(x) = 500, encuentre la probabilidad
de que X tome un valor mayor que 362.
Ejercicio 5.5 Dada una distribución normal con µx = 40 y s(x) = 6, encuentre el valor de x que
tiene (a) 45
Ejercicio 5.6 Cierto tipo de batería de almacenamiento dura, en promedio, 3.0 años, con una desviación típica de 0.5 años. Suponga que la duración de las baterías se distribuye normalmente, encuentre
la probabilidad de que una batería dure menos de 2.3 años.
Ejercicio 5.7 Una empresa eléctrica fabrica focos que tienen una duración media de 800 horas y una
desviación típica de 40 horas. Si la duración de los focos sigue una distribución normal, encuentre
la probabilidad de que un foco se funda en el intervalo de 778 a 834 horas.
Ejercicio 5.8 En un proceso industrial el diámetro de un cojinete es una parte importante de un
componente. El comprador establece que las especificaciones en el diámetro sean 3.0 ± 0.1 cm. Se
sabe que en el proceso el diámetro de un cojinete tiene una distribución normal con media 3.0 cm y
una desviación típica de 0.005 cm. En promedio, ¿cuántos cojinetes se descartarán?.
Ejercicio 5.9 El 6.3 % de las observaciones de una magnitud que sigue una distribución normal tiene
un valor superior a 3.287, mientras que el 51.2 % tiene valores mayores que 2.897. Calcule la media
y la varianza de la distribución.
Ejercicio 5.10 Considere un experimento de medida del pH de una disolución acuosa caracterizado
por µpH = 5.50 y σ 2 (pH) = 0.06.
Determine el intervalo de valores en el que espera encontrar el 95 % de las medias muestrales de
los experimentos que combinen el resultado de 25 determinaciones del pH de la disolución indicada.
Distribución t de student.
Ejercicio 5.11 Considere una variable aleatoria distribuida de acuerdo con una distribución t de
Student con 9 grados de libertad.
Encuentre el valor de t1 para el cual
a) P (T > t1 ) = 0,05
b) P (T > t1 ) = 0,025
94
5
5. Distribuciones de probabilidad de variables aleatorias continuas
c) P (−t1 < T < t2 ) = 0,99
d) P (−t1 < T < t2 ) = 0,975
e) P (T ≥ t1 ) = 0,90
Ejercicio 5.12 Considere una variable aleatoria distribuida de acuerdo con una distribución t.
Encuentre el valor de t1 que satisfaga cada una de las siguientes condiciones
a) P (−t1 < T < t1 ) = 0,90 y ν = 25.
b) P (T < −t1 ) = 0,025 y ν = 20.
c) P (T ≥ t1 ) = 0,55 y ν = 16
Ejercicio 5.13 Para una variable U que sigue una distribución t de Student con ν = 10 encuentre
los valores de c que cumplen
a) P (U > c) = 0,05.
b) P (−c ≤ U ≤ c) = 0,98.
c) P (U ≤ c) = 0,20.
d) P (U ≥ c) = 0,90.
Distribución χ2
Ejercicio 5.14 Un fabricante de baterías para automóvil garantiza que sus baterías durarán, en
promedio, 3 años con una desviación estándar de 1 año.
Si 5 de estas baterías tienen duraciones de l.9, 2.4, 3.0 ,3.5 y 4.2 años, ¿puede seguir el fabricante
convencido aún de que la duración de sus baterías tiene una desviación estándar de 1 año?
Ejercicio 5.15 Hallar los valores χ21 (ν) y χ22 (ν) tales que con ν = 20,el área bajo la curva sea de
0.95, tales que χ21 (ν) < χ22 (ν), y las áreas a la derecha de χ22 (ν) y a la izquierda de χ21 (ν) sean
iguales.
Note que sin estas consideraciones hay infinitos pares de valores χ21 (ν) y χ22 (ν) que cumplen esta
condición.
5.6.1.
Soluciones a las cuestiones
Cuestion 5.1 a) 0.9236, b) 0.8133 c) 0.2424 d) 0.0823 e) 0.0250 f) 0.6435
Cuestion 5.2 a) -1.72 b) 0.54 c) 1.28
Cuestion 5.3 a) 0.9850 b) 0.0918 c) 0.3371 d) 35.04 e) 23.1 y e) 36.9
Cuestion 5.4 a)19.36 % b) 39.70 %
95
5.6
5.6. Ejercicios y problemas
Cuestion 5.5 a) 0.05 b) 0.94
Cuestion 5.6 a) 2.500 b) 1.319 c) 1.714
Cuestion 5.7 a) 27.488 b) 18.475 c) 36.415
Cuestion 5.8 a) 11.1 b) 30.144 c) 26.217
Cuestion 5.9 a) 13.277 b) 8.91 c) 46.928
Cuestion 5.10 a) -2.145 b) 2.76 c) 3.499
Cuestion 5.11 a) 2.71 b) 3.51 c) 2.92
5.6.2.
Soluciones a los ejercicios
Distribución normal
Ejercicio 5.1 (a)
P (z ≥ 1,84) = 0,5 − P (0 ≤ z ≤ 1,84) = 0,5 − 0,4671 = 0,0329
(b)
P (−1,97 ≤ z ≤ 0,86) = P (−1,97 ≤ z ≤ 0) + P (0 ≤ z ≤ 0,86)
= P (0 ≤ z ≤ 1,97) + P (0 ≤ z ≤ 0,86)
= 0,4756 + 0,3051 = 0,7807
(a)
(b)
96
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Ejercicio 5.2 (a)
P (z > k) = 0,3015 → P (0 ≤ z ≤ k) = 0,5 − 0,3015 = 0,1985
Consultando en la tabla del apéndice 1 obtenemos k = 0,52.
(b)
P (k ≤ z ≤ −0,18) = P (k ≤ z ≤ 0) − P (−0,18 ≤ z ≤ 0)
= P (0 ≤ z ≤ k) − P (0,0 ≤ z ≤ 0,18)
= P (0 ≤ z ≤ k) − 0,0714
De modo que
0,4197 = P (0 ≤ z ≤ k) − 0,0714
P (0 ≤ z ≤ k) = 0,4911
Consultando en la tabla del apéndice 1 obtenemos k = −2,37.
(c) a
(d) b
Ejercicio 5.3
P (45 ≤ x ≤ 62) = P (z1 ≤ z ≤ z2 )
donde
z1 =
z2 =
x 1 − µx
45 − 50
=
= −0,5
σ(x)
10
x 2 − µx
62 − 50
=
= 1,2
σ(x)
10
97
5.6
5.6. Ejercicios y problemas
de modo que
P (45 ≤ x ≤ 62) = P (−0,5 ≤ z ≤ 1,2)
= P (−0,5 ≤ z ≤ 0) + P (0,0 ≤ z ≤ 1,2)
= P (0 ≤ z ≤ 0,5) + P (0,0 ≤ z ≤ 1,2)
= 0,1915 + 0,3849
= 0,5764
Ejercicio 5.4
P (x > 362) = P (z > z2 )
donde
z2 =
x 2 − µx
362 − 300
=
= 1,24
σ(x)
50
de modo que
P (x > 362) = P (z > 1,24)
= 0,5 − P (0 ≤ z ≤ 1,24)
= 0,5 − 0,3925
= 0,1075
Ejercicio 5.5 (a) De acuerdo con el enunciado del problema
P (z1 < z) = P (z > −z1 ) = 0,45
Para obtener el valor de z1 tendremos en cuenta que
P (0 < z < −z1 ) = 0,5 − P (z > −z1 ) = 0,5 − 0,45 = 0,05
98
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Consultando en la tabla obtenemos P (0 ≤ z ≤ 0,13) = 0,05, es decir z1 = −0,13
Para obtener x hacemos uso de la definición de variable reducida
z =
x − µx
= −0,13 → x = 40 − 6 · 0,13 = 39,22
σ(x)
(b)
De acuerdo con el enunciado del problema
P (z > z1 ) = 0,14
Para obtener el valor de z1 tendremos en cuenta que
P (0 < z < z1 ) = 0,5 − P (z > −z1 ) = 0,5 − 0,14 = 0,36
Consultando en la tabla obtenemos P (0 ≤ z ≤ 1,08) = 0,36, es decir z1 = 1,08
Para obtener x hacemos uso de la definición de variable reducida
z =
x − µx
= −0,13 → x = 40 − 6 · 1,08 = 46,48
σ(x)
99
5.6
5.6. Ejercicios y problemas
Ejercicio 5.6 El valor de la variable reducida es
x − µx
σ(x)
2,3 − 3,0
=
0,5
= − 1,4
z =
De modo que
P (x < 2,3) = P (z < −1,4) = 0,5 − P (0 < z < −1,4) = 0,5 − P (0 < z < 1,4) = 0,081
Ejercicio 5.7 Queremos calcular
P (778 < x < 834) = P (x < 834) − P (x < 778) = P (z < z1 ) − P (z < z2 )
Procedemos a calcular las variables reducidas z1 y z2
778 − 800
= −0,55
40
834 − 800
z2 =
= 0,85
40
z1 =
de modo que
P (x < 778) = P (z < −0,55) = 0,5−P (−0,55 < z < 0,0) = 0,5−P (0,0 < z < 0,55) = 0,2912
P (x < 34) = P (z < 0,85) = 0,5 + P (0,0 < z < 0,85) = 0,8023
P (778 < x < 834) = P (x < 834) − P (x < 778) = 0,8023 − 0,2912 = 0,5111
Ejercicio 5.8 Los cojinetes que se descartarán son aquellos que esten fuera del intervalo (2.9,3.1)
cm. Para calcular la fracción de cojinetes que se descartan calcularemos la fracción de cojinetes que
esperamos que esten dentro del intervalo, P (2,9 < x < 3,1)
Las variables reducidas vienen dadas por
2,99 − 3,0
= −2,0
0,005
3,01 − 3,0
z2 =
= +2,0
0,005
z1 =
P (2,9 < x < 3,1) = P (−2 < z < 2) = 2P (0 < z < 2) = 0,9544
Esperamos que un 4.56 % de los cojinetes no cumplan las especificaciones.
Ejercicio 5.9 µ = 2,90043 , σ 2 = 0,0625
100
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Distribución t de student
Ejercicio 5.11 (a) P (T > t1 ) = 0, 05
Teniendo en cuenta que la probabilidad del suceso seguro es 1 (ver definición axiomática de
probabilidad):
P (T ≤ t1 ) + P (T > t1 ) =1,00
P (T ≤ t1 ) + 0,05 =1,00
P (T ≤ t1 ) =0,95
Consultando la tabla de la distribución t de Student tenemos t1 = t0,95 (ν = 9) = 1,83.
(b) Siguiendo el mismo procedimiento que en la sección a obtenemos t1 = t0,975 (ν = 9) = 2,26.
(c) P (−t1 < T < t2 ) = 0, 99
Si el intervalo no es símetrico hay infinitos pares de valores de t1 y t2 que cumplen la condición
prescrita para definir los límites del intervalo. Sin embargo, sólo hay un par de valores de t1 y t2 tales
que si −t1 = t2 , P (−t1 < T < t2 ) = 0, 99.
Teniendo en cuanta la simetría de la distribución t de Student, la condición
P (−t2 < T < t2 ) = P (−t2 ≤ T ≤ 0) + P (0 ≤ T ≤ t2 ) = 0,99
P (T ≤ −t2 ) + P (T ≥ t2 ) = 2,0 × P (T ≥ t2 ) = 0,01
P (T ≥ t2 ) = 0,005
Utilizando los razonamientos de la sección a tenemos que t2 = t0,995 (ν = 9). Consultando la
tabla de la distribución t de Student tenemos −t1 = t2 = t0,995 (ν = 9) = 3,25.
(d) P (t1 < T < t2 ) = 0, 975
Siguiendo el mismo razonamiento que en la parte (c) obtenemos t2 = −t1 = t0,9875 (ν = 9) =
2,73. El valor de la percentila t0,9875 (ν = 9) no está incluido en la tabla. Se puede aproximar
utilizando una interpolación lineal entre los valores de la tabla couespondientes a las percentilas
t0,975 (ν = 9) y t0,99 (ν = 9).
(e) P (T ≥ t1 ) = 0, 90
Teniendo en cuenta la simetría de la distribución t de Student
P (T ≥ t1 ) = P (T ≤ −t1 ) = 0, 90
de modo que t1 = −t0,9 (ν = 9) = −1, 38
101
5.6
5.6. Ejercicios y problemas
Ejercicio 5.13 (a) P (U > c) = 0,05
Teniendo en cuenta que la probabilidad del suceso seguro es 1 (ver definición axiomática de
probabilidad):
P (U > c) + P (U ≤ c) = 1
0,05 + P (U ≤ c) = 1
P (U ≤ c) = 0,95
Consultando la tabla de la distribución t de Student tenemos c = t0,95 (ν = 9) = 1,83.
(b) P (−c ≤ U ≤ c) = 0,98
Teniendo en cuanta la simetría de la distribución t de Student, tenemos
P (−c ≤ U ≤ c) = P (−c ≤ U ≤ 0) + P (0 ≤ U ≤ c) = 0,98
P (U ≤ −c) + P (U ≥ c) = 2, 0xP (U ≥ c) = 0,02
P (U ≥ c) = 0,01
Finalmente tenemos c = t0,99 (ν = 10) = 2,76.
(c)P (U < c) = 0,20
Teniendo en cuanta la simetría de la distribución t de Student tenemos
P (U < c) = P (U > −c) = 0,20
de modo que
P (U < −c) = 0,80
Consultando la tabla de la distribución t de Student tenemos c = −t0,80(ν=10)=−0,879 .
(d) P (U ≥ c) = 0,20
Teniendo en cuenta la simetría de la distribución t de Student
P (U ≥ c) = P (U ≤ −c) = 0,90
de modo que c = −t0,9 (ν = 10) = −1, 37
Distribución χ2
Ejercicio 5.14 La varianza muestral es s2 (x) = 0,815. Suponiendo que las vida media de las baterias sigue una distribución normal, la variable aleatoria (ecuación 5.27)
X 2 = (n − 1)
sigue una distribución χ2 (ν = n − 1).
102
s2 (x)
σ 2 (x)
5
5. Distribuciones de probabilidad de variables aleatorias continuas
Sustituyendo obtenemos
4 × 0,815
= 3,26
1
Consultando el apéndice A.3 tenemos que el intervalo simétrico que contiene el 95 % de las
medidas está comprendido entre χ20,025 (ν = 4) = 0,484 y χ20,975 (ν = 4) = 11,143. El resultado
obtenido esta dentro del intervalo y no contradice la hipótesis inicial σ 2 (x) = 1
X2 =
5.7.
Lecturas recomendadas
Para completar la preparación de este tema recomendamos la lectura de:
☞ Capítulo 2. Estadística de medidas repetidas. del texto de Miller y Miller[3]. XX
☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7].
X
Revisa los contenidos del tema. Adecuado para revisar la teoría del tema.
☞ Capítulo 4. Distribuciones de Probabilidad especial del libro de Spiegel y cols.[5].
Adecuado para revisar ejercicios. En este tema los autores del libro también se tratan otras
distribuciones como la multinomial, hipergeométrica, Cauchy o gamma. No se han estudiado
porque no son de apliación frecuente en Química. Es mejor obviar las secciones en las que se
explican esas distribuciones pues no son imprescindibles para comprender el tratamiento de las
distribuciones normal, t, χ2 o F.
Se recomienda la revisión de los siguientes ejercicios:
• Distribución normal. Ejercicios 4.12 a 4.15
• Aproximación normal a la distribución binomial. Ejercicios 4.17 a 4.19
• La distribución chi cuadrado. Ejercicios 4.38 a 4.40
• La distribución t de Student. Ejercicios 4.43 y 4.44
• La distribución F . Ejercicios 4.47
En el caso de los ejercicios relacionados con la distribución normal se ilustra como identificar
los parámetros de la distribución normal y el uso de las tablas para la evaluación de probabilidades. El resto de los ejercicios que se recomienda revisar, ilustran como utilizar las tablas
de las percentilas de las distribuciones t, χ2 y F . Sirven para revisar como se usan las tablas
estad´sticas y adquirir confianza en su manejo.
☞ Capítulo 4. Funciones de variables aleatorias. del texto de Walpole y Myers[6]. De este capítulo es útil la revisión de las secciones:
6.4 Muestreo aleatorio.
6.5 Algunas estadísticas importantes.
103
5.7
5.7. Lecturas recomendadas
6.8 Distribuciones muestrales de medias.
6.9 La distribución muestral de (n − 1)s2 /σ 2
6.10 La distribución t
6.11 La distribución F
104
6
Intervalos de probabilidad e intervalos de confianza
Contenidos
Objetivos
✍ Intervalos de probabilidad Definición. Cálculo del intervalo de probabilidad de la media. Cálculo del intervalo de probabilidad de la varianza.
✍ Intervalos de confianza Definición.
✍ Cálculo del intervalo de confianza de la media
✍ Cálculo del intervalo de confianza de la diferencia de las medias
✍ Cálculo del intervalo de confianza de la varianza para variables
normalmente distribuidas
✓ Comprender las diferencias entre intervalo de probabilidad e intervalo de
confianza
✓ Conocer las características que diferencian un intervalo de probabilidad y
un intervalo de confianza
✓ Calcular intervalos de probabilidad de una magnitud aleatoria.
✓ Calcular intervalos de confianza de la media de una variable gaussiana
✓ Calcular intervalos de confianza de la varianza de una variable gaussiana
✓ Calcular el intervalo de confianza de la diferencia de la media de variables
gaussianas
✓ Comparar datos apareados utilizando el test de la t de Student para datos
apareados
105
6.1.
Distribución de probabilidad del error aleatorio.
Considere un conjunto de medidas x1 , x1 , . . ., xn de una magnitud. En ausencia de error sistemático sólo debemos tener en cuenta el error aleatorio. Por tanto, el resultado de una medida, xi , viene
dado por la suma del valor real, µx , y el error aleatorio asociado a esa medida εi .
x i = µx + ε i
(6.1)
Para estimar el valor real, µx , necesitamos conocer que función de densidad de probabilidad describe el error aleatorio. Asumiremos que ei sigue una distribución normal de media µε = 0 y varianza
σ 2 (ε). Como εi sigue una distribución normal y µx es una constante, los resultados de las medidas xi
también siguen una distribución normal. La media de la distribución normal de las medidas es µx y
su varianza, s2 (x), es igual que la varianza del error aleatorio, σ 2 (x) = σ 2 (ε).
Estas propiedades se demuestran fácilmente utilizando las propiedades de la esperanza matemática
µxi = E [xi ] = E [(µx + εi )] = µx + E [(εi )] = µx + µεi = µx + 0 = µx
σ 2 (xi ) = E (xi − µxi )2 = E ((µx + εi ) − (µx + µεi ))2 = E ((εi − µεi )2 = σ 2 (εi )
(6.2)
(6.3)
El error aleatorio puede que no este distribuido normalmente. En algunos casos es evidente, por
ejemplo cuando sabemos que nuestros datos siguen una distribución uniforme, binomial o de Poisson.
En otros casos es necesario comprobar que los datos se ajustan a una distribución de probabilidad postulada (gaussiana, log-normal, exponencial, etc). Realizar esta comprobación es importante cuando el
método utilizado para calcular las estimas poblacionales no es robusto. Un método de cálculo de estimas no es robusto cuando (i) que los datos utilizados no se ajusten a la distribución de probabilidad
postulada para desarrollar el método, implica que (ii) las estimas de los parámetros poblacionales que
se obtienen pueden ser erróneas.
6.2.
Intervalos de probabilidad
6.2.1. Definición
Sea x una estima del parámetro poblacional ξ (por ejemplo, la media o la varianza).
Se define como el intervalo de probabilidad de la estima x del parámetro ξ con un nivel de
probabilidad p al intervalo de valores de x
xmı́n = ξ − emı́n 6 x 6 ξ + emáx = xmáx
(6.4)
P (xmı́n 6 x 6 xmáx ) = p
(6.5)
que cumple
6
6.Intervalos de probabilidad e intervalos de confianza
Los límites del intervalo de probabilidad xmin y xmax son valores constantes y se calculan conocidos la forma de la función de distribución (o de densidad de probabilidad) y los parámetros que la
caracterizan (media, varianza).
Se pueden definir infinitos intervalos de probabilidad de una estima x de un parámetro poblacional
ξ con un nivel de probabilidad p.
Nosotros trabajaremos con intervalos de tres tipos:
✓ P (xmı́n 6 x) = p
✓ P (x 6 xmáx ) = p
✓ P (xmı́n 6 x 6 xmáx ) = p
(6.6)
(6.7)
(6.8)
Para este último intervalo imponemos la condición adicional de que probabilidad de obtener un valor
de x fuera del intervalo de probabilidad sea igual en ambos lados. Es decir
1−p
2
1−p
6 x) =
2
➠ P (xmáx 6 x) =
➠ P (xmáx
6.2.2.
(6.9)
Intervalos de probabilidad de las medidas
Hemos supuesto que los errores aleatorios siguen una distribución normal. Por tanto, las medidas
experimentales aisladas también siguen una distribución normal. Como la distribución normal es
simétrica respecto de la media cuando se calcula el intervalo de probabilidad de una medida frecuente
trabajar con intervalos simétricos alrededor de la media
A0 = µ − D 6 x i 6 µ + D = A
(6.10)
donde D es una constante que se elige dependiendo del valor de nivel probabilidad p del intervalo,
P (µ − D 6 xi 6 µ + D) = p
(6.11)
D suele fijarse como un múltiplo de σ, D = kσ. Así la probabilidad asociada al intervalo depende
exclusivamente del valor de k:
k
k
k
k
= 1,00
= 1,96
= 2,00
= 3,00
P
P
P
P
(A0
(A0
(A0
(A0
6 xi
6 xi
6 xi
6 xi
6 A) = P
6 A) = P
6 A) = P
6 A) = P
(−1,00 6 z
(−1,96 6 z
(−2,00 6 z
(−3,00 6 z
107
6 1,00) = 2,0 ∗ P
6 1,96) = 2,0 ∗ P
6 2,00) = 2,0 ∗ P
6 3,00) = 2,0 ∗ P
(0 6 z
(0 6 z
(0 6 z
(0 6 z
6 1,00) = 0,68
6 1,96) = 0,95
6 2,00) = 0,955
6 3,00) = 0,997
6.2
6.2. Intervalos de probabilidad
6.2.3. Intervalos de probabilidad de las medias
El intervalo de probabilidad se calcula del mismo modo que el intervalo de probabilidad de los
datos pero teniendo que para n medidas (ver sección 5.2.1):
µ (x̄) = µ (x)
σ 2 (x̄) =
σ 2 (x)
n
(6.12)
(6.13)
Ejemplo 1. Cálculo del intervalo de probabilidad de un conjunto de medidas
En una práctica de laboratorio se midió el pH de una disolución. El análisis del conjunto de los
resultados condujo a los valores µpH = 5,00 y σ 2 (pH) = 0,04.
Determine el intervalo de valores que comprende el 95 % de las medidas del pH.
Para una distribución normal estandarizada (ver sección 5.2 y apéndice 1) tenemos
P (−1,96 6 z 6 1,96) = 2 P (0 6 z 6 1,96) = 0,95
donde
z=
x − µx
σ(x)
De donde sigue que los límites del intervalo que queremos calcular cumplen
(
−5,0
−1,96 = pHmı́n
→ pHmı́n = 4,61
pH − µpH
0,2
z=
= ±1,96 →
pHmáx −5,0
+1,96 =
→ pHmı́n = 5,39
σ(pH)
0,2
El intervalo de pH donde se encuentra el 95 % de las medidas es [4.80,5.20].
6.2.4. Intervalos de probabilidad de las varianzas
La varianza muestral s2 (x) sigue una distribución χ2 (ver sección 5.4.1). Esta distribución es
asimétrica, y los valores de las cuantilas que necesitamos para calcular los límites del intervalo de
probabilidad, A0 y A, dependen del nivel de probabilidad elegido, p y del número de medidas, n.
Si la muestra comprende n medidas y queremos calcular el intervalo de probabilidad con un nivel
de probabilidad p, el intervalo de probabilidad de s2 (x) viene dado por
σ 2 (x)
σ 2 (x)
· χ21−p (ν) 6 s2 (x) 6
· χ21− p (ν)
2
2
(n − 1)
(n − 1)
108
(6.14)
6
6.Intervalos de probabilidad e intervalos de confianza
Figura 6.1: Si la magnitud X está normalmente distribuida, y D = 1,96σ, la probabilidad de que el
resultado de una medida x se encuentre entre los valores A0 y A es PN (A0 ≤ x ≤ A) = 0,95
6.3.
Intervalos de confianza
6.3.1.
Definición
Sea x una estima del parámetro poblacional ξ .
Se define como el intervalo de confianza del parámetro x con un nivel de confianza 1 − α como
el intervalo de valores de x
x0mı́n = x − emı́n 6 ξ 6 x + emáx = x0máx
que cumple
P (x0mı́n 6 ξ 6 x0máx ) = p = 1 − α
1 − α es el nivel o grado de confianza del intervalo [x1, x2]. El nivel de confianza es una medida
de la probabilidad de que el parámetro x esté dentro del intervalo [x1, x2].
α es el grado de significación y da idea de la probabilidad de que el parámetro x esté fuera del
intervalo estimado.
Una diferencia importante entre los intervalos de probabilidad y los intervalos de confianza es
la naturaleza de los extremos. En un intervalo de probabilidad con un nivel de probabilidad p los
extremos del intervalo xmin y xmax son constantes, no cambian al repetir el experimento. En un
intervalo de confianza con un nivel de confianza 1 − α = p, los extremos del intervalo son x0min y
x0max son números aleatorios. Esto se debe al hecho de que para calcularlos utilizamos la estima de
109
6.3
6.3. Intervalos de confianza
ξ, x, que es una variable aleatoria. Por tanto, los extremos dependen de los datos empleados para
calcular x y pueden ser distintos en distintos experimentos.
Consideremos un experimento en que σ 2 (x) es conocida con gran precisión. Se realiza una medida
y se obtiene un valor xi . El valor de xi puede no coincidir con µ pero está incluido dentro del intervalo
de probabilidad p dado por
que corresponde al intervalo de valores en el que esperamos obtener xi con una probabilidad p,
conocidos los valores de µx y σ 2 (x). Esto es, xi está comprendido entre A0 y A en la figura 6.2.
Si no conocemos µx sólo podemos intentar estimar el intervalo en que esperamos que encontrar a
µx (constante) conocido el valor de su estima xi (variable aleatoria), es decir
µ − kσ 6 xi 6 µ + kσ
(6.15)
Esto corresponde a que M está comprendida entre B 0 y B en la figura 6.2
xi − kσ 6 µ 6 xi + kσ
(6.16)
Figura 6.2: Comparación de (a) intervalo de probabilidad, µx − kσ ≤ xi ≤ µx + kσ, y (b) el intervalo
de confianza xi − kσ ≤ µx ≤ xi + kσ. Basado en la figura 6.2 del texto de J. Mandel reseñado en la
bibliografía.
Aunque las dos expresiones anteriores son equivalentes algebraicamente, tienen distinto significado. La primera (6.15) expresa el hecho de que la variable aleatoria x está comprendida entre las
constantes µx − kσ y µx + kσ (un intervalo de probabilidad). La segunda (6.16) implica que esperamos que la constante µ que se encuentre en un intervalo definido por dos variables aleatorias xi −kσ y
xi + kσ (un intervalo de confianza). La interpretación teórica de los intervalos de confianza es debida
a Neyman y Pearson: el intervalo de confianza expresa la probabilidad de que µx este comprendida
en el intervalo aleatorio que se extiende de xi − kσ a xi − kσ (en el intervalo B’ B de la figura 6.2).
Si cada experimento consta de n medidas, la estima de µx es la media muestral, . El intervalo de
probabilidad para la media muestral es
σ
σ
µ − k√ 6 x 6 µ + k√
n
n
110
(6.17)
6
6.Intervalos de probabilidad e intervalos de confianza
mientras que el intervalos de confianza de la media poblacional es
σ
σ
x − k√ 6 µ 6 x + k√
n
n
(6.18)
La figura 6.3 ilustra el concepto del concepto de intervalo de confianza. En las figura se representan
los resultados de una serie de medidas con sus respectivos intervalos de confianza. Cada medida hace
referencia a una estimación independiente del parámetro µx . Debido a la naturaleza aleatoria de los
errores, las estimas fluctúan alrededor del valor µx . Las barras de error representan los intervalos de
confianza de las estimas de µx basadas en la medida xi o en la media muestral de n medidas, x̄.
Las barras de error de cada medida equivalen a los intervalos de√confianza B’B de la figura 6.2. El
límite inferior de la barra de error representa
el valor x̄ − k σ(x)/ n, mientras que el límite superior
√
representa el valor de a x̄+k σ(x)/ n. En el diagrama suponemos que todas las estimas se realizaron
utilizando n
√medidas, en consecuencia la longitud de los intervalos de confianza es constante e igual
a 2k σ(x)/ n .
Observe que en la figura 6.3 no todos los intervalos de confianza cortan la línea discontinua (que
corresponde al valor del parámetro µx ). El nivel de confianza asociado de cada intervalo puede interpretarse como la frecuencia con la que esperamos que los intervalos obtenidos experimentalmente
incluyan el valor real de la magnitud que estemos estimando (µx en este ejemplo) cuando dibujáramos
una gráfica como la de la figura 6.3 y el número de medidas fuera muy grande.
Figura 6.3: Intervalos de confianza de la media cuando la varianza σ 2 (x) es conocida. La longitud de
los segmentos es constante pero la posición de sus puntos medios es una variable aleatoria. Note que
la longitud de los segmentos es proporcional al número de medidas utilizadas para calcular x̄. Basado
en la figura 6.3 del texto de J. Mandel reseñado en la bibliografía.
111
6.4
6.3. Intervalos de confianza
Si tanto la media µx como la varianza σ 2 (x) son desconocidas, utilizaremos las estimas muestrales
de µx y σ 2 (x), x̄ y s2 (x) para calcular el intervalo de confianza de m. Sabemos que
t=
x̄ − µx
√
s(x)/ n
(6.19)
es una variable aleatoria que sigue una distribución una distribución t de Student con ν = n − 1
grados de libertad (ver sección 5.3.1 ). Con esta expresión podemos obtener un intervalo centrado en
la media muestral (intervalo de confianza)
s(x)
|x̄ − µx | 6 tp · √
n
(6.20)
s(x)
s(x)
x̄ − tp · √ 6 µx 6 x̄ + tp · √
n
n
(6.21)
donde el valor de tp depende del número de medidas y del nivel de confianza (p = 1 − α).
Además, puesto que s(x) es una variable aleatoria, la longitud del intervalo de confianza varia
de muestra a muestra. La figura 6.4 ilustra el concepto del concepto de intervalo de confianza en este
caso. En las figura se representan los resultados de una serie de medidas con sus respectivos intervalos
de confianza. Cada medida hace referencia a una estimación independiente del parámetro µx . Debido
a la naturaleza aleatoria de los errores, las estimas fluctúan alrededor del valor µx . Además como los
extremos del intervalo se calculan utilizando la varianza muestral, s2 (x), la longitud de los intervalos
de confianza es una variable aleatoria.
Figura 6.4: Intervalos de confianza de la media cuando la varianza σ 2 (x) se desconoce. Como s(x)
varia de experimento a experimento, tanto la longitud de los intervalos como sus puntos medios son
variables aleatorias. Además, la longitud de los segmentos también es proporcional al número de
medidas utilizadas para calcular x̄. Basado en la figura 6.3 del texto de J. Mandel reseñado en la
bibliografía.
112
6
6.Intervalos de probabilidad e intervalos de confianza
6.4.
Calculo de intervalos de confianza para la media
6.4.1. Datos distribuidos normalmente con varianza σ 2 (x) conocida
Suponga que dispone de n observaciones x1 , x2 , . . ., xn distribuidos de acuerdo con una distribución normal de media µx y varianza σ 2 (x), PN (x; µx , σ 2 (x)) y de la que no conocemos µx .
Puesto que la media muestral sigue una distribución normal, PN (x; µx , σ(x)/n el intervalo de
confianza de µx con un nivel de confianza 1 − α es
σ(x)
σ(x)
x̄ − k1− α2 · √ 6 µx 6 x̄ + k1− α2 · √
n
n
x̄ − k1− α2
σ(x)
σ(x)
· √ , x̄ + k1− α2 · √
n
n
(6.22)
(6.23)
σ(x)
x̄ ± k1− α2 · √
n
(6.24)
donde k1−α/2 toma un valor tal que se cumple
P
x̄ − k1− α2
σ(x)
σ(x)
· √ 6 µx 6 x̄ + k1− α2 · √
n
n
=P
−k1− α2
µx − x̄
√ 6 k1− α2
6
σ(x)/ n
=1−α
(6.25)
6.4.2.
Datos distribuidos normalmente con varianza finita y con n grande
Suponga que dispone de n observaciones x1 , x2 , . . ., xn que siguen la misma distribución de
probabilidad con media µx y varianza σ 2 (x) finita, ambas desconocidas pero con un valor de n grande
(n ≥ 50). De acuerdo con el teorema del límite central (ver 5.2.1), x̄, sigue una distribución normal
de media µx y varianza σ 2 (x).
Así, la variable aleatoria
z=
x̄ − µ √
n
σ(x)
(6.26)
sigue una distribución normal de media µz = 0 y varianza varianza σ 2 (z) = 1, PN (z; 0, 1).
Para valores grandes de n podemos hacer la aproximación
σ 2 (x) ∼
= s2 (x)
(6.27)
De modo que el intervalo de confianza de la media con un nivel 1 − α viene dado por
σ(x)
σ(x)
x̄ − k1− α2 · √ 6 µx 6 x̄ + k1− α2 · √
n
n
113
(6.28)
6.4
6.4. Calculo de intervalos de confianza para la media
σ(x)
x̄ ± k1− α2 · √
n
(6.29)
donde k1−α/2 toma un valor tal que se cumple
P
x̄ − k1− α2
σ(x)
σ(x)
· √ 6 µx 6 x̄ + k1− α2 · √
n
n
=P
−k1− α2
µx − x̄
√ 6 k1− α2
6
σ(x)/ n
=1−α
(6.30)
¿Cuando es n lo suficientemente grande?. El valor de n depende de la función de distribución que
caracteriza al conjunto de datos estudiado. El tema va más allá de los contenidos de este curso. Como
referencia podemos utilizar n ≥ 50.
Ejemplo 2. Cálculo del intervalo de confianza de la media (I)
Para una variable aleatoria x distribuida normalmente con varianza σ 2 (x) = 1 se obtuvieron los
siguientes datos : +0.250, +1.620, + 0.014, -0.366, + 0.756, + 0.608, -2.150, +1.162.
Determine el intervalo de confianza del 95 % de la media poblacional
El intervalo de confianza viene dado por las ecuaciones 6.22, 6.23 ó 6.24. Por comodidad utilizaremos la ecuación 6.24
σ(x)
x̄ ± k1− α2 · √
n
√
Calculamos x̄ = 0,205 y σ(x̄) = σ(x)/ n = 1/3
Puesto que el nivel de confianza es del 95 %,
µ−x̄ √
P −k 6 σ(x)
n 6 k = 2P 0 6
P 06
µ−x̄ √
n
σ(x)
µ−x̄ √
n
σ(x)
6 k = 0,95
6 k = 0,475 → k = 1,96
Sustituyendo en la ecuación 6.24 obtenemos
0,205 ± 1,96 ·
1
= 0,653
3
6.4.3. Datos distribuidos normalmente con varianza σ 2 (x) desconocida
Suponga que dispone de n observaciones x1 , x2 , . . ., xn distribuidos de acuerdo con una distribución normal de media µx y varianza σ 2 (x), PN (x; µx , σ 2 (x)), pero que desconoce la media y la
varianza.
Para obtener el intervalo de confianza haremos uso de que la variable aleatoria (ver 5.3.1)
t=
x̄ − µx
√
s(x)/ n
114
(6.31)
6
6.Intervalos de probabilidad e intervalos de confianza
que está distribuida de acuerdo con una distribución t de Student con ν = n − 1 grados de libertad.
Recuerde que la distribución t de Student es simétrica respecto a t = 0.
Por tanto
s(x)
s(x)
x̄ − t1− α2 (ν = n − 1) · √ 6 µx 6 x̄ + t1− α2 (ν = n − 1) · √
n
n
x̄ − t
1− α
2
s(x)
s(x)
(ν = n − 1) · √ , x̄ + t1− α2 (ν = n − 1) · √
n
n
(6.32)
s(x)
x̄ ± t1− α2 (ν = n − 1) · √
n
(6.33)
(6.34)
donde tp (n = 1 − n) corresponde al valor de t tal que
P −t1− α2 (ν = n − 1) 6 t(ν = n − 1) = 1 − α
(6.35)
s(x)
µx − x̄
√ 6 t1− α2 (ν = n − 1)
−t1− α2 (ν = n − 1) · √ 6
n
s(x)/ n
(6.36)
Ejemplo 3. Cálculo del intervalo de confianza de la media (II)
Considere los de resultados de un experimento en los que se determinó la densidad de un polímero de alto peso molecular: ρ̄ = 1,25510 g.cm−3 , s(ρ) = 3,7 10−4 g.cm−3 y n = 5.
Determine el intervalo de confianza del 95 % de la media poblacional
El intervalo de confianza viene dado
s(x)
x̄ ± t1− α2 (ν = n − 1) · √
n
Puesto que el nivel de confianza es del 95 %,
ρ =1,25510 ± t0,975 (ν = 4)
3,7 10−4
3,7 10−4
√
= 1,25510 ± 2,776 √
5
5
=1,25510 ± 0,0005 g.cm−3
115
(6.37)
6.5
6.5. Calculo de intervalos de confianza para la varianza
Ejemplo 4. Cálculo del intervalo de confianza de la media (III)
Diez análisis de la concentración de albúmina dieron una media de 20.92 µg/l y una desviación
típica de 0.45 µg/l.
Calcule el intervalo de confianza del 95
El intervalo de confianza viene dado
s(x)
x̄ ± t1− α2 (ν = n − 1) · √
n
(6.38)
Puesto que el nivel de confianza es del 95 %,
0,45
0,45
c =20,92 ± t0,975 (ν = 8) √ = 20,92 ± 2,31
3
9
−3
=20,92 ± 035 g.cm
6.4.4. Datos que siguen una distribución desconocida con varianza finita y con
n pequeña
En este caso no podemos decir nada. Para poder aplicar el teorema del límite central (ver necesitamos más medidas.
6.5.
Calculo de intervalos de confianza para la varianza
Considere que dispone de un conjuntos de n observaciones independientes x1 , x2 , . . ., xn que
siguen una distribución normal PN (x; µx , σ 2 (x)) de la que se desconoce µx y σ 2 (x).
Se puede demostrar que la variable aleatoria
2
X =
n
X
(xi − x̄)2
i=1
σ 2 (x)
= (n − 1)
s2 (x)
σ 2 (x)
sigue una distribución χ2 con ν = n − 1 grados de libertad.
Por tanto,
s2 (x)
2
2
P χα/2 (ν) 6 (n − 1) · 2
6 χ1−α/2 (ν) = 1 − α
σ (x)
(6.39)
(6.40)
donde χ2α/2 y χ21−α/2 son las cuantilas de α/2 y 1 − α/2 de las distribución χ2 (ν). Reordenando esta
expresión se obtiene
!
2
(n − 1) · s2 (x)
(n
−
1)
·
s
(x)
P
6 σ 2 (x) 6
=1−α
(6.41)
2
χ1−α/2 (ν)
χ2α/2 (ν)
116
6
6.Intervalos de probabilidad e intervalos de confianza
y el intervalo de confianza con un nivel de confianza a viene dado por
!
(n − 1) · s2 (x) (n − 1) · s2 (x)
,
χ21−α/2 (ν)
χ2α/2 (ν)
(6.42)
Note que el intervalo no es simétrico respecto de s2 (x).
Ejemplo 5. Cálculo del intervalo de confianza de la varianza
Considere de nuevo el experimento de la determinación de la densidad de un polímero. En una
tanda de experimentos se obtuvo s2 (ρ) = 14,0 10−8 g2 .l−2 , n = 5.
Determine el intervalo de confianza de σ 2 (ρ) con α = 0,90.
El intervalo de confianza viende dado por
!
(n − 1) · s2 (x) (n − 1) · s2 (x)
,
χ21−α/2 (ν)
χ2α/2 (ν)
Tenemos:
(n − 1) · s2 = 5,6 10−7
Consultando el apéndice 3, obtenemos χ20,05 (ν = 4) = 0,711 y χ20,95 (ν = 4) = 9,49.
Sustituyendo
5,67 10−7 5,67 10−7
,
= (0,60, 7,97) 10−7
9,49
0,711
6.6.
Cálculo de intervalos de confianza para la diferencia de las
medias
Considere que dispone de un conjuntos de observaciones independientes x1 , x2 , . . ., xn1 e y1 , y2 ,
. . ., yn2 con n1 y n2 medidas cada uno.
Sean µ1 y µ2 las medias poblacionales de x e y respectivamente . En esta sección explicaremos
como calcular el intervalo de confianza de µ1 − µ2 .
117
6.6
6.6. Cálculo de intervalos de confianza para la diferencia de las medias
6.6.1. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) conocidas
La suma de dos variables aleatorias gaussianas sigue también una distribución gaussiana (ver
5.2.1).
Si x sigue una distribución PN (x; µx , σ12 (x)) e y una distribución PN (x; µy , σ22 (y)). La variable
aleatoria d = x − y sigue una distribución gaussiana PN (d; µ1 − µ2 , σ12 (x)/n1 + σ2 2(y)/n2).
Por tanto la variable d, definida como
d=
(x̄ − ȳ) − (µ1 − µ2 )
2
1/2
σ1
σ22
+
n1
n2
(6.43)
sigue una distribución PN (d; 0, 1) y el intervalo de confianza viene dado por
(x̄ − ȳ) ± z(1− α )
2
σ12 σ22
+
n1 n2
1/2
(6.44)
6.6.2. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconocidas pero iguales
Considere dos variables aleatorias tales que x sigue una distribución PN (x; µx , σ12 (x)) e y una
distribución PN (x; µy , σ22 (y)). La variable aleatoria d = x − y sigue una distribución gaussiana
PN (d; µ1 − µ2 , σ12 (x)/n1 + σ2 2(y)/n2).
Si las varianzas no son conocidas pero podemos suponer que σ12 (x) = σ2 2(y), se puede suponer
que la variable aleatoria t
t=
(x̄ − ȳ) − (µ1 − µ2 )
1/2
s (x − y) n11 + n12
(6.45)
sigue una distribución t de Student con ν = n1 + n2 − 2 grados de libertad.
La estima de σ 2 (x − y), s2 (x − y) se calcula utilizando la ecuación
s2 (x − y) =
P
P
(x − x̄)2 + (y − ȳ)2
(n1 − 1) s21 + (n2 − 1) s22
=
n1 + n2 − 2
n1 + n2 − 2
(6.46)
El intervalo de confianza viene dado por
(x̄ − ȳ) ± t1− α (n1 + n2 − 2) s (x − y)
2
118
1
1
+
n1 n2
1/2
(6.47)
6
6.Intervalos de probabilidad e intervalos de confianza
Ejemplo 6. Cálculo del intervalo de confianza de la diferencia de las medias
En la comparación de dos métodos de preparación de polímeros, se obtuvieron los siguientes
resultados para la densidad media de las disoluciones de polímero preparadas en cada método.
Método 1.barρ = 1,21510 g.cm - 3
s2 (ρ) = 1,4 10−7 g.cm - 3
n1 = 5
Método 1.barρ = 1,21650 g.cm - 3
s2 (ρ) = 6,5 10−7 g.cm - 3
n2 = 4
Determine el intervalo de confianza del 90 % de la diferencia de las medias. ¿Hay una diferencia
significativa en la densidad del polímero generado en estos métodos?.
El intervalo de confianza viende dado por
(x̄ − ȳ) ± t1− α (n1 + n2 − 2) s (x − y)
2
1
1
+
n1 n2
1/2
donde
(x̄ − ȳ) = −1,4 10−3
(n1 − 1) s21 + (n2 − 1) s22
(4 · 14 + 3 · 60,5) 10−8
2
s (x − y) =
=
= 33,9 10−8
n1 + n2 − 2
(5 + 4 − 2)
−4
s (x − y) = 5,82 10
1/2
1
1
s (x − y)
+
= 2,91 10−4
t0,95 (ν = 7) = 1,895
n1 n2
(6.48)
Sustituyendo se obtiene el intervalo de confianza de la diferencia de las medias:
∆ρ12 = (−1,4 ± 0,5) 10−3 g.l−1
(6.49)
Note que el intervalo de confianza no incluye el cero lo que indica que con un nivel de confianza
del 90 % las densidades de los polímeros producidos por ambos métodos son diferentes.
6.6.3. Datos que siguen cualquier distribución con varianza finita y con n1 y
n2 grandes
De acuerdo con el teorema del límite central (ver 5.2.1) para valores grandes de n1 y n2 , las
variables aleatorias
zX =
x̄ − µx √
n1
σ(x)
zY =
siguen distribuciones normales de media 0 y varianza 1.0.
119
ȳ − µy √
n2
σ(y)
(6.50)
6.7
6.7. Análisis de datos emparejados
Para valores grandes de n podemos hacer la aproximación
σ 2 (x) ∼
= s2 (x)
σ 2 (y) ∼
= s2 (y)
(6.51)
de modo que el intervalo de confianza µ1 − µ2 de la media con un nivel de confianza 1 − α es
(x̄ − ȳ) ± z(1− α )
2
6.6.4.
s21
s2
+ 2
n1 n2
1/2
(6.52)
Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconocidas y distintas
Consideremos las variables x e y con distribuciones PN (x; µ1 , σ12 (x)) y PN (x; µ1 , σ12 (x)), de las
que no conocemos sus varianzas pero sospechamos que σ12 (x) 6= σ22 (y).
Para estimar el intervalo de confianza de la media utilizaremos el estadístico
t=
(x̄ − ȳ) − (µ1 − µ2 )
2
1/2
s1
s22
+ n2
n1
(6.53)
que sigue una distribución t de Student con ν grados de libertad que se calculan redondeando el valor
obtenido de la expresión
ν=
s21
n1
s41
n21 (n1 −1)
2
+
s22
n2
+
s42
n22 (n2 −1)
(6.54)
ν1 = n1 − 1 ν2 = n2 − 1
a un número entero.
Finalmente, el intervalo de confianza viene dado por
(x̄ − ȳ) ± t1− α (ν)
2
s21
s2
+ 2
n1 n2
1/2
(6.55)
6.7. Análisis de datos emparejados
A menudo se compararan dos métodos de análisis estudiando muestras de ensayo que contienen
sustancialmente diferentes cantidades de analito. Por ejemplo, suponga que se desea comparar dos
métodos para la determinación de la concentración de paracetamol en pastillas. Con este fin, se analizan diez pastillas de diez lotes diferentes para ver si difieren los resultados obtenidos por los dos
métodos. Como siempre existe variación entre las medidas debida al error aleatorio de la medida.
Además, las diferencias entre las tabletas y entre los métodos pueden contribuir también a la variación entre las medidas. Esto último es lo que interesa en este ejemplo: se desea saber si los métodos
producen resultados significativamente diferentes. Estudiar la diferencia entre las médias de los resultados obtenidos con cada método no es apropiado en este caso porque no separa la variación debida
120
6
6.Intervalos de probabilidad e intervalos de confianza
al método de la que resulta de la variación entre las pastillas: se dice que los dos efectos se «confunden». Esta dificultad se soslaya observando la diferencia, d, entre cada par de resultados dados
por los dos métodos. Si no existen diferencias entre los dos métodos, entonces estas diferencias se
obtienen de una población con media µd = 0. Para probar la hipótesis nula, se prueba si d¯ difiere
significativamente de cero utilizando el estadístico t.
Para contrastar si n resultados emparejados se extraen de la misma población, es decir, H0 : µd =
0, se calcula el estadístico t:
t=
d¯
√
s(d)/ n
(6.56)
donde d¯ y S(d) son la media y la desviación estándar, respectivamente, de d, la diferencia entre los
valores que forman cada par de medidas. El número de grados de libertad de t es ν = n − 1.
Los contrastes por parejas descritos no requieren que las precisiones de los dos métodos sean iguales. Suponen que las dife rencias, d, están distribuidas normalmente. En efecto, esto exige que cada
conjunto de medidas se distribuya normalmente y que la precisión y sesgo (si acaso) de cada método
sean constantes en el intervalo de valores en que se realizaron las medidas. Los datos pueden constar
de medidas individuales, como en o de medias de medidas repetidas. Sin embargo, es necesario que
se realice el mismo número de medidas sobre cada muestra por el primer método y análogamente por
el segundo método: es decir, n medidas de cada muestra por el método 1 y por el método 2, donde
m y n deben ser iguales. Hay diferentes circunstancias por las cuales puede ser necesario o deseable
diseñar un experimento, de manera que cada muestra sea analizada por cada uno de los dos métodos,
proporcionando resultados que están emparejados de forma natural.
Algunos ejemplos son:
1. La cantidad de muestra disponible a examen es suficiente para sólo una determinación por cada
método.
2. Las muestras a examen pueden presentarse durante un extenso período de tiempo por lo que es
necesario eliminar los efectos de las variaciones en condiciones ambientales como temperatura,
presión, etc.
3. Los métodos se van a comparar utilizando una amplia variedad de muestras de diferente procedencia y posiblemente con concentraciones muy distintas
Ejemplo 7. Contraste de datos emparejados
Los datos de la tabla recogen los resultados de medias de la concentración de paracetamol (en
mg) para un lote de 10 pastillas
Lote
1
2
3
4
5
6
7
8
9
10
UV 84.63 84.38 84.08 84.41 83.82 83.55 83.92 83.69 84.06 84.03
NIR 83.15 83.72 83.84 84.20 83.92 84.16 84.02 83.60 84.13 84.24
¿Hay una diferencia significativa entre los resultados obtenidos por los dos métodos?
121
6.7
6.7. Análisis de datos emparejados
Las diferencias entre los pares de válores (restando el segundo al primero son):
Lote
UV
NIR
d
1
84.63
83.15
+1.48
2
84.38
83.72
+0.66
3
84.08
83.84
+0.24
4
5
84.41 83.82
84.20 83.92
+0.21 -0.10
6
83.55
84.16
-0.61
7
83.92
84.02
-0.10
8
9
83.69 84.06
83.60 84.13
+0.09 -0.07
10
84.03
84.24
-0.21
Estos valores tienen una media d¯ = 0,159 y desviación típica s(d) = 0,570.
Si H0 : µd = 0,de acuerdo con la ecuación 6.56
texp =
d¯
√ < t0,95 (ν = 9)
s(d)/ n
texp = 0,88 que es menor que el valor crítico t0,95 (ν = 9) = 2,26. Es decir, ambos métodos no
proporcionan resultados significativamente diferentes para la concentración de paracetamol.
122
6
6.8.
6.Intervalos de probabilidad e intervalos de confianza
Ejercicios y problemas
Cuestión 6.1 Indique la mejor respuesta
La variable aleatoria x̄ esta distribuida de acuerdo con una distribución
(a) normal
(b) t de Student con ν = n grados de libertad
(c) t de Student con ν = n − 1 grados de libertad
(d) χ2 con ν = n − 1 grados de libertad
(e) F con ν1 = n − 1 y ν2 = n grados de libertad
(f) Ninguna de las anteriores
Cuestión 6.2 Indique la mejor respuesta
√
La variable aleatoria y = (x̄ − µx )/(s(x)/ n) esta distribuida de acuerdo con una distribución
(a) normal
(b) t de Student con ν = n grados de libertad
(c) t de Student con ν = n − 1 grados de libertad
(d) χ2 con ν = n − 1 grados de libertad
(e) F con ν1 = n − 1 y ν2 = n grados de libertad
(f) Ninguna de las anteriores
Cuestión 6.3 Indique la mejor respuesta
La variable aleatoria s2 (x) de datos que siguen una distribución normal esta distribuida de acuerdo con una distribución
(a) normal
(b) t de Student con ν = n grados de libertad
(c) t de Student con ν = n − 1 grados de libertad
(d) χ2 con ν = n − 1 grados de libertad
(e) F con ν1 = n − 1 y ν2 = n grados de libertad
(f) Ninguna de las anteriores
123
6.8
6.8. Ejercicios y problemas
Cuestión 6.4 Verdadero o falso. Jusitfique la respuesta.
Sea x una estima del parámetro poblacional ξ.
El intervalo de probabilidad de la estima x del parámetro ξ con un nivel de probabilidad p es el
intervalo de valores de x que cumple
Se define como el intervalo de probabilidad de la estima x del parámetro ξ con un nivel de
probabilidad p al intervalo de valores de x
xmı́n = ξ − emı́n 6 x 6 ξ + emáx = xmáx
(6.57)
P (xmı́n 6 x 6 xmáx ) = p
(6.58)
que cumple
Hay infinitos intervalos de probabilidad que cumple esta condición
Cuestión 6.5 Indique aquellas afirmaciones que sean correctas
Un intervalo de probabilidad simétrico
(a) sólo existe para datos que siguen distribuciones de probabilidad simétricos
(b) está centrado alrededor de la media
(c) para x̄ está centrado en µx
(d) para x está centrado en µx
(e) para s2 (x) no está centrado en σ 2 (x)
(f) cumple que ➠ P (xmáx 6 x) =
1−p
2
y ➠ P (xmáx 6 x) =
1−p
2
Cuestión 6.6 Indique la mejor respuesta
Los límites x1 y x2 del intervalo de probabilidad simétrico
xmı́n = ξ − emı́n 6 x 6 ξ + emáx = xmáx
(6.59)
con nivel de probabilidad p son
(a) constantes
(b) números aleatorios
(c) Ninguna de las anteriores. Justifique la respuesta
Cuestión 6.7 Defina intervalo de confianza.
Cuestión 6.8 Cuando se trabaja con intervalos de confianza, ¿qué indicamos con el nivel de confianza del intervalo?.
124
6
6.Intervalos de probabilidad e intervalos de confianza
Cuestión 6.9 Indique aquellas afirmaciones que sean correctas
Los intervalos de confianza con nivel de confianza 1 − α para la media pueden calcularse como
(a) x̄ ± z1− α2 ·
σ(x)
√
n
(b) µx ± z1− α2 ·
σ(x)
√
n
(c) x̄ ± t1− α2 (ν = n − 1) ·
s(x)
√
n
(d) µx ± t1− α2 (ν = n − 1) ·
s(x)
√
n
Problema 6.1 Para investigar la reproducibilidad de un método para la determinación de selenio en
alimentos, se realizaron nueve medidas sobre un lote de arroz tostado, con los siguientes resultados:
0,07 0,07 0,08 0,07 0,07 0,08 0,08 0,09 0,08 µg.g−1
Calcular la media, desviación estándar y desviación estándar relativa de estos resultados.
La desviación estándar relativa se define como 100 × s(x)/x̄.
Problema 6.2 Siete medidas del pH de una solución reguladora proporcionaron los siguientes resultados:
5,12 5,20 5,15 5,17 5,16 5,19 5,15
Calcular los límites de confianza para el verdadero pH al nivel de confianza del (i) 95
(Suponer que no existen errores sistemáticos.)
Problema 6.3 Diez análisis repetidos de la concentración de mercurio en una muestra de condensado de gas comercial proporcionaron los siguientes resultados:
23,3 22,5 21,9 21,5 19,9 21,3 21,7 23,8 22,6 24,7 ng.ml−1
Calcular la media, desviación estándar, desviación estándar relativa de estos resultados y límites de
confianza de la media al 99
Problema 6.4 Seis análisis repetidos de otra muestra proporcionaron los siguientes valores:
13,8 14,0 13,2 11,9 12,0 12,1 ng.ml−1
Calcular la media, desviación estándar, desviación estándar relativa de estos resultados y límites de
confianza de la media al 99
Problema 6.5 Se midió la concentración de plomo en el fluido sanguíneo para una muestra de 50
niños de un colegio próximo a una calle con mucho tráfico. La media muestral fue 10.12 ng.ml−1 y la
desviación estándar fue 0.64 ng.ml−1 .
Calcular el intervalo de confianza al 95 % para la concentración media de plomo de todos los
niños de la escuela.
Problema 6.6 Considere los datos del problema 6.5.
¿Qué tamaño debería tener la muestra para reducir la longitud del intervalo de confianza a 0.2
ng.ml−1 (es decir: ±0,1 ng.ml−1 )?
125
6.8
6.8. Ejercicios y problemas
Problema 6.7 Para la evaluación de un método para la determinación de fluoreno en agua de mar,
se adicionó a una muestra sintética de agua de mar 50 ng.ml−1 de fluoreno.
Diez muestras repetidas de la concentración de fluoreno en la muestra tuvieron una media de 49.5
ng.ml−1 con una desviación estándar de 1.5 ng.ml−1 .
Calcule los límites de confianza de la media al 95 %.
¿Está el valor adicionado de 50 ng.ml−1 dentro de los límites de confianza al 95 % ?
Problema 6.8 Se utilizó una disolución 0.1 M de ácido para valorar 10 ml de una solución de álcali
0.1 M , registrándose los siguientes volúmenes de ácido:
9,88 10,18 10,23 10,39 10,21 ml
Calcule los límites de confianza de la media al 95 % y utilícelos para decidir si existe alguna
evidencia de error sistemático.
Problema 6.9 En un método nuevo para determinar selenourea en agua, se obtuvieron los valores
para muesstras de agua de grifo adicionadas con 50 ng.ml−1 de selenourea
50.4
50.7
49.1
49.0
51.1
¿Hay alguna evidencia de error sistemático?
Problema 6.10 En una comparación de dos métodos para la determinación de cromo en muestras
de hierba de centeno se obtuvieron los siguientes resultados (mg.Kg−1 )
Método 1
Método 2
Media = 1.48
Media = 2.33
d.e. = 0.28
d.e. = 0.31
Para cada método se realizaron 5 determinaciones. ¿Estos dos métodos proporcionan resultados
cuyas medias difieren significativamente?
Problema 6.11 En una serie de experimentos para la determinación de estaño en productos alimenticios las muestras fueron llevadas a ebullición con HCl a reflujo para diferentes tiempos. Los
resultados fueron:
Tiempo de reflujo (min)
30
75
55
57
Estaño encontrado
57 59 56 56 59
55 58 59 59 59
¿Es significativa la diferencia entre las cantidades encontradas obtenidas para los dos de ebullición?
Problema 6.12 Los datos de la siguiente tabla proporcionan la concentración de tiol (mM) en el
lisado sanguíneo de dos grupos de voluntarios siendo el primer grupo "normal el segundo sufriendo
artritis reumatoide
¿Es significativa la diferencia entre las cantidades de tiol en sangre encontradas para los distintos
grupos de voluntarios?.
2
126
6
6.Intervalos de probabilidad e intervalos de confianza
Normal
Reumatoide
1.84 1.92 1.94 1.92 1.85 1.91
2.81 4.06 3.62 3.27 3.27 3.76
2.07
Problema 6.13 Para evaluar un método espectrofotométrico para determinar titanio, se aplicó el
método a muestras de aleaciones conteniendo diferentes cantidades certificadas de titanio. Los resultados ( % Ti) se muestran a continuación.
Muestra
1
2
3
4
Valor celtificado
0.496
0.995
1.493
1.990
Media
0.482
1.009
1.505
2.002
Desviación estándar
0.0257
0.0248
0.0287
0.0212
Para cada aleación se realizaron 8 determinaciones repetidas.
Para cada aleación, contraste si el valor medio difiere significativamente del valor certificado.
Problema 6.14 La tabla recoge los resultados de la medida de una propiedad mediante dos técnicas
experimentales diferentes.
Lote Ensayo espectrométrico UV
1
84.63
2
84.38
3
84.08
4
84.41
5
83.82
6
83.55
7
83.92
8
83.69
9
84.06
10
84.03
Espectroscopía de reflectancia en el IR cercano
83.15
83.72
83.84
84.20
83.92
84.16
84.02
83.60
84.13
84.24
¿Son las diferencias entre pares de medidas significativas?.
Problema 6.15 Los siguientes datos proporcionan la recuperación de brofnuro adicionado a muestras con contenido vegetal, medido mediante un método cromatográfico gas-líquido. La cantidad de
bromuro potásico añadido a cada tipo de vegetal fue la misma.
Tomate (µg.g−1 )
Pepino (µg.g−1 )
777 790 759 790 770 758 764
782 773 778 765 789 797 782
(a) Contrastar si la recuperación en los dos vegetales tiene varianzas, que difieran significativamente.
(b) Contrastar si las tasas de recuperación medias difieren significativamente.
Siete medidas del pH de una solución reguladora proporcionaron los siguientes resultados:
127
6.8
6.8. Ejercicios y problemas
Problema 6.16 La siguiente tabla proporciona la concentración de norepinefrina (µmol por g de
creatinina) en la orina de voluntarios sanos de veinte años.
Hombres 0.48 0.36 0.55 0.45 0.46
Mujeres 0.35 0.37 0.27 0.29
0.47
¿Existe evidencia que la concentración de norepinefrina difiera entre sexos?
Problema 6.17 Seis análisis repetidos de otra muestra proporcionaron los siguientes valores:
13,8 14,0 13,2 11,9 12,0 12,1 ng.ml−1
Calcular la media, desviación estándar, desviación estándar relativa de estos resultados y límites de
confianza de la media al 99
Problema 6.18 La siguiente tabla recoge resultados de un trabajo en el que fueron comparados dos
métodos diferentes para la determinación de cromo en materiales orgánicos.
Agujas de pino
Hojas de haya
Planta acuática
Método 1 media= 2.15
Método 2 media =2.45
Método 1 media= 5.12
Método 2 media =7.27
Método 1 media= 23.08
Método 2 media =32.01
d.e. = 0.26
d.e. = 0.14
d.e. = 0.80
d.e. = 0.44
d.e. = 2.63
d.e. = 4.66
En cada caso la media es el promedio de 5 valores.
Para cada material probar si la media de los resultados obtenidos por los dos métodos difiere
significativamente.
Problema 6.19 Un nuevo procedimiento enzimático de análisis por inyección en flujo para determinar peróxido de hidrógeno en agua fue comparado con un método volumétrico redox convencional
con permanganato potásico aplicando ambos métodos a muestras de peróxido de uso farmacéutico.
La siguiente tabla proporciona la cantidad de peróxido de hidrógeno, en mg.ml−1 . Cada valor es
la media de cuatro réplicas.
Muestra
1
2
3
Método enzimático
31.1
29.6
31.0
Método del permanganato
32.6
31.0
30.3
Probar si los resultados obtenidos por ambos métodos difieren significativamente.
Problema 6.20 Las siguientes cifras se refieren a la concentración de albúmina, en gl−1 , en el suero
sanguíneo de 16 adultos sanos:
Hombres
Mujeres
37 39 37 42 39 45 42 39
44 40 39 45 47 47 43 41
¿Difiere significativamente la concentración media para hombres y mujeres?.
128
6
6.Intervalos de probabilidad e intervalos de confianza
Problema 6.21 Se comparó un nuevo método espectroscópico de absorción atómica de llama para
determinar antimonio en la atmósfera con el método colorimétrico recomendado. Para muestras de
atmósfera urbana, se obtuvieron los siguientes resultados:
Muestra
1
2
3
4
5
6
Antimonio encontrado (mg.m−3 )
Método nuevo Método estándar
22.2
25.0
19.2
19.5
15.7
16.6
20.4
21.3
19.6
20.7
15.7
16.8
¿Hay diferencias significativas entre los resultados obtenidos por los dos métodos?
129
6.9
6.9. Lecturas recomendadas
6.9.
Lecturas recomendadas
Para completar la preparación de este tema recomendamos la lectura de:
☞ Capítulo 3. Contrates de significación. del texto de Miller y Miller[3]. XX
☞ Chapter 7. Point Estimators, Confidence Intervals del texto de Graham[2]
Útil para completar el estudio del tema
☞ Chapter 6. The Precission and Accuracy of Measurements del texto de Mandel[4]
Útil para completar el estudio del tema
130
7
Cálculo de errores
Contenidos
Objetivos
✍ Calculo de errores en medidas directas. Cálculo de errores. Desestimación de medidas: el test Q de Dixon. El test de la τ de Thompson
modificada.
✍ Calculo de errores en medidas indirectas Error de escala: determinación del error máximo y más probable. Error aleatorio. Combinación de
errores.
✍ Media ponderada de medidas independientes
✓ Reconocer
✓ Reconocer
✓ Realizar
✓ Comprender
✓ Conocer
✓ Comprender
✓ Utilizar
131
7.1
7.1. Cálculo de errores en medidas directas
7.1.
Cálculo de errores en medidas directas
En general podemos expresar el resultado de una medida como
x = µ ± εi
donde la incertidumbre, εi , podemos expresarla como
εi = εsistemtico + εescala + εaleatorio
Nuestro objetivo es estimar la magnitud de cada una de estas incertidumbres que pasaremos a
discutir una a una.
7.1.1. Errores de escala
La contribución del error de escala a la incertidumbre la podemos considerar constante para cada
medida. Utilizaremos como valor del error de escala la mitad de la escala de medida del aparato, a no
ser que las especificaciones del aparato indiquen lo contrario.
7.1.2.
Errores de sistemáticos
La determinación de los errores sistemáticos no es siempre sencilla. En los casos más benignos
son constantes o varían de manera conocida (por ejemplo, si utilizamos un aparato mal calibrado)
y las medidas pueden corregirse. En general, para acotar los errores sistemáticos es necesario hacer
experimentos de calibrado y utilizar técnicas de diseño de experimentos.
En este curso supondremos que los errores sistemáticos están enmascarados por otras fuentes de
error.
7.1.3. Errores accidentales o aleatorios
Para estimar su valor tenemos que proponer un modelo para la función de distribución de probabilidad de las medidas. En adelante supondremos que nuestras medidas están distribuidas de acuerdo
con una función de distribución gaussiana o que podemos utilizar el teorema del límite central. Para
decidir si la incertidumbre en las medidas se ajusta a este modelo debemos hacer uso de las técnicas
de ensayo de hipótesis y diseño de experimentos.
Supongamos que tenemos n medidas independientes x1 , x1 , . . ., xn de una magnitud obtenidas
en un mismo aparato, utilizando el mismo método e iguales condiciones iniciales. Esta condición
equivale a decir que las medidas son muestras de la misma población y están caracterizadas por
la misma distribución de probabilidad. Si suponemos que los errores están distribuidos de acuerdo
con una distribución gausiana, el valor de la magnitud a determinar coincidirá con su media, µ. La
incertidumbre en las medidas estará relacionada con su desviación típica, σ(x), que es una medida de
la dispersión de los datos alrededor de la media di = xi − µ.
Si no conocemos ni µ ni σ(x) sólo podemos estimar su valor. Para determinar las estimas de µ
y σ(x) tenemos que utilizar métodos de determinación de estimas. Frecuentemente se utilizan las
técnicas de máxima verosimilitud y el método de mínimos cuadrados. Aplicando estos métodos se
obtiene:
132
7
7.Cálculo de errores
(1) La estima de la media general de la magnitud coincide con la media aritmética x̄, de las observaciones:
n
1X
x̄ =
xi
n i=1
(2) ) La estima de la varianza de las medidas es la varianza muestral
n
1 X
s (x) =
(xi − x̄)2
n − 1 i=1
2
(3) y la varianza de la media muestral viene dada por
s2 (x̄) =
s2 (x)
n
Para estimar el grado de proximidad de la media muestral,x̄, a la media poblacional, µ, utilizaremos el intervalo de confianza de la media. Los límites del intervalo de confianza se fijan de manera
que la media está contenida en este intervalo con una probabilidad predeterminada. En general se
emplean valores del coeficiente de confianza, 1 − α , entre 1 − α = 0,95 y 1 − α = 0,99.
Indicaremos el resultado de nuestras medidas como
σ(x)
x̄ ± k1− α2 · √
n
(7.1)
si conocemos, σ, ó si σ(x) es desconocida.
s(x)
x̄ ± t1− α2 (ν = n − 1) · √
n
(7.2)
Note que k = 1,96(1 − α = 0,95) y k = 2,575(1 − α = 0,95).
Ejemplo 1. Cálculo de incertidumbres (I)
En la determinación de la molaridad de una disolución de ácido sulfúrico por valoración con
hidróxido sódico de concentración conocida, se han obtenido los siguientes resultados: 0.4311,
0.4315, 0.4310, 0.4313, 0.4312 y 0.4311 M.
Determine el valor medio, la desviación típica de las medidas, la desviación típica de la media
muestral y la incertidumbre (error accidental) con un nivel de confianza del 95 %.
133
7.2
7.1. Cálculo de errores en medidas directas
i
1
2
3
4
5
6
n=6
X
xi
0.4311
0.4315
0.4310
0.4313
0.4312
0.4311
di = xi − x̄
−110−3
+310−3
−210−3
+110−3
010−3
−110−3
xi = 2,5872
sP
x̄ = 0,4312 M
s(x) =
X
di2
1,10−6
9,10−6
4,10−6
1,10−6
0,10−6
1,10−6
di = 0
d2i
= 1.789910−3 M
n−1
X
d2i = 1,6 10−5
s(x)
s(x̄) = √ = 7,30410−4
n
Dado que σ(x) es desconocida.
s(x)
x̄ ± t1− α2 (ν = n − 1) · √
n
t.975 (ν = 5) = 2,57
[H2 SO4 ] = 0,431 ± 0,002 M
Ejemplo 2. Cálculo de incertidumbres (II)
Diez medidas del cociente de áreas de dos picos en un experimento de cromatografía líquida
dieron los siguientes resultados: 0.4911, 0.4898, 0.4923, 0.4919, 0.4999, 0.4961, 0.4947, 0.4986,
0.4902, 0.4822.
Determine el valor medio, la desviación típica de las medidas, la desviación típica de la media
muestral y la incertidumbre (error accidental) con un nivel de confianza del 95 %.
X
X
X
n = 10
xi = 4,9268
di = 0
d2i = 2,3 10−4
sP
x̄ = 0,4927 s(x) =
d2i
s(x)
= 0,0051 s(x̄) = √ = 0,0016
n−1
n
Dado que σ(x) es desconocida.
s(x)
x̄ ± t1− α2 (ν = n − 1) · √
n
t.975 (ν = 9) = 2,26
x = 0,4927 ± 2,26 · 0,0016 = 0,4927 ± 0,0036
134
7
7.Cálculo de errores
7.2.
Desestimación de medidas
Puede suceder que algunas medidas se alejen demasiado del resto por lo que pueden considerarse
como poco representativas de las magnitudes que se quieren medir. Estas medidas deben eliminarse
ya que utilizarlas afecta al valor de las estimas de las magnitudes que queremos calcular.
Consideramos que una medida es errática cuando la probabilidad de obtener ese valor es muy baja.
Podemos considerar que una medida es poco probable cuando está fuera del intervalo de confianza,
sin embargo este criterio sólo es fiable si el número de medidas es relativamente grande (n >10) o se
conoce µ con gran exactitud.
Cuando el número de observaciones es pequeño tenemos que utilizar otro criterio.Vamos a considerar dos métodos para detectar medidas erráticas:
El ensayo de la Q de Dixon
La técnica de la τ de Thompson modificada
7.2.1.
El ensayo de la Q de Dixon
En este método se comparan la diferencia entre el valor sospechoso y la medida más próxima a
éste con el rango de las medidas (diferencia entre el mayor y menor valores observados: xmax y xmin ).
La variable que utilizamos como referencia es el cociente de ambas magnitudes, la Q de Dixon:
Q=
xsospechoso − xmás próximo
xmáximo − xmínimo
(7.3)
Si el valor de Q es mayor que el valor crítico de Q para un nivel de confianza del 95 % desestimaremos el valor sospechoso.
n
Qcrit
4
0.831
5
0.717
6
0.621
7
0.570
8
0.524
9
0.492
10
0.464
Cuadro 7.1: Valores críticos de Q con un nivel de confianza del 95 %
Ejemplo 3. Desestimación de valores mediante el método de la Q de Dixon
En la medida de una cinética de primer orden se obtuvieron los siguientes valores de k (s−1 ):
4.51, 4.54, 4.52, 4.66, 4.51, 4.50, 4.48, 4.49, 4.51, 4.52.
Determine el valor de k. Verifique si tiene que despreciar alguna de las observaciones.
135
7.2
7.2. Desestimación de medidas
A partir de los datos experimentales podemos obtener
i
ki
ki − k̄
1
2
3
4.51 4.54 4.52
0.01 0.02 0.00
4
4.66
0.14
5
4.51
0.01
6
7
8
4.50 4.48 4.49
0.02 0.04 0.03
9
4.51
0.00
10
4.52
0.01
k̄ = 4.52 s−1 , s(k) = 0.05 s−1 , s(k̄) = 0.02 s−1
Para la medida 4, k4 − k̄ s(k). Esta medida parece sospechosa.
Determinaremos si hay que despreciar la medida 4:
Qexp =
4,66 − 4,54
= 0,67 > Qcrit (n = 10) = 0,452
4,66 − 4,48
Descartamos la medida de k= 4.66 y repetimos el cálculo de Qexp .
Qexp =
4,54 − 4,52
= 0,33 < Qcrit (n = 9) = 0,492
4,54 − 4,48
No descartamos ningún otro dato. Repitiendo los calculo obtenemos k̄ = 4.51 s−1 , s(k) = 0.018
s−1 , s(k̄) = 0.006 s−1 .
k = 4,51 ± 0,01 s−1
con un nivel de confianza del 95 %.
Sin embargo, este método no es útil si en la muestra están presentes dos valores erráticos muy
próximos o muy separados entre si. Por ejemplo considere los valores:
2.1
2.0
2.1
2.3
2.9
2.3
3.1
2.2
2.0
2.3
En este caso
Qexp =
3,1 − 2,9
= 0,18 < Qcrit (n = 10) = 0,464
3,1 − 2,0
el método no es capaz de discernir la presencia de dos valores erráticos muy próximos. Es necesario
aplicar técnicas que tenga en cuenta la posibilidad de observar dos o más valores erráticos.
7.2.2.
La técnica de la τ de Thompson modificada
Este es el método recomendado en el documento Measurement Uncertainty (ANSI/ASME, 1986).
En este método se siguen los siguientes pasos:
(1) Se calcula la media x̄ y la desviación típica s(x) de las n medidas.
(2) Se ordenan las medidas de menor a mayor.
(3) Los valores mínimo y máximo son marcados como posibles valores erráticos (outliers).
136
7
7.Cálculo de errores
Figura 7.1: Ilustración de un ejemplo donde el test Q de Dixon no es capaz de discirminar los datos
erráticos. Este ejemplo ilustra la importancia de hacer una representación gráfica de los datos.
(4) Para es los dos valores sospechosos se calcula el valor absoluto de su desviación respecto de la
media:
δi = |xi − x̄|
(7.4)
(5) El mayor valor de δi se compara con el producto τ · s(x), donde τ depende del número de
medidas realizadas (ver tabla 7.2).
(6) Si δi > τ · s(x) se desecha xi y se repiten los pasos (1) a (5) hasta que el valor con mayor δi
cumpla δi < τ · s(x)
n
τ
3
4
1.150 1.393
5
1.572
6
1.656
7
1.711
8
1.749
9
1.777
10
1.798
11
1.815
12
1.829
Cuadro 7.2: Valores de la τ de Thompson para distintos números de medidas
137
13
1.840
7.3
7.3. Cálculo de errores de medidas indirectas
Ejemplo 4. Desestimación de valores mediante el método de τ de Thompson modificada
Nueve medidas de conductividad de una disolución dieron los siguientes resultados: 12.02,
12.05, 11.96, 11.99, 12.10, 12.03, 12.00, 11.95, 12.16 mS.
Determine si hay algun valor errático
(1) Calculamos c̄ y s(x).
c = 12.03 mS
s(c) = 0.07 mS
(2) Calculamos δmin y δmax .
δmin = |cmin - c| = |11.95 - 12.03| = 0.08 mS
δmax = |cmax - c| = |12.16 - 12.03| = 0.13 mS
(3) Calculamos el valor crítico de δ. Con n = 9, τ = 1,777.
δcrit = 1,777 × 0,07 = 0,12
(4) Rechazamos el valor xmax .
Cuando repetimos el proceso obtenemos c̄= 12.01 mS, s(c) = 0.05 mS, y ningún valor deber
desecharse.
7.3.
Cálculo de errores de medidas indirectas
En este caso la magnitud que queremos determinar, φ, no se puede medir directamente sino que
se expresa como una función de n magnitudes mensurables θ1 , θ2 , . . ., θn .
Como de las magnitudes θ1 , θ2 , . . ., θn tienen un error experimental, sólo podemos obtener sus
estimas experimentales x̄1 , x̄2 , . . ., x̄n .
¿Cómo podemos estimar el valor de φ y acotar su incertidumbre?. Se puede demostrar que una
estima quasi-insesgada de φ es
y = f (x̄1 , x̄2 , ..., x̄n )
(7.5)
Al igual que para medidas directas podemos escribir
y = φ + ε(y)
(7.6)
ε(y) = εsist (y) + εescala (y) + εaleatorio (y)
(7.7)
donde
Como en el estudio de las magnitudes directas ignoramos los errores sistemáticos. Si fueran conocidos su tratamiento seria semejante al error de escala.
138
7
7.Cálculo de errores
A la hora de evaluar la incertidumbre de las medidas podemos considerar tres casos:
Sólo es necesario considerar el error de escala. Este es el caso en el que no podemos estimar
εaleatorio , o εescala εaleatorio .
Sólo es necesario considerar el error aleatorio: εescala εaleatorio .
Las magnitudes de εescala y εaleatorio son comparables y no podemos despreciar ninguno.
139
7.3
7.3. Cálculo de errores de medidas indirectas
140
Parte I
Apéndices
141
APÉNDICE A
Tablas estadísticas
A.1.
Área bajo la curva normal tipificada
143
A.2
A.1. Área bajo la curva normal tipificada
144
A
A.Tablas estadísticas
A.2.
Valores de las percentilas tp para un distribución t de Student con ν grados de lbertad
145
A.3A.3. Valores de las percentilas χ2p para un distribución χ2 de Student con ν grados de lbertad
A.3.
Valores de las percentilas χ2p para un distribución χ2 de Student con ν grados de lbertad
146
A
A.Tablas estadísticas
A.4.
Valores de las percentilas F0,95(ν1, ν2) para un distribución
F
Recuerde que ν1 es el número de grados de libertad del numerador y ν2 es el número de grados de
libertad del denominador.
147
A.5
A.5.
A.5. Valores de las percentilas F0,99 (ν1 , ν2 ) para un distribución F
Valores de las percentilas F0,99(ν1, ν2) para un distribución
F
Recuerde que ν1 es el número de grados de libertad del numerador y ν2 es el número de grados de
libertad del denominador.
148
Bibliografía
[1] P. R. Bevington and D. K. Robinson. Data Reduction and Error Analysis for the Physical Sciences. Second edition. McGraw-Hill, New York, 1994.
[2] Richard C. Graham. Data Analisis for the Chemical Sciences. VCH, New York, 1993. X.
[3] Jane C. Miller James N. Miller. Estadística y Quimiometría para Química Analítica. Prentice
Hall, Madrid, 2002. X.
[4] John Mandel. The Statistical Analysis of Experimental Data. Dover, New York, 1984.
[5] R. Alu Srinivasan Murray R. Siegel, John Schiller. Probabilidad y Estadística. Colección
Schaum. McGraw-Hill, Bogotá, 2a edition, 2001.
[6] R.H. Myers R. Walpole. Probabilidad y Estadística. McGraw-Hill, Madrid, 1992.
[7] V. P. Spiridonov and A. A. Lopatkin. Tratamiento matemático de datos fisicoquímicos. Segunda
edición. MIR, Moscú, 1983. TC X.
149
Índice alfabético
desestimación de medidas, 135
Q Dixon, 135
distribución
uniforme, 50
binomial, 51
χ2 , 84
de Bernuilli, 51
de Poisson, 55
relación con distribución binomial, 57
relación con distribución normal, 58, 80
F de Fisher, 88
Gaussiana, 70
normal, 70
t de Student, 80
relación con distribución normal, 80
uniforme continua, 69
Intervalos de confianza, 109, 112
de diferencia de las medias, 117
de la media, 113
de la varianza, 116
definición, 109
diferencia de la media para datos emparejados, 120
intervalos de probabilidad
definición, 106
para las medias, 108
para las medidas, 107
para las varianzas, 108
ley de los grandes números, 18
media muestral, x̄, 39, 133
mediana, 44
medida errática, 135
moda, 44
error
error de escala, 7
error de truncamiento, 11
error absoluto, 6
espacio muestral, 16
esperanza matemática
media, 35, 39
µx , 39
momentos centrales, 35
momentos de una distribución, 35
momentos respecto del origen, 35
propiedades, 34, 35
varianza, 35
exactitud, 8
precisión, 8
prueba de Bernuilli, 51
redondeo, 11
sesgo, 8
teorema de Moivre, 55, 79
teorema del límite central, 78
varianza, σ 2 (x), 39
varianza muestral, s2 (x), 42, 133
incertidumbre, 6
150