Download estadística y probabilidad - rosarioprofematescarlosiii

Document related concepts

Parámetro estadístico wikipedia , lookup

Variable aleatoria wikipedia , lookup

Varianza wikipedia , lookup

Distribución de Poisson wikipedia , lookup

Distribución de probabilidad wikipedia , lookup

Transcript
ESTADÍSTICA Y PROBABILIDAD
La Estadística es la parte de las Matemáticas que estudia métodos para interpretar datos
obtenidos de investigaciones o experimentos aleatorios (aquellos en los que no se puede
predecir el resultado), con el fin de extraer de ellos unas conclusiones.
La Estadística puede ser:
a) Estadística descriptiva: trata de obtener unas conclusiones a partir de ciertos datos
mediante el empleo de gráficos o la obtención de unos ciertos valores que lo
representen a todos.
b) Estadística inferencial: trata de determinar los valores que adoptarán una serie de
datos muy numerosos, que forman una población mediante el estudio de unos
cuantos de ellos extraídos de la población de una manera significativa y que formen
una muestra. La base en la que se fundamenta la estadística inferencial es el cálculo de
probabilidades.
ESTADÍSTICA DESCRIPTIVA
CONCEPTOS GENERALES
La estadística descriptiva es una ciencia que analiza series de datos (por ejemplo, edad de una
población, altura de los estudiantes de una escuela, temperatura en los meses de verano, etc)
y trata de extraer conclusiones sobre el comportamiento de estas variables.
Las variables pueden ser de dos tipos:


Variables cualitativas o atributos: no se pueden medir numéricamente (por ejemplo:
nacionalidad, color de la piel, sexo).
Variables cuantitativas: tienen valor numérico (edad, precio de un producto, ingresos
anuales).
Las variables también se pueden clasificar en:



Variables unidimensionales: sólo recogen información sobre una característica (por
ejemplo: edad de los alumnos de una clase).
Variables bidimensionales: recogen información sobre dos características de la
población (por ejemplo: edad y altura de los alumnos de una clase).
Variables pluridimensionales: recogen información sobre tres o más características
(por ejemplo: edad, altura y peso de los alumnos de una clase).
Por su parte, las variables cuantitativas se pueden clasificar en discretas y continuas:


Discretas: si los valores que puede tomar son aislados. Por ejemplo: número de
hermanos.
Continuas: pueden tomar cualquier valor real dentro de un intervalo. Por ejemplo, la
velocidad de un vehículo puede ser 80,3 km/h, 94,57 km/h...etc.
Cuando se estudia el comportamiento de una variable hay que distinguir los siguientes
conceptos:
1
 Individuo: cualquier elemento que porte información sobre el fenómeno que se
estudia. Así, si estudiamos la altura de los niños de una clase, cada alumno es un
individuo; si estudiamos el precio de la vivienda, cada vivienda es un individuo.
 Población: conjunto de todos los individuos (personas, objetos, animales, etc.) que
porten información sobre el fenómeno que se estudia. Por ejemplo, si estudiamos el
precio de la vivienda en una ciudad, la población será el total de las viviendas de dicha
ciudad.
 Muestra: subconjunto que seleccionamos de la población. Así, si se estudia el precio
de la vivienda de una ciudad, lo normal será no recoger información sobre todas las
viviendas de la ciudad (sería una labor muy compleja), sino que se suele seleccionar un
subgrupo (muestra) que se entienda que es suficientemente representativo.
 Tamaño de la población o de la muestra: es el número de elementos que componen
una u otra, se designa por n.
DISTRIBUCIÓN DE FRECUENCIA
La distribución de frecuencia es la representación estructurada, en forma de tabla, de toda la
información que se ha recogido sobre la variable que se estudia.
Variable
Valor(Xi)
x
Frecuencias absolutas
Simple (fi)
Acumulada(Fi)
x
X1
X2
...
Xn
x
f1
f2
...
fn
Frecuencias relativas
Simple(hi)
Acumulada(Hi)
x
F1=f1
F2=f1 + f2
...
 fi=n
X
f1 / n
f2 / n
...
fn = fn / n
f1 / n
(f1 / n)+ (f2 / n)
...
(fi / n)
Siendo X los distintos valores que puede tomar la variable.
Siendo fi el número de veces que se repite cada valor.
Siendo (fi/n)100 el porcentaje que la repetición de cada valor supone sobre el total
En el caso de variables continuas, los datos se agrupan en intervalos, llamados intervalos de
clase [a,b).
Para representar cada intervalo en las tablas de frecuencias se utiliza la marca de clase (xi),
que es el punto medio de cada intervalo de clase
PARÁMETROS ESTADÍSTICOS
Las representaciones gráficas no siempre consiguen ofrecer una información completa de los
datos, por tanto es necesario analizar procedimientos numéricos que permitan resumir la
información del fenómeno en estudio en unos números llamados parámetros estadísticos.
Éstos se pueden clasificar en:
o
Medidas de posición : son de dos tipos:
 Medidas de posición central: informan sobre los valores medios de la serie de
datos.
 Medidas de posición no centrales: informan de cómo se distribuye el resto de
los valores de la serie.
2
o
Medidas de dispersión: Estudia la distribución de los valores de la serie, analizando si
estos se encuentran más o menos concentrados, o más o menos dispersos.
MEDIDAS DE POSICIÓN CENTRAL
Las principales medidas de posición central son las siguientes:
1) Media: es el valor medio ponderado de la serie de datos. Se pueden calcular
diversos tipos de media, siendo las más utilizadas:
a) Media aritmética: se calcula multiplicando cada valor por el número de veces
que se repite. La suma de todos estos productos se divide por el total de datos
de la muestra:
̅=
𝑿
∑𝒌
𝒊=𝟏 𝒙𝒊 𝒇𝒊
𝒏
=
𝒙𝟏 𝒇𝟏 +𝒙𝟐 𝒇𝟐 +⋯.+𝒙𝒌 𝒇𝒌
𝒏
𝑘
𝑛 = ∑ 𝑓𝑖
𝑖=1
b) Media geométrica: se eleva cada valor al número de veces que se ha repetido.
Se multiplican todo estos resultados y al producto final se le calcula la raíz "n"
(siendo "n" el total de datos de la muestra).
𝒏
𝑮 = √𝒙𝟏 𝒇𝟏 𝒙𝟐 𝒇𝟐 … 𝒙𝒌 𝒇𝒌
Según el tipo de datos que se analice será más apropiado utilizar la media aritmética o la
media geométrica.
La media geométrica se suele utilizar en series de datos como tipos de interés anuales,
inflación, etc., donde el valor de cada año tiene un efecto multiplicativo sobre el de los años
anteriores. En todo caso, la media aritmética es la medida de posición central más utilizada.
Lo más positivo de la media es que en su cálculo se utilizan todos los valores de la serie, por lo
que no se pierde ninguna información.
Sin embargo, presenta el problema de que su valor (tanto en el caso de la media aritmética
como geométrica) se puede ver muy influido por valores extremos, que se aparten en exceso
del resto de la serie. Estos valores anómalos podrían condicionar en gran medida el valor de la
media, perdiendo ésta representatividad.
2) Mediana: es el valor de la serie de datos que se sitúa justamente en el centro de la
muestra (un 50% de valores son inferiores y otro 50% son superiores).No
presentan el problema de estar influido por los valores extremos, pero en cambio
no utiliza en su cálculo toda la información de la serie de datos (no pondera cada
valor por el número de veces que se ha repetido).
Cálculo de la mediana:
3

𝒏
Variables discretas no agrupadas: se calcula ( ) y se construye la columna de
𝟐
las frecuencias acumuladas Fi y se observa cuál es la primera frecuencia
𝒏
acumulada que supera o iguala a , distinguiéndose dos casos:
 Si 𝐹𝑖−1 <
 Si 𝐹𝑖 =

𝑛
2
𝟐
𝑛
< 𝐹𝑖 → 𝑴𝒆 = 𝒙𝒊
2
→ 𝑴𝒆 =
𝒙𝒊 +𝒙𝒊+𝟏
𝟐
Variables agrupadas por intervalos: en este caso hay que detectar cuál es el
𝒏
intervalo mediano (el que corresponda su 𝐹𝑖 ≥ 𝟐), [𝑳𝒊−𝟏 , 𝑳𝒊 ), distinguiéndose
dos casos:
𝑛
 Si 𝐹𝑖 =
→ 𝑴𝒆 = 𝑳𝒊
2
 Si 𝐹𝑖−1 <
𝑛
< 𝐹𝑖
2
𝒏
→
𝑴𝒆 = 𝑳𝒊−𝟏 + 𝟐
− 𝑭𝒊−𝟏
𝒇𝒊
𝒄
(c= amplitud del intervalo)
3) Moda: es el valor que más se repite en la muestra, el valor de mayor frecuencia.
Cálculo de la moda:
 Variables discretas no agrupadas: se observa la columna de las frecuencias
absolutas, y el valor de la distribución al que corresponde la mayor frecuencia
será la moda. A veces aparecen distribuciones de variables con más de una
moda (bimodales, trimodales, multimodal), e incluso una distribución de
frecuencias puede presentar una moda absoluta y una relativa.
 Variables agrupadas por intervalos: en este caso hay que detectar cuál es el
intervalo o clase modal, (𝑳𝒊−𝟏 , 𝑳𝒊 ], como aquel que posea mayor frecuencia y
se aplica la fórmula:
𝑴𝒐 = 𝑳𝒊−𝟏 +
𝒇𝒊 − 𝒇𝒊−𝟏
𝒄
(𝒇𝒊 − 𝒇𝒊−𝟏 ) + (𝒇𝒊 − 𝒇𝒊+𝟏 )
MEDIDAS DE POSICIÓN NO CENTRAL (Cuantiles)
Las medidas de posición no centrales permiten conocer otros puntos característicos de la
distribución que no son los valores centrales. Entre otros indicadores, se suelen utilizar una
serie de valores que dividen la muestra en tramos iguales:
1) Cuartiles (Qi): son 3 valores que distribuyen la serie de datos, ordenada de forma
creciente o decreciente, en cuatro tramos iguales, en los que cada uno de ellos
concentra el 25% de los resultados.
2) Deciles (Di): son 9 valores que distribuyen la serie de datos, ordenada de forma
creciente o decreciente, en diez tramos iguales, en los que cada uno de ellos
concentra el 10% de los resultados.
3) Percentileso centiles (Pi): son 99 valores que distribuyen la serie de datos, ordenada
de forma creciente o decreciente, en cien tramos iguales, en los que cada uno de ellos
concentra el 1% de los resultados.
Cálculo de los cuantiles:
4


Variables discretas no agrupadas: se calcula
𝒓𝒏
𝒒
, siendo:
r= orden del cuantil correspondiente
q= el número de intervalos con iguales frecuencias u observaciones (q=4, 10 ó 100)
n= número total de observaciones
La anterior expresión nos indica qué valor de la variable estudiada es el cuantil que nos
piden, que se corresponderá con el primer valor cuya frecuencia acumulada sea mayor
𝒓𝒏
o igual a 𝒒 . (Semejante al cálculo de la mediana)
Variables agrupadas en intervalos: (se resuelve de manera análoga al cálculo de la
mediana)
MEDIDAS DE DISPERSIÓN
Existen diversas medidas de dispersión, entre las más utilizadas podemos destacar las
siguientes:
1) Rango: mide la amplitud de los valores de la muestra y se calcula por diferencia entre
el valor más elevado y el valor más bajo.
2) Rango intercuartílico: es la diferencia entre el cuartil tres y el uno.
𝑸 = 𝑸𝟑 − 𝑸𝟏
Viene a indicarnos el rango que ocupa el 50% de población más centrado en torno a la
media.
3) Varianza: Mide la distancia existente entre los valores de la serie y la media.
𝒔𝟐𝒏
∑𝒌𝒊=𝟏 𝒇𝒊 (𝒙𝒊 − 𝒙
̅)𝟐 ∑𝒌𝒊=𝟏 𝒇𝒊 𝒙𝟐𝒊
̅𝟐
=
=
−𝒙
𝒏
𝒏
La varianza siempre será mayor que cero. Mientras más se aproxima a cero, más
concentrados están los valores de la serie alrededor de la media. Por el contrario,
mientras mayor sea la varianza, más dispersos están.
4) Desviación típica: Se calcula como raíz cuadrada de la varianza.
𝒔𝒏 = √
∑𝒌𝒊=𝟏 𝒇𝒊 (𝒙𝒊 − 𝒙
∑𝒌 𝒇𝒊 𝒙𝟐𝒊
̅)𝟐
̅𝟐
= √ 𝒊=𝟏
−𝒙
𝒏
𝒏
La desviación típica nos informa sobre la dispersión que tienen los datos respecto a la
media, Es el parámetro de dispersión por antonomasia, junto con la media se utiliza
para caracterizar las series de datos estadísticos.
5) Cuasivarianza:
2
𝑠̂ =
2
𝑠𝑛−1
∑𝑘𝑖=1(𝑥𝑖 − 𝑥̅ )2 𝑓𝑖
=
𝑛−1
Observamos que: 𝑛 ∙ 𝑠 2 = (𝑛 − 1) ∙ 𝑠̂ 2 , por tanto:
5
𝑠2 =
𝑛−1
𝑛
2
∙ 𝑠̂ 2 Si 𝑛 → ∞ 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑠 2 = 𝑠̂ 2 = 𝑠𝑛−1
6) Cuasi-desviación típica: Se calcula como la raíz cuadrada de la cuasivarianza.
̅)2 𝑓𝑖
∑𝑘𝑖=1(𝑥𝑖 − 𝑥
𝒔̂ = 𝒔𝒏−𝟏 = √
𝑛−1
La cuasi-desviación típica muestral, 𝒔𝒏−𝟏 , parámetro que nos facilita la calculadora
gráfica, se utiliza para estimar la desviación típica poblacional (σ). Para estimar la
media poblacional (μ) se utiliza la media muestral 𝑥̅ .
7) Coeficiente de varización de Pearson: se calcula como cociente entre la desviación
típica y la media.
𝐶𝑉 =
𝑠
𝑥̅
(*100 en %)
Se utiliza para comparar distribuciones de medidas diferentes, siempre que sus
medidas sean positivas. Los que están más dispersos mayor tanto por ciento.
El interés del coeficiente de variación es que al ser un porcentaje permite comparar el
nivel de dispersión de dos muestras. Esto no ocurre con la desviación típica, ya que
viene expresada en las mismas unidades que los datos de la serie.
Por ejemplo, para comparar el nivel de dispersión de una serie de datos de la altura de
los alumnos de una clase y otra serie con el peso de dichos alumnos, no se puede
utilizar las desviaciones típicas (una viene vienes expresada en cm y la otra en kg). En
cambio, sus coeficientes de variación son ambos porcentajes, por lo que sí se pueden
comparar.
Simetría y asimetría
̅ : media aritmética, se encuentra aproximadamente hacia el centro de la distribución.
𝑿
𝑺: desviación típica, nos informa sobre la dispersión que tienen los datos respecto de
la media.
Hay conjuntos de datos donde las tres medidas de centralización (media, mediana y moda)
coinciden. En este caso se dice que la distribución de datos es simétrica.
En general para estudiar la simetría o no de una distribución de datos podemos estudiar su
gráfica, su tabla o los valores de estas mediadas de centralización.
La representación gráfica simétrica por excelencia corresponde a una Distribución Normal y
recibe el nombre de campana de Gauss.
En esta campana, el valor máximo corresponde a la media aritmética, siendo los valores
centrales más frecuentes que los alejados, y se tiene que:
̅ − 𝒔, 𝒙
̅ + 𝒔) se encuentra aproximadamente el 68,2% de los
 En el intervalo (𝒙
datos.
̅ − 𝟐𝒔, ̅
 En el intervalo (𝒙
𝒙 + 𝟐𝒔) se encuentra aproximadamente el 95,5% de
los datos.
̅ − 𝟑𝒔, 𝒙
̅ + 𝟑𝒔) se encuentra aproximadamente el 99,7% de
 En el intervalo (𝒙
los datos.
En general las distribuciones de datos no se adaptan totalmente a una campana de Gauss, sino
que representan asimetría.
6
DISTRIBUCIONES BIDIMENSIONALES
Las distribuciones bidimensionales son aquellas en las que se estudian al mismo tiempo dos
variables de cada elemento de la población: por ejemplo: peso y altura de un grupo de
estudiantes; superficie y precio de las viviendas de una ciudad; potencia y velocidad de una
gama de coches deportivos.
Para representar los datos obtenidos se utiliza una tabla de correlación:
X/Y
x1
x2
y1
f1,1
f2,1
y2
f1,2
f2,2
.....
x
x
ym-1
f1,m-1
f2,m-1
ym
f1,m
f2,m
Las "x" representan una de las variables y las "y" la otra variable. En cada intersección de una
valor de "x" y un valor de "y" se recoge el número de veces que dicho par de valores se ha
presentado conjuntamente.
Distribuciones marginales
Al analizar una distribución bidimensional, uno puede centrar su estudio en el
comportamiento de una de las variables, con independencia de cómo se comporta la otra.
Estaríamos así en el análisis de una distribución marginal.
Diagrama de dispersión o nube de puntos
Es el conjunto de puntos sobre el plano (xi,yi) de la variable estadística bidimensional.
Parámetros estadísticos en una distribución bidimensional
̅=
Media de la variable X: 𝑿
Media de la variable Y: ̅
𝒀=
∑𝒌𝒊=𝟏 𝒙𝒊 𝒇𝒊
𝒏
∑𝒌𝒊=𝟏 𝒚𝒊 𝒇𝒊
Varianza de la variable X: 𝒔𝟐𝒙 =
Varianza de la variable Y: 𝒔𝟐𝒚 =
𝒏
∑𝒌𝒊=𝟏 𝒇𝒊 (𝒙𝒊 −𝒙
̅)𝟐
𝒏
∑𝒌𝒊=𝟏 𝒇𝒊 (𝒚𝒊 −𝒚
̅)𝟐
𝒏
Covarianza de la variable (X,Y): 𝒔𝒙𝒚 =
Coeficiente de correlación lineal : 𝑟 =
=
=
∑𝒌𝒊=𝟏 𝒇𝒊 𝒙𝟐𝒊
𝒏
∑𝒌𝒊=𝟏 𝒇𝒊 𝒚𝟐𝒊
𝒏
∑𝒌𝒊=𝟏 𝒙𝒊 𝒚𝒊 𝒇𝒊
𝒏
̅𝟐
−𝒙
̅𝟐
−𝒚
̅ ∙𝒀
̅=
−𝑿
∑𝒌𝒊=𝟏(𝒙𝒊 −𝒙
̅)(𝒚𝒊 −𝒚
̅)𝒇𝒊
𝒏
𝒔𝒙𝒚
𝑠𝑥 𝑠𝑦
En una distribución bidimensional puede ocurrir que las dos variables guarden algún tipo de
relación entre sí.
7
Por ejemplo, si se analiza la estatura y el peso de los alumnos de una clase es muy posible que
exista relación entre ambas variables: mientras más alto sea el alumno, mayor será su peso.
El coeficiente de correlación lineal mide el grado de intensidad de esta posible relación entre
las variables. Este coeficiente se aplica cuando la relación que puede existir entre las variables
es lineal (es decir, si representáramos en un gráfico los pares de valores de las dos variables la
nube de puntos se aproximaría a una recta).
No obstante, puede que exista una relación que no sea lineal, sino exponencial, parabólica,
etc. En estos casos, el coeficiente de correlación lineal mediría mal la intensidad de la relación
las variables, por lo que convendría utilizar otro tipo de coeficiente más apropiado.
Para ver, por tanto, si se puede utilizar el coeficiente de correlación lineal, lo mejor es
representar los pares de valores en un gráfico y ver la forma que describen.
Los valores que puede tomar el coeficiente de correlación "r" son: -1 < r < 1
Si "r" > 0, la correlación lineal es positiva (si sube el valor de una variable sube el de la otra).
La correlación es tanto más fuerte cuanto más se aproxime a 1.
Si "r" < 0, la correlación lineal es negativa (si sube el valor de una variable disminuye el de la
otra). La correlación negativa es tanto más fuerte cuanto más se aproxime a -1.
Si "r" = 0, no existe correlación lineal entre las variables. Aunque podría existir otro tipo de
correlación (parabólica, exponencial, etc.)
Regresión lineal
Representamos en un gráfico los pares de valores de una distribución bidimensional: la
variable "x" en el eje horizontal o eje de abscisas, y la variable "y" en el eje vertical, o eje de
ordenadas. Vemos que la nube de puntos sigue una tendencia lineal:
8
El coeficiente de correlación lineal nos permite determinar si, efectivamente, existe relación
entre las dos variables. Una vez que se concluye que sí existe relación, la regresión nos permite
definir la recta que mejor se ajusta a esta nube de puntos.
Recta de regresión de Y sobre X: 𝑦 − 𝑦̅ =
𝑠𝑥𝑦
𝑠𝑥2
(𝑥 − 𝑥̅ )
A partir de esta recta podemos conocer con cierta aproximación los valores de la variable y
(dependiente) conocidos los de la variable x (independiente).
Recta de regresión de X sobre Y: 𝑥 − 𝑥̅ =
𝑠𝑥𝑦
𝑠𝑦2
(𝑦 − 𝑦̅)
A partir de esta recta podemos conocer con cierta aproximación los valores de la variable x
(dependiente) conocidos los de la variable y (independiente).
ELABORACIÓN DE GRÁFICOS ESTADÍSTICOS
Los resultados de cualquier experimento se pueden representar gráficamente. Los principales
tipos son:
a) Diagrama de barras: se colocan en el eje de abscisas los valores de la variable
xi y en el eje de ordenadas los valores de sus frecuencias fi y dibujamos barras
de igual anchura cuya altura sea exactamente la frecuencia.
Se usa para variables cualitativas o cuantitativas discretas.
b) Histogramas: Se usan para las variables estadísticas cuantitativas continuas,
En el eje vertical se representan las frecuencias. Cuando el ancho de las barras
no es el mismo, lo que marca la frecuencia no es la altura de cada barra, sino
el área de la misma.
c) Polígono de frecuencias: Se obtienen si unimos los puntos medios de las
bases superiores de las barras en un histograma.
9
d) Polígono de frecuencias acumuladas: Si se representan las frecuencias
acumuladas (ojiva) de una tabla de datos agrupados se obtiene el histograma
de frecuencias acumuladas o su correspondiente polígono.
e) Diagrama de sectores: se obtiene dividiendo la circunferencia en tantas partes
como valores tenga la variable, de manera que el área de cada sector circular
obtenido sea proporcional a la respectiva frecuencia.
f)
Pictogramas: Es como el diagrama de barras, donde se sustituyen las barras
por un dibujo de altura proporcional a las frecuencias y que hace más intuitiva
la interpretación de los resultados.
g) Pirámide de población: Se utiliza este procedimiento para comparar las
características más relevantes de la población de un Estado, provincia, etc, y
sus variaciones en un determinado tiempo.
h) Cartogramas: Son representaciones gráficas de unidades geográficas,
diferenciadas por colores, rayas o puntos.
i)
Diagrama de cajas y bigotes (boxplot o box and whiskers ): Es un gráfico que
visualiza la mediana y los cuartiles, de manera que nos permita hacer un
análisis rápido de la manera que se distribuyen los datos de la variable
estadística. Sobre una recta se representan: el dato más pequeño, el primer
cuartil, la mediana, el tercer cuartil y el mayor dato. Se le da una forma que
recuerda a dos cajas con dos segmentos (bigotes) a izquierda y derecha. Cada
uno de estos cuatro elementos incluirá un 25% del total de los datos, por lo
que la longitud de los mismos mostrará la dispersión o acumulación de datos
en cada zona. Si alguno de estos elementos tiene mayor longitud, indicará que
los datos están más dispersos en esta gama de valores, mientras que una
menor longitud indicará que están más concentrados
10
ESTADÍSTICA INFERENCIAL
La estadística inferencial se encarga de extraer conclusiones acerca de la población a partir de
los resultados obtenidos en la muestra. (Inferir= sacar una consecuencia o deducir una cosa de
otra)
A partir de la información obtenida de la muestra, se deben obtener las conclusiones acerca de
la población de la forma más coherente posible, y además, con un cierto grado de confianza.
De entrada hay que aclarar que el concepto de población no se refiere necesariamente a
individuos, simplemente se refiere a un conjunto de datos que, en muchas ocasiones, es muy
costoso o engorroso conocer en su totalidad. En la práctica lo que hay que hacer es recabar
aleatoriamente sólo algunos de los datos, es decir, elegir una muestra, este proceso se
denomina muestreo. La buena elección de la muestra es un elemento decisivo para que pueda
representar con garantías a toda la población.
Una vez elegida la muestra pasaríamos a obtener sus parámetros: media, varianza, mediana,
cuartiles, etc.
Lo que nos interesa es cómo extrapolar los parámetros muestrales a toda la población. Los
estimadores insesgados que emplearemos son los siguientes:

̅)
Para estimar la media poblacional (μ) se utiliza la media muestral (𝒙
̅=
𝝁≈𝒙

∑𝒌𝒊=𝟏 𝒙𝒊 𝒇𝒊
𝒏
Para estimar la desviación típica poblacional (σ) se utiliza la cuasi-desviación típica
media muestral (𝒔𝒏−𝟏 )
̅ ) 𝟐 𝒇𝒊
∑𝒌
𝒊=𝟏(𝒙𝒊 −𝒙
𝝈 ≈ 𝒔𝒏−𝟏 = √
𝒏−𝟏
, siendo 𝑛 = ∑𝑘𝑖=1 𝑓𝑖
Nota: cuando se hagan los cálculos a mano, hay que tener cuidado con la cuasi-desviación
típica, ya que mientras que con la desviación típica hay dos fórmulas alternativas que son
equivalentes, no sucede lo mismo con la cuasi-desviación típica. Ahora bien, si se desea un
cálculo cómodo, se puede emplear la fórmula:
𝒔𝟐𝒏−𝟏 =
𝑛
𝑛−1
∙ 𝑠𝑛2
La información del conjunto de datos que podríamos obtener sabiendo su media y su
desviación típica, si el número de datos es suficientemente alto, es el siguiente: en el intervalo
(𝝁 − 𝝈, 𝝁 + 𝝈) incluiría en su interior a un porcentaje sustancial del total de los datos
(aproximadamente el 73%).
11
COMBINATORIA
Principio de multiplicación: Si hay n1 opciones de elegir un objeto, n2 opciones de elgir un
segundo objeto, n3 opciones de elegir un tercero, etc, y para elegir un enésimo hay nn
opciones, el número total de maneras de elegir los distintos objetos es:
𝑛1 ∙ 𝑛2 ∙ 𝑛3 ∙ … ∙ 𝑛𝑛
Factorial de un número: 𝑛! = 𝑛 ∙ (𝑛 − 1) ∙ (𝑛 − 2) ∙ … ∙ 3 ∙ 2 ∙ 1
Variaciones ordinarias o variaciones sin repetición de m elementos tomados de n en n
(𝑛 ≤ 𝑚), los distintos grupos que se pueden tomar con los m elementos, de manera que:


En cada grupo entran n elementos distintos.
Dos grupos son distintos si difieren en algún elemento o en el orden de colocación.
𝑉𝑚𝑛 = 𝑉𝑚,𝑛 = 𝑚
⏟ ∙ (𝑚 − 1). (𝑚 − 2) ∙ … (𝑚 − 𝑛 + 1) =
𝑛 𝑓𝑎𝑐𝑡𝑜𝑟𝑒𝑠 𝑑𝑒𝑐𝑟𝑒𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑐𝑜𝑛𝑠𝑒𝑐𝑢𝑡𝑖𝑣𝑜𝑠
𝑚!
(𝑚 − 𝑛)!
Variaciones con repetición de m elementos tomados de n en n, los distintos grupos que se
pueden formar con los m elementos de manera que:


En cada grupo entran n elementos repetidos o no.
Dos grupos son distintos si difieren en algún elemento o en el orden de colocación de
los mismos.
𝑽𝑹𝒎,𝒏 = ⏟
𝒎 ∙ 𝒎 ∙ 𝒎 ∙ … ∙ 𝒎 = 𝒎𝒏
𝒏 𝒇𝒂𝒄𝒕𝒐𝒓𝒆𝒔
Permutaciones ordinarias de n elementos son los distintos grupos que se pueden formar de
manera que:


En cada grupo estén los n elementos.
Un grupo se difiere de otro únicamente en el orden de colocación de los elementos.
El nº de permutaciones ordinarias de n elementos, Pn, coincide con Vn,n
𝑷𝒏 = 𝒏! = 𝒏 ∙ (𝒏 − 𝟏) ∙ (𝒏 − 𝟐) ∙ … ∙ 𝟑 ∙ 𝟐 ∙ 𝟏
Permutaciones circulares: 𝑷𝑪𝒏 = 𝑷𝒏−𝟏 = (𝒏 − 𝟏)!
Permutaciones con repetición de n elementos donde el primer elemento se repite n1 veces; el
segundo, n2 veces;…; el último nk veces (donde n1+n2+...+nk=n), son los distintos grupos que se
pueden formar de manera que:


En cada grupo de n elementos, el primer elemento está n1 veces, el segundo n2 veces,
etc.
Un grupo se difiere de otro únicamente por el orden de colocación de sus elementos.
12
𝒏 ,𝒏𝟐 …𝒏𝒌
𝑷𝒏𝟏
=
𝒏!
𝒏𝟏 ! 𝒏𝟐 ! … 𝒏𝒌 !
Combinaciones ordinarias o sin repetición de m elementos tomados de n en n (𝑛 ≤ 𝑚) son
los distintos grupos que se pueden tomar con los m elementos, de manera que:


En cada grupo entran n elementos distintos.
Dos grupos son distintos si difieren en algún elemento, pero no en el orden de
colocación.
𝑪𝒎,𝒏
𝑚!
𝑽𝒎,𝒏 (𝑚 − 𝑛)!
𝒎!
=
=
=
(𝒎 − 𝒏)! 𝒏!
𝑷𝒏
𝑛!
Combinaciones con repetición de m elementos tomados de n en n son los distintos grupos
que se pueden formar con los m elementos de manera que:


En cada grupo entran n elementos repetidos o no.
Dos grupos son distintos si difieren en algún elemento, pero no en el orden de
colocación.
𝑪𝑹𝒎,𝒏 = 𝑷𝑹𝒏.𝒎−𝟏
𝒎+𝒏−𝟏 =
(𝒎 + 𝒏 − 𝟏)!
= 𝑪𝒏+𝒎−𝟏,𝒏
𝒏! (𝒎 − 𝟏)!
Números combinatorios.
Dados dos números naturales no nulos m y n, siendo 𝑚 ≥ 𝑛, se denomina número
combinatorio (𝒎
) y se lee “m sobre n” a:
𝒏
𝒎
𝒎!
( )=
𝒏
𝒏! (𝒎 − 𝒏)!
Observamos que (𝒎
) = 𝑪𝒎,𝒏
𝒏
Propiedades de los números combinatorios.
1. (𝒎
) = (𝒎
)=𝟏
𝟎
𝒎
𝒎
2. (𝒎
) = (𝒎−𝒏
)
𝒏
𝒎
3. (𝒎
) + (𝒏+𝟏
) = (𝒎+𝟏
)
𝒏
𝒏+𝟏
4. (𝒎
) + (𝒎
) + (𝒎
) + ⋯ + (𝒎
) = 𝟐𝒏
𝟎
𝟏
𝟐
𝒎
Triángulo de Pascal o de Tartaglia.
Si se colocan los números combinatorios en la forma
1
1
( ) ( )
0
1
2
2
2
( ) ( ) ( )
0
1
2
3
3
3
3
( ) ( ) ( ) ( )
0
1
2
3
13
Al aplicar las propiedades de los números combinatorios se obtiene un triángulo numérico
llamado de Pascal, que verifica:



Todas las filas empiezan y terminan en 1.
Las filas son simétricas.
Un número de una fila se consigue sumando los dos números que están por encima de
él.
 La suma de todos los números de una fila es igual a 2n.
1 1
1 2 1
1 3 3 1
1 4 6 4 1
… … … … … …
Binomio de Newton.
𝒏
𝒏
𝒏
𝒏
(𝒂 + 𝒃)𝒏 = ( ) 𝒂𝒏 + ( ) 𝒂𝒏−𝟏 𝒃 + ( ) 𝒂𝒏−𝟐 𝒃𝟐 + ⋯ + ( ) 𝒃𝒏
𝟎
𝟏
𝟐
𝒏
14
SUCESOS ALEATORIOS. PROBABILIDAD
𝑫𝒆𝒕𝒆𝒓𝒎𝒊𝒏𝒊𝒔𝒕𝒂: aquel del que se puede predecir el resultado
Experimentos {
𝑨𝒍𝒆𝒂𝒕𝒐𝒓𝒊𝒐: aquel que no se puede predecir el resultado
Espacio Muestral: dada una experiencia aleatoria, se denomina Espacio Muestral al conjunto
de los resultados posibles de dicha experiencia. También se le puede llamar Universo (E).
Suceso: cada subconjunto del Espacio Muestral se denomina suceso. En consecuencia cada
suceso será la agrupación de algunos, desde ninguna a todos, de los resultados posibles.
Existen diferentes tipos de sucesos:
 Suceso imposible (∅), es el suceso cuando no se elige ningún resultado, el que no se
verifica nunca.
 Suceso seguro (E), es el suceso que contiene a todos los resultados posibles,
coincidiendo con el espacio muestral. Se verifica siempre.
 Suceso elemental: si contiene a uno solo de los resultados posibles del experimento.
 Suceso compuesto: es aquél que está formado por más de un resultado del
experimento aleatorio.
 Suceso contrario o complementario: dos sucesos son contrarios o complementarios si
la verificación de uno implica la no verificación del otro. El contrario del suceso A se
representa con 𝐴̅ o bien A´.
 Sucesos incompatibles: son aquellos que no se pueden verificar a la vez, es decir si
𝑨 ∩ 𝑩 = ∅. También se denominan mutuamente excluyentes.
Operaciones con sucesos
 Unión de sucesos: dados dos sucesos A y B, el suceso unión, 𝑨 ∪ 𝑩, es aquél que se
verifica si lo hacen al menos uno de los dos sucesos A o B.
 Intersección de sucesos: dados dos sucesos A y B, el suceso intersección, 𝑨 ∩ 𝑩, aquél
que se verifica si lo hacen A y B al mismo tiempo.
 Diferencia de sucesos: Si A y B son dos sucesos se define su diferencia como: 𝑨 −
̅
𝑩=𝑨∩𝑩
Se verifica que: 𝐴̅ = 𝐸 − 𝐴
Es habitual visualizar estas operaciones mediante diagramas de Venn, por tratarse de
conjuntos.
Propiedades de las operaciones con sucesos
PROPIEDADES
Asociativa
Conmutativa
Idempotente
Simplificativa
Absorción
Elemento neutro
Complementación
Distributiva
LEYES DE MORGAN
UNIÓN
𝑨 ∪ (𝑩 ∪ 𝑪) = (𝑨 ∪ 𝑩) ∪ 𝑪
𝑨∪𝑩 =𝑩∪𝑨
𝑨∪𝑨=𝑨
𝑨 ∪ (𝑨 ∩ 𝑩) = 𝑨
𝑨∪𝑬=𝑬
𝑨∪∅=𝑨
̅=𝑬
𝑨∪𝑨
𝑨 ∪ (𝑩 ∩ 𝑪) = (𝑨 ∪ 𝑩) ∩ (𝑨 ∪ 𝑪)
̅̅̅̅̅̅̅̅
̅∩𝑩
̅
𝑨∪𝑩=𝑨
INTERSECCIÓN
𝑨 ∩ (𝑩 ∩ 𝑪) = (𝑨 ∩ 𝑩) ∩ 𝑪
𝑨∩𝑩 =𝑩∩𝑨
𝑨∩𝑨=𝑨
𝑨 ∩ (𝑨 ∪ 𝑩) = 𝑨
𝑨∩∅=∅
𝑨∩𝑬=𝑨
̅=∅
𝑨∩𝑨
𝑨 ∩ (𝑩 ∪ 𝑪) = (𝑨 ∩ 𝑩) ∪ (𝑨 ∩ 𝑪)
̅̅̅̅̅̅̅̅
̅∪𝑩
̅
𝑨∩𝑩=𝑨
15
DEFINICIÓN DE PROBABILIDAD
𝑛
Cuando repetimos un experimento aleatorio muchas veces, la frecuencia relativa = 𝑛𝐴 , donde
𝑛 = 𝑛º 𝑑𝑒 𝑣𝑒𝑐𝑒𝑠 𝑞𝑢𝑒 𝑜𝑐𝑢𝑟𝑟𝑒 𝑒𝑙 𝑠𝑢𝑐𝑒𝑠𝑜 𝐴
, de un suceso A tiende a aproximarse a un
{ 𝐴
𝑛 = 𝑛º 𝑑𝑒 𝑣𝑒𝑐𝑒𝑠 𝑞𝑢𝑒 𝑠𝑒 ℎ𝑎𝑐𝑒 𝑒𝑙 𝑒𝑥𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜
valor fijo, ese valor se define como probabilidad del suceso A, y se nota P(A).
DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD
Otra forma de definir la probabilidad está basada en unos principios tan claros y evidentes que
son admitidos sin necesidad de demostración, son los axiomas de probabilidad:
 Axioma 1: 𝟎 ≤ 𝑷(𝑨) ≤ 𝟏, siendo A cualquier suceso
 Axioma 2: 𝑷(∅) = 𝟎 𝑦 𝑷(𝑬) = 𝟏
 Axioma 3: Si A y B son dos sucesos incompatibles, es decir, 𝐴 ∩ 𝐵 = ∅, se verifica que
𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)
Consecuencias:
̅ ) = 𝟏 − 𝑷(𝑨)
 𝑷(𝑨
 𝑷(𝑨 ∪ 𝑩) = 𝑷(𝑨) + 𝑷(𝑩) − 𝑷(𝑨 ∩ 𝑩)
 𝑷(𝑨 ∪ 𝑩 ∪ 𝑪) = 𝑷(𝑨) + 𝑷(𝑩) + 𝑷(𝑪) − 𝑷(𝑨 ∩ 𝑩) − 𝑷(𝑨 ∩ 𝑪) − 𝑷(𝑩 ∩ 𝑪) + 𝑷(𝑨 ∩ 𝑩 ∩ 𝑪)
Regla de Laplace
Para poder aplicar esta regla, los diferentes sucesos elementales del experimento aleatorio
tienen que ser equiprobables, es decir, que todos tengan la misma probabilidad.
La probabilidad de un suceso A es igual al cociente entre el número de casos favorables al
suceso A y el número de casos posibles.
𝑷(𝑨) =
𝑵º 𝒅𝒆 𝒄𝒂𝒔𝒐𝒔 𝒇𝒂𝒗𝒐𝒓𝒂𝒃𝒍𝒆𝒔 𝒂𝒍 𝒔𝒖𝒄𝒆𝒔𝒐 𝑨
𝑵º 𝒅𝒆 𝒄𝒂𝒔𝒐𝒔 𝒑𝒐𝒔𝒊𝒃𝒍𝒆𝒔
Probabilidad condicionada
La probabilidad de que ocurra un suceso B una vez ha ocurrido el suceso A, se representa por
P(B/A) y se calcula así:
𝑃(𝐵⁄𝐴) =
P(A∩B)
P(A)
, siendo P(A)>0
De la expresión anterior se deduce que :
𝑃(𝐴 ∩ 𝐵) = 𝑃 (𝐵⁄𝐴) ∙ P(A) = P (A⁄B) ∙ P(B)
Propiedades de la probabilidad condicionada
1) 𝑷 (∅⁄𝑨) = 0
2) 𝑷(𝑨⁄𝑨) = 𝟏
̅⁄ ) = 𝟏 − 𝑷(𝑩⁄
3) 𝑷 (𝑩
si P(A)>0
𝑨
𝑨)
Sucesos independientes: dos sucesos son independientes A y B cuando el primer suceso A no
influye en el resultado del segundo suceso B, es decir:
16
P(A⁄B) = P(A)
y
𝑃(𝐵⁄𝐴) = P(B)
4) Si A y B son independientes: 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ∙ P(B)
Pruebas compuestas
Hay experiencias en las que fácilmente podemos distinguir dos o más etapas de experiencias
aleatorias simples, se llaman experiencias aleatorias compuestas..
Dos pruebas compuestas son independientes cuando el resultado de una no influye en la otra
(lanzamiento de una moneda y de un dado a la vez). Si no es así se dice que son dependientes
(sacar dos cartas de una baraja sin reemplazamiento).
Diagramas de árbol: Cuando se quiere calcular la probabilidad de sucesos de experimentos
compuestos son muy útiles los diagramas de árbol cuyas ramas nos indican las distintas
posibilidades.
Ejemplo: Una universidad está formada por tres facultades: la 1ª con el 50% de estudiantes; la
2ª con el 25% de estudiantes y la 3ª con el 25% de estudiantes. Las mujeres están repartidas
uniformemente, siendo un 60% del total en cada facultad.
Probabilidad total
Sean n sucesos A1, A2, A3,…,An incompatibles dos a dos con 𝐴1 ∪ 𝐴2 ∪ 𝐴3 ∪ … ∪ 𝐴𝑛 = 𝐸 y un
suceso cualquiera B del espacio muestral. Se denomina probabilidad total del suceso B:
𝑃(𝐵) = 𝑃(𝐴1 ) ∙ 𝑃(𝐵⁄𝐴) + 𝑃(𝐴2 ) ∙ 𝑃 (𝐵⁄𝐴 ) + ⋯ + 𝑃(𝐴𝑛 ) ∙ 𝑃 (𝐵⁄𝐴 )
1
2
𝑛
Teorema de Bayes
Sean n sucesos A1, A2, A3,…,An incompatibles dos a dos con 𝐴1 ∪ 𝐴2 ∪ 𝐴3 ∪ … ∪ 𝐴𝑛 = 𝐸 y un
𝐴
suceso cualquiera B del espacio muestral. Las probabilidades a posteriori 𝑃 ( 𝑖⁄𝐵) se
determinan mediante la expresión:
𝑩
𝑷(𝑨𝒊 )∙𝑷( ⁄𝑨 )
𝑷(𝑨𝒊 ∩𝑩)
𝑨
𝒊
𝑷 ( 𝒊⁄𝑩) = 𝑷(𝑩)
=
siendo P(B)>0
𝑷(𝑩)
DISTRIBUCIONES DE PROBABILIDAD
17
Variable aleatoria: se llama variable aleatoria a toda función definida en el espacio muestral
de un experimento aleatorio que asocia a cada elemento del espacio un número real. Por
abuso del lenguaje, es frecuente confundir la función con el conjunto de los valores del
recorrido de la función.
𝑫𝒊𝒔𝒄𝒓𝒆𝒕𝒂: 𝑠𝑜𝑙𝑜 𝑝𝑢𝑒𝑑𝑒 𝑡𝑜𝑚𝑎𝑟 𝑐𝑖𝑒𝑟𝑡𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑎𝑖𝑠𝑙𝑎𝑑𝑜𝑠
Variables aleatorias {
𝑪𝒐𝒏𝒕𝒊𝒏𝒖𝒂: 𝑐𝑢𝑎𝑛𝑑𝑜 𝑝𝑢𝑒𝑑𝑒 𝑡𝑜𝑚𝑎𝑟 𝑙𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑒 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜
Variable aleatoria discreta{
𝑭𝒊𝒏𝒊𝒕𝒂: 𝑡𝑜𝑚𝑎 𝑢𝑛 𝑛º 𝑙𝑖𝑚𝑖𝑡𝑎𝑑𝑜 𝑑𝑒 𝑣𝑎𝑙𝑜𝑟𝑒𝑠
𝑰𝒏𝒇𝒊𝒏𝒊𝒕𝒂: 𝑠𝑖 𝑝𝑢𝑒𝑑𝑒 𝑡𝑜𝑚𝑎𝑟 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑖𝑠𝑡𝑖𝑛𝑡𝑜𝑠
Función de probabilidad de una variable aleatoria discreta X: es la aplicación o función que
asocia a cada valor de la variable xi su probabilidad pi. 𝑃(𝑋 = 𝑥𝑖 ) = 𝑝𝑖
Propiedades de la función de probabilidad
1) 𝟎 ≤ 𝒑𝒊 ≤ 𝟏 𝑝𝑎𝑟𝑎 𝑖 = 1,2, … , 𝑛
2) ∑𝒏𝒊=𝟏 𝒑𝒊 = 𝟏
3) 𝑷(𝒂 ≤ 𝑿 ≤ 𝒃) = 𝑷(𝑿 = 𝒂) + 𝑷(𝑿 = 𝒂 + 𝟏) + ⋯ + 𝑷(𝑿 = 𝒃 − 𝟏) + 𝑷(𝑿 = 𝒃)
4) 𝑷(𝑿 ≤ 𝒃) = 𝟏 − 𝑷(𝑿 > 𝑏)
Media y varianza de una variable aleatoria discreta
Si X es una variable aleatoria que toma los valores x1, x2, x3, …,xn con probabilidades p1, p2, …,
pn respectivamente, se tiene:
𝒏
𝒏
𝑴𝒆𝒅𝒊𝒂 𝒐 𝒆𝒔𝒑𝒆𝒓𝒂𝒏𝒛𝒂 𝒎𝒂𝒕𝒆𝒎á𝒕𝒊𝒄𝒂: 𝝁 = 𝑬(𝑿) = ∑ 𝒙𝒊 ∙ 𝒑𝒊 = ∑ 𝒙𝒊 ∙ 𝑷(𝑿 = 𝒙𝒊 )
𝒊=𝟏
𝒊=𝟏
𝒏
𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂: 𝝈𝟐 = 𝑽𝒂𝒓(𝑿) = ∑ 𝒙𝟐𝒊 ∙ 𝒑𝒊 − 𝝁𝟐 = 𝑬(𝑿 − 𝝁)𝟐 = 𝑬(𝑿𝟐 ) − [𝑬(𝑿)]𝟐
𝒊=𝟏
{
Función de densidad de una variable aleatoria continua
Una función 𝑓(𝑥) es admisible como función de densidad de una variable aleatoria continua
si:
 𝑓(𝑥) ≥ 0 en todo el dominio de definición
 El área limitada por la gráfica de 𝑓(𝑥) y por el eje X es igual a 1
 La probabilidad 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) coincidirá con el área bajo la curva en el intervalo
[𝑎, 𝑏],es decir:
𝑏
𝑃(𝑎 ≤ 𝑥 ≤ 𝑏) = ∫ 𝑓(𝑥)𝑑𝑥
𝑎
18
Media y varianza de una variable aleatoria continua
+∞
𝑴𝒆𝒅𝒊𝒂 𝒐 𝒆𝒔𝒑𝒆𝒓𝒂𝒏𝒛𝒂: 𝑬(𝑿) = 𝝁 = ∫
𝒙𝒇(𝒙)𝒅𝒙
−∞
+∞
+∞
𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂: 𝑽𝒂𝒓(𝑿) = ∫ (𝒙 − 𝝁)𝟐 𝒇(𝒙)𝒅𝒙 = ∫ 𝒙𝟐 𝒇(𝒙)𝒅𝒙 − 𝝁𝟐
−∞
−∞
{
Las tres distribuciones más frecuentes y más sencillas son:
DISTRIBUCIÓN BINOMIAL B(n,p)
Se trata del ejemplo de distribución de variable aleatoria discreta finita. Debe tener unas
características muy precisas, éstas son:
1. En cada prueba del experimento solo son posibles dos resultados, el suceso A, que se
llama éxito, y su contrario 𝐴̅= A´, al que se llama fracaso.
2. El resultado obtenido en cada prueba es independiente de los resultados obtenidos en
las pruebas anteriores.
3. La probabilidad del suceso A es constante, por tanto, no varía de una prueba a otra. Se
representa por p, la probabilidad de A, y por q=1-p la probabilidad de 𝐴̅= A´.
𝑃(𝐴) = 𝑝
𝑃(𝐴̅) = 1 − 𝑝 = 𝑞
La variable X, que representa el número de éxitos obtenidos en n pruebas, se denomina
variable aleatoria binomial. Esta variable es discreta, ya que si se realizan n pruebas se podrán
obtener 0,1,2,…,n éxitos.
Una distribución binomial se caracteriza por los parámetros número de pruebas, n, y la
probabilidad del suceso éxito, p. Se representa por: B(n,p)
Función de probabilidad de una distribución binomial:
𝒏
𝑷(𝒐𝒃𝒕𝒆𝒏𝒆𝒓 𝒓 é𝒙𝒊𝒕𝒐𝒔) = 𝑷(𝑿 = 𝒓) = ( ) ∙ 𝒑𝒓 ∙ 𝒒𝒏−𝒓
𝒓
Media, varianza y desviación típica de la distribución binomial:
𝑴𝒆𝒅𝒊𝒂: 𝝁 = 𝒏𝒑
𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂: 𝝈𝟐 = 𝒏𝒑𝒒
𝑫𝒆𝒔𝒗𝒊𝒂𝒄𝒊ó𝒏 𝒕í𝒑𝒊𝒄𝒂 = 𝝈 = √𝒏𝒑𝒒
{
DISTRIBUCIÓN DE POISSON 𝑷𝒐 (𝒎)
Se trata del ejemplo de distribución de variable aleatoria discreta infinita. También se le llama
la distribución de las pequeñas probabilidades, ya que tendremos en realidad infinitos valores
positivos que suman 1, por lo que salvo unos pocos, la gran mayoría de las probabilidades
deben ser muy pequeñas, prácticamente despreciables.
Se aplica en aquellos casos en los que estudiamos el número de veces que se cumple una
proposición, y aunque lo previsible es que esta cifra se sitúe en torno a un cierto valor m
esperado de cumplimientos, podría suceder desde que no se cumpliese nunca hasta que se
cumpliese un número infinito de veces.
19
Los valores cercanos a m tendrán una probabilidad estimable, pero cuanto más se alejen de
ese valor (m), más pequeñas serán sus probabilidades.
La distribución de Poisson parece una aproximación de una binomial cuando se observa el
número de éxitos en la realización de un número muy elevado de experimentos
independientes, en los que la probabilidad de éxito es muy pequeña, es decir, cuando n es
grande y p muy pequeña.
Si X= B(n,p)
lim 𝑃(𝑋 = 𝑥) = 𝑛→∞
lim 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 =
𝑛→∞
𝑝→0
𝑝→0
𝑒 −𝑚 ∙𝑚𝑥
,
𝑥!
siendo m=np
Función de probabilidad de una distribución de Poisson de parámetro m
𝑷(𝑿 = 𝒙) =
𝒆−𝒎 ∙𝒎𝒙
𝒙!
con x=0,1,2,3,……
( al parámetro m se le suele designar también por λ)
Media, varianza y desviación típica de la distribución de Poisson:
𝑴𝒆𝒅𝒊𝒂: 𝝁 = 𝒎
{ 𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂: 𝝈𝟐 = 𝒎
𝑫𝒆𝒔𝒗𝒊𝒂𝒄𝒊ó𝒏 𝒕í𝒑𝒊𝒄𝒂 = 𝝈 = √𝒎
Propiedad:
 La suma de varias distribuciones de Poisson independientes, es otra distribución de
Poisson cuyo parámetro es suma de los parámetros.
Esto se suele emplear cuando se repite la experiencia aleatoria de Poisson n veces,
pudiendo emplear la fórmula de Poisson con parámetros nm ( o bien nλ).
Algunos ejemplos en los que aparece la distribución de Poisson:
 El número de coches que pasan por cierto punto en una carretera.
 El número de llamadas telefónicas en una centralita por minuto.
DISTRIBUCIÓN NORMAL N(μ,σ)
Se trata del ejemplo más conocido de variable aleatoria continua. Se ha comprobado que en
infinidad de experiencias aleatorias sus distribuciones de probabilidad tienden a este perfil.
Su función de densidad tiene forma acampanada:
𝒇(𝒙) =
𝟏
𝝈√𝟐𝝅
𝟏 𝒙−𝝁 𝟐
)
𝝈
𝒆− 𝟐 (
conocida por función de Gauss
Media, varianza y desviación típica de N (μ,σ)
𝑴𝒆𝒅𝒊𝒂: 𝝁
{ 𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂: 𝝈𝟐
𝑫𝒆𝒔𝒗𝒊𝒂𝒄𝒊ó𝒏 𝒕í𝒑𝒊𝒄𝒂 = 𝝈
Características de la función de densidad de la N(μ,σ)
 Dominio a campo de existencia: toda la recta real.
20





Simetría: la función es simétrica respecto de la recta vertical 𝒙 = 𝝁
Máximo: la función presenta un máximo en 𝒙 = 𝝁
Puntos de inflexión: en 𝒙 = 𝝁 − 𝝈 y 𝒙 = 𝝁 + 𝝈
Área encerrada bajo la curva y el eje de abscisas es igual a la unidad (1)
Al ser simétrica respecto a la recta 𝒙 = 𝝁 , dicho eje deja un área de 0,5 a cada lado.
La forma de la campana de Gauss depende de los parámetros μ y σ. La media μ
determina el centro de la distribución, y la desviación típica σ expresa la concentración
de los datos de la distribución alrededor de la media. Cuanto más estilizada sea la
campana, más baja será la desviación típica, y cuanto más aplanada, más alta será la
desviación típica. El área encerrada bajo la curva siempre es igual a 1
Distribución normal estándar: N(0,1)
𝒇(𝒙) =
𝟏
√𝟐𝝅
𝒙𝟐
𝒆− 𝟐
La distribución N(0,1), se representa por Z, se encuentra tabulada en tablas. Al resto de las
normales N(μ,σ) se las nombra con la letra X.
La tabla de la N(0,1) y algunas calculadoras nos dan el valor bajo la campana desde el extremo
izquierdo hasta un concreto valor de z de la variable aleatoria. Esto es:
𝑭(𝒛) = 𝑷[−∞ < 𝑍 ≤ 𝑧]
Por tanto:
 𝑷[𝒁 > 𝑧] = 𝟏 − 𝑭(𝒛)

𝑷[𝒛𝟏 < 𝑍 ≤ 𝒛𝟐 ] = 𝑭(𝒛𝟐 ) − 𝑭(𝒛𝟏 )

𝑷[𝒁 ≤ −𝒛] = 𝟏 − 𝑭(𝒛)

𝑷[𝒁 > −𝒛] = 𝑭(𝒛)

𝑷[−𝒛𝟏 < 𝑍 ≤ −𝒛𝟐 ] = 𝑭(𝒛𝟏 ) − 𝑭(𝒛𝟐 )

𝑷[−𝒛𝟏 < 𝑍 ≤ 𝒛𝟐 ] = 𝑭(𝒛𝟐 ) − (𝟏 − 𝑭(𝒛𝟏 ))
21
También con la tabla o la calculadora se puede hacer una búsqueda inversa, esto es, conocida
la probabilidad, hallar la abscisa correspondiente.
Tipificación de variables
Para tipificar cualquier distribución normal, es decir reducirla a una N(0,1) se hace el siguiente
cambio de variable: 𝒁 =
𝑿−𝝁
𝝈
. De esta forma:
𝑷[𝑿 ≤ 𝒙] = 𝑷 [
𝑿−𝝁 𝒙−𝝁
𝒙−𝝁
𝒙−𝝁
≤
)
] = 𝑷 [𝒁 ≤
] = 𝑭(
𝝈
𝝈
𝝈
𝝈
22