Download Transmisión Digital 6

Document related concepts
no text concepts found
Transcript
Referencia: Capítulo 6: Probabilidades y Procesos Estocásticos del
libro Contemporary Communication Systems 1st Edition by M.
Farooque Mesiya (Author)
6.1 Conceptos de la Teoría de Probabilidades
El concepto fundamental en la teoría de probabilidades es el
concepto del experimento aleatorio. Esto es, hacemos un
experimento pero no podemos predecir con certeza cuál va a ser el
resultado. Por ejemplo, si tiramos una moneda al aire y luego la
capturamos, sabemos que el resultado o será cara o será cruz, pero
no podemos predecir con certeza cuál de los dos resultados vamos a
obtener.
Conceptos fundamentales de probabilidad:
 Outcome () o resultado – Es el resultado de un experimento
aleatorio.
 Sample space () – Es el conjunto de todos los posibles
resultados de un experimento aleatorio.
 Evento (A) – Cualquier colección de resultados. En otras
palabras, un subconjunto del sample space 
 El subconjunto vacío  es el evento nulo o imposible, y el
conjunto completo  es el evento seguro o el evento del todo.
6.1.1 Frecuencia Relativa
Aunque el resultado de un experimento aleatorio no es predecible, sí
es posible esperar cierta regularidad estadísticas en los resultados.
Por ejemplo, si tiramos una moneda al aire un número grande de
2
veces, esperaríamos que aproximadamente la mitad de las veces el
resultado sea cara.
La frecuencia relativa de ocurrencia de un evento A se define como
f(A) =
nA
n
donde nA es el número de veces en que el evento A ocurre en n
intentos. Si el número de intentos es pequeño, f(A) puede fluctuar.
Sin embargo, según n tiende a infinito, f(A) es constante.
Usando el concepto de relativa frecuencia de ocurrencia podemos
definir la probabilidad de que ocurra el evento A como
P(A) = nlim

nA
n
6.1.2 Axiomas de la Teoría de Probabilidades
La probabilidad de que un evento A ocurra es una función denotada
como P(A) que a cada evento A del sample space  le asigna un
número real de forma que:
1. 0 < P(A) < 1
2. P() = 1
3. Si los eventos son mutuamente exclusivos, esto es, que no
pueden ocurrir simultáneamente, entonces la probabilidad de
que ocurra la unión de los eventos es igual a la suma de la
probabilidades. Esto es,
3
P(A1 U A2 U ... An) = P(A1 ) U P(A2 ) U ... P(An)
4. P() = 0
__
__
5. P( A ) = 1 – P(A), donde A es el complemento de A.
6. P(A) < P(B) si A es un subconjunto de B.
7. Si los evento A y B no son mutuamente exclusivos, entonces
P(A U B) = P(A) + P(B) – P(A  B) = P(AB)
8. Si los eventos A1, A2, . . . , An no son mutuamente exclusivos,
entonces
P(A1 U A2 U . . . U An) < P(A1) + P(A2) + . . . + P(An)
Ejemplo:
Supongamos que echamos a rodar un dado de 6 caras. El resultado
será el número de puntos que aparezca en la cara del tope. Calcule
las siguientes probabilidades:
a) Cada posible resultado
b) El número de puntos sea impar.
c) El total de puntos es un número menor de 4.
Solución:
Primero definamos el sample space  = {1,2,3,4,5,6}.
a) Como hay 6 posibles resultados, y todos son equiprobables,
entonces cada posible resultado tiene una probabilidad de 1/6.
4
b) Sea A el evento que consiste de que el número de puntos sea
impar. A = {1, 3, 5}. Como los resultados son mutuamente
exclusivos, P(A) = P(ocurre un 1) + P(ocurre un 3) + P(ocurre
un 5) = 1/6 + 1/6 + 1/6 = 3/6 = ½.
c) A = {1, 2, 3}. Como los resultados son mutuamente
exclusivos, P(A) = P(ocurre un 1) + P(ocurre un 2) + P(ocurre
un 3) = 1/6 + 1/6 + 1/6 = 3/6 = ½.
6.1.4 Probabilidad Condicionada
A la probabilidad de que ocurra el evento A, esto es, P(A), se le
conoce como la probabilidad a priori pues es lo único que sabemos
del evento A antes de que se realice cualquier tipo de experimento.
Hay veces que estamos más interesados en conocer la probabilidad
de que el evento A ocurra dado que otro evento B ya ocurrió. En
dicho caso estamos hablando de la probabilidad de que ocurra el
evento A dado que ya ocurrió el evento B. Esto es, P(A | B), y se
define de la siguiente manera.
P(A | B) =
P( A  B )
P( AB)
=
,
P( B )
P( B )
P(B) > 0
P(A | B) es la probabilidad a posteriori de que ocurra el evento A
dado que ocurrió el evento B. La probabilidad condicionada
restringe el universo de posibles resultados del evento A al
subconjunto B que es parte del sample space .
Ejemplo:
Consideremos un dado con seis caras. Sea A = {al rodar el dado
obtenemos un número de puntos par} y B = {al rodar el dado
5
obtenemos un número de puntos menor o igual a 3}. Calcule P(B),
P(AB) y P(A|B).
Solución:
B = {1, 2, 3} => P(B) = 1/6 + 1/6 + 1/6 = 3/6 = ½.
A = {2, 4, 6}
AB = {2} => P(AB) = 1/6
P(A | B) = probabilidad de que ocurra un 2 dado que ocurrió un 1,
un 2 o un 3 = 1/3.
Podemos obtener el mismo resultado anterior usando la fórmula.
P(A | B) =
P( AB)
P( B )
=
1/ 6
1/ 2
= 2/6 = 1/3
Ley de la Probabilidad Total
La ley de la probabilidad total nos permite calcular la probabilidad
de un evento que puede ocurrir de formas distintas. Si un evento A
ocurre cuando cualquiera de los subeventos B1, B2, . . . , Bk ocurren,
entonces la probabilidad de que ocurra el evento A está dada por
k
P(A) =
 P( A | B ) P( B )
i 1
i
i
donde B1 U B2 U . . . U Bk = .
Ejemplo:
Consideremos un sistema de comunicación digital binario.
Asumamos que, en promedio, el ruido hace que uno de cada 10,000
bits son incorrectamente detectados en el receiver cuando un 1
6
binario es transmitido, y que dos de cada 10,000 bits son
incorrectamente detectados en el receiver cuando un 0 binario es
transmitido. Si los unos y los ceros son equiprobables, calcule la
probabilidad de que ocurra un error en un bit.
Solución:
Sea e el evento que ocurre un error.
P(e) = [P(e | se transmitió un 1) x P(se transmitió un 1)] +
[P(e | se transmitió un 0) x P(se transmitió un 0)]
P(e) = ½(1/10,000) + ½(2/10,000)
P(e) = 1/20,000 + 1/10,000
P(e) = 3/20,000 = 0.00015 = 1.5 x 10-4
En promedio, cada 10,000 bits ocurren 1.5 errores.
Ejemplo:
Si en el ejemplo anterior se hace una prueba de transmisión y
recepción y descubrimos que hay un bit con error. ¿Cuál es la
probabilidad de que el bit con error es un 1 que fue transmitido?
Solución:
Sea B = {se transmitió un 1}.
Nos piden que calculemos P(B | e).
P(B | e) =
P(B | e) =
P ( B  e)
P ( e)
=
(1 / 10,000)(1 / 2)
1.5 x10  4
P( e | B ) P( B )
P ( e)
= 0.333 = 1/3
7
Eventos Independientes
A y B son eventos independientes si
P(AB) = P(A) P(B)
Nunca debemos confundir eventos independientes con eventos
mutuamente exclusivos. Los eventos mutuamente exclusivos no
tienen resultados en común. Esto es, AB =  y P(AB) = 0.
Si A y B son eventos independientes, entonces
P(A | B) =
P( AB)
P( B )
=
P( A) P( B)
P( B )
= P(A)
Como A y B son eventos independientes, el hecho de que B
ocurriera en nada afecta la probabilidad de que ocurra A. Por eso es
que P(A | B) = P(A).
6.2 Variables Aleatorias (Random Variables)
Una variable aleatoria es una regla que a cada posible resultado de
un experimento le asigna un número real.
Esto es, una variable aleatoria es una función que a cada    le
asigna un número real.
8
Ejemplos de variables aleatorias:
 Número de llamadas por segundo que entran a una oficina
central telefónica.
 Número de fotones de luz que recibe un foto detector durante
el intervalo de duración de un bit.
Las variables aleatorias pueden ser discretas, continuas o mixtas.
Denotaremos las variables aleatorias en bold, como por ejemplo, x,
y, y los valores que éstas asuman las denotaremos con las letras
minúsculas x, y.
6.2.1 Variables Aleatorias Discretas
Una variable aleatoria discreta x tan sólo puede asumir un número
finito de valores x1, x2, . . . , xk con probabilidades P{x = xi}, i =1, 2,
. . . , k.
Algunos ejemplos de variables aleatorias discretas:
 El número de paquetes que recibe un router en un intervalo de
tiempo finito.
 El número de chips defectuosos en una oblea semiconductora
(i.e. semiconductor wafer).
Al conjunto de todos los posibles valores Sx = {x1, x2, x3, . . . , xk}
que una variable aleatoria x puede asumir se le conoce como el
range.
El probability mass function (PMF) px(xi) completamente
caracteriza una variable aleatoria discreta, y se define de la siguiente
manera.
9
px(xi) = P{x = xi} = P{x() = xi |   }
Como px(xi) es una probabilidad, 0 < px(xi) < 1 y
p
i
x
( xi ) 
 P( x( )  x
i
| )
=1
i
El cumulative distribution function (CDF) de una variable
aleatoria discreta está definida como
Fx (x ) = P{x < x}
Dado el CDF es posible obtener las probabilidades para la variable
aleatoria discreta.
px(xi) = Fx ( xi ) - Fx ( xi 1 )
La Figura 6.5 muestra el CDF y el PMF de una típica variable
aleatoria discreta.
Podemos observar que para una variable aleatoria discreta el CDF es
en forma de escalera.
10
Figura 6.5: PMF y CDF de una típica variable aleatoria discreta
6.3 Variables Aleatorias Continuas
Una variable aleatoria continua asume un conjunto continuo de
números. El range de una variable aleatoria continua puede incluir la
recta real o un intervalo de la recta. En ambos casos contiene un
número infinito de posibles números.
Las variables aleatorias continuas nos permiten modelar muchos
fenómenos de la vida real. Por ejemplo, el tiempo que nos toma
bajar un archivo de Internet, o el voltaje a través de una resistencia,
o la fase de un carrier emitido por un transmisor.
Una característica que distingue una variable aleatoria continua de
una discreta es que la probabilidad de que un resultado individual
ocurra es cero. Esto es, P{x = x} = 0 donde x es cualquier número en
el range de x.
Contrario al caso de las variables aleatorias discretas en donde el
CDF es en forma de escalera con discontinuidades en cada punto,
para una variable aleatoria continua el CDF es una función continua.
Propiedades de cualquier variable aleatoria continua x:
1. 0 < Fx (x) < 1
Fx (x ) = 0 y lim Fx (x ) = 1
2. xlim
  
x 
3. P{a < x < b} = Fx (b) - Fx (a )
4. Fx (x) es una función no-decreciente (i.e. creciente o
constante).
11
El probability density function (PDF), f x (x) , de una variable
aleatoria x es la derivada del CDF. Esto es,
dFx ( x )
dx
f x (x ) =
De forma equivalente, el CDF de una variable aleatoria continua x
es el integral de su PDF. Esto es,

Fx (a ) =
a

f x ( x)dx
A continuación listamos tres importantes propiedades de los PDF’s.
 f x (x) > 0





b

a
f x ( x)dx = 1
f x ( x)dx = P{a < x < b}
Ejemplo:
El PDF de una variable aleatoria continua está dado por
C e-x para x > 0
f x (x ) =
0
Calcule:
a) El valor de la constante C.
b) El CDF Fx (x)
c) P{0 < x < 5}
Solución:
para x < 0
12
a)





0
f x ( x)dx = 1
Ce x dx = 1

- C e-x |0 = 1
C=1
b)
Fx (x ) =

x

f x (t )dt
Fx (x ) =

x
0
para x > 0
e t dt
Fx (x ) = - e-t
|0x
- e-x + e0 = 1 – e-x para x > 0
Fx (x ) =
0 para x < 0
d)
P{0 < x < 5} = Fx (5) - Fx (0)
P{0 < x < 5} = ( 1 – e-5 ) – 0 = 0.993
6.3.1 Algunas Comunes Variables Aleatorias Continuas
Variable Aleatoria Uniforme
13
x es una variable aleatoria uniforme si su probability density
function está definida de la siguiente forma:
1
ba
si a < x < b
f x (x ) =
0
de lo contrario
La Figura 6.6 muestra el PDF de una variable aleatoria uniforme.
Figura 6.6: PDF de variable aleatoria uniforme
Una variable aleatoria uniforme es una buena selección cuando
todos los posibles resultados de un experimento aleatorio son
equiprobables.
Ejemplo:
La diferencia en fase entre la onda emitida por un transmisor y la
onda sintetizada por el receiver es una variable aleatoria 
uniformemente distribuida entre [-]. Calcule
a) P{ < 0 }
b) P{ < /4 }
Solución:
El PDF está definido de la siguiente forma.
1
2
f x (x ) =
si - < x < 
14
0 de lo contrario
1
0
a) P{ < 0 } =
  2 d

b) P{ < /4 } =
 /4


=

=½
2
5
1
1 
1 5
d =
( - (-)) =
=
8
2
2 4
2 4
Variable Aleatoria Normal o Gaussiana
x es una variable aleatoria normal o Gaussiana si su probability
density function está dada por
f x (x ) =
1
2 x2
e ( x mx )
2
/ 2 x2
donde mx es el valor promedio (i.e. mean), y  x2 es la varianza. x es
la desviación estándar. Esto es, la varianza es el cuadrado de la
desviación estándar.
La desviación estándar es una medida de dispersión con respecto al
valor promedio que pueda asumir la variable aleatoria. Por ejemplo,
una desviación estándar pequeña implica que la mayor parte de los
valores que asume la variable aleatoria se encuentran aglutinados en
la vecindad del valor promedio. En cambio, si la desviación estándar
es grande, entonces podemos esperar que los valores que asume la
variable aleatoria se encuentren bastante desparramados.
2
Una variable aleatoria Gaussiana con promedio mx y varianza  x se
2
denota como N(mx,  x ). La variable aleatoria N(0,1) es conocida
como la variable aleatoria estándar normal.
15
Veamos ahora el cumulative distribution function o CDF para la
variable aleatoria Gaussiana.
Fx (x ) = P{x < x} =

1
x
e ( t mx )
2 x2

2
/ 2 x2
dt
No existe solución en forma cerrada para el anterior integral. Sin
embargo, se puede expresar en términos de la función Q la cual a
continuación definimos.
1
2
Q(a) = P{x > a} =

y /2
 e dy
2
a
La función Q representa el área bajo el pdf de una variable aleatoria
estándar Gaussiana desde a hasta infinito, y sus valores están
tabulados.
A continuación discutiremos algunas importantes propiedades de la
función Q.
Q(0) = ½
Q(-∞) = P{x > -∞} =
Q(-x) =
1
2

e
x
 y2 / 2
dy = 1 -
1
2
1
2
x
e

y /2
 e dy = 1
2

 y2 / 2

Q(-x) = 1 – Q(x)
dy = 1 -
1
2

y /2
 e dy
2
x
16
Regresemos a la ecuación que define el CDF de la variable aleatoria
estándar Gaussiana.

Fx (x ) = P{x < x} =
1
x
e ( t mx )
2 x2

2
/ 2 x2
dt
Hagamos la siguiente sustitución de variables.
t  mx
z=
x
1
dz =
Fx (x ) = P{x < x} =

Fx (x ) = 1 -
dt
x

x mx
x

x mx
x
1
2

e  z / 2 dz
1 z / 2
e dz
2
Fx (x ) = P{x < x} = 1 – Q( x  m x ) = Q( m x  x )
x
x
La variable aleatoria Gaussiana es la variable aleatoria más
frecuentemente utilizada en el análisis y modelaje de los sistemas de
comunicaciones. El ruido termal tiene un pdf Gaussiano.
Ejemplo:
La variable aleatoria Gaussiana x tiene el siguiente pdf.
f x (x ) =
1
30
e ( x 12)
2
/ 30
17
Exprese las siguientes probabilidades en términos de la función Q.
a) P(x < 11)
b) P(10 < x < 12)
c) P(11 < x < 13)
d) P(9 < x < 12)
Solución:
Dado que f x (x) =
1
30
e ( x 12)
2
/ 30
, mx = 12 y 2  x = 30.
2
Por lo tanto,  x2 = 15 y  x = 15 .
a) P(x < 11) = 1 – P(x > 11) = 1 – Q(
11  12
12  11
) = Q(
) = Q(
15
15
1
)
15
b) P(10 < x < 12) = Q(
10  12
2
) – Q(0) = Q(
)–½
15
15
= (1 – Q(
= ½ - Q(
c) P(11 < x < 13) = Q(
2
)) – ½
15
2
)
15
11  12
13  12
) – Q(
)
15
15
18
= Q(
1
1
) – Q(
)
15
15
= 1 – Q(
= 1 – 2Q(
d) P(9 < x < 12) = Q(
1
1
) – Q(
)
15
15
1
)
15
9  12
) – Q(0)
15
= Q(
3
)–½
15
= (1 – Q(
3
)) – ½
15
= ½ - Q(
3
)
15
19
Las variables aleatorias Gaussianas poseen importantes propiedades
que simplifican la matemática:
1. Una variable aleatoria Gaussiana x es completamente
__
identificada por su promedio m = x = E{x} y su varianza
__
 = E{(x – x )2.
2
2. Si las variables aleatorias x1, x2, . . . , xn son uncorrelated,
entonces son estadísticamente independientes. Solamente para
el caso Gaussiano, uncorrelatedness implica independencia
estadística.
3. Para un sistema LTI (linear time invariante) cuya entrada o
input es una variable aleatoria Gaussiana x, la salida y es otra
variable aleatoria, también Gaussiana. Más aún, las dos
variables aleatorias x y y son conjuntamente Gaussianas.
20
Introducción a los Procesos Estocásticos
Una variable aleatoria le asigna un número al resultado  de un
experimento aleatorio. En el caso de un proceso estocástico x(t), a
cada posible resultado de un experimento aleatorio se le asigna una
onda x(t,).
x(t,) es una función de ejemplo (i.e. sample function), y el conjunto
de todas las posibles funciones de ejemplo o implementaciones en el
dominio del tiempo representan el proceso estocástico x(t).
La Figura 6.17 muestra la relación entre el sample space de un
experimento aleatorio y el conjunto de funciones de ejemplo (i.e.
sample functions) de un proceso estocástico.
Figura 6.17: Representación conceptual de un proceso estocástico
Cada una de las posibles funciones ejemplo son funciones
determinísticas. No hay nada aleatorio en dichas funciones. La
aleatoriedad se encuentra en el evento o resultado del experimento
que ocurra el cual a su vez define la función observada en el
dominio del tiempo.
La Figura 6.18a muestra cuatro posibles funciones que pueden
representar ruido termal en un sistema electrónico.
21
Figura 6.18a: Cuatro posibles funciones ejemplo de un proceso
estocástico Gaussiano
La Figura 6.18c muestra un proceso estocástico binario en donde las
funciones ejemplo corresponden a la secuencia de data aleatoria que
representa un mensaje. Dichas secuencias de data binaria pueden
representar texto, voz, imágenes, video, etc.
Figura 6.18c: Cuatro posibles funciones ejemplo de un proceso
estocástico binario
22
Ruido Blanco Gaussiano
El término ruido blanco describe un proceso estocástico cuyo
power spectral density es constante para toda frecuencia desde
menos infinito hasta más infinito. La Figura 6.24 muestra el power
spectral density y la autocorrelación del ruido blanco.
Rn ( )
Gn ( f )
No
 ( )
2
No / 2

f
Figura 6.24: PSD y autocorrelación del ruido blanco
El PSD constante es denotado como No/2. Esto es,
Gx(f) =
No
2
Si le aplicamos la transformada inversa de Fourier al power spectral
density obtenemos la autocorrelación.
Rx() =
No
()
2
Dada la relación inversa entre tiempo y frecuencia podemos
observar cómo el power spectral density infinito se transforma en
una autocorrelación que es cero siempre excepto en un instante
cuando  es cero.
Una autocorrelación que es cero siempre excepto en un instante
cuando  es cero implica que no hay correlación entre muestras
23
adyacentes, no importa cuán cerca estén. Cada muestra tan sólo está
correlacionada consigo misma (i.e. cuando  es cero).
Cuando el ruido blanco es también Gaussiano se le conoce como
ruido blanco Gaussiano o white Gaussian noise o WGN.
Para cualquier conjunto de instantes de tiempo t1, t2, t3, . . . , tn las
muestras x(t1), x(t2), x(t3), . . . , x(tn) son variables aleatorias
estadísticamente independientes.
¿De verdad existe el ruido blanco Gaussiano?
Experimentalmente se ha podido confirmar que para frecuencias tan
altas como 1,000 GHz el power spectral density del ruido blanco
Gaussiano es constante. Sin embargo, la matemática nos demuestra
que un verdadero ruido blanco Gaussiano no puede existir. Si

existiera, entonces tendríamos que
No
 2 df   , lo cual es imposible.

Entonces, si no existe, ¿cómo y por qué lo usamos? Aunque el
verdadero ruido blanco no existe, si dentro del ancho de banda de
nuestro sistema el PDF permanece constante, entonces, como una
muy válida aproximación que nos simplifica enormemente la
matemática, podemos asumir que el ruido es blanco, y si el ruido es
termal, también podemos asumir que es blanco y Gaussiano.
Ejemplo:
Ruido blanco con su two-sided spectral density No/2 para por un
filtro ideal pasa baja con ancho de banda de W Hz. Haga un sketch o
dibujo simple del power spectral density del ruido y calcule la
potencia del ruido a la salida del filtro.
Solución:
24
No/2 si | f | < W
2
Gy(f) = | H(f) | Gx(f) =
0 de lo contrario
Esto es,
Gy(f) =
No
2
f
 ( 2W )
Figura 6.25: Ideal low pass filter output noise spectral density
Sabemos que la autocorrelación es la transformada inversa de
Fourier del power spectral density. Por lo tanto,
Ry() = (2W)
No
sinc(2W) = NoW sinc(2W)
2
Py = Ry() = NoW
ó
Py =

W

W
 G y ( f )df =

N
No
df = (2W) o = NoW
2
2
6.11.3 Ruido Blanco Gaussiano Filtrado
Consideremos ahora el caso en donde ruido blanco Gaussiano pasa
por un filtro no ideal con función de transferencia H(f).
25
El power spectral density del ruido a la salida del filtro está dado por
la siguiente ecuación.
Gy(f) =
No
| H(f) |2
2
La potencia promedio de ruido a la salida del filtro está definida por
la siguiente ecuación.
_______
2

No
y (t ) =  G y ( f )df =
2


| H( f ) |
2


df = No  | H ( f ) |2 df
0
En cambio, si el filtro fuera ideal con ancho de banda BN y ganancia
| H(f) |max igual a la ganancia máxima del filtro no ideal con función
de transferencia H(f), tal y como muestra la Figura 6.26, entonces la
potencia promedio de ruido estaría dada por las ecuaciones que a
continuación listamos.
_______
2
y (t ) =
No
(2 BN) | H ( f ) |2max = No BN | H ( f ) |2max
2
Nos gustaría calcular el ancho de banda equivalente BN que permite
que a la salida del filtro tengamos la misma potencia de ruido que
con el filtro no ideal H(f). Para ello establecemos la siguiente
ecuación.
26
2
max
No BN | H ( f ) |
No
=
2

| H( f ) |
2


df = No  | H ( f ) |2 df
0
Ahora resolvemos por BN.

| H( f ) |
2
BN =
df
0
| H ( f )|2max
A BN se le conoce como el noise-equivalent bandwidth del filtro
ideal H(f).
Ejemplo:
Consideremos un filtro RC pasa baja con la siguiente función de
transferencia
H(f) =
1
1  j ( f / f 3dB )
1
. Calcule el noise-equivalent bandwidth para
2RC
y en donde f3dB =
dicho filtro pasa baja.
Solución:


 | H ( f ) | df =  |
2
0
0
1
|2 df
1  j ( f / f 3dB )
Hagamos una sustitución de variables. Sea x =
dx =
1
f 3dB
df
1
f 3dB
f
27



1
1 2
2
0 | H ( f ) | df = 0 | 1  j( f / f3dB ) | df = f3dB 0 | 1  jx | dx
2


1
dx
2
1

x
0
 | H ( f ) | df = f3dB 
2
0
Hagamos otra sustitución de variables. Sea x = tan.
x2 + 1 = tan2 + 1 = sec2
dx = sec2d


 /2

1
0 | H ( f ) | df = f3dB 0 1  x 2 dx = f3dB 0 d
2

2
 | H ( f ) | df = f3dB
0
En nuestro caso | H ( f ) |2max = max{|

2
1
|} = 1. El máximo
1  j ( f / f 3dB )
ocurre cuando f = 0 Hz.
Finalmente obtenemos que

| H( f ) |
2
BN =
BN = f3dB

2
=
df
0
| H ( f )|2max

1
=
Hz
2( 2RC )
4 RC
28
Fin del mini-tutorial sobre la teoría de probabilidades, distribución
normal o Gaussiana, la función Q, y AWGN (additive white
Gaussian noise). En lo próxima parte continuaremos con la
presentación del material sobre comunicación digital.