Download C A P I T U L O VI

Document related concepts
no text concepts found
Transcript
CAPITULO VI
PROCESOS ALEATORIOS Y RUIDO
6.1.-INTRODUCCION
Hasta ahora se han estudiado las señales determinísticas discretas y continuas; estas
señales son aquellas que pueden definirse perfectamente para todo t. Sin embargo,
la teoría de las comunicaciones presenta como elemento fundamental la
aleatoreidad ya que el mensaje no se conoce de antemano o lo que es lo mismo no es
determinístico. Adicionalmente existen perturbaciones aleatorias en las
transmisiones que se conocen como "ruido". En cualquiera de los dos casos es
necesario conseguir un modelo matemático que permita representar estos
fenómenos con el fin de analizar su comportamiento frente a los sistemas de
comunicaciones.
Basándose en la experimentación, se pueden encontrar ciertas regularidades en los
procesos aleatorios que permitirán describirlos estadísticamente y en muchos casos
esta descripción nos proporcionará información sobre la densidad espectral de
potencia de la señal aleatoria. Con esta última herramienta seremos capaces de
analizar el efecto del ruido en cada sistema de comunicación y la calidad final del
mensaje recibido.
Comenzaremos repasando brevemente las nociones de probabilidad, variables
aleatorias, funciones de densidad probabilística, etc., antes de entrar a la
caracterización de los procesos aleatorios.
6.2.-REPASO DE PROBABILIDADES
Existen fenómenos físicos que presentan cierta regularidad estadística y cuyo
modelo determinístico equivalente sería altamente complicado. Por ejemplo si
lanzamos una moneda y conociésemos la altura desde la cual se lanza, la ecuación
del movimiento de la mano que la lanza, peso, geometría, composición de la
moneda, temperatura, gravedad, etc., se podría determinar si saldrá cara o sello;
pero es evidente que, dado que el número de variables a manejar es tan grande, es
preferible utilizar una descripción probabilística y decir, por ejemplo, que existe
50% de probabilidad de que la moneda, si está bien construída, caiga del lado cara
y 50% que caiga del lado sello.
En un experimento realizado un número suficiente de veces (n), se llamará espacio
muestral al conjunto formado por todos los posibles resultados o eventos. La
probabilidad de ocurrencia de un evento A se define como:
donde nA es el número de veces que ocurre A. Hay casos donde no es necesario
realizar el experimento para determinar la probabilidad de un evento dado; por
ejemplo, en una moneda normal P(cara)=P(sello)=0.5. En este caso se define la
probabilidad de ocurrencia del evento A como:
Supongamos ahora que tenemos un espacio muestral compuesto por N eventos; si la
ocurrencia de uno imposibilita la de cualquier otro, se dice que son mutuamente
excluyentes en cuyo caso, si elegimos dos eventos A1 y A2, la probabilidad de que
ocurra uno de los dos vendrá dada por:
P( A1 ó A2 ) = P( A1) + P( A2)
Un ejemplo de esto sería el lanzamiento de un dado; las seis salidas posibles son
eventos mutuamente excluyentes. Existen otros casos que corresponden a eventos
no excluyentes; un ejemplo podría verse en el siguiente conjunto de interruptores:
El paso de corriente entre a y b se produce cuando cualquiera de los dos
interruptores está cerrado; esto conduce a calcular la probabilidad de paso
de esta corriente I como :
P ( S1 cerrado ó S2 cerrado)
Pero en este caso por no ser estos eventos mutuamente excluyentes, hay que restar
la probabilidad de que ocurran juntos ; es decir:
P( I ) = P(S1 cerrado) + P (S2 cerrado) - P(S1 cerrado y S2 cerrado)
En general , para eventos cualesquiera no excluyentes:
P( A1 ó A2 ) = P( A1) + P( A2) - P( A1 y A2 )
En ciertos experimentos pueden ocurrir simultáneamente 2 o más eventos. Se define
la probabilidad conjunta de dos eventos A y B como:
donde nAB es el número de veces que A y B ocurren juntos. Si la ocurrencia del
evento B depende del evento A, se puede definir probabilidad condicional como:
de donde se obtiene el Teorema de Bayes que establece que:
Si la ocurrencia de un evento A no afecta la ocurrencia de un evento B, se dice que
A y B son eventos independientes en cuyo caso:
P(A/B)=P(A) y P(B/A)=P(B) y P(A y B )= P(A) P(B)
Ejemplos:
1.- En una caja se tienen dos monedas: La moneda 1 tiene 2 sellos y la moneda 2
tiene cara y sello con P(cara) = 1/3 y P(sello) = 2/3.
Se saca una moneda se lanza 1 vez y sale sello, ¿cuál es la probabilidad de que si se
vuelve a lanzar salga de nuevo
sello?
2.- Si se tiene el siguiente sistema de relés, determine la probabilidad de que
entre A y B fluya una corriente, conociendo que la probabilidad de que cada
relé esté cerrado es p.
6.3.-REPASO DE VARIABLES ALEATORIAS Y FUNCIONES
PROBABILISTICAS
Cuando se tienen experimentos cuyas salidas son números reales, a la regla que
asigna un número a cada salida del experimento se le llama variable aleatoria
(v.a). Las variables aleatorias se clasifican en :
-Variables aleatorias discretas: Aquellas que pueden tomar un número
contable de valores distintos finitos o infinitos. Ej: X es una v.a que representa
el número de caras que salen al lanzar una moneda 3 veces. X solo puede
tomar los valores 0,1,2,3.
-Variables aleatorias contínuas: Aquellas que pueden tomar cualquier valor
en un rango dado del eje real. Ej: X es una v.a que representa el valor de
voltaje de una señal ruidosa. En este caso, X puede tomar cualquier valor de la
recta real.
Para una v.a X, sea discreta o continua, se define la Función de Distribución
Acumulativa ( F.D.A ) F(x), como la probabilidad de que X tome valores
menores que dicho x. Es decir:
F(x) = P [X≤x]
Donde se cumple que :
1º. 0 ≤ F(x) ≤ 1
2º. Para x1≤ x2 , F (x1) ≤ F (x2) es decir dF/dx ≥ 0
3º. P [ x1< X ≤ x2 ]= F (x2) - F (x1)
4º. F( -∞) =0
5º. F(∞) =1
Si la v.a es discreta se define la Función Frecuencia P(xj) como la
probabilidad que la v.a X tome el valor xj . La relación entre esta función y
F(x) viene dada por las siguientes propiedades:
Si la v.a es contínua se define la Función Densidad de Probabilidad f.d.p
p(x) como
Sus propiedades son:
Si se utilizan deltas de Dirac, es posible definir una f.d.p para variables
aleatorias discretas de la siguiente forma:
De esta forma se puede unificar el tratamiento de las v.a contínuas y discretas.
Ahora bien, se han definido funciones probabilísticas que permiten caracterizar
el comportamiento de una variable aleatoria. Sin embargo, muchas veces
estaremos interesados en analizar simultáneamente dos o mas v.a. Esto
conduce al concepto de Función Densidad Conjunta que para dos v.a,
llamaremos pxy(x,y). Esto nos permitirá calcular por ejemplo, la probabilidad
de que las variables aleatorias tomen valores en determinados rangos
simultáneamente. Así:
También se pueden calcular las densidades marginales px(x) y py (y) de la
siguiente forma:
6.4.- PROMEDIOS ESTADISTICOS
Cuando se tiene una señal determinística, se puede definir una función que la
caracterice para todo tiempo. Sin embargo, si dicha señal representa, por
ejemplo, el voltaje en un punto de una red, en la práctica se prefiere tener otro
tipo de información más manejable como por ejemplo la potencia promedio.
Del mismo modo para señales aleatorias, en vez de trabajar con las funciones
probabilísticas, muchas veces se utilizan datos más prácticos conocidos como
promedios estadísticos. Estos parámetros serán muy útiles porque, en muchos
casos, tendrán relación con los parámetros eléctricos de las señales aleatorias
de interés.
El primer promedio a definir será la media, valor esperado o esperanza de una
v.a X que se calcula como:
El valor esperado cumple con las siguientes propiedades:
1.- E(constante)=constante
2.-E(Kx)= KE(x) para K constante
3.- E(x+y)=E(x)+E(y)
Además de la media, existen otros promedios estadísticos como por ejemplo el
momento n-ésimo de una v.a que se define como:
En particular el segundo momento será de gran importancia así como la
varianza, que no es más que el segundo momento de la v.a referida a su media.
Es decir:
A manera de ejemplo, y para ilustrar la importancia de la varianza de una v.a,
imaginemos dos fábricas de bombillos que aseguran tener la misma vida media
de su producto. Por ejemplo dos distribuciones uniformes alrededor de 1000,
una de ancho 1000(Fábrica A) y otra de ancho 10(Fábrica B); al explorar más
y calcular la varianza de las v.a, definidas como la duración de sus productos,
se descubre que la de la fábrica A es mayor a la de la fábrica B. Esto lo que
significa es que los productos de la fábrica A son menos confiables que los de
la B, ya que a pesar de garantizar la misma duración media, la desviación
alrededor de ésta es mayor que la de la fábrica B.
Justamente, otra cifra de interés es la desviación standard sx, definida como la
raíz cuadrada de la varianza, que representa la desviación que un valor tiene
alrededor de la media de la distribución.
Ejemplo:
Se tienen 2 fábricas de bombillos que aseguran que la vida media de su
producto es de 1.000 horas. Sin embargo, al investigar más se descubre que:
a) El fabricante A produce N/2 bombillos que duran 500 horas y N/2 que duran
1.500.
b) El fabricante B produce N bombillos cuya vida cumple con una distribución
uniforme entre 975 y 1025. Es decir:
Y efectivamente ambos productos tienen una vida media de 1.000 horas; sin
embargo, sabemos que la confiabilidad no puede ser la misma en ambas
fábricas; por tanto necesitamos otro parámetro que permita elegir qué fábrica
produce los mejores bombillos. Ese parámetro puede ser la varianza
anteriormente definida.
a. Fábrica A:
b) Fábrica B:
Esto indica que los productos de la fábrica B son mejores, ya que la varianza es
menor que en el caso A.
La varianza presenta las siguientes propiedades:
1º Varianza [constante] = 0
2º Varianza [kx] = k2 varianza [x] para k = constante
3º Varianza [x + y] = varianza [x] + varianza [y] solo sí x e y son
independientes.
4º La raíz cuadrada de la varianza se le llama desviación standard (σx) y
representa la desviación que un valor tiene de la media de la distribución.
5º P [(X-E(x)) > k σx] ≤ 1/k2 o la probabilidad de que la v.a. se aleje de la
media k veces la desviación standard, es inversamente proporcional al
cuadrado de k. Esta relación recibe el nombre de desigualdad de Chebyshev y
establece un límite en la probabilidad de que una v.a. tome valores alejados de
su media.
Ejemplos:
1º Se transmite una señal S, modelada por una v.a uniformemente distribuida
entre 0 y 2; esta se le agrega en el canal un ruido N que se modela por una v.a
uniformemente distribuida entre 0 y 1. Determine a) El valor esperado de S+N
b) El valor esperado de la potencia promedio de (S+N) sobre una resistencia de
2Ω
Solución:
a. E[Y] = E[S+N] = E [S] + E [N] = 1 + 0.5 = 1.5
2
b. Potencia promedio=E[ (S+N) ] /2
2.5.- PROMEDIOS ESTADISTICOS PARA MAS DE UNA VARIABLE
ALEATORIA.
Si se tienen 2 variables aleatorias X, Y se definen sus momentos conjuntos como.
En particular el momento conjunto de primer orden E[xy] es de gran interés y
recibe el nombre de correlación de X Y. También es importante la covarianza
de las dos v.a. definida como:
Sus propiedades son:
1º Si E(xy)=0 se dice que X,Y son ortogonales
2º Si X e Y son independientes Cov (XY) = 0
3º Si Cov(XY) = 0 se dice que X y Y están decorrelacionadas.
4º Si X y Y están decorrelacionadas no necesariamente son ortogonales ni
independientes.
Ejemplo:Sea Z una v.a. uniformemente distribuida entre -1 y 1; se definen 2
nuevas v.a. X y Y como X = Z Y = Z2. Determine si X , Y están
decorrelacionadas.
Cov (XY)= E [XY]-E[X]E[Y] = 0 => X, Y están decorrelacionadas pero no
son independientes.
6.6.- DISTRIBUCIONES PROBABILISTICAS USUALES:
6.6.1.- Distribución Uniforme:
Se utiliza en aquellas v.a. igualmente probables en un intervalo (a,b) y se
define como:
La media de una variable X con esta distribución es:
E[X] = 0.5(b+a)
Su varianza resulta:
6.6.2.-Distribución Gausseana: Es una de las distribuciones más usadas
debido al teorema del límite central que establece lo siguiente: Si se tiene una
v.a. Y resultado de sumar M variables Xi con distribuciones arbitrarias, la
distribución de Y se aproxima a gausseana cuando M crece, siempre que la
contribución de cada variable Xi sea muy pequeña.
Este teorema, por ejemplo, se aplica perfectamente al caso de ruido térmico el
cual se forma con pequeñas contribuciones de movimiento de electrones. La
función densidad de probabilidad para una v.a X con distribución gausseana se
define como:
Donde:
m es la media de la distribución,
σ2 es la varianza y
σ la desviación estandar
Cuando queremos determinar valores de probabilidad sobre una v.a. con esta
distribución se necesita calcular:
Pero esta integral no es de fácil resolución. Es por esto que se ha tabulado el
valor Q(k) definido como:
Así por ejemplo si se desea determinar:
Hacemos el siguiente cambio de variable:
Ejemplo: Una v.a. gaussiana tiene E[ X] = 10 y σx = 1.
Determine P [x ≥ 13]
Con la función Q(k) podemos determinar cualquier valor de probabilidad ya
que:
Muchas veces se tabula 0.5 - Q(k) en vez de Q(k). Sin embargo esto no altera
el método de calcular probabilidades.
Ejemplo: Se tiene una v.a. gaussiana con media igual a 10 y varianza unitaria.
Determine P[4≤ x ≤ 13].
m - k1σ = 4 = 10 - k1 => k1 = 6
m + k2 σ = 13 = 10 + k2 => k2 = 3
=> P[4 ≤ x ≤ 13] = 0.5 - Q(6)+0.5 - Q(3)
6.6.3.- Distribución de Rayleigh
Esta distribución será muy útil en algunas representaciones del ruido
pasabanda que afecta los sistemas de comunicaciones. Está descrita como:
Si se desea determinar P(x ≥ x0)
Ejercicio: Una v.a con distribución Rayleigh tiene σx2 = 7. ¿Cuál es el
valor de la media?
Solución:
6.6.4.- Distribución binomial:
Si un experimento solo puede producir 2 resultados A y su complemento (no
A)con probabilidad p y q=1-p respectivamente, y éste se realiza m veces, la
probabilidad que A ocurra k de estas m veces vendrá dada por:
Donde el coeficiente binomial representa la cantidad de combinaciones
de m elementos en los cuales k de ellos son A y el resto el
complemento (no A).
Por ejemplo: Si m=3 y k=1 tendremos
y en efecto existen 3 combinaciones donde A
ocurre solo una vez, ya que:
El coeficiente binominal se puede calcular con el triángulo de Pascal.
Ejemplo:
1º Una moneda normal se lanza 10 veces ¿cuál es la probabilidad de que
salgan 4 caras?
A este tipo de pruebas se les llama de Bernoulli y es por esto que la
distribución a veces recibe ese nombre. Los momentos de una v.a. X con esta
distribución son:
E(X)= p.m donde p=P(A) y m= Nº total de veces que se realiza la prueba. La
varianza resulta igual a σ2=mpq.
6.6.5.- Distribución de Poisson: Cuando se realizan pruebas de Bernoulli
, y se desea
cuyos resultados pueden ser
determinar la probabilidad de que en m pruebas A salga k veces, se utiliza la
distribución binomial. Pero si el número de pruebas crece mucho en un
problema donde P[A] es muy pequeña se prefiere utilizar la distribución de
Poisson para el cálculo de probabilidades particulares. La función de
probabilidad se expresa como:
Para esta distribución tanto la media como la varianza son iguales
numéricamente a α:
Ejemplo:
En una central telefónica se han recibido 270 llamadas en 180 minutos, es
decir, 1.5 llamadas por minuto. Si quisiéramos calcular la probabilidad de
recibir 1, 2 ó 3 llamadas en los próximos 3 minutos debiéramos subdividir el
tiempo total en subintervalos en los cuales ocurre o no ocurre llamada. Por
ejemplo:
A.- 3 minutos = 9 intervalos de 20 seg. La probabilidad de llamada en este
caso sería:
Para evitar la probabilidad de 2 o más llamadas en cada subintervalo
es conveniente hacerlo cada vez más pequeño y en ese caso la
probabilidad de llamada baja pero n.p = cte. Es decir n-> ? p -> o pero
np = cte. En este caso:
2º Un fabricante produce artículos con probabilidad de ser defectuoso
igual a 0.001. ¿Cuál es la probabilidad de que en un lote de 500
artículos ninguno salga defectuoso?
y es más cómodo trabajar con Poisson.
3º La probabilidad de que un automóvil choque con otro es p = 0,0001. Si a
cierta hora pasan 1.000 carros. ¿Cuál es la probabilidad que ocurran 2 o más
accidentes en dicho período?.
6.7.- PROCESOS ALEATORIOS
Uno de los objetivos de la materia Comunicaciones I, es lograr una
descripción de las señales aleatorias bien sea que estas representen mensaje
o ruido. Para lograrlo comenzaremos definiendo un proceso aleatorio como
el conjunto de funciones temporales que resultan de un experimento
particular, es decir, cada vez que se realiza el experimento, se produce como
salida una determinada señal. La aleatoreidad radica en saber cual de todas
las funciones saldrá. Además, en cada instante de tiempo tk, se puede definir
una v.a que podría llamarse xtk.Queda claro que la diferencia fundamental
entre una v.a y un proceso aleatorio es la dependencia con la variable
tiempo.
Ejemplo: Suponga un proceso estocástico definido como x(t)= at
donde a está uniformemente distribuída entre 0 y 1. Cada vez que se realiza
el experimento, la salida es una recta de pendiente diferente. Para un tiempo
dado, digamos t=t0, se tendrá una v.a xt0= at0, que puede tomar valores entre
0 y t0. Una forma de caracterizar el proceso x(t) es a través de la definición
de una función conjunta de infinitas v.a correspondientes a tiempos distintos
tk. Afortunadamente, para la mayoría de los problemas prácticos, bastará
para su descripción funciones de una o a lo sumo de dos v.a. Esto estará
asociado al tipo de estacionaridad que cumpla el proceso estudiado; por esto
a continuación presentaremos conceptos y funciones esenciales para
caracterizar los procesos aleatorios.
6.8.- ESTACIONARIDAD
Supongamos un proceso aleatorio definido en un intervalo de tiempo
dado dentro del cual definimos a su vez los instantes t1, t2 ,..., tn . Para
caracterizar el proceso, necesitaríamos una función probabilística de orden n
:
p x ( t 1) x ( t 2) .........x ( t n) ( x ( t 1) , x ( t 2) , ........, x ( t n) )
Diremos que un proceso aleatorio es estacionario en el sentido
estricto, si sus propiedades estadísticas no cambian con un desplazamiento
del origen temporal. Es decir:
p x ( t 1) .........x ( t n) ( x ( t 1) ,
........., x ( t n) )
= p x ( t 1+ τ)
........x ( t n+ τ) ( x ( t 1+ τ) , ......., x ( t n+ τ) )
Si esta igualdad se cumple solo hasta un orden m, se dice que el
proceso es estacionario de orden m lo que incluye la estacionaridad de todos
los órdenes menores.
En la práctica los procesos más frecuentes se pueden modelar como
estacionarios (aunque sea en pequeñísimos intervalos de tiempo) por lo
menos hasta de segundo orden, y como sus propiedades más importantes se
describen muy bien con el primero y segundo momento, trabajaremos
usualmente con estacionaridad de orden 2.
Definamos la función de autocorrelación de dos v.a x(t1) y x(t2),
definidas dentro de un proceso x(t) para dos instantes t1 y t2 como:
R x ( t1 ) x ( t 2 ) = ∫∫ x ( t1 ) x ( t 2 )p x ( t1 ) x ( t 2 ) ( x ( t1 ), x ( t 2 ))dx ( t1 )dx ( t 2 )
−∞
Esta función es muy útil porque, además de que nos dará idea del
comportamiento temporal de x(t), en muchos casos nos proporcionará, al
transformarla según Fourier, la densidad espectral de potencia.
Si el proceso es estacionario de orden 1, la media de la v.a es
constante ( no depende del tiempo). Si el proceso es estacionario de orden 2,
además de cumplirse lo anterior, la correlación entre dos v.a dependerá, no
de la ubicación absoluta de cada una, sino de la distancia entre ellas. La
demostración de ésto, se basa en que, para un proceso estacionario de orden
2, se cumple:
Por lo tanto, Rx(t1,t2)= Rx(t1+ ∆, t2 + ∆ ). Si seleccionamos ∆= - t1,
Rx(t1,t2)= Rx(0, t2 - t1 ) = Rx(τ). En ese caso podemos escribir:
Rx(τ) = E [ x(t) x(t- τ) ]
Definiremos ahora, un proceso estacionario en el sentido amplio,
como aquel en el que se cumple:
1º.- E [ x(t) ] = mx =constante
2º.- E [ x(t) x(t- τ) ] = Rx(τ)
Es evidente que un proceso estacionario de orden 2, lo será en sentido
amplio, sin embargo, esto último no garantiza la primera condición.
La función de autocorrelación de un proceso estacionario en el
sentido amplio cumple las siguientes propiedades:
a) Rx(0) = E [ x2(t) ]
b) Rx(τ) = Rx( - τ)
c) | Rx(τ) | ≤ Rx( 0 )
d) La graficación de Rx(τ) puede darnos información sobre el
comportamiento temporal del proceso.
Por ejemplo :
Si se tienen las siguientes funciones de autocorrelación para dos
procesos diferentes X1 y X2 :
Se observa que el proceso X1(t) fluctúa más lentamente que el
proceso X2(t) ya que la correlación de este último se anula más
rápidamente. En general , se dice que un proceso tiene un tiempo t0 de
decorrelación si Rx(t0) = 0.01 Rx( 0 ).
Ejemplo 1: Sea x(t) el proceso descrito como x(t)= A Cos (ω0t + Θ) ,
donde A y ω0 son constantes y Θ está uniformemente distribuído entre 0 y
2π. Determine la media y la autocorrelación del proceso.
Ejemplo 2: Sea x(t)= at donde a está uniformemente distribuído entre 0 y 1.
Determine la fdp de primer orden del proceso px(t) (x(t))
En este caso es más fácil calcular la F.D.A ( Fx(t) (x(t))) y luego derivarla
para obtener la fdp ( px(t) (x(t))).
Fx(t) (x(t)) = P [ X(t) <= x(t) ] = P [ at <= x(t) ]
Es decir es una distribución uniforme variable con el tiempo. Este proceso
no es estacionario ni siquiera de primer orden.
Ejemplo 3: Se tiene una señal telegráfica que puede tomar solo los valores A
y -A y tiene igual probabilidad de cambiar de uno a otro en cualquier
instante. Si n = Número promedio de cambios por unidad de tiempo,
determine la autocorrelación de este proceso.
Una señal típica podría ser:
Queremos calcular Rx(τ) = E [ x(t) x (t- τ ) ] = Sumatoria de todos los
posibles productos multiplicados por su probabilidad.
En este caso x(t) x (t- τ ) solo puede tomar dos valores :
A2 si x(t)= x (t- τ ) (número de cambios en t es par) y
-A2 si x(t)= -x (t- τ ) (número de cambios en t es impar) .
Definamos por tanto la función probabilística que permite obtener la
probabilidad de que en t ocurran n cambios. Esto corresponde a una
distribución Poisson la cual está definida como:
n −ντ
(ντ) e
P [ en τ ocur r an n cambi os ] =
n!
Donde ντ es la media de la distribución equivalente a n.p
[
]
[
R (τ) = E[x ( t ) x ( t − τ)] = A 2 P N 0 cambios par − A 2 P N 0 cambios impar
]
Así: P [ x(t) = x (t− τ ) ] = P [ Número de cambios sea par ] =
P [ x(t) = -x (t- t ) ] = P [ Número de cambios sea impar ] =
Por lo tanto:
2
Rx( τ) = A e
− ντ
Coshντ -
2
− ντ
A e
2
Senhντ = A e
− 2 ντ
Como esto es válido para t negativo:
Rx( τ) =
2
−2 ν
τ
A e
6.9.- PROCESOS ERGODICOS
En un proceso estocástico uno puede determinar ciertos parámetros de
dos formas: a) Se toma una muestra completa del proceso (Ej: x1(t)) y se
realizan cálculos sobre ella ó b) Se toman los valores de todas las salidas
posibles para un tiempo fijo tk y se calcula el parámetro deseado. Si el valor
del parámetro resulta igual por los dos métodos, se dice que el proceso es
ergódico con respecto a ese parámetro. Por ejemplo, ergodicidad con
respecto a la media sería decir que :
Daría el mismo resultado tomar , por ejemplo, x2(t) y promediarla en el
tiempo, o tomar los valores de x1(tk), x2(tk),......, xn(tk) y promediarlos.
Es evidente que si un proceso es ergódico también es estacionario y
si la salida representa una señal eléctrica, esta será de potencia y se cumplirá
que:
E [ x ] = x = Ni vel D.C de x(t )
2
E[ x ] = x
= Pot enci a pr omedi o t ot al de x(t )
2
2
E [x ] = x
2
2
2
= Pot enci a D.C de x(t )
2
σ x = E [x ] - E [x ] = Pot enci a pr omedi o A.C de x(t )
σ x = Vol t aj e R.M.S de x(t )
F { Rx(τ) } = Gx (f) = Densidad Espectral de Potencia.
Esta última relación es importantísima ya que nos dice que a pesar de
que la señal es aleatoria, su autocorrelación, y por ende, su densidad
espectral de potencia, son determinísticas. La demostración es la siguiente:
Uno puede definir la densidad espectral de un proceso aleatorio como
el promedio de las densidades espectrales de las funciones muestras así:
donde XT(f) es la transformada de Fourier del proceso aleatorio truncado
x(t) Π(t/T). Su módulo al cuadrado es igual a:
T/2
X T (f ) 2 = XT * (f )XT (f ) =
∫
x(t1 )e jωt1dt1
−T/2
T/2
∫
x(t 2 )e− jωt 2 dt2
−T/2
Estas dos integrales pueden expresarse como una integral doble
del producto de x(t1)x(t2), y como la operación de promediación es otra
integral más, puede realizarse primero; esto último se expresaría como la
promediación previa del producto x(t1)x(t2) . Queda entonces que:
Si el proceso es estacionario en el sentido amplio, el promedio
del producto x(t1)x(t2) es la autocorrelación evaluada en la diferencia de
tiempos t2 - t1. La densidad espectral queda entonces igual a :
La integral doble puede cambiarse por una integral única
respecto a la diferencia (t2 - t1) = τ notando que el argumento a integrar
es constante cuando (t2 - t1) lo es. Eso significa que la integral doble sobre
(t2 ,t1) , lo cual es un volumen, puede calcularse como el argumento
multiplicado por el área de la base. El cálculo de esta área puede verse de
la siguiente figura:
Quedaría 0.5(T- τ)2 - 0.5(T- τ -∆τ)2 ( Resta de las áreas de los dos
triángulos) esto es aproximadamente (T- τ)∆τ cuando ∆t tiende a cero. Para
t negativo el área resulta (T+ τ) ∆τ. Por lo tanto el volumen, en la pequeña
zona será F(t) (T- | τ | )∆τ . El volumen total es la densidad espectral de
potencia Gx(f) , y resulta igual a:
T
limT→ ∞
1
T
∫
T
Φ (τ )(T − τ )dτ = limT→ ∞
−T
∫
T
Φ (τ )(1 −
−T
τ
)dτ =
T
∫
Φ (τ )dτ
−T
Finalmente , y recordando la definición de F(t), tendremos:
F { Rx(τ) } = Gx (f) = Densidad Espectral de Potencia
Una vez conocido esto, si el proceso pasa por un sistema dado, se
podrá conocer características de la salida de la siguiente forma:
a) Si el sistema es lineal, conocemos la densidad espectral de potencia
de la señal de entrada Gx (f) y el cuadrado de la magnitud de la función
transferencia |H(f)|2 , podremos conocer la densidad espectral de potencia de
la señal de salida Gy (f) de la siguiente forma:
Gy (f) = | H(f) | 2 Gx (f)
b) Si el sistema es no lineal, podemos transformar el proceso de
entrada con el conocimiento de la función característica.
Ejemplos:
1º Un proceso ergódico tiene la siguiente función de autocorrelación:
Rx( τ) =
−2 ν
2
τ
A e
Determine: La densidad espectral de potencia del proceso, la potencia
promedio total, la potencia A.C, la potencia D.C y el voltaje R.M.S.
a) La densidad espectral de potencia es la transformada de Fourier de la
autocorrelación, resultando entonces (por tablas de Fourier):
Gx(f ) =
4ν A
4ν
2
2
2
+ω
b) La potencia DC es nula ya que en f=0 no existe una delta de Dirac.
c) La potencia AC en este caso es igual a la potencia total, ya que la
potencia DC es nula. Al evaluar la autocorrelación en cero , tendremos el
valor de la potencia total. También daría el mismo resultado integrar la
densidad espectral de potencia entre menos infinito e infinito.
Potencia total = Potencia AC = Rx(0) = A2.
d) El voltaje R.M.S es igual a la raíz de la potencia AC.
Es decir, VR.M.S = A.
2º Se tiene un proceso ergódico con distribución gaussiana y
densidad espectral de potencia definida como:
Gx(f ) =
1
4 +ω
2
Determine la probabilidad de que el proceso tome valores entre 0.5 y 1.
Solución:
Si la f.d.p es gaussiana, solo hace falta conocer su media y desviación
standard para poder calcular la probabilidad exigida. La media es cero por
no existir delta de Dirac en el origen. La desviación standard es la raíz de la
potencia AC que en este caso es la potencia total . Por lo tanto basta integrar
la densidad espectral en todo el intervalo de existencia o evaluar la
autocorrelación en cero y, en cualquiera de los casos, luego tomar la raíz.
−2 τ
1
Rx( τ) =
e
4
La autocorrrelación en cero es igual a la varianza (porque la media vale
cero). En este caso entonces s= 0.5, m=0.
Así, P [ 0.5 < x < 1 ]= Q(k0.5) -Q( k1 ).
m + k0.5 s = 0.5 esto implica k0.5 = 1
m + k1 s = 1 esto implica k1 = 2
P [ 0.5 < x < 1 ] = Q(1) -Q(2).
PASO DE SEÑALES ALEATORIAS POR SISTEMAS LINEALES Y
NO LINEALES
En el curso de Señales y Sistemas se vio que al pasar una señal por un
sistema lineal se podía calcular la salida bien convolucionando en tiempo
la señal de entrada con la respuesta impulsiva o multiplicando en
frecuencia la transformada de Fourier de la señal de entrada por la
respuesta en frecuencia.
Para señales aleatorias a lo sumo dispondremos de la función de
autocorrelación función de t, o de la Densidad Espectral de
Potencia(DEP).
Paso de la señal aleatoria por un sistema lineal
Cuando una señal aleatoria pase por un sistema lineal, definido por una
respuesta impulsiva h(t), podríamos estar interesados en determinar la
autocorrelación de la señal de salida.
R y (τ ) = E [ y (t ) y (t -τ )] =
∞
⎡∞
⎤
E ⎢ ∫ h(τ ' )x(t-τ ' )dτ ' ∫ h(τ ' ' )x(t-τ -τ ' ' )dτ ' '⎥
-∞
⎣-∞
⎦
E [x(t-τ ' )x(t-τ -τ ' ' )] = R x (τ + τ ' '-τ ' )
Al intercambiar operadores, es necesario calcular:
⎡∞
R y (τ ) = ⎢ ∫
⎣- ∞
⎤
h(
τ
'
)h(
τ
'
'
)
R
(
τ
τ
'
'τ
'
)
d
τ
'
d
τ
'
'
+
⎥
x
∫
-∞
⎦
∞
Por lo tanto la autocorrelación de la señal de salida resultaría:
Y esto puede escribirse como:
R y (τ ) = h(-τ ) * h(τ ) * R x (τ )
2
G y ( f ) = H ( f ) Gx ( f )
También se puede demostrar que
R yx (τ ) = h(τ ) * R x (τ )
R xy (τ ) = R yx (-τ )
Paso de la señal aleatoria por un sistema no lineal
Si la señal aleatoria pasa por un sistema no lineal, puede convenir tratar de
encontrar la autocorrelación de salida aplicando la definición.
Ejemplo:
Sea z(t) =x(t). w(t). Determine la autocorrelación de z(t)
R z (τ ) = E [x(t ) w(t ) x(t -τ )w(t -τ )]
R z (τ ) = E [x(t ) w(t ) x(t -τ )w(t -τ )]
= E [x(t ) x(t -τ )]E [w(t ) w(t -τ )] = R x (τ ) Rw (τ )
G z ( f ) = G x ( f ) * Gw ( f )
Si los procesos x(t) y w(t) no son independientes, seria necesario conocer
la función densidad conjunta pxw. Pero si son independientes la
autocorrelación de z(t) resultaría:
Un caso muy frecuente, en el cual podemos aplicar el resultado anterior, es
el siguiente:
Sea z(t) =x(t). Acos(ω0t +Φ), con Φ uniformemente distribuido entre
Determine la autocorrelación y la DEP de z(t)
R z (τ ) = R x (τ )0.5 A 2 Cosω 0τ
G z ( f ) = 0.25 A 2 (G x ( f - f 0 ) + G x ( f + f 0 ))
En este caso podemos aplicar el resultado obtenido anteriormente,
recordando que la autocorrelación de Acos(ω0t +Φ) es igual a
0.5A2cos(ω0τ).
Como observamos al multiplicar una señal aleatoria por una sinusoide, la
DEP de la señal aleatoria queda trasladada en frecuencia (Teorema de
Modulación)
Ejemplos de paso de señales aleatorias por sistemas
1) Sumador
Sea z(t) =x(t) + w(t). Determine la autocorrelación de z(t) conociendo que
x(t) y w(t) son independientes
R z (τ ) = E [( x(t ) + w(t ))( x(t -τ ) + w(t -τ ))]
= E [x(t ) x(t -τ )] + E [w(t ) w(t -τ )] + E [x(t ) w(t -τ )] + E [w(t ) x(t -τ )] =
R x (τ ) + Rw (τ ) + E [x(t )]E [w(t -τ )] + E [w(t )]E [x(t -τ )] =
R x (τ ) + Rw (τ ) + 2 E [x(t )]E [w(t )]
Esto pudo hacerse porque se asumió que los procesos x(t) y w(t) son
ergodicos. Si alguna de los dos tiene media nula el resultado se simplifica:
R x (τ ) = R x (τ ) + Rw (τ ) + 2 E [x(t )]E [w(t )] =
R x (τ ) = R x (τ ) + Rw (τ )
G x ( f ) = G x ( f ) + Gw ( f )
Observe que solo puede hacerse superposición de DEPs cuando los
procesos son independientes y al menos uno tiene media nula; si esta
ultima condición no se cumple, además de las DEPs individuales
aparecerá un termino DC producto de las medias de los procesos.
2) Retardador
Sea z(t) =x(tt0). Determine la autocorrelación y la DEP de z(t).
R z (τ ) = E [( x(t -t 0 ) x(t -t 0 -τ ))] = R x (τ )
Como se observa el retardador no cambia la autocorrelación y por tanto la
DEP del proceso.
3) Transformador de Hilbert
Si se tiene una señal x(t) cuya transformada de Fourier es X(f), a la
transformada de Hilbert de x(t) se le llamará xˆ (t ) , y su transformada de
Fourier será:
X(f ) = - j sgn(f ) X(f )
Es decir , un transformador de Hilbert lo que hace es desfasar
-90º todas las componentes de frecuencia de la señal sin alterar la
magnitud de dichas componentes.
En el dominio del tiempo:
xˆ (t ) = x(t ) * h H (t )
Sin embargo para señales aleatorias el tratamiento sería el siguiente:
R y (τ ) = hH (-τ ) * hH (τ ) * R x (τ )
2
G y ( f ) = H H ( f ) Gx ( f )
2
G y ( f ) = (-jsgn(f)) G x ( f ) = G x ( f )
4) Representacion del ruido pasabanda
Un ruido pasabanda es aquel que tiene un contenido espectral en una zona
alejada de las bajas frecuencias de tal forma que entre su frecuencia mínima
y el origen podrían tenerse repeticiones del espectro. Dicho ruido puede
representarse matemáticamente como:
n (t) = Rn(t) Cos ( ωct + Φn (t)).
n (t) = ni(t)Cos ωct - nq(t)Senωct
donde:
Rn(t) es llamada la envolvente
Φn (t) es la fase
ni(t) es la componente en fase y
nq(t) es la componente en cuadratura
Se puede demostrar que:
Por ejemplo tomemos la primera expresión:
n(t ) = n i(t )Cos ω ct
- n q(t )Sen ω ct
n(t ) = n i(t )Sen ω ct
+ n q(t )Cos ω ct
n(t )Cos ω ct = n i(t )(Cos ω ct )
2
- n q(t )Sen ω ct Cos ω ct
n(t )Sen ω ct = n i(t )(Sen ω ct )
2
+ n q(t )Cos ω ct Sen ω ct
Al sumar estas dos últimas ecuaciones se obtiene ni(t). Demuestre usted la
otra expresión.
Determine la autocorrelación de la componente en fase:
R n i (τ) = E[n i ( t )n i ( t - τ)] =
E[(n ( t )Cosωc t + n̂ ( t )Senωc t)(n ( t - τ)Cosωc ( t - τ) + n̂ ( t - τ)Senωc ( t - τ)] =
⎡(n ( t )n ( t - τ)Cosωc tCosωc ( t - τ) + n̂ ( t )n̂ ( t - τ)Senωc ( t - τ)
⎤
E⎢
⎥=
⎣+ n ( t )n̂ ( t - τ)Cosωc t Senωc ( t - τ) + n̂ ( t )n ( t - τ)Senωc tCosωc ( t - τ)⎦
R n (τ)Cosωc tCosωc ( t - τ) + R n̂ (τ)Senωc tSenωc ( t - τ) +
R nn̂ (τ)Cosωc t Senωc ( t - τ) + R n̂n (τ)Senωc t Cosωc ( t - τ)
Pero hay que considerar los siguientes aspectos:
R yx (τ) = h (τ) * R x (τ)
R xy (τ) = R yx (-τ)
R n (τ) = R n̂ (τ)
R n̂n (τ) = h H (τ) * R n (τ)
R n̂n (τ) = R̂ n (τ)
R nn̂ (τ) = h H (-τ) * R n (τ)
R nn̂ (τ) = -R̂ n (τ)
Por lo tanto, la autocorrelación de la componente en fase del ruido quedará:
R n (τ)Cosωc tCosωc ( t - τ) + R n̂ (τ)Senωc tSenωc ( t - τ) +
- R̂ n (τ)Cosωc t Senωc ( t - τ) + R̂ n (τ)Senωc t Cosωc ( t - τ) =
R n (τ)[Cosωc tCosωc ( t - τ) + Senωc tSenωc ( t - τ)] +
R̂ n (τ)[Senωc t Cosωc ( t - τ) - Cosωc t Senωc ( t - τ)] =
R n (τ)Cosωc τ + R̂ n (τ)Senωc τ
6.10.- RUIDO
Se conoce como ruido a toda perturbación inevitable sobre la señal que se desea
transmitir y cuyas causas pueden ser externas ( ruido atmosférico, solar , de
encendidos, de máquinas, etc.) o internas. Estas últimas se deben a fluctuaciones
espontáneas de corriente o voltaje y entre ellas se destacan el ruido de disparo y el
ruido térmico. El ruido de disparo se debe al movimiento de partículas a través de
un gradiente de potencial. Por ejemplo, en los semiconductores, este se debe a la
difusión aleatoria de los portadores minoritarios y a la recombinación de huecos y
electrones. Este ruido es gausseano y con media nula. El ruido térmico se debe al
movimiento aleatorio de los electrones dentro de un conductor. También se le llama
ruido resistivo o ruido Johnson, debido a que su primer análisis fué realizado por
Johnson y Nyquist sobre resistores. De estos estudios surgen las siguientes
características:
a) Cuando un resistor R está a una temperatura T, aparece en sus extremos un
voltaje v(t) aleatorio, gausseano con media cero y varianza igual a :
donde :
k = Constante de Boltzman = 1.37 x 10-23 J/°K
h = Constante de Planck = 6.62 x 10-34 J/seg
T = Temperatura en °K
b) Su densidad espectral de voltaje cuadrático tiene la siguiente expresión:
A temperatura ambiente ( T0 = 290 °K ), hf/kT0 < 0.1 para f < 500 GHz, es decir,
para efectos prácticos, Gv(f) es constante para todo el rango de frecuencias de
interés y aproximadamente igual a 2RkT. Esta aproximación tiene el inconveniente
de que la potencia resulta infinita, sin embargo esto se resuelve al recordar que
cualquier sistema real tiene ancho de banda finito que limita el valor de la potencia
promedio total.
c) El modelo Thevenin de un resistor ruidoso es:
donde Gv(f) es proporcional a V2 .
d) El modelo Norton puede deducirse del anterior ya que v2= (Ri)2 mientras que
Gi(f)= Gv(f)/ R2 = 2kTG. Así:
e) Cualquiera sea el modelo utilizado para el resistor ruidoso existe un
límite en la potencia de ruido que puede generar, lo que ocurrirá en
condición de máxima transferencia, es decir cuando en sus extremos se
coloque una resistencia de su mismo valor. Así:
Esto es la densidad espectral de voltaje cuadrático aprovechable. Por otra parte la
densidad espectral de potencia aprovechable se obtiene dividiendo Gva(f) entre el
valor de la resistencia R. Así:
Ga(f) = Gva(f)/R = Gv(f)/4R = kT/2 watts/Hz
Observe que la densidad de potencia aprovechable es independiente del valor de R.
f) Cuando el ruido térmico se hace pasar por una red lineal, invariante en el tiempo
y estable, con función de transferencia H(f), la densidad espectral de ruido a la
salida, se consigue multiplicando la densidad espectral de potencia de ruido por el
cuadrado del módulo de la función transferencia.
Gy(f) = Gx(f) . | H(f) | 2
Por ejemplo, en el caso de ruido térmico al utilizar el modelo Thevenin se tiene:
H'(f) debe incluir la resistencia no ruidosa y así:
Gvout(f) = 2RkT | H'(f) | 2
Ejemplo:
g) Cuando se tienen dos fuentes de ruido independientes alimentando a un sistema
lineal, si al menos una de las dos señales tiene media nula, el espectro de potencia a
la salida será la suma de los espectros de cada una de las fuentes por separado.
Demostración:
Cuando la entrada es f1(t) + f2(t), la salida y(t)= y1(t) + y2(t). Calculemos Ry(τ).
Ry(t) = E [ y(t) y(t- τ ) ] =
E [ ( y1(t) + y2(t)) ( y1(t- τ) + y2(t - τ )) ] =
E [y1(t) y1(t- τ )] + E [y2(t)y1(t- τ )] +E[y1(t) y2(t- τ )] + E [y2(t)y2(t- τ ) ]
=
Ry1(τ) + E [ y2(t)] E [ y1(t- τ )] + E [ y1(t)] E [y2(t- τ )] + Ry2(τ)
Ry(τ)= Ry1(τ) + Ry2(τ)
Por lo tanto, al transformar:
Gy(f)= Gy1(f) + Gy2(f)
De ser independientes pero con media no nula, Ry(τ) = E [ y(t) y(t- t )]
quedaría:
Ry(τ) = Ry1(τ) + E [ y2(t)] E[ y1(t- τ )] + E[ y1(t)] E [y2(t- τ )] + Ry2(τ)
Ry(τ) = Ry1(τ) + 2 m2 m1 + Ry2(τ)
Por lo tanto, al transformar:
Gy(f)= Gy1(f) + 2 m2 m1 δ(f) + Gy2(f)
Es decir aparecerá una delta en el origen de frecuencias adicionales a las
propias de y1 y y2.
6.11.- RUIDO BLANCO
Cuando la densidad espectral de potencia de una señal ruidosa es constante con
la frecuencia, se dice que es ruido blanco por analogía con la luz blanca que
tiene todas las componentes de frecuencia ( aunque no en la misma
proporción) dentro de la banda visible del espectro electromagnético.
Además del ruido térmico, existen otras fuentes de ruido que pueden
modelarse como blanco, por ejemplo: el ruido cósmico, el ruido solar, etc. La
densidad espectral G(f) se define como:
La autocorrelación para este tipo de ruido es una delta ubicada en el origen de
τ es decir Rn(τ ) = ( η / 2) δ (τ) , lo que indica que el ruido en cada instante
está decorrelacionado de lo que sucede en cualquier otro intervalo de tiempo.
En el caso de ruido térmico:
ηv= 4RkT
ηi= 4GkT
ηa= kT
Cuando el ruido blanco pasa a través de una red L.T.I , con función de
transferencia H(f), la densidad espectral a la salida viene dada por:
Go(f)= (η/ 2 ) | H(f) |2
La autocorrelación de la señal de salida vendrá dada por la
antitransformada de la densidad espectral, mientras que la potencia
promedio total a la salida del sistema se conseguiría evaluando la
autocorrelación en cero, o integrando en todo el rango de frecuencias
la densidad espectral de potencia. El efecto del filtraje es " colorear" el
ruido y de esta forma, generar correlación entre sus muestras.
6.12.- TEMPERATURA DE RUIDO
Cuando se tiene una fuente de ruido no térmica cuya densidad de potencia
aprovechable es ηa/ 2, se define TN como la temperatura a la cual estaría una
resistencia cuya densidad de potencia aprovechable fuese la misma ηa= k TN;
así TN= ηa/ k.
6.13. -ANCHO DE BANDA EQUIVALENTE
Cuando ruido blanco pasa a través de una red con función transferencia H(f), la
potencia de ruido de salida se calcula como:
Definamos
En ese caso: N0= η BN| H(f) |2 max. Es decir, se busca un filtro ideal
con ancho de banda (hacia f positivo) igual a BN , con ganancia de
voltaje igual a | H(f) | max y que deje pasar la misma cantidad de
potencia que el filtro real.
Ejercicio: Encuentre el ancho de banda equivalente de un filtro pasabajo RC.
Recuerde que H(f) = (1 + jwRC)-1 ; | H(f) | max = 1
6.14.- TRANSMISION DE SEÑALES CON RUIDO
Normalmente el ruido que afecta las transmisiones lo hace en forma aditiva es
decir:
Para ver el efecto del ruido se utiliza la relación señal a ruido ya que el
conocimiento de las características del ruido sin saber las de la señal, no
produce mayor información: No es lo mismo hablar de un ruido con VRMS en
el orden de los milivoltios en un sistema de potencia de alto voltaje, que en una
aplicación en medicina donde las señales tienen órdenes de magnitud similares
(mv). Así:
Si yD(t)= xD(t) + nD(t), RyD(0) = E [xD2(t) + 2 xD(t) nD(t) + nD2(t) ].
Solo si la fuente de ruido es independiente de la de señal y el ruido tiene media
cero ( aunque usualmente la señal tiene nivel DC nulo ), la potencia de salida
será la suma de la potencia de señal más la de ruido.
E [ yD2(t)] = E [ xD2(t) ] + E [ nD2(t) ]
Definiremos la relación señal a ruido detectada a recibida como:
En la práctica uno puede "apagar " la señal y medir la potencia de
ruido. También puede medir a la salida la potencia de señal más ruido ;
en ese caso:
Ejemplo: Suponga el siguiente sistema de transmisión en banda base :
El mensaje x(t), con ancho de banda W, tiene potencia Sx, el transmisor lo
amplifica y la potencia transmitida resulta ST = gT . Sx. Luego el canal
produce una atenuación de potencia L y el receptor una amplificación gR. Así ,
SD = ( gT . Sx . gR )/ L. Por su parte el ruido solo se afecta por gR . Así: ND =
η . gR . W. Finalmente:
Se observa que la relación señal a ruido recibida:
a) No depende de la ganancia del receptor.
b) Es inversamente proporcional al ancho de banda del filtro.
c) Es inversamente proporcional a la atenuación que produce el canal.
Una manera de mejorar la relación señal a ruido es colocando estaciones
repetidoras en zonas intermedias del trayecto de transmisión. Normalmente la
ganancia del repetidor compensa la pérdida del trayecto; de esta forma, la
potencia de señal se mantiene a la salida del sistema
ST = gT . Sx = SD . Por su parte, la potencia de ruido luego de la primera
repetidora queda
ND1 = η . L1 .W. La potencia de este ruido al final de las m repetidoras queda
igual ya que cada pérdida de canal será compensada por la ganancia de cada
repetidora. Sin embargo se irán sumando contribuciones idénticas de ruido,
tantas como repetidoras existan. Al final para m repetidoras
ND = m . η . L1 .W.
Finalmente
Comparando con la relación señal a ruido sin repetidoras se obtiene que:
Para ilustrar esto, considere un sistema basado en líneas de transmisión con
una pérdida de 10 dB/ Km. Para un trayecto de 14 Km, si se coloca una
repetidora en la mitad , L=1014 y L1= 107 ( El receptor se cuenta como
repetidora, por tanto m=2). La ganancia en este caso será de: L/mL1 = 5 x 106 .
Esto es produce una mejora considerable en la relación señal a ruido.
6.15.- RUIDO EN DISPOSITIVOS LINEALES
Además del ruido resistivo, los sistemas lineales como por ejemplo las líneas
de transmisión, los amplificadores, etc. también contaminan la señal que se
desea transmitir. Es por ello necesario cuantificar a través de alguna cifra de
mérito cuanto ruido aporta el dispositivo. Las cifras más usadas son: la figura
de ruido y la temperatura efectiva de ruido.
6.15.1.- Figura de ruido:Considere el siguiente modelo para un sistema lineal
con una banda de trabajo (f0-W/2) a (f0+W/2) que introduce ruido:
La figura de ruido del sistema se determina alimentándolo con ruido térmico a
temperatura ambiente T0= 290°, colocando a la salida una carga cualquiera y
determinando:
F = Pot. total a la salida / Pot. a la salida debida a la fuente
El diagrama sería el siguiente:
En este caso la figura de ruido resultaría:
Si la respuesta del sistema G(f) es constante con la frecuencia e igual a G, la
figura de ruido resultaría:
Si el dispositivo no proporciona ruido, la figura de ruido será igual a 1.
F se acostumbra a especificar en decibeles.
Ejercicio: Determine la figura de ruido de la cascada de 3 amplificadores con
ganancia constante. El modelo aplicable a este caso sería el siguiente:
De este modo la figura de ruido para el sistema total sería:
Esto también se puede escribir como:
Se observa claramente que la primera etapa de la cascada debe ser la menos
ruidosa y además debe proporcionar una alta ganancia.
6.15.2. -Temperatura efectiva de ruido: Esta cifra se basa en el siguiente
modelo:
En este modelo, Te se conoce como la temperatura efectiva de ruido del
dispositivo, es decir, sería la temperatura a la que debiera estar una resistencia
para que, sumada al ruido de entrada, lograra el mismo valor de potencia total
a la salida.
Si la respuesta del sistema es constante con la frecuencia e igual a G, la
potencia total a la salida resultaría igual a:
De donde se deduce que la temperatura efectiva de ruido sería igual a :
Generalmente se coloca la temperatura de entrada igual a la
temperatura ambiente a menos que el sistema esté en cascada con
otro sistema a temperatura arbitraria.
Ejercicio: Determine la temperatura efectiva de ruido de la cascada de 3
amplificadores.
Esto también se puede expresar como:
Al igual que al realizar el análisis de la figura de ruido, se puede
concluir que la primera etapa de la cascada debe ser la menos ruidosa
y además debe proporcionar una alta ganancia.
Ejercicio: Determine la temperatura efectiva de ruido y la figura de ruido de
una línea de transmisión de impedancia característica R0, que produce una
pérdida de potencia L, alimentada por una fuente resistiva R0 y que se termina
con una impedancia acoplada. Asuma que la temperatura a la que se encuentra
la línea es TL.
Cuando se tiene una línea de transmisión con impedancia característica R0 ,
terminada en una carga con este mismo valor, a la salida de la línea se verá
solamente el ruido producido por un conductor colocado a temperatura TL (
ruido térmico). Es decir la potencia de salida POUT será igual a KTLW . Por lo
tanto para una línea de transmisión con una pérdida total de potencia L, la
temperatura efectiva de ruido será:
(G=1/L)Si la temperatura de entrada y la de la línea son iguales, la temperatura
efectiva de la línea de transmisión resultará igual a:
Por otra parte, la figura de ruido resulta:
En general , la relación entre la figura de ruido y la temperatura efectiva de
ruido se consigue colocando la entrada a temperatura ambiente ( también la
línea) y en ese caso resultaría :
Ejercicio:
Una antena está conectada a un receptor de televisión(F=16 dB), a través de un
trozo de línea de transmisión de una longitud tal que la pérdida total que
produce es de 3.75 dB.
a) Determine la figura global de ruido de este sistema
b) Inserte un amplificador exactamente después de la antena y antes de la línea
con F=3dB y G=20 dB. Determine la figura de ruido global.
c)Inserte el mismo amplificador anterior después de la línea de transmisión .
Determine la figura de ruido global.
d) Compare los resultados de b) y c) y concluya.
Solución:
a)En primer lugar dibujemos el modelo del sistema :
De los datos suministrados para el televisor se deduce que :
FdB= 16dB indica que F= 39.81 , es decir
Por otra parte la línea tiene una pérdida en dB de 3.75. Esto indica que L=2.37;
asimismo ,como la línea se coloca a temperatura ambiente para medir la figura
de ruido, se obtiene que Te= T0(L-1)= 1.37 T0.
En este caso la figura de ruido total queda:
b) Ahora al insertar el amplificador después de la antena el sistema
queda :
El amplificador tiene una figura de ruido de 3 dB, por lo tanto
Ahora la figura de ruido global quedará:
c) Ahora al colocar el amplificador después de la línea el modelo quedará:
Ahora la figura de ruido resultará:
d) La figura de ruido resulta menor en el caso b) , es decir cuando el
amplificador se conecta antes de la línea de transmisión. Por esto es
conveniente colocar siempre el amplificador a la salida de la antena.
6.16. -DISTORSION
El ruido no es la única fuente de contaminación en los sistemas de
comunicaciones. Existe también distorsión debida a la respuesta imperfecta de
los diferentes bloques que conforman el sistema. Entre ellas destacan:
-Distorsión lineal (De amplitud y/o fase)
-Distorsión no-lineal
Distorsión lineal: En un sistema lineal , se dice que la señal a su salida no está
distorsionada si se cumple que:
siendo x(t) la señal de entrada. Para un sistema lineal esto sería lo mismo que
decir que la función transferencia o respuesta en frecuencia del sistema vendría
dada por:
es decir que la magnitud es constante con la frecuencia e igual a K y la fase
tiene un comportamiento lineal con la frecuencia e igual a -( ωtd ± mπ). Si
estas condiciones no se cumplen, se presentará el fenómeno de distorsión lineal
el cual cambiará la forma de la señal recibida. Cuando la magnitud de H(f) no
es constante , se produce distorsión de amplitud. Cuando la fase de H(f) no es
lineal con la frecuencia se producirá distorsión o retardo de fase. Imagine por
ejemplo que la señal enviada es una periódica que sabemos está constituída por
infinitas armónicas distanciadas f0 (frecuencia fundamental) , con amplitudes y
fase determinadas. Si la magnitud de la función transferencia no es constante
con la frecuencia, la contribución de cada armónica no será la adecuada para
contribuir con la formación de la periódica y por ende la salida no preservará la
forma original. Tampoco se preservaría si la respuesta en fase del sistema no es
lineal con la frecuencia.
Distorsión no-lineal:
El considerar que el sistema por el que pasa la señal es lineal, generalmente es
una simplificación que es válida solo para ciertas circunstancias (p.e. pequeñas
señales). Lamentablemente en la mayoría de los casos estas condiciones no se
cumplen y hay necesariamente que utilizar un modelo no-lineal. Con distorsión
no-lineal, la amplitud y la fase cambian con el voltaje de entrada Vin de la
siguiente forma:
Cuando el sistema no es lineal, la salida y(t) y la entrada x(t) pueden
relacionarse a través de una ecuación característica que puede ser del siguiente
tipo:
que al transformarla produce:
En ese caso aún siendo la señal x(t) de ancho de banda finito, la salida
no solo perderá semejanza con la entrada sino que ocupará un ancho
de banda mayor. Si existieran canales adyacentes, aparecerá
interferencia en los mismos.
En la práctica , por ejemplo, los amplificadores producen distorsión no-lineal y
si se alimentaran con un tono puro, x(t) = A Cos(ω0t+F), la salida y(t) tendría
la siguiente forma:
y(t) =k0 + k1Cos(ω0t+Φ1) + k2Cos(2ω0t+ Φ2) + k3Cos(3ω0t+ Φ 3)+.......
De esta forma , se puede definir la distorsión armónica total como:
Otro tipo de distorsión es la distorsión por intermodulación (DI) , la cual se
determina alimentando el sistema con 2 tonos y observando los términos
adicionales que aparecen.
Si x(t) = A1Senω1t + A2Senω2t la salida y(t) será:
y(t) = k0 + k1Senω1t + k2Senω2t + k3Sen2ω1t + k4Sen2ω2t + k5Senω1t Senω2t +
k6Sen3ω1t + k7Sen2ω1t Senω22t +k8Senω1t Sen2ω2t+........
Se observan términos de frecuencia 2f2 + f1, 2f1 + f2 , 2f2 - f1 , etc.
Este tipo de distorsión es característica de los amplificadores pasabanda y los
de RF usados en transmisores y receptores.
Otro tipo de distorsión presente a la salida de un amplificador no lineal es la
modulación cruzada (cross-modulación). Los términos de la modulación
cruzada tienen las mismas frecuencias originales (ω1 y ω2), pero amplitudes
cruzadas; es decir aparecerá un tono de frecuencia ω1 y amplitud relacionada a
la amplitud del tono original de frecuencia ω2 y viceversa.
Por ejemplo si se tiene
x(t) = A1(1+m1(t))Senω1t + A2Senω2t , el término de orden 3 arrojará un
elemento del tipo :
k (1+m1(t))2Senω2t
Retardo de grupo:
Para un tono puro, se define el retardo de fase rp(ω) como:
donde q(ω ) es la respuesta de fase del sistema.
Para una señal modulada, como tiene gran cantidad de frecuencias, ya esta
relación no se cumple. En general algunas componentes viajarán más lento que
otras, con una regla no lineal, y esto producirá distorsión. En estos casos se
habla del retardo de grupo definido como:
Las componentes del retardo de grupo se relacionan con los siguientes tipos de
distorsión:
-Si q( ω ) es parabólico se habla de retardo lineal ( Distorsión de segundo
orden). Este tipo de distorsión altera la relación de fase entre las bandas
laterales.
-Si q( ω ) es cúbico se habla de retardo parabólico ( Distorsión de primero y
tercer orden). Este tipo de distorsión altera la relación de fase entre las bandas
laterales y la portadora.
Si existe una combinación de las dos anteriores se le llama ripple residual.