Download Sistemas Estocásticos

Document related concepts
no text concepts found
Transcript
1. Sistemas Estocásticos
1. Sistemas Estocásticos _____________________________________________ 1
1.1. Introducción ________________________________________________________ 2
1.2. Perturbaciones ______________________________________________________ 2
1.3. Conceptos de Probabilidad ____________________________________________ 3
1.3.1. Variable aleatoria ___________________________________________________ 5
1.3.2. Función de Distribución. ______________________________________________ 5
1.3.3. Función Densidad. __________________________________________________ 6
1.3.4. Probabilidad Condicional _____________________________________________ 7
1.3.5. Esperanza. ________________________________________________________ 7
1.3.6. Momentos ________________________________________________________ 8
1.3.7. Varianza__________________________________________________________ 8
1.3.8. Tipos de Distribución ________________________________________________ 9
1.3.9. Correlación________________________________________________________ 9
1.3.10. Covarianza _______________________________________________________ 9
1.4. Proceso Aleatorio ___________________________________________________ 10
1.4.1. Funciones de Distribución____________________________________________ 11
1.4.2. Esperanza de un Proceso Estocástico ____________________________________ 11
1.4.3. Autocorrelación ___________________________________________________ 11
1.4.4. Autocovarianza ____________________________________________________ 11
1.4.5. Correlación Cruzada ________________________________________________ 12
1.4.6. Covarianza Cruzada ________________________________________________ 12
1.4.7. Proceso Estacionario________________________________________________ 12
1.4.8. Vector de Proceso Aleatorio __________________________________________ 14
1.4.9. Secuencias Estocásticas______________________________________________ 15
1.4.10. Continuidad _____________________________________________________ 16
1.4.11. Diferenciación ___________________________________________________ 17
1.4.12. Integración ______________________________________________________ 18
1.5. Procesos Especiales __________________________________________________ 19
1.5.1. Proceso Estocástico Discreto __________________________________________ 19
1.5.2. Procesos Independientes _____________________________________________ 19
1.5.3. Procesos Incorrelados _______________________________________________ 19
1.5.4. Proceso Blanco____________________________________________________ 19
1.5.5. Procesos Estocásticos Ergódicos _______________________________________ 20
1.5.6. Proceso de Wiener _________________________________________________ 21
1.5.7. Proceso de Markov _________________________________________________ 21
1.6. Modelos Estocásticos ________________________________________________ 22
1.6.1. Modelos Continuos en Ecuaciones Diferenciales ___________________________ 22
1.6.2. Procesos Discretos _________________________________________________ 24
1.6.3. Modelos Discretos en Variables de Estado ________________________________ 24
1.6.4. Modelo Continuo en Variables de Estado _________________________________ 26
1.7. Referencias_________________________________________________________ 30
1
1.1. Introducción
Los sistemas estadísticos están relacionados, en control con la imposibilidad de
modelizar alguna parte del proceso a estudiar.
Citar ejemplos industriales.
Sensor de nivel
1.2. Perturbaciones
Un caso típico de modelización son las perturbaciones que puede tener una planta,
ya sea por una imprecisión en la medición, la aparición de una carga o variación propia de
la planta.
-
Perturbación de carga: carga mecánica de un motor, olas en un barco, etc. Son
generalmente lentas o de bajas frecuencias.
-
Error de medición: puede ser un error estático de calibración o con componentes
de alta frecuencia muy importantes. Una solución habitual es filtrar esta señal
con el consiguiente retardo de la misma.
-
Variación de Parámetros: debidas a una variación del punto de trabajo o a
derivas del propio sistema.
El último tipo de perturbación se estudia como un cambio en el modelo de la planta
en cambio los dos primeros se pueden modelizar como una dinámica adicional al sistema
original.
1.5
1.5
25
1.5
1
20
1
1
0.5
15
0.5
0.5
0
10
-0.5
0
0
-0.5
-0.5
5
0
5
10
15
20
25
30
0
5
10
15
20
25
30
0
-1
0
5
10
15
20
25
30
-1.5
0
20
40
60
80
100
Figura 1-1. Cuatro tipos diferentes de perturbaciones: de corta duración, carga
constante, deriva y periódica
Estas perturbaciones se podrían pensar como la respuesta impulsional de un sistema
Gn
2
Figura 1-2. Diagrama de bloques de una perturbación y su efecto sobre la planta
Las perturbaciones que serán materia de estudio en este trabajo no se podrán
representar
1
1.5
0.9
1
0.8
0.7
0.5
0.6
0.5
0
0.4
-0.5
0.3
0.2
-1
0.1
0
-1.5
0
5
10
15
20
25
30
0
5
10
15
20
25
30
Figura 1-3. Perturbaciones de tipo estadístico
1.3. Conceptos de Probabilidad
La Teoría de Probabilidad trata fenómenos que pueden ser modelados por
experimentos cuyos resultados están gobernados por el azar (se denominan experimentos
aleatorios). Estos experimentos aleatorios están caracterizados por
•
Los experimentos son repetibles bajo idénticas condiciones
•
El resultado de un experimento es impredecible
•
Si el experimento se realiza un gran número de veces, el resultado exhibe un
cierta regularidad estadística (se observa un comportamiento promedio).
Se define un conjunto S que engloba todos los sucesos posibles de una variable. Es
decir, el conjunto total corresponde al suceso cierto y el conjunto vacío es el suceso
imposible. Se definen sobre este conjunto σ de operaciones, a saber:
A + B significa que ocurre el suceso A o el suceso B
A ⋅ B significa que ocurre el suceso A y el suceso B
3
Si A ⋅ B = 0 implica que los sucesos A y B son excluyentes, que no pueden ocurrir
simultáneamente.
A ⊂ B significa que si ocurre el suceso A , ocurre B
A es el complemento de A. Si ocurre A no puede ocurrir su complemento.
Denominamos evento o suceso a uno de los posibles resultados de un experimento
aleatorio. Cada suceso ocurrirá con una probabilidad determinada y la probabilidad de que
ocurra alguno de los suceso es total. Por comodidad se asigna el valor 1 a la certeza total, es
decir que la probabilidad de que ocurra cualquier suceso individualmente será menor que la
unidad y también no negativa.
Otra forma de verse es la siguiente: Sea A un evento y se supone que en n
realizaciones del experimento, el evento A ocurre N n ( A) veces. La frecuencia relativa
asociada al evento A es el cociente
N n ( A)
n
[1.1]
que verifica
0≤
N n ( A)
≤1
n
Si el evento A no ocurre nunca, entonces N n ( A) n = 0 , en tanto que si ocurre las
n veces que se realiza el experimento N n ( A) n = 1.
A medida que aumenta n, la frecuencia relativa converge a un valor y este se
definirse como probabilidad de ocurrencia del evento A:
 N ( A) 
P ( A ) = lim  n

n→∞
 n 
[1.2]
Puede pensarse que un experimento aleatorio y sus resultados definen un espacio
con sus puntos. Este espacio se denomina espacio muestral (el conjunto de todos los
posibles resultados del experimento) y sus puntos se denominan muestras. Denotaremos al
espacio muestral con S. El espacio muestral completo S se denomina evento seguro, en
tanto que el conjunto vacío ∅ se denomina evento nulo o imposible.
Se puede ahora definir axiomáticamente la probabilidad diciendo que un sistema de
probabilidad consiste de la tripla:
i. Un espacio muestral S de eventos elementales (resultados de experimento)
ii. Una clase
de eventos que son un subconjunto de S.
iii. Una medida de probabilidad P (• ) asignada a cada evento A en la clase
, que tiene
las siguientes propiedades
ε
ε
4
(i)
(ii)
(iii)
P (S ) = 1
0 ≤ P ( A) ≤ 1
Si A + B es la unión de dos eventos mutuamente excluyentes en la clase
ε , entonces
P ( A + B ) = P ( A ) + P (B )
(iv)
(v)
(vi)
Si A ⋅ B = 0 ⇒ P ( A + B ) = P ( A) + P ( B )
Si A y B no son mutuamente excluyentes entonces
P( A + B ) = P ( A) + P ( B ) − P ( A ⋅ B )
Si A1 ,L An son excluyentes P( A1 + L + An ) = P ( A1 ) + L + P ( An )
(vii) P ( A) = 1 − P ( A)
(viii) La Probabilidad del suceso imposible es 0.
1.3.1. Variable aleatoria
En la teoría de probabilidad, una variable aleatoria escalar X es considerada como el
resultado de un experimento en un espacio muestral que representa la colección de las
posibles salidas. Cuando la variable aleatoria X puede asumir sólo un número finito de
valores en cualquier intervalo finito de observación, se dice que X es una variable aleatoria
discreta. Si en cambio, la variable aleatoria X puede tomar cualquier valor en el intervalo de
observación, se dice que la misma es una variable aleatoria continua.
Para describir las propiedades de las variables aleatorias se necesita dar una
descripción probabilística de las mismas.
Para una variable aleatoria X se puede definir su probabilidad en función de un valor
x, es decir la probabilidad del evento X ≤ x . Esta probabilidad se denota:
P (X ≤ x)
[1.3]
1.3.2. Función de Distribución.
Es claro que esta probabilidad es función de la variable muda x. Se define entonces
a ésta como la función de densidad de probabilidad acumulada FX ( x ) :
FX (x ) = P( X ≤ x )
[1.4]
o simplemente función de distribución de la variable aleatoria X.
Esta función es no decreciente
F X (-∞ ) = 0
F X ( ∞)=1
[1.5]
5
1
0.8
0.6
0.4
0.2
0
0
20
40
60
80
100
De igual modo se define la función de distribución conjunta de dos variables
aleatorias como:
FX ,Y (x, y ) = P ( X ≤ x, Y ≤ y )
[1.6]
1.3.3. Función Densidad.
Una descripción alternativa de la probabilidad de una variable aleatoria X se logra
usando la derivada de FX ( x ) para obtener la función de densidad de probabilidad de la
variable aleatoria X.
fX ( x) =
dFX ( x )
dx
[1.7]
1
0.8
0.6
0.4
0.2
0
0
20
40
60
80
100
El nombre densidad de probabilidad se debe a que la probabilidad de que
x1 ≤ X ≤ x2 se obtiene como:
P ( x1 ≤ X ≤ x2 ) = ∫ f X ( x ) dx
x2
x1
[1.8]
Es decir que la probabilidad de que X ∈ [x1 , x 2 ] es igual al área bajo la curva de
densidad de probabilidad en ese intervalo.
Es fácil de ver que para X asumiendo valores en el intervalo (a,b) la función de
distribución está dada por:
FX ( x ) = ∫ f X (ξ ) dξ
x
a
[1.9]
y haciendo el extremo inferior −∞ resulta
x
FX ( x) =
∫f
X
(x)dx
[1.10]
-∞
6
Como la probabilidad del evento cierto X < b es FX (b ) = 1 y la probabilidad del
evento imposible X < a es FX (a ) = 0 , se concluye que
∫
b
a
f X ( x ) dx = 1
[1.11]
donde podría resultar que a = −∞ y b = +∞ .
También se define la función de densidad de probabilidad conjunta de las variables
aleatorias X e Y del siguiente modo:
f X ,Y ( x, y ) =
∂ 2 FX ,Y ( x, y )
∂x ∂y
[1.12]
1.3.4. Probabilidad Condicional
Consideremos un experimento que involucra un par de eventos A y B. Denotamos
con P (B | A ) a la probabilidad del evento B dado que el evento A ocurrió. La probabilidad
P (B | A ) se denomina probabilidad condicional de B dado A. Asumiendo que A tiene
probabilidad no nula, la probabilidad condicional resulta
P ( B | A) =
P ( AB )
P ( A)
[1.13]
donde P ( AB ) es la probabilidad conjunta de A y B.
Es fácil ver que
P ( AB ) = P ( B | A ) P ( A )
[1.14]
P ( AB ) = P ( A | B ) P ( B )
[1.15]
Teorema de Bayes
P ( B | A) =
P ( A | B) P ( B )
P ( A)
[1.16]
Si se verifica que P ( A | B ) = P ( A) , entonces P ( AB ) = P ( A ) P ( B ) , y se dice que
los eventos A y B son estadísticamente independientes.
1.3.5. Esperanza.
Para analizar el comportamiento promedio de los resultados de un experimento
aleatorio se define la media o valor esperado de la variable aleatoria X como:
∞
E ( x , k 1 ) = ∫ ξ f x ( k 1 ,ξ ) dξ = m( k 1 )
[1.17]
-∞
7
la esperanza es una función de k pero ya es una variable determinística.
es lineal
E ( ∑ )= ∑( E )
[1.18]
1.3.6. Momentos
Se define también el momento de orden n de la función de distribución de
probabilidad de la variable aleatoria X , como:
E  X n  = ∫ x n f X ( x ) dx
b
[1.19]
a
El momento de primer orden (n=1) es el valor medio o valor esperado de la variable
aleatoria X. El momento de segundo orden (n=2) es el valor medio cuadrático de X.
De forma similar, se definen los momentos centrados de orden n que no son más
que los momentos de la diferencia entre la variable aleatoria X y su valor medio m X , es
decir:
n
E ( X − m X )  =


∫ (x −m )
b
a
X
n
f X ( x ) dx
[1.20]
Cuando se considera un par de variables aleatorias X e Y , un conjunto de
parámetros estadísticos importantes en este caso son los momentos conjuntos definidos
como:
E  X iY k  = ∫
b
a
∫
b
a
xi y k f X ,Y ( x, y ) dx dy
[1.21]
donde f X ,Y ( x, y ) es la función de densidad de probabilidad conjunta de las
variables aleatorias X e Y.
1.3.7. Varianza
Para n=1 el momento central resulta nulo, en tanto que para n=2 resulta el momento
central de 2do orden y se denomina varianza de la variable aleatoria X, y se denota:
2
2
σ 2X = var [ X ] = E ( X − mX )  = ∫ ( x − m X ) f X ( x ) dx

 a
b
[1.22]
Las raíz cuadrada de la varianza, o sea σ X , se denomina desviación estándar de la
variable aleatoria X.
La varianza de una variable aleatoria es en cierta forma una medida del grado de
aleatoriedad de la variable, ya que da una indicación de cuánto se desvía la variable con
respecto a su valor medio. Más precisamente, se verifica la siguiente desigualdad de
Chebyshev:
8
σ 2X
P ( X − mX ≥ ε ) ≤ 2
ε
[1.23]
para cualquier número positivo ε .
1.3.8. Tipos de Distribución
Una variable aleatoria (escalar) se dice que tiene una distribución Gaussiana o
Normal si su función de densidad de probabilidad está dada por:
pX ( x ) =
1
σX
 ( x − mX )2 
exp −

2σ 2X 
2π

[1.24]
Es fácil de probar que los momentos de orden n, con n ≥ 3 , quedan unívocamente
determinados por los momentos de primer y segundo orden, o sea el valor medio m X y la
varianza σ 2X .
Cuando una variable aleatoria tiene distribución Gaussiana, se denota:
(
X ∈ N µ X , σ 2X
)
Las variables Gaussianas juegan una papel muy importante ya que se encuentran
frecuentemente cuando se hacen análisis estadísticos de numerosos sistemas físicos.
1.3.9. Correlación
Un momento conjunto de gran importancia es la correlación definida por E [X Y ]
que corresponde a i = k = 1 en [1.21].
E [ XY ] = ∫
b
a
∫
b
a
xyf X ,Y ( x, y ) dxdy
[1.25]
Se dice que las variables son ortogonales si y sólo si su correlación es cero, i.e.
E [ XY ] = 0
[1.26]
1.3.10. Covarianza
Las correlaciones entre las variables centradas E [X − E [X ]] e E [Y − E [Y ]] se
denomina covarianza de X e Y, y se denota:
r XY (j,k)=cov  X jYk  = E  ( X j - m Xj ) (Yk - mYk )
= ∫ ∫ ( x - m Xj ) ( y - mYk ) f(X,Y,j,k) dx,dy
[1.27]
llamando mX = E [ X ] y mY = E [Y ] resulta:
r XY (j,k)=cov  X jYk  = E  X jYk  − mXj mYk
[1.28]
9
Se dice que dos variables aleatorias X e Y están no correlacionadas si y sólo si su
covarianza es cero, es decir
r XY (j,k)= 0
[1.29]
Se define de igual manera la Autocorrelación para una única variable.
2
rX (j,k)= cov  X j  = E ( X j - m Xj ) 


[1.30]
= ∫ ∫ ( x - m Xj ) f(X,j,k) dx 2
2
y si X fuese un vector
rx (j,k)=E ( X j − m Xj ) ( X k − m Xk )
 r 11 L L L


r12 r 22 L L

=
 r 13 r 23 r 33 L


 L L L L
[1.31]
1.4. Proceso Aleatorio
Se consideran ahora señales que son función del tiempo y que son aleatorias en el
sentido que antes de llevar a cabo un experimento no es posible describir exactamente la
forma de onda que presentarán las señales observadas. En este caso, cada elemento del
espacio muestral es una función del tiempo x j ( t ) . El conjunto de funciones del tiempo
(espacio muestral) se denomina proceso aleatorio o proceso estocástico que se denotará
X (t ) .
2
1.8
1.6
1.4
1.2
1
0.8
0.6
0.4
0.2
0
0
5
10
15
20
25
30
Figura 1-4. Diferentes realizaciones de un proceso estocástico
Para cada instante de tiempo se tiene una variable aleatoria. Se asume entonces la
existencia una distribución de probabilidad definida sobre una apropiada clase de conjuntos
del espacio muestral.
10
1.4.1. Funciones de Distribución
Para conocer un proceso estocástico se necesitaría saber la función de distribución
de probabilidades en todo instante condicionada a los tiempos anteriores y posteriores. Es
decir:
FX ( X (t1 ) , X ( t2 ) ,L X ( tn ) , t1 , t2 ,L ,t n ) = P ( X ( t1 ) ≤ xt1, X ( t 2 ) ≤ xt 2, L X ( tn ) ≤ xtn )
[1.32]
para todo tiempo t y todo n
Esto en la práctica es imposible obtener por lo que se definen las funciones de
distribución de primer y segundo orden. La función de distribución de primer orden
corresponde a la distribución de la variable en un tiempo dado
FX ( X (t0 ) , t0 ) = P ( X ( t0 ) ≤ xt 0 )
[1.33]
Si se quieren relacionar dos tiempos se utiliza la distribución de segundo orden
FX ( X (t1 ) , X ( t2 ) , t1 , t2 ) = P ( X ( t1 ) ≤ xt1, X ( t 2 ) ≤ xt 2 )
[1.34]
1.4.2. Esperanza de un Proceso Estocástico
Para un proceso aleatorio X (t ) se define la media de X (t ) como el valor esperado
de la variable aleatoria obtenida observando el proceso en algún tiempo t, o sea:
m X ( t ) = E x ( t ) =
∫
+∞
−∞
xf X (t ) ( x ) dx
[1.35]
donde f X (t ) ( x ) es la función de densidad de probabilidad de primer orden del
proceso. Debe notarse que la media es una función determinística.
1.4.3. Autocorrelación
La función de autocorrelación del proceso X (t ) se define como el valor esperado
del producto de las variables aleatorias X (t1 ) y X (t2 ) en los instantes t1 y t2
respectivamente, es decir:
+∞
RX (t 1, t2 ) = E  X ( t1 ) X ( t2 ) = ∫
−∞
∫
+∞
−∞
x1 x2 f X (t1 ) X (t2 ) ( x1 , x2 )dx1dx2
[1.36]
donde f X ( t1 )X (t 2 ) ( x1, x2 ) es la función de densidad de probabilidad de segundo
orden.
1.4.4. Autocovarianza
La función de autocovarianza del proceso estocástico X (t ) se define como:
C X ( t1 , t2 ) = E ( X (t1 ) − mX (t1 ) )( X (t2 ) − mX (t2 ) )  = R X ( t1 , t2 ) − mX (t1 )mX (t2 )
[1.37]
11
1.4.5. Correlación Cruzada
Para el caso más general de tener dos procesos aleatorios X (t ) e Y (t ) con
funciones de auto correlación RX ( t1, t2 ) y RY ( t1 , t2 ) respectivamente, se definen las dos
funciones de correlación cruzada:
RXY (t1 , t2 ) = E  X ( t1 ) Y ( t 2 ) 
RYX ( t1, t2 ) = E Y (t1 ) X (t 2 )
[1.38]
Las propiedades de correlación de los dos procesos se pueden representar entonces
en forma matricial, definiendo la matriz de correlación de los procesos aleatorios X (t ) e
Y (t ) como:
 R (t , t ) R XY ( t1, t2 )
R ( t1, t2 ) =  X 1 2

 RYX ( t1 , t2 ) RY ( t1 , t2 ) 
[1.39]
1.4.6. Covarianza Cruzada
De igual modo, para dos procesos estocásticos se define la función de covarianza
cruzada como:
C XY ( t1, t2 ) = E ( X (t1 ) − m X ( t1 ) )(Y (t2 ) − mY ( t2 ) ) = R XY ( t1, t2 ) − mX (t1 ) mY ( t2 )
[1.40]
Se dice que dos procesos son incorrelados si su covarianza cruzada es nula para
todo t o sea:
C XY ( t1, t2 ) = 0
RXY (t1 , t2 ) = mX (t1 ) mY ( t2 )
[1.41]
Se dice que dos procesos son ortogonales si su correlación cruzada es nula para
todo t o sea:
RXY ( t1 , t2 ) = 0
[1.42]
1.4.7. Proceso Estacionario
Un proceso aleatorio X ( t ) se dice estrictamente estacionario si la distribución
conjunta de cualquier conjunto de variables aleatorias obtenidas observando el proceso
aleatorio X ( t ) es invariante con respecto a la ubicación del origen t = 0 . Si se denota
X ( t1 ) , X ( t2 ) , L X ( t k ) las variables aleatorias obtenidas observando el proceso X ( t ) en
los instantes t1 , t2 ,L tk , entonces el proceso es estacionario en sentido estricto si:
FX (t1 +τ ), X (t2 +τ ),LX (tk +τ ) (x1, x2 , L, xk ) = FX (t1 ), X (t2 ),L X (tk ) (x1 , x2 ,L, xk )
[1.43]
12
para todo intervalo de tiempo τ , todo k, y todas las posibles elecciones de los
tiempos t1 , t2 ,L tk , donde FX ( t1 ), X ( t2 ),LX (t k ) ( x1, x2 ,L , xk ) es la función de distribución
conjunta de las variables aleatorias X ( t1 ) , X ( t2 ) , L X ( t k ) .
Se deduce que para un proceso estacionario, f X (t ) ( x ) es independiente de t y por lo
tanto:
mX ( t ) = mX ∀t
[1.44]
Para un proceso estacionario, la función de autocorrelación depende sólo de la
diferencia t1 - t2 , es decir:
R X (t1 , t2 ) = R X (t1 − t2 ) ∀t1 , t2
[1.45]
Un proceso aleatorio X (t ) cuya función de auto correlación está dada por:
E [X (t ) − X (t − τ )] = R X (τ ) = r δ (τ )
[1.46]
con r ≥ 0 se denomina ruido blanco. Resulta fácil de verificar que el espectro de
densidad de potencia es constante para todas las frecuencias.
Un proceso aleatorio para el cual se verifican las dos condiciones anteriores se
denomina estacionario en sentido amplio. Un proceso aleatorio que es estrictamente
estacionario es estacionario en sentido amplio, pero lo opuesto no se verifica.
Si los procesos aleatorios X (t ) e Y (t ) son cada uno estacionarios y además son
conjuntamente estacionarios, entonces la matriz de correlación puede escribirse como:
 R X (τ ) R XY (τ )
R (τ ) = 

 RYX (τ ) RY (τ ) 
[1.47]
donde τ = t1 − t2
Una restricción menor es definir un proceso estrictamente estacionario de orden n
donde la condición [1.43] se cumple para todo k ≤ n . Por ejemplo un proceso estrictamente
estacionario de primer orden es
FX ( t1 +τ ) ( x1 ) = FX ( t1 ) ( x1 )
[1.48]
en este caso sigue valiendo la independencia de la media respecto del tiempo.
Uno de segundo orden será
FX ( t1 +τ ), X (t2 +τ ) ( x1 , x2 ) = FX (t1 ), X (t2 ) ( x1 , x2 )
[1.49]
aquí las propiedades estadísticas no dependen del tiempo en sí sino de la distancia
entre muestras temporales.
13
-
Propiedades
RXY (τ ) = RYX ( −τ )
T
i.
RX (τ ) = R X ( −τ )
[1.50]
T
ii.
RX ( 0 ) ≥ 0
[1.51]
iii.
RXY 2 (τ ) ≤ RX ( 0 ) RY ( 0 )
[1.52]
iv.
RX (τ ) ≤ RX ( 0 )
[1.53]
v. Procesos periódicos de período Ten sentido medio cuadrático cuando se cumple
2
E ( X (t) − X (t + T ) )  = 0 ∀t


[1.54]
vi. Si RX ( 0 ) = R X (T ) se verifica que el proceso es periódico ya que
2
E ( X (t) − X (t + T ) )  = Rx (0) − 2Rx (T ) + Rx (0) = 0


1.4.8. Vector de Proceso Aleatorio
En las secciones anteriores se trataron las variables aleatorias escalares. En esta
parte se generalizan las relaciones presentadas para el caso de vectores n-dimensionales
compuestos por procesos aleatorios escalares, de la forma:
x (t ) = [x1 (t ) x2 (t ) L xn (t )]
T
[1.55]
Consideraremos vectores de procesos aleatorios Gaussianos con valor esperado
nulo. La función de densidad de probabilidad para estos vectores estará dada por:
()
px =
(
2π
)
1
n
(
[ ])
 1
exp − x − E x
 2
det R
T
(
[ ])

R −1 x − E x 

[1.56]
donde R es la matriz de covarianza de x definida por:
[(
[ ]) (x − E[x ]) ]
R=E x−E x
T
[1.57]
Esta matriz R es simétrica perteneciente a ℜ n×n y para el caso en consideración
resulta de la forma:
14
E

R=



[x (t ) ]
2
1
0
M
0
[
0
E x 2 (t )
0
0
2
]
L
L
O
L E
0
0
M






[1.58]
[x (t ) ]
n
2
ya que no existe correlación entre diferentes muestras. Por otra parte, R se puede
expresar en forma alternativa como:
0
 R x1 (0 )
 0
R x 2 (0 )
R=
 M
0

0
 0
L

L
0 

O
M 

L R xn (0 )
0
[1.59]
o bien

2
 x1 (t )

R= 0
 M

 0
0
x2 (t )
2
0
0

0 
L
0 

O
M 
2
L xn (t ) 
L
[1.60]
Esta última forma de expresar la matriz de covarianza R del vector de proceso
aleatorio Gaussiano x (t ) , muestra que la misma es una matriz diagonal en la cual la
diagonal principal está conformada por los valores cuadráticos medios (rms) de las
componentes del vector aleatorio x (t ) .
1.4.9. Secuencias Estocásticas
Una secuencia estocástica { xk (ζ )} es una variable aleatoria con un número finito k
de muestras en el tiempo para cada realización ζ y que convergerá a la variable aleatoria
x (ζ ) cuando el número de muestras tienda a infinito. La convergencia de la secuencia a la
variable aleatoria se puede expresar de diferentes maneras:
i.
ii.
xk
{ xk } converge a x con probabilidad 1 si lim
k →∞
{ xk }
=x
converge a x en probabilidad si lim P ( xk − x ≥ ε ) = 0 y se representa como
p lim xk = x
k →∞
k →∞
iii.
{ xk } converge a x en sentido medio cuadrático si
-
2
E  xk  ≤ ∞ ∀k


15
-
2
lim E  xk − x  = 0 y se expresa l.i.m. xk = x


k →∞
La i implica la iii y la iii implica la ii. Se usa más la iii .
-
Propiedades de la convergencia SMC
Sean los siguientes elementos:
-
{ xk } { yk } {vk } tres secuencias aleatorias
-
z una variable aleatoria
-
{ck } una secuencia determinística y
-
a y b dos constantes
-
l.i.m. xk = x , l.i.m. y k = y , l.i.m.vk = v , limck = c
k →∞
se verifica,
l.i.m.ck = lim ck = c
i.
k →∞
l.i.m. z = z
ii.
iii.
l.i.m. zck = zc
iv.
l.i.m. ( axk + byk ) = ax + by es lineal
E [ x ] = E [l.i.m. xk ] = E [ xk ] , el operador E y el límite son conmutables
v.
E [ xy ] = lim E [x k y k ] y E  x 2  = lim E  xk 2 
vi.
vii. si E [ x k yk ] = E [vk ] entonces E [ xy ] = E [v ]
1.4.10. Continuidad
La definición de continuidad en una función determinística es la siguiente:
lim x (t + ε ) = x (t )
ε →0
Pero esta definición es muy restrictiva para variables aleatorias. Se utiliza la
continuidad en sentido medio cuadrático:
l.i.m. x (t + h ) = x(t )
h→0
[1.61]
o su equivalente
16
2
lim E  x(t + h ) − x (t )  = 0


h →0
[1.62]
esto último implica
lim [ R (t + h , t + h ) − R(t + h, t) − R (t , t + h ) + R (t ,t )] = 0
h →0
[1.63]
si R (t,τ ) es continua para (t ,t ) o sea τ = t decimos que el proceso es continuo
Un proceso estacionario es continuo si y sólo si R(0) es continua
1.4.11. Diferenciación
x (t) es derivable en sentido medio cuadrático en t si existe el
 x( t + h ) − x ( t )  &
lim 
 = x (t )
h →0
h

[1.64]
 x ( t + h ) − x( t ) & 
lim E 
− x ( t ) = 0
h →0
h


[1.65]
otra forma de expresarlo es decir que x (t) es derivable en sentido medio cuadrático
en t si existe
∂ 2 R (t ,τ )
en (t,t).
∂t∂τ
Si ∃ para (t,t) significa que ∃∀(t,τ )
existe
∂ 2 R (t ,τ )
∂ 2C (t,τ )
en (t,t) sii ∃ m& (t ) y ∃
en (t,t)
∂t∂τ
∂t∂τ
∂ 2 R (t )
sii ∃
en t=0
∂t 2
-
Propiedades
∂dE [x (t ) ]
= m& x (t )
∂dt
i.
mx& (t ) = E [x& (t )] =
ii.
Rxx& (t,τ ) = E [ x& ( t )x (τ )]
∂
∂R (t, τ )
E [x (t )x (τ )] = x
∂t
∂t
iii.
Rxx&& (t,τ ) = E [ x& ( t )x& (τ )]
∂ d
∂ 2 Rx (t ,τ )
E [x (t )x (τ )] =
∂t dτ
∂t∂τ
iv.
Rx ( m x( n (t ,τ ) =
∂ m +n Rx (t ,τ )
∂t m ∂τ n
Para procesos estacionarios
17
∂Rx (t )
∂t
i.
Rxx& (t ) =
ii.
Rxx& (t ) = −
iii.
∂ 2 R x (t ,τ )
Rxx&& (t ) =
∂t 2
iv.
Rx ( m x( n (t , τ ) = ( −1)
∂Rx ( t)
∂t
m
∂ m + n R x (t )
∂t m + n
1.4.12. Integración
se toma un intervalo de tiempo [a , b] y se lo particiona en n subintervalos tales que
a = t0 < t1 L < tn = b
sea ρ = max(ti +1 − ti )
i
sea ti' ∈ T / ti ≤ ti' ≤ t i +1
Se dice que x es integrable en sentido medio cuadrático en [a , b] si ∃ lo siguiente
n−1
b
i=0
a
l.i.m. ∑ x(ti' ) ( ti +1 − ti ) = S = ∫ x (t )dt
ρ →0
[1.66]
Teorema:
El proceso x es integrable sii Rx (t ,τ ) es integrable en [a , b ] × [ a, b ]
Teorema:
Rx (t ,τ ) es integrable sii mx (t ) es integrable en
[a , b ] × [ a, b ]
[a , b]
y C x (t,τ ) es integrable en
Teorema:
El proceso x es integrable si mx (t ) es continua ∀ t ∈ [ a, b ]
Los operadores esperanza e integral son conmutables,
b
 b
E  ∫ x( t )dt  = ∫ mx (t )dt
a
 a
[1.67]
y
18
d
b
 b
E  ∫ x( t )dt ∫ x (τ )dτ  = ∫
c
a
 a
d
∫ R (t, τ )dtdτ
[1.68]
x
c
1.5. Procesos Especiales
1.5.1. Proceso Estocástico Discreto
Son procesos en donde la aleatoriedad interviene en algunos instantes de tiempo
1.5
1
0.9
1
0.8
0.7
0.5
0.6
0
0.5
0.4
-0.5
0.3
0.2
-1
0.1
-1.5
0
5
10
15
20
0
0
5
10
15
20
1.5.2. Procesos Independientes
Se debe cumplir que para todo instante de tiempo,
n
P [ X (t1 ) ≤ x1, X (t 2 ) ≤ x 2 L X (tn ) ≤ xn ] = ∏ Pi [ X (ti ) ≤ xi ]
[1.69]
i =1
se podría expresar en función de la densidad o distribución.
Si se trata de dos procesos X e Y se dice que son independientes si
P [ X (t1 ) ≤ x1 ,L, X (tn ) ≤ xn , Y ( t1 ) ≤ y1 ,L , Y ( tn ) ≤ yn ] =
= P [ X (t1 ) ≤ x1 ,L, X (tn ) ≤ xn ] P [Y (t1 ) ≤ y1 ,L ,Y ( tn ) ≤ yn ]
[1.70]
1.5.3. Procesos Incorrelados
Un proceso es incorrelado consigo mismo cuando
RX (t, τ ) = E [ X (t )] E [ X (t )] ∀t,τ
T
[1.71]
Un proceso independiente es incorrelado. No siempre ocurre al revés.
Dos procesos son incorrelados si
RXY (t,τ ) = E [ X (t) ] E [ Y (t )] ∀t ,τ
T
[1.72]
1.5.4. Proceso Blanco
Si un proceso tiene una distribución Gaussiana, es estacionario e independiente se
denomina proceso blanco
19
xk es totalmente independiente de xj ∀ k ≠ j
x(k,δ) = secuencia de elementos independientes
covarianza
σ 2 τ =0
r( τ ) = 
0 ∀ τ ≠ 0
[1.73]
φ( ω ) = σ ∀ ω
2π
2
La mayoría de los procesos estacionarios pueden generarse a partir del filtrado del
ruido blanco. Es como el impulso de los sistemas deterministas.
1.5.5. Procesos Estocásticos Ergódicos
Para un proceso estocástico es posible calcular la media temporal de cada
realización como sigue:
m X (T ) =
1
2T
∫
T
−T
x ( t ) dt
[1.74]
Esta media es obviamente una variable aleatoria que depende del intervalo de
observación − T ≤ t ≤ T .
Si se calcula la correlación promediada temporalmente, para cada realización,
1
R (τ ) = lim
T →∞ 2T
T
∫ x (t + τ ) x (t )dt
[1.75]
−T
que constituye un proceso estocástico.
Sería de mucha utilidad que la media temporal coincida con la media del proceso
estudiado así como su correlación. De este modo bastaría con conocer una sola realización
para conocer todo el proceso.
Un proceso aleatorio se dice ergódico si se verifican las siguientes condiciones:
i.
ii.
iii.
iv.
lím mX (T ) = mX
T →∞
lim var m X (T ) = 0
T →∞
lím R X (τ , T ) = R X (τ )
T →∞
lím var  RX (τ , T ) = 0
T →∞
20
En este caso se puede substituir el cálculo de la esperanza por la integral
1
T →∞ 2T
lim
T
∫ x (t)dt
−T
1.5.6. Proceso de Wiener
Se dice que un proceso x es un proceso de Wiener si el proceso z = x (t ) − x (τ ) es en
realidad una variable aleatoria independiente. Además se debe cumplir que
i.
ii.
E[ x( t )] = 0
x (0) = 0
iii. la varianza de z es proporcional
R( z ) = R ( x(t ) − x(τ )) = σ 2 (t − τ )
a
la
diferencia
de
triempos:
1.5.7. Proceso de Markov
Un proceso estocástico se dice de Markov de primer orden si la probabilidad
condicionada de un elemento solo depende de su valor anterior es decir
p[ xk | xk −1 , xk −2 ........] = p[ xk | xk −1 ]
[1.76]
o sea
xk +1 = axk + fvk
[1.77]
el valor futuro de x solo depende de su valor actual y de v.
Si v es ruido blanco genera una proceso de Markov.
Si x depende de valores anteriores se puede hacer lo siguiente
 x1k +1   0 1   x1 k   0 
 x  = a a   x  +  f  vk
2 2k 
 
 2 k +1   1
[1.78]
lo que matricialmente resulta
xk +1 = Axk + Fvk
[1.79]
21
xk-1
vk
xk
Iz-1
F
+
+
A
vk
F
nk
xk-1
uk
xk
Iz -1
B
+
+
C
+
yk
A
1.6. Modelos Estocásticos
En un proceso determinístico se deben dar las condiciones iniciales. En lo sucesivo
se utilizarán sistemas diferenciables en el sentido medio cuadrático en los cuales se cumple
 dx (t )  dE [x (t ) ]
m x& (t ) = E 
=
= m& x (t )
dt
 dt 
[1.80]
1.6.1. Modelos Continuos en Ecuaciones Diferenciales
El modelo de la planta se expresará igual que en control clásico pero tendrá una
entrada y una salida estocástica. A fin de simplificar se toma el siguiente ejemplo:
an y n ) (t ) + L + a0 y (t ) = x (t )
[1.81]
con condiciones iniciales,
x (t < 0) = 0
y (0) = y& (0) = L = y n −1) (0) = 0
[1.82]
Para obtener la esperanza en un tiempo dado se hace,
22
E a n y n ) (t ) + L + a0 y ( t)  = E [x (t )] =
= a n E  y n ) ( t ) + L + a 0 E [ y (t )] =
[1.83]
d n E [y ( t ) ]
= an
+ L + a 0 E [ y ( t ) ] = E [x ( t ) ]
dt n
o lo que es lo mismo haciendo my (t ) = E [y (t )] y mx (t ) = E [x (t )]
an m y (t ) + L + a0m y (t ) = mx ( t)
n)
[1.84]
es como trabajar con variables determinísticas.
Se puede obtener las siguientes relaciones para la correlación y autocorrelación:
an
d n RXY (t1, t2 )
+ L + a0 RXY (t1, t2 ) = R X (t1 ,t2 )
dt2 n
d i RXY (t1 ,0)
=0
dt2 i
an
d n RYY ( t1 ,t2 )
+ L + a 0 RYY (t1 ,t2 ) = RXY (t1, t2 )
dt1n
d i RYY (0, t2 )
=0
dt1i
[1.85]
[1.86]
Es simple ver esto ya que si se multiplica ambos miembros por x (t1 ) ,
x (t1 ) a n y n ) (t2 ) + L + a 0 y ( t2 )  = x (t1 ) x (t2 )
[1.87]
tomando esperanza,
an E  x( t1 ) y n ) (t2 ) + L + a0 E [x (t1 ) y (t2 ) ] = E [x (t1 ) x (t2 )]
[1.88]
se puede intercambiar la esperanza con la derivada,
an
∂ n E [x (t1 ) y (t2 )]
+ L + a0 E [x (t1 ) y (t2 )] = E [x ( t1 ) x (t2 )]
n
∂t2
[1.89]
y reemplazando la esperanza del producto por la correlación, se llega a la ec[1.85]
De forma similar se puede deducir la ec[1.86]
y (t2 )  an y n ) (t1 ) + L + a0 y (t1 )  = y (t2 ) x( t1 )
[1.90]
23
1.6.2. Modelo de Procesos Discretos
Se utilizan ecuaciones en diferencias,
an y k −n + L + a0 yk = xk
[1.91]
en donde se utiliza mk −n = E [ yk − n ]
El tratamiento de estos modelos es igual a los anteriores excepto la utilización de
ecuaciones en diferencias.
1.6.3. Modelos Discretos en Variables de Estado
En el caso determinístico se representa al vector de estados como
xk +1 = g ( x k , k )
[1.92]
xk +1 = g ( xk , k ) + δ ( xk , k )
[1.93]
en adelante se exigirán las siguientes condiciones
i. que δ sea un proceso de Markov y por lo tanto x también lo será.
ii. que δ tenga una distribución normal es decir que se pueda expresar como
δ ( xk , k ) = σ ( x k , k) ⋅ ek donde e es un proceso normal, independiente, de media
nula, varianza unitaria y σ es la matriz de correlación.
iii. que g sea lineal en x o sea que se pueda expresar g ( xk , k ) = Φ k +1,k xk
iv. que δ sea independiente de x es decir σ ( xk , k ) = Γk
Contemplando estas condiciones se puede reescribir la ecuación de estados como:
xk +1 = Φk +1,k xk + Γ k ek
[1.94]
con la condición inicial
Rxx (0) = Rxx 0
-
[1.95]
Resolución
Se sabe que δ ( xk , k ) y δ ( x j , j) son independientes para todo k y j. El ruido que
afecta a cada variable de estado es independiente en cada instante y a su vez independiente
de los estados y se cumple que su media es
0 
E [δ k ] =  M 
 
0 
[1.96]
24
y su autocovarianza
 r11k L r1nk 
E δ kδ kT  =  M O M  = Rk


 rn1k L rnnk 
[1.97]
¿Cómo se calcula la media del estado?
E [ xk +1 ] = mxk +1 = Φ k +1, k m xk + 0
[1.98]
mk =0 = m0
Para calcular la autocovarianza, por simplicidad, se supone que m = 0 . Esto se
puede hacer definiendo otra variable z que cumpla zk = x k − m k . Por comodidad
utilizaremos x en lugar de z.
x j = Φ j , k xk + Φ j ,k +1δ k + L + Φ j , j −1δ j −2 + δ j −1
[1.99]
Φ j ,k = Φ j , j −1Φ j −1, j −2 L Φ k +1,k
[1.100]
T
E  x j xk  = Φ j ,k Pk
[1.101]
como el vector de estados y el ruido son independientes se cumple que E [Φ δ ] = 0
por lo que P es directamente la covarianza de xk . Pero se ha obtenido la función de
autocorrelación en función de la covarianza que no se conoce.
xk +1 xkT+1 =  Φ k +1,k xk + δ k  Φ k +1, k xk + δ k 
T
[1.102]
tomando esperanza,
E  xk +1 xkT+1  = Φ k+ 1,k Pk Φ kT+1, k + Rxk 1 = Pk +1
Rx 01 = Pk 0
[1.103]
así se calcula la evolución de la covarianza P.
Un caso particular es cuando Φ k +1,k = Φ = cte en donde la covarianza resulta
k −1
Pk = ΦRx 01Φ T + ∑ Φ j Rxk 1 ( Φ T )
j
[1.104]
j =0
sumatoria que convergerá si Φ tiene valores propios menores a 1.
25
1.6.4. Modelo Continuo en Variables de Estado
-
Modelo Erróneo
Si se define el modelo de la forma
dx( t )
= f ( x, t ) + υ ( x, t)
dt
[1.105]
con υ cumpliendo las siguientes condiciones,
i. υ ( x, t ) es independiente de υ ( x , s ) , ∀t ≠ s
ii. υ ( x, t ) tiene varianza finita
iii. υ ( x, t ) es continuo de segundo orden en el sentido medio cuadrático
iv. υ ( x, t ) tiene media nula
En este contexto se verifica que la varianza
E υ ( x, t )υ T ( x, t )  = 0
[1.106]
Una señal que no tiene ni varianza ni media es idénticamente nula por lo tanto el
modelo no es adecuado.
-
Reformulación del Modelo en Ecuaciones Diferenciales
La ecuación
dx (t )
= f ( x, t) se puede plantear como
dt
x (t + h ) − x (t ) = f ( x, t )h + O( t)
[1.107]
con h → 0
Introduciendo el ruido,
x (t + h ) − x( t ) = f ( x, t )h + υ( t + h ) − υ ( t ) + O(t )
[1.108]
suponiendo que es un proceso de Wiener,
υ ( t + h ) − υ ( t ) = σ ( x, t ) (W ( t + h ) − W (t ) )
[1.109]
tomando esperanza
E [x (t + h ) − x (t )] = f ( x, t)h + O (h )
[1.110]
ya que E [W ] = 0
y la covarianza es
26
2
Var [ x ( t + h ) − x (t )] = σ (2x, t ) E (W (t + h) − W ( t) )  + O 2 (h )


2
2
= σ ( x, t ) h + O (h )
[1.111]
no se podemos llevarlo al límite de h ya que υ (t + ) − υ ( t) → ∞ . Se debe dejar en
forma diferencial. Esto es una ecuación diferencial estocástica:
dx (t ) = f ( x, t) dt + σ ( x, t ) dW
[1.112]
su versión lineal es
dx (t ) = A( t) x( t )dt + σ ( x, t) dW
[1.113]
en esta ecuación se cumple que E  dW 2  = dt
Hay que tener en cuenta que el signo de h puede llevar a resultados diferentes.
-
Modelo en Ecuaciones Integrales
t
t
t0
t0
x (t ) = x (t0 ) + ∫ f ( x( s ), s )ds + ∫ σ ( x( s ), s )dW ( s)
-
[1.114]
Proceso Estocástico ARMA.
MA
y k = e k + b 1 e k-1 + L + b n e k-n
[1.115]
AR
y k + a 1 y k-1 + L + a n y k-n = e k
[1.116]
ARMA
y k + a1 y k-1 + L + an y k-n = ek + b1ek −1 + L + bnek −n
[1.117]
Agregar
Secuencias Pseudoaleatorias (PRBS)
(τ )
ρ x (τ ) = rx
r x (0)
[1.118]
se cumple que
r x ( τ ) ≤ r x (0)
[1.119]
27
ρ puede ser negativa
si ρ es 1 son valores fuertemente relacionados
ρ = 0 son elementos no relacionados
ρ < 0 relacionados negativamente
Ruido Blanco
Proceso estacionario
xk es totalmente independiente de xj ∀ k ≠ j
x(k,δ) = secuencia de elementos independientes
covarianza
σ 2 τ =0
r( τ ) = 
0 ∀ τ ≠ 0
[1.120]
φ( ω ) = σ ∀ ω
2π
2
La mayoría de los procesos estacionarios pueden generarse a partir del filtrado del
ruido blanco. Es como el impulso de los sistemas deterministas.
expresado en función de la respuesta impulsional
(u no es ruido blanco)
k
yk =
∑
n= -∞
∞
g k -n un = ∑ g n uk -n
[1.121]
n= 0
28
∞
∞
n =0
n= 0
m y k = Ey k = E ∑ g n uk -n = ∑ g n mu k -n
[1.122]
es como tener un sistema determinista excitado por mu
∞
y k - m y k = ∑ g n  u k-n - m u k-n 
[1.123]
n=0
para calcular la covarianza podemos simplificar el cálculo haciendo mu = 0 o sea
my = 0
r y( τ ) = E y k+τ y k
 ∞

= E  ∑ g n u k+τ -n 

 n=0
∞
∞
∑g u
l
k-l
l= 0
∞
= ∑ ∑ g n g l E [ u k+τ -n u k-l



[1.124]
]
n=0 l= 0
∞
∞
= ∑ ∑ g n g l r uτ +l-n
n=0 l= 0
∞
ryu ( τ ) = E y k+τ u k = ∑g n r uτ -n
[1.125]
n=0
Φ y( ω ) = Φ yy( ω ) =
=
1
2π
1
=
2π
=
1
2π
∞
1
2π
∞
∑e
-jnω
∞
∞
∑ e ∑∑g
-jnω
n= -∞
∞
∞
∑ ∑ ∑e
-jk ω
k=0 n=- ∞ l= 0
∑e
k
g l r u n+l-k =
k=0 l= 0
∞
∞
r y(n) =
n=- ∞
-jkω
∞
gk
k=0
[1.126]
gk e
∑e
-jlω
-jlω
gl e
∞
gl
l= 0
-j(n+l-k)ω
∑e
r un+l-k =
-j(n+l-k)ω
run
n=- ∞
la respuesta impulsional es
∞
G(z)= ∑ g n z -n
n=0
z=e
jωT
T=1
[1.127]
jω
-jω
Φ y( ω ) = G ( e ) G ( e ) Φ u( ω )
igualmente
29
Φ yu( ω ) =
1
2π
1
2π
∞
∑e
-jnω
n=- ∞
∞
r yu n =
∞
∑e ∑ e
= G (e ) Φ ( ω )
=
-jkω
n=- ∞
k= 0
-jkω
1
2π
∞
-j(n-k)ω
∞
∑ e ∑g
n=- ∞
-jnω
k
r u n-k
k= 0
[1.128]
r u n-k
u
Secuencias Pseudoaleatorias (PRBS)
x
y
s
0
0
0
0
1
1
1
0
1
1
1
0
0
1
0
0
0
0
1
0
0
0
0
1
0
1
0
0
1
1
1
0
0
m=4
N = 2 m-1 = 8
1.7. Referencias
[1] Haykin, Simon (1994). Communication Systems, John Wiley & Sons, Inc., New York.
Astrom
Papoulis
Kwakernaak
Athans
30