Download Sistemas Estocásticos
Document related concepts
no text concepts found
Transcript
1. Sistemas Estocásticos 1. Sistemas Estocásticos _____________________________________________ 1 1.1. Introducción ________________________________________________________ 2 1.2. Perturbaciones ______________________________________________________ 2 1.3. Conceptos de Probabilidad ____________________________________________ 3 1.3.1. Variable aleatoria ___________________________________________________ 5 1.3.2. Función de Distribución. ______________________________________________ 5 1.3.3. Función Densidad. __________________________________________________ 6 1.3.4. Probabilidad Condicional _____________________________________________ 7 1.3.5. Esperanza. ________________________________________________________ 7 1.3.6. Momentos ________________________________________________________ 8 1.3.7. Varianza__________________________________________________________ 8 1.3.8. Tipos de Distribución ________________________________________________ 9 1.3.9. Correlación________________________________________________________ 9 1.3.10. Covarianza _______________________________________________________ 9 1.4. Proceso Aleatorio ___________________________________________________ 10 1.4.1. Funciones de Distribución____________________________________________ 11 1.4.2. Esperanza de un Proceso Estocástico ____________________________________ 11 1.4.3. Autocorrelación ___________________________________________________ 11 1.4.4. Autocovarianza ____________________________________________________ 11 1.4.5. Correlación Cruzada ________________________________________________ 12 1.4.6. Covarianza Cruzada ________________________________________________ 12 1.4.7. Proceso Estacionario________________________________________________ 12 1.4.8. Vector de Proceso Aleatorio __________________________________________ 14 1.4.9. Secuencias Estocásticas______________________________________________ 15 1.4.10. Continuidad _____________________________________________________ 16 1.4.11. Diferenciación ___________________________________________________ 17 1.4.12. Integración ______________________________________________________ 18 1.5. Procesos Especiales __________________________________________________ 19 1.5.1. Proceso Estocástico Discreto __________________________________________ 19 1.5.2. Procesos Independientes _____________________________________________ 19 1.5.3. Procesos Incorrelados _______________________________________________ 19 1.5.4. Proceso Blanco____________________________________________________ 19 1.5.5. Procesos Estocásticos Ergódicos _______________________________________ 20 1.5.6. Proceso de Wiener _________________________________________________ 21 1.5.7. Proceso de Markov _________________________________________________ 21 1.6. Modelos Estocásticos ________________________________________________ 22 1.6.1. Modelos Continuos en Ecuaciones Diferenciales ___________________________ 22 1.6.2. Procesos Discretos _________________________________________________ 24 1.6.3. Modelos Discretos en Variables de Estado ________________________________ 24 1.6.4. Modelo Continuo en Variables de Estado _________________________________ 26 1.7. Referencias_________________________________________________________ 30 1 1.1. Introducción Los sistemas estadísticos están relacionados, en control con la imposibilidad de modelizar alguna parte del proceso a estudiar. Citar ejemplos industriales. Sensor de nivel 1.2. Perturbaciones Un caso típico de modelización son las perturbaciones que puede tener una planta, ya sea por una imprecisión en la medición, la aparición de una carga o variación propia de la planta. - Perturbación de carga: carga mecánica de un motor, olas en un barco, etc. Son generalmente lentas o de bajas frecuencias. - Error de medición: puede ser un error estático de calibración o con componentes de alta frecuencia muy importantes. Una solución habitual es filtrar esta señal con el consiguiente retardo de la misma. - Variación de Parámetros: debidas a una variación del punto de trabajo o a derivas del propio sistema. El último tipo de perturbación se estudia como un cambio en el modelo de la planta en cambio los dos primeros se pueden modelizar como una dinámica adicional al sistema original. 1.5 1.5 25 1.5 1 20 1 1 0.5 15 0.5 0.5 0 10 -0.5 0 0 -0.5 -0.5 5 0 5 10 15 20 25 30 0 5 10 15 20 25 30 0 -1 0 5 10 15 20 25 30 -1.5 0 20 40 60 80 100 Figura 1-1. Cuatro tipos diferentes de perturbaciones: de corta duración, carga constante, deriva y periódica Estas perturbaciones se podrían pensar como la respuesta impulsional de un sistema Gn 2 Figura 1-2. Diagrama de bloques de una perturbación y su efecto sobre la planta Las perturbaciones que serán materia de estudio en este trabajo no se podrán representar 1 1.5 0.9 1 0.8 0.7 0.5 0.6 0.5 0 0.4 -0.5 0.3 0.2 -1 0.1 0 -1.5 0 5 10 15 20 25 30 0 5 10 15 20 25 30 Figura 1-3. Perturbaciones de tipo estadístico 1.3. Conceptos de Probabilidad La Teoría de Probabilidad trata fenómenos que pueden ser modelados por experimentos cuyos resultados están gobernados por el azar (se denominan experimentos aleatorios). Estos experimentos aleatorios están caracterizados por • Los experimentos son repetibles bajo idénticas condiciones • El resultado de un experimento es impredecible • Si el experimento se realiza un gran número de veces, el resultado exhibe un cierta regularidad estadística (se observa un comportamiento promedio). Se define un conjunto S que engloba todos los sucesos posibles de una variable. Es decir, el conjunto total corresponde al suceso cierto y el conjunto vacío es el suceso imposible. Se definen sobre este conjunto σ de operaciones, a saber: A + B significa que ocurre el suceso A o el suceso B A ⋅ B significa que ocurre el suceso A y el suceso B 3 Si A ⋅ B = 0 implica que los sucesos A y B son excluyentes, que no pueden ocurrir simultáneamente. A ⊂ B significa que si ocurre el suceso A , ocurre B A es el complemento de A. Si ocurre A no puede ocurrir su complemento. Denominamos evento o suceso a uno de los posibles resultados de un experimento aleatorio. Cada suceso ocurrirá con una probabilidad determinada y la probabilidad de que ocurra alguno de los suceso es total. Por comodidad se asigna el valor 1 a la certeza total, es decir que la probabilidad de que ocurra cualquier suceso individualmente será menor que la unidad y también no negativa. Otra forma de verse es la siguiente: Sea A un evento y se supone que en n realizaciones del experimento, el evento A ocurre N n ( A) veces. La frecuencia relativa asociada al evento A es el cociente N n ( A) n [1.1] que verifica 0≤ N n ( A) ≤1 n Si el evento A no ocurre nunca, entonces N n ( A) n = 0 , en tanto que si ocurre las n veces que se realiza el experimento N n ( A) n = 1. A medida que aumenta n, la frecuencia relativa converge a un valor y este se definirse como probabilidad de ocurrencia del evento A: N ( A) P ( A ) = lim n n→∞ n [1.2] Puede pensarse que un experimento aleatorio y sus resultados definen un espacio con sus puntos. Este espacio se denomina espacio muestral (el conjunto de todos los posibles resultados del experimento) y sus puntos se denominan muestras. Denotaremos al espacio muestral con S. El espacio muestral completo S se denomina evento seguro, en tanto que el conjunto vacío ∅ se denomina evento nulo o imposible. Se puede ahora definir axiomáticamente la probabilidad diciendo que un sistema de probabilidad consiste de la tripla: i. Un espacio muestral S de eventos elementales (resultados de experimento) ii. Una clase de eventos que son un subconjunto de S. iii. Una medida de probabilidad P (• ) asignada a cada evento A en la clase , que tiene las siguientes propiedades ε ε 4 (i) (ii) (iii) P (S ) = 1 0 ≤ P ( A) ≤ 1 Si A + B es la unión de dos eventos mutuamente excluyentes en la clase ε , entonces P ( A + B ) = P ( A ) + P (B ) (iv) (v) (vi) Si A ⋅ B = 0 ⇒ P ( A + B ) = P ( A) + P ( B ) Si A y B no son mutuamente excluyentes entonces P( A + B ) = P ( A) + P ( B ) − P ( A ⋅ B ) Si A1 ,L An son excluyentes P( A1 + L + An ) = P ( A1 ) + L + P ( An ) (vii) P ( A) = 1 − P ( A) (viii) La Probabilidad del suceso imposible es 0. 1.3.1. Variable aleatoria En la teoría de probabilidad, una variable aleatoria escalar X es considerada como el resultado de un experimento en un espacio muestral que representa la colección de las posibles salidas. Cuando la variable aleatoria X puede asumir sólo un número finito de valores en cualquier intervalo finito de observación, se dice que X es una variable aleatoria discreta. Si en cambio, la variable aleatoria X puede tomar cualquier valor en el intervalo de observación, se dice que la misma es una variable aleatoria continua. Para describir las propiedades de las variables aleatorias se necesita dar una descripción probabilística de las mismas. Para una variable aleatoria X se puede definir su probabilidad en función de un valor x, es decir la probabilidad del evento X ≤ x . Esta probabilidad se denota: P (X ≤ x) [1.3] 1.3.2. Función de Distribución. Es claro que esta probabilidad es función de la variable muda x. Se define entonces a ésta como la función de densidad de probabilidad acumulada FX ( x ) : FX (x ) = P( X ≤ x ) [1.4] o simplemente función de distribución de la variable aleatoria X. Esta función es no decreciente F X (-∞ ) = 0 F X ( ∞)=1 [1.5] 5 1 0.8 0.6 0.4 0.2 0 0 20 40 60 80 100 De igual modo se define la función de distribución conjunta de dos variables aleatorias como: FX ,Y (x, y ) = P ( X ≤ x, Y ≤ y ) [1.6] 1.3.3. Función Densidad. Una descripción alternativa de la probabilidad de una variable aleatoria X se logra usando la derivada de FX ( x ) para obtener la función de densidad de probabilidad de la variable aleatoria X. fX ( x) = dFX ( x ) dx [1.7] 1 0.8 0.6 0.4 0.2 0 0 20 40 60 80 100 El nombre densidad de probabilidad se debe a que la probabilidad de que x1 ≤ X ≤ x2 se obtiene como: P ( x1 ≤ X ≤ x2 ) = ∫ f X ( x ) dx x2 x1 [1.8] Es decir que la probabilidad de que X ∈ [x1 , x 2 ] es igual al área bajo la curva de densidad de probabilidad en ese intervalo. Es fácil de ver que para X asumiendo valores en el intervalo (a,b) la función de distribución está dada por: FX ( x ) = ∫ f X (ξ ) dξ x a [1.9] y haciendo el extremo inferior −∞ resulta x FX ( x) = ∫f X (x)dx [1.10] -∞ 6 Como la probabilidad del evento cierto X < b es FX (b ) = 1 y la probabilidad del evento imposible X < a es FX (a ) = 0 , se concluye que ∫ b a f X ( x ) dx = 1 [1.11] donde podría resultar que a = −∞ y b = +∞ . También se define la función de densidad de probabilidad conjunta de las variables aleatorias X e Y del siguiente modo: f X ,Y ( x, y ) = ∂ 2 FX ,Y ( x, y ) ∂x ∂y [1.12] 1.3.4. Probabilidad Condicional Consideremos un experimento que involucra un par de eventos A y B. Denotamos con P (B | A ) a la probabilidad del evento B dado que el evento A ocurrió. La probabilidad P (B | A ) se denomina probabilidad condicional de B dado A. Asumiendo que A tiene probabilidad no nula, la probabilidad condicional resulta P ( B | A) = P ( AB ) P ( A) [1.13] donde P ( AB ) es la probabilidad conjunta de A y B. Es fácil ver que P ( AB ) = P ( B | A ) P ( A ) [1.14] P ( AB ) = P ( A | B ) P ( B ) [1.15] Teorema de Bayes P ( B | A) = P ( A | B) P ( B ) P ( A) [1.16] Si se verifica que P ( A | B ) = P ( A) , entonces P ( AB ) = P ( A ) P ( B ) , y se dice que los eventos A y B son estadísticamente independientes. 1.3.5. Esperanza. Para analizar el comportamiento promedio de los resultados de un experimento aleatorio se define la media o valor esperado de la variable aleatoria X como: ∞ E ( x , k 1 ) = ∫ ξ f x ( k 1 ,ξ ) dξ = m( k 1 ) [1.17] -∞ 7 la esperanza es una función de k pero ya es una variable determinística. es lineal E ( ∑ )= ∑( E ) [1.18] 1.3.6. Momentos Se define también el momento de orden n de la función de distribución de probabilidad de la variable aleatoria X , como: E X n = ∫ x n f X ( x ) dx b [1.19] a El momento de primer orden (n=1) es el valor medio o valor esperado de la variable aleatoria X. El momento de segundo orden (n=2) es el valor medio cuadrático de X. De forma similar, se definen los momentos centrados de orden n que no son más que los momentos de la diferencia entre la variable aleatoria X y su valor medio m X , es decir: n E ( X − m X ) = ∫ (x −m ) b a X n f X ( x ) dx [1.20] Cuando se considera un par de variables aleatorias X e Y , un conjunto de parámetros estadísticos importantes en este caso son los momentos conjuntos definidos como: E X iY k = ∫ b a ∫ b a xi y k f X ,Y ( x, y ) dx dy [1.21] donde f X ,Y ( x, y ) es la función de densidad de probabilidad conjunta de las variables aleatorias X e Y. 1.3.7. Varianza Para n=1 el momento central resulta nulo, en tanto que para n=2 resulta el momento central de 2do orden y se denomina varianza de la variable aleatoria X, y se denota: 2 2 σ 2X = var [ X ] = E ( X − mX ) = ∫ ( x − m X ) f X ( x ) dx a b [1.22] Las raíz cuadrada de la varianza, o sea σ X , se denomina desviación estándar de la variable aleatoria X. La varianza de una variable aleatoria es en cierta forma una medida del grado de aleatoriedad de la variable, ya que da una indicación de cuánto se desvía la variable con respecto a su valor medio. Más precisamente, se verifica la siguiente desigualdad de Chebyshev: 8 σ 2X P ( X − mX ≥ ε ) ≤ 2 ε [1.23] para cualquier número positivo ε . 1.3.8. Tipos de Distribución Una variable aleatoria (escalar) se dice que tiene una distribución Gaussiana o Normal si su función de densidad de probabilidad está dada por: pX ( x ) = 1 σX ( x − mX )2 exp − 2σ 2X 2π [1.24] Es fácil de probar que los momentos de orden n, con n ≥ 3 , quedan unívocamente determinados por los momentos de primer y segundo orden, o sea el valor medio m X y la varianza σ 2X . Cuando una variable aleatoria tiene distribución Gaussiana, se denota: ( X ∈ N µ X , σ 2X ) Las variables Gaussianas juegan una papel muy importante ya que se encuentran frecuentemente cuando se hacen análisis estadísticos de numerosos sistemas físicos. 1.3.9. Correlación Un momento conjunto de gran importancia es la correlación definida por E [X Y ] que corresponde a i = k = 1 en [1.21]. E [ XY ] = ∫ b a ∫ b a xyf X ,Y ( x, y ) dxdy [1.25] Se dice que las variables son ortogonales si y sólo si su correlación es cero, i.e. E [ XY ] = 0 [1.26] 1.3.10. Covarianza Las correlaciones entre las variables centradas E [X − E [X ]] e E [Y − E [Y ]] se denomina covarianza de X e Y, y se denota: r XY (j,k)=cov X jYk = E ( X j - m Xj ) (Yk - mYk ) = ∫ ∫ ( x - m Xj ) ( y - mYk ) f(X,Y,j,k) dx,dy [1.27] llamando mX = E [ X ] y mY = E [Y ] resulta: r XY (j,k)=cov X jYk = E X jYk − mXj mYk [1.28] 9 Se dice que dos variables aleatorias X e Y están no correlacionadas si y sólo si su covarianza es cero, es decir r XY (j,k)= 0 [1.29] Se define de igual manera la Autocorrelación para una única variable. 2 rX (j,k)= cov X j = E ( X j - m Xj ) [1.30] = ∫ ∫ ( x - m Xj ) f(X,j,k) dx 2 2 y si X fuese un vector rx (j,k)=E ( X j − m Xj ) ( X k − m Xk ) r 11 L L L r12 r 22 L L = r 13 r 23 r 33 L L L L L [1.31] 1.4. Proceso Aleatorio Se consideran ahora señales que son función del tiempo y que son aleatorias en el sentido que antes de llevar a cabo un experimento no es posible describir exactamente la forma de onda que presentarán las señales observadas. En este caso, cada elemento del espacio muestral es una función del tiempo x j ( t ) . El conjunto de funciones del tiempo (espacio muestral) se denomina proceso aleatorio o proceso estocástico que se denotará X (t ) . 2 1.8 1.6 1.4 1.2 1 0.8 0.6 0.4 0.2 0 0 5 10 15 20 25 30 Figura 1-4. Diferentes realizaciones de un proceso estocástico Para cada instante de tiempo se tiene una variable aleatoria. Se asume entonces la existencia una distribución de probabilidad definida sobre una apropiada clase de conjuntos del espacio muestral. 10 1.4.1. Funciones de Distribución Para conocer un proceso estocástico se necesitaría saber la función de distribución de probabilidades en todo instante condicionada a los tiempos anteriores y posteriores. Es decir: FX ( X (t1 ) , X ( t2 ) ,L X ( tn ) , t1 , t2 ,L ,t n ) = P ( X ( t1 ) ≤ xt1, X ( t 2 ) ≤ xt 2, L X ( tn ) ≤ xtn ) [1.32] para todo tiempo t y todo n Esto en la práctica es imposible obtener por lo que se definen las funciones de distribución de primer y segundo orden. La función de distribución de primer orden corresponde a la distribución de la variable en un tiempo dado FX ( X (t0 ) , t0 ) = P ( X ( t0 ) ≤ xt 0 ) [1.33] Si se quieren relacionar dos tiempos se utiliza la distribución de segundo orden FX ( X (t1 ) , X ( t2 ) , t1 , t2 ) = P ( X ( t1 ) ≤ xt1, X ( t 2 ) ≤ xt 2 ) [1.34] 1.4.2. Esperanza de un Proceso Estocástico Para un proceso aleatorio X (t ) se define la media de X (t ) como el valor esperado de la variable aleatoria obtenida observando el proceso en algún tiempo t, o sea: m X ( t ) = E x ( t ) = ∫ +∞ −∞ xf X (t ) ( x ) dx [1.35] donde f X (t ) ( x ) es la función de densidad de probabilidad de primer orden del proceso. Debe notarse que la media es una función determinística. 1.4.3. Autocorrelación La función de autocorrelación del proceso X (t ) se define como el valor esperado del producto de las variables aleatorias X (t1 ) y X (t2 ) en los instantes t1 y t2 respectivamente, es decir: +∞ RX (t 1, t2 ) = E X ( t1 ) X ( t2 ) = ∫ −∞ ∫ +∞ −∞ x1 x2 f X (t1 ) X (t2 ) ( x1 , x2 )dx1dx2 [1.36] donde f X ( t1 )X (t 2 ) ( x1, x2 ) es la función de densidad de probabilidad de segundo orden. 1.4.4. Autocovarianza La función de autocovarianza del proceso estocástico X (t ) se define como: C X ( t1 , t2 ) = E ( X (t1 ) − mX (t1 ) )( X (t2 ) − mX (t2 ) ) = R X ( t1 , t2 ) − mX (t1 )mX (t2 ) [1.37] 11 1.4.5. Correlación Cruzada Para el caso más general de tener dos procesos aleatorios X (t ) e Y (t ) con funciones de auto correlación RX ( t1, t2 ) y RY ( t1 , t2 ) respectivamente, se definen las dos funciones de correlación cruzada: RXY (t1 , t2 ) = E X ( t1 ) Y ( t 2 ) RYX ( t1, t2 ) = E Y (t1 ) X (t 2 ) [1.38] Las propiedades de correlación de los dos procesos se pueden representar entonces en forma matricial, definiendo la matriz de correlación de los procesos aleatorios X (t ) e Y (t ) como: R (t , t ) R XY ( t1, t2 ) R ( t1, t2 ) = X 1 2 RYX ( t1 , t2 ) RY ( t1 , t2 ) [1.39] 1.4.6. Covarianza Cruzada De igual modo, para dos procesos estocásticos se define la función de covarianza cruzada como: C XY ( t1, t2 ) = E ( X (t1 ) − m X ( t1 ) )(Y (t2 ) − mY ( t2 ) ) = R XY ( t1, t2 ) − mX (t1 ) mY ( t2 ) [1.40] Se dice que dos procesos son incorrelados si su covarianza cruzada es nula para todo t o sea: C XY ( t1, t2 ) = 0 RXY (t1 , t2 ) = mX (t1 ) mY ( t2 ) [1.41] Se dice que dos procesos son ortogonales si su correlación cruzada es nula para todo t o sea: RXY ( t1 , t2 ) = 0 [1.42] 1.4.7. Proceso Estacionario Un proceso aleatorio X ( t ) se dice estrictamente estacionario si la distribución conjunta de cualquier conjunto de variables aleatorias obtenidas observando el proceso aleatorio X ( t ) es invariante con respecto a la ubicación del origen t = 0 . Si se denota X ( t1 ) , X ( t2 ) , L X ( t k ) las variables aleatorias obtenidas observando el proceso X ( t ) en los instantes t1 , t2 ,L tk , entonces el proceso es estacionario en sentido estricto si: FX (t1 +τ ), X (t2 +τ ),LX (tk +τ ) (x1, x2 , L, xk ) = FX (t1 ), X (t2 ),L X (tk ) (x1 , x2 ,L, xk ) [1.43] 12 para todo intervalo de tiempo τ , todo k, y todas las posibles elecciones de los tiempos t1 , t2 ,L tk , donde FX ( t1 ), X ( t2 ),LX (t k ) ( x1, x2 ,L , xk ) es la función de distribución conjunta de las variables aleatorias X ( t1 ) , X ( t2 ) , L X ( t k ) . Se deduce que para un proceso estacionario, f X (t ) ( x ) es independiente de t y por lo tanto: mX ( t ) = mX ∀t [1.44] Para un proceso estacionario, la función de autocorrelación depende sólo de la diferencia t1 - t2 , es decir: R X (t1 , t2 ) = R X (t1 − t2 ) ∀t1 , t2 [1.45] Un proceso aleatorio X (t ) cuya función de auto correlación está dada por: E [X (t ) − X (t − τ )] = R X (τ ) = r δ (τ ) [1.46] con r ≥ 0 se denomina ruido blanco. Resulta fácil de verificar que el espectro de densidad de potencia es constante para todas las frecuencias. Un proceso aleatorio para el cual se verifican las dos condiciones anteriores se denomina estacionario en sentido amplio. Un proceso aleatorio que es estrictamente estacionario es estacionario en sentido amplio, pero lo opuesto no se verifica. Si los procesos aleatorios X (t ) e Y (t ) son cada uno estacionarios y además son conjuntamente estacionarios, entonces la matriz de correlación puede escribirse como: R X (τ ) R XY (τ ) R (τ ) = RYX (τ ) RY (τ ) [1.47] donde τ = t1 − t2 Una restricción menor es definir un proceso estrictamente estacionario de orden n donde la condición [1.43] se cumple para todo k ≤ n . Por ejemplo un proceso estrictamente estacionario de primer orden es FX ( t1 +τ ) ( x1 ) = FX ( t1 ) ( x1 ) [1.48] en este caso sigue valiendo la independencia de la media respecto del tiempo. Uno de segundo orden será FX ( t1 +τ ), X (t2 +τ ) ( x1 , x2 ) = FX (t1 ), X (t2 ) ( x1 , x2 ) [1.49] aquí las propiedades estadísticas no dependen del tiempo en sí sino de la distancia entre muestras temporales. 13 - Propiedades RXY (τ ) = RYX ( −τ ) T i. RX (τ ) = R X ( −τ ) [1.50] T ii. RX ( 0 ) ≥ 0 [1.51] iii. RXY 2 (τ ) ≤ RX ( 0 ) RY ( 0 ) [1.52] iv. RX (τ ) ≤ RX ( 0 ) [1.53] v. Procesos periódicos de período Ten sentido medio cuadrático cuando se cumple 2 E ( X (t) − X (t + T ) ) = 0 ∀t [1.54] vi. Si RX ( 0 ) = R X (T ) se verifica que el proceso es periódico ya que 2 E ( X (t) − X (t + T ) ) = Rx (0) − 2Rx (T ) + Rx (0) = 0 1.4.8. Vector de Proceso Aleatorio En las secciones anteriores se trataron las variables aleatorias escalares. En esta parte se generalizan las relaciones presentadas para el caso de vectores n-dimensionales compuestos por procesos aleatorios escalares, de la forma: x (t ) = [x1 (t ) x2 (t ) L xn (t )] T [1.55] Consideraremos vectores de procesos aleatorios Gaussianos con valor esperado nulo. La función de densidad de probabilidad para estos vectores estará dada por: () px = ( 2π ) 1 n ( [ ]) 1 exp − x − E x 2 det R T ( [ ]) R −1 x − E x [1.56] donde R es la matriz de covarianza de x definida por: [( [ ]) (x − E[x ]) ] R=E x−E x T [1.57] Esta matriz R es simétrica perteneciente a ℜ n×n y para el caso en consideración resulta de la forma: 14 E R= [x (t ) ] 2 1 0 M 0 [ 0 E x 2 (t ) 0 0 2 ] L L O L E 0 0 M [1.58] [x (t ) ] n 2 ya que no existe correlación entre diferentes muestras. Por otra parte, R se puede expresar en forma alternativa como: 0 R x1 (0 ) 0 R x 2 (0 ) R= M 0 0 0 L L 0 O M L R xn (0 ) 0 [1.59] o bien 2 x1 (t ) R= 0 M 0 0 x2 (t ) 2 0 0 0 L 0 O M 2 L xn (t ) L [1.60] Esta última forma de expresar la matriz de covarianza R del vector de proceso aleatorio Gaussiano x (t ) , muestra que la misma es una matriz diagonal en la cual la diagonal principal está conformada por los valores cuadráticos medios (rms) de las componentes del vector aleatorio x (t ) . 1.4.9. Secuencias Estocásticas Una secuencia estocástica { xk (ζ )} es una variable aleatoria con un número finito k de muestras en el tiempo para cada realización ζ y que convergerá a la variable aleatoria x (ζ ) cuando el número de muestras tienda a infinito. La convergencia de la secuencia a la variable aleatoria se puede expresar de diferentes maneras: i. ii. xk { xk } converge a x con probabilidad 1 si lim k →∞ { xk } =x converge a x en probabilidad si lim P ( xk − x ≥ ε ) = 0 y se representa como p lim xk = x k →∞ k →∞ iii. { xk } converge a x en sentido medio cuadrático si - 2 E xk ≤ ∞ ∀k 15 - 2 lim E xk − x = 0 y se expresa l.i.m. xk = x k →∞ La i implica la iii y la iii implica la ii. Se usa más la iii . - Propiedades de la convergencia SMC Sean los siguientes elementos: - { xk } { yk } {vk } tres secuencias aleatorias - z una variable aleatoria - {ck } una secuencia determinística y - a y b dos constantes - l.i.m. xk = x , l.i.m. y k = y , l.i.m.vk = v , limck = c k →∞ se verifica, l.i.m.ck = lim ck = c i. k →∞ l.i.m. z = z ii. iii. l.i.m. zck = zc iv. l.i.m. ( axk + byk ) = ax + by es lineal E [ x ] = E [l.i.m. xk ] = E [ xk ] , el operador E y el límite son conmutables v. E [ xy ] = lim E [x k y k ] y E x 2 = lim E xk 2 vi. vii. si E [ x k yk ] = E [vk ] entonces E [ xy ] = E [v ] 1.4.10. Continuidad La definición de continuidad en una función determinística es la siguiente: lim x (t + ε ) = x (t ) ε →0 Pero esta definición es muy restrictiva para variables aleatorias. Se utiliza la continuidad en sentido medio cuadrático: l.i.m. x (t + h ) = x(t ) h→0 [1.61] o su equivalente 16 2 lim E x(t + h ) − x (t ) = 0 h →0 [1.62] esto último implica lim [ R (t + h , t + h ) − R(t + h, t) − R (t , t + h ) + R (t ,t )] = 0 h →0 [1.63] si R (t,τ ) es continua para (t ,t ) o sea τ = t decimos que el proceso es continuo Un proceso estacionario es continuo si y sólo si R(0) es continua 1.4.11. Diferenciación x (t) es derivable en sentido medio cuadrático en t si existe el x( t + h ) − x ( t ) & lim = x (t ) h →0 h [1.64] x ( t + h ) − x( t ) & lim E − x ( t ) = 0 h →0 h [1.65] otra forma de expresarlo es decir que x (t) es derivable en sentido medio cuadrático en t si existe ∂ 2 R (t ,τ ) en (t,t). ∂t∂τ Si ∃ para (t,t) significa que ∃∀(t,τ ) existe ∂ 2 R (t ,τ ) ∂ 2C (t,τ ) en (t,t) sii ∃ m& (t ) y ∃ en (t,t) ∂t∂τ ∂t∂τ ∂ 2 R (t ) sii ∃ en t=0 ∂t 2 - Propiedades ∂dE [x (t ) ] = m& x (t ) ∂dt i. mx& (t ) = E [x& (t )] = ii. Rxx& (t,τ ) = E [ x& ( t )x (τ )] ∂ ∂R (t, τ ) E [x (t )x (τ )] = x ∂t ∂t iii. Rxx&& (t,τ ) = E [ x& ( t )x& (τ )] ∂ d ∂ 2 Rx (t ,τ ) E [x (t )x (τ )] = ∂t dτ ∂t∂τ iv. Rx ( m x( n (t ,τ ) = ∂ m +n Rx (t ,τ ) ∂t m ∂τ n Para procesos estacionarios 17 ∂Rx (t ) ∂t i. Rxx& (t ) = ii. Rxx& (t ) = − iii. ∂ 2 R x (t ,τ ) Rxx&& (t ) = ∂t 2 iv. Rx ( m x( n (t , τ ) = ( −1) ∂Rx ( t) ∂t m ∂ m + n R x (t ) ∂t m + n 1.4.12. Integración se toma un intervalo de tiempo [a , b] y se lo particiona en n subintervalos tales que a = t0 < t1 L < tn = b sea ρ = max(ti +1 − ti ) i sea ti' ∈ T / ti ≤ ti' ≤ t i +1 Se dice que x es integrable en sentido medio cuadrático en [a , b] si ∃ lo siguiente n−1 b i=0 a l.i.m. ∑ x(ti' ) ( ti +1 − ti ) = S = ∫ x (t )dt ρ →0 [1.66] Teorema: El proceso x es integrable sii Rx (t ,τ ) es integrable en [a , b ] × [ a, b ] Teorema: Rx (t ,τ ) es integrable sii mx (t ) es integrable en [a , b ] × [ a, b ] [a , b] y C x (t,τ ) es integrable en Teorema: El proceso x es integrable si mx (t ) es continua ∀ t ∈ [ a, b ] Los operadores esperanza e integral son conmutables, b b E ∫ x( t )dt = ∫ mx (t )dt a a [1.67] y 18 d b b E ∫ x( t )dt ∫ x (τ )dτ = ∫ c a a d ∫ R (t, τ )dtdτ [1.68] x c 1.5. Procesos Especiales 1.5.1. Proceso Estocástico Discreto Son procesos en donde la aleatoriedad interviene en algunos instantes de tiempo 1.5 1 0.9 1 0.8 0.7 0.5 0.6 0 0.5 0.4 -0.5 0.3 0.2 -1 0.1 -1.5 0 5 10 15 20 0 0 5 10 15 20 1.5.2. Procesos Independientes Se debe cumplir que para todo instante de tiempo, n P [ X (t1 ) ≤ x1, X (t 2 ) ≤ x 2 L X (tn ) ≤ xn ] = ∏ Pi [ X (ti ) ≤ xi ] [1.69] i =1 se podría expresar en función de la densidad o distribución. Si se trata de dos procesos X e Y se dice que son independientes si P [ X (t1 ) ≤ x1 ,L, X (tn ) ≤ xn , Y ( t1 ) ≤ y1 ,L , Y ( tn ) ≤ yn ] = = P [ X (t1 ) ≤ x1 ,L, X (tn ) ≤ xn ] P [Y (t1 ) ≤ y1 ,L ,Y ( tn ) ≤ yn ] [1.70] 1.5.3. Procesos Incorrelados Un proceso es incorrelado consigo mismo cuando RX (t, τ ) = E [ X (t )] E [ X (t )] ∀t,τ T [1.71] Un proceso independiente es incorrelado. No siempre ocurre al revés. Dos procesos son incorrelados si RXY (t,τ ) = E [ X (t) ] E [ Y (t )] ∀t ,τ T [1.72] 1.5.4. Proceso Blanco Si un proceso tiene una distribución Gaussiana, es estacionario e independiente se denomina proceso blanco 19 xk es totalmente independiente de xj ∀ k ≠ j x(k,δ) = secuencia de elementos independientes covarianza σ 2 τ =0 r( τ ) = 0 ∀ τ ≠ 0 [1.73] φ( ω ) = σ ∀ ω 2π 2 La mayoría de los procesos estacionarios pueden generarse a partir del filtrado del ruido blanco. Es como el impulso de los sistemas deterministas. 1.5.5. Procesos Estocásticos Ergódicos Para un proceso estocástico es posible calcular la media temporal de cada realización como sigue: m X (T ) = 1 2T ∫ T −T x ( t ) dt [1.74] Esta media es obviamente una variable aleatoria que depende del intervalo de observación − T ≤ t ≤ T . Si se calcula la correlación promediada temporalmente, para cada realización, 1 R (τ ) = lim T →∞ 2T T ∫ x (t + τ ) x (t )dt [1.75] −T que constituye un proceso estocástico. Sería de mucha utilidad que la media temporal coincida con la media del proceso estudiado así como su correlación. De este modo bastaría con conocer una sola realización para conocer todo el proceso. Un proceso aleatorio se dice ergódico si se verifican las siguientes condiciones: i. ii. iii. iv. lím mX (T ) = mX T →∞ lim var m X (T ) = 0 T →∞ lím R X (τ , T ) = R X (τ ) T →∞ lím var RX (τ , T ) = 0 T →∞ 20 En este caso se puede substituir el cálculo de la esperanza por la integral 1 T →∞ 2T lim T ∫ x (t)dt −T 1.5.6. Proceso de Wiener Se dice que un proceso x es un proceso de Wiener si el proceso z = x (t ) − x (τ ) es en realidad una variable aleatoria independiente. Además se debe cumplir que i. ii. E[ x( t )] = 0 x (0) = 0 iii. la varianza de z es proporcional R( z ) = R ( x(t ) − x(τ )) = σ 2 (t − τ ) a la diferencia de triempos: 1.5.7. Proceso de Markov Un proceso estocástico se dice de Markov de primer orden si la probabilidad condicionada de un elemento solo depende de su valor anterior es decir p[ xk | xk −1 , xk −2 ........] = p[ xk | xk −1 ] [1.76] o sea xk +1 = axk + fvk [1.77] el valor futuro de x solo depende de su valor actual y de v. Si v es ruido blanco genera una proceso de Markov. Si x depende de valores anteriores se puede hacer lo siguiente x1k +1 0 1 x1 k 0 x = a a x + f vk 2 2k 2 k +1 1 [1.78] lo que matricialmente resulta xk +1 = Axk + Fvk [1.79] 21 xk-1 vk xk Iz-1 F + + A vk F nk xk-1 uk xk Iz -1 B + + C + yk A 1.6. Modelos Estocásticos En un proceso determinístico se deben dar las condiciones iniciales. En lo sucesivo se utilizarán sistemas diferenciables en el sentido medio cuadrático en los cuales se cumple dx (t ) dE [x (t ) ] m x& (t ) = E = = m& x (t ) dt dt [1.80] 1.6.1. Modelos Continuos en Ecuaciones Diferenciales El modelo de la planta se expresará igual que en control clásico pero tendrá una entrada y una salida estocástica. A fin de simplificar se toma el siguiente ejemplo: an y n ) (t ) + L + a0 y (t ) = x (t ) [1.81] con condiciones iniciales, x (t < 0) = 0 y (0) = y& (0) = L = y n −1) (0) = 0 [1.82] Para obtener la esperanza en un tiempo dado se hace, 22 E a n y n ) (t ) + L + a0 y ( t) = E [x (t )] = = a n E y n ) ( t ) + L + a 0 E [ y (t )] = [1.83] d n E [y ( t ) ] = an + L + a 0 E [ y ( t ) ] = E [x ( t ) ] dt n o lo que es lo mismo haciendo my (t ) = E [y (t )] y mx (t ) = E [x (t )] an m y (t ) + L + a0m y (t ) = mx ( t) n) [1.84] es como trabajar con variables determinísticas. Se puede obtener las siguientes relaciones para la correlación y autocorrelación: an d n RXY (t1, t2 ) + L + a0 RXY (t1, t2 ) = R X (t1 ,t2 ) dt2 n d i RXY (t1 ,0) =0 dt2 i an d n RYY ( t1 ,t2 ) + L + a 0 RYY (t1 ,t2 ) = RXY (t1, t2 ) dt1n d i RYY (0, t2 ) =0 dt1i [1.85] [1.86] Es simple ver esto ya que si se multiplica ambos miembros por x (t1 ) , x (t1 ) a n y n ) (t2 ) + L + a 0 y ( t2 ) = x (t1 ) x (t2 ) [1.87] tomando esperanza, an E x( t1 ) y n ) (t2 ) + L + a0 E [x (t1 ) y (t2 ) ] = E [x (t1 ) x (t2 )] [1.88] se puede intercambiar la esperanza con la derivada, an ∂ n E [x (t1 ) y (t2 )] + L + a0 E [x (t1 ) y (t2 )] = E [x ( t1 ) x (t2 )] n ∂t2 [1.89] y reemplazando la esperanza del producto por la correlación, se llega a la ec[1.85] De forma similar se puede deducir la ec[1.86] y (t2 ) an y n ) (t1 ) + L + a0 y (t1 ) = y (t2 ) x( t1 ) [1.90] 23 1.6.2. Modelo de Procesos Discretos Se utilizan ecuaciones en diferencias, an y k −n + L + a0 yk = xk [1.91] en donde se utiliza mk −n = E [ yk − n ] El tratamiento de estos modelos es igual a los anteriores excepto la utilización de ecuaciones en diferencias. 1.6.3. Modelos Discretos en Variables de Estado En el caso determinístico se representa al vector de estados como xk +1 = g ( x k , k ) [1.92] xk +1 = g ( xk , k ) + δ ( xk , k ) [1.93] en adelante se exigirán las siguientes condiciones i. que δ sea un proceso de Markov y por lo tanto x también lo será. ii. que δ tenga una distribución normal es decir que se pueda expresar como δ ( xk , k ) = σ ( x k , k) ⋅ ek donde e es un proceso normal, independiente, de media nula, varianza unitaria y σ es la matriz de correlación. iii. que g sea lineal en x o sea que se pueda expresar g ( xk , k ) = Φ k +1,k xk iv. que δ sea independiente de x es decir σ ( xk , k ) = Γk Contemplando estas condiciones se puede reescribir la ecuación de estados como: xk +1 = Φk +1,k xk + Γ k ek [1.94] con la condición inicial Rxx (0) = Rxx 0 - [1.95] Resolución Se sabe que δ ( xk , k ) y δ ( x j , j) son independientes para todo k y j. El ruido que afecta a cada variable de estado es independiente en cada instante y a su vez independiente de los estados y se cumple que su media es 0 E [δ k ] = M 0 [1.96] 24 y su autocovarianza r11k L r1nk E δ kδ kT = M O M = Rk rn1k L rnnk [1.97] ¿Cómo se calcula la media del estado? E [ xk +1 ] = mxk +1 = Φ k +1, k m xk + 0 [1.98] mk =0 = m0 Para calcular la autocovarianza, por simplicidad, se supone que m = 0 . Esto se puede hacer definiendo otra variable z que cumpla zk = x k − m k . Por comodidad utilizaremos x en lugar de z. x j = Φ j , k xk + Φ j ,k +1δ k + L + Φ j , j −1δ j −2 + δ j −1 [1.99] Φ j ,k = Φ j , j −1Φ j −1, j −2 L Φ k +1,k [1.100] T E x j xk = Φ j ,k Pk [1.101] como el vector de estados y el ruido son independientes se cumple que E [Φ δ ] = 0 por lo que P es directamente la covarianza de xk . Pero se ha obtenido la función de autocorrelación en función de la covarianza que no se conoce. xk +1 xkT+1 = Φ k +1,k xk + δ k Φ k +1, k xk + δ k T [1.102] tomando esperanza, E xk +1 xkT+1 = Φ k+ 1,k Pk Φ kT+1, k + Rxk 1 = Pk +1 Rx 01 = Pk 0 [1.103] así se calcula la evolución de la covarianza P. Un caso particular es cuando Φ k +1,k = Φ = cte en donde la covarianza resulta k −1 Pk = ΦRx 01Φ T + ∑ Φ j Rxk 1 ( Φ T ) j [1.104] j =0 sumatoria que convergerá si Φ tiene valores propios menores a 1. 25 1.6.4. Modelo Continuo en Variables de Estado - Modelo Erróneo Si se define el modelo de la forma dx( t ) = f ( x, t ) + υ ( x, t) dt [1.105] con υ cumpliendo las siguientes condiciones, i. υ ( x, t ) es independiente de υ ( x , s ) , ∀t ≠ s ii. υ ( x, t ) tiene varianza finita iii. υ ( x, t ) es continuo de segundo orden en el sentido medio cuadrático iv. υ ( x, t ) tiene media nula En este contexto se verifica que la varianza E υ ( x, t )υ T ( x, t ) = 0 [1.106] Una señal que no tiene ni varianza ni media es idénticamente nula por lo tanto el modelo no es adecuado. - Reformulación del Modelo en Ecuaciones Diferenciales La ecuación dx (t ) = f ( x, t) se puede plantear como dt x (t + h ) − x (t ) = f ( x, t )h + O( t) [1.107] con h → 0 Introduciendo el ruido, x (t + h ) − x( t ) = f ( x, t )h + υ( t + h ) − υ ( t ) + O(t ) [1.108] suponiendo que es un proceso de Wiener, υ ( t + h ) − υ ( t ) = σ ( x, t ) (W ( t + h ) − W (t ) ) [1.109] tomando esperanza E [x (t + h ) − x (t )] = f ( x, t)h + O (h ) [1.110] ya que E [W ] = 0 y la covarianza es 26 2 Var [ x ( t + h ) − x (t )] = σ (2x, t ) E (W (t + h) − W ( t) ) + O 2 (h ) 2 2 = σ ( x, t ) h + O (h ) [1.111] no se podemos llevarlo al límite de h ya que υ (t + ) − υ ( t) → ∞ . Se debe dejar en forma diferencial. Esto es una ecuación diferencial estocástica: dx (t ) = f ( x, t) dt + σ ( x, t ) dW [1.112] su versión lineal es dx (t ) = A( t) x( t )dt + σ ( x, t) dW [1.113] en esta ecuación se cumple que E dW 2 = dt Hay que tener en cuenta que el signo de h puede llevar a resultados diferentes. - Modelo en Ecuaciones Integrales t t t0 t0 x (t ) = x (t0 ) + ∫ f ( x( s ), s )ds + ∫ σ ( x( s ), s )dW ( s) - [1.114] Proceso Estocástico ARMA. MA y k = e k + b 1 e k-1 + L + b n e k-n [1.115] AR y k + a 1 y k-1 + L + a n y k-n = e k [1.116] ARMA y k + a1 y k-1 + L + an y k-n = ek + b1ek −1 + L + bnek −n [1.117] Agregar Secuencias Pseudoaleatorias (PRBS) (τ ) ρ x (τ ) = rx r x (0) [1.118] se cumple que r x ( τ ) ≤ r x (0) [1.119] 27 ρ puede ser negativa si ρ es 1 son valores fuertemente relacionados ρ = 0 son elementos no relacionados ρ < 0 relacionados negativamente Ruido Blanco Proceso estacionario xk es totalmente independiente de xj ∀ k ≠ j x(k,δ) = secuencia de elementos independientes covarianza σ 2 τ =0 r( τ ) = 0 ∀ τ ≠ 0 [1.120] φ( ω ) = σ ∀ ω 2π 2 La mayoría de los procesos estacionarios pueden generarse a partir del filtrado del ruido blanco. Es como el impulso de los sistemas deterministas. expresado en función de la respuesta impulsional (u no es ruido blanco) k yk = ∑ n= -∞ ∞ g k -n un = ∑ g n uk -n [1.121] n= 0 28 ∞ ∞ n =0 n= 0 m y k = Ey k = E ∑ g n uk -n = ∑ g n mu k -n [1.122] es como tener un sistema determinista excitado por mu ∞ y k - m y k = ∑ g n u k-n - m u k-n [1.123] n=0 para calcular la covarianza podemos simplificar el cálculo haciendo mu = 0 o sea my = 0 r y( τ ) = E y k+τ y k ∞ = E ∑ g n u k+τ -n n=0 ∞ ∞ ∑g u l k-l l= 0 ∞ = ∑ ∑ g n g l E [ u k+τ -n u k-l [1.124] ] n=0 l= 0 ∞ ∞ = ∑ ∑ g n g l r uτ +l-n n=0 l= 0 ∞ ryu ( τ ) = E y k+τ u k = ∑g n r uτ -n [1.125] n=0 Φ y( ω ) = Φ yy( ω ) = = 1 2π 1 = 2π = 1 2π ∞ 1 2π ∞ ∑e -jnω ∞ ∞ ∑ e ∑∑g -jnω n= -∞ ∞ ∞ ∑ ∑ ∑e -jk ω k=0 n=- ∞ l= 0 ∑e k g l r u n+l-k = k=0 l= 0 ∞ ∞ r y(n) = n=- ∞ -jkω ∞ gk k=0 [1.126] gk e ∑e -jlω -jlω gl e ∞ gl l= 0 -j(n+l-k)ω ∑e r un+l-k = -j(n+l-k)ω run n=- ∞ la respuesta impulsional es ∞ G(z)= ∑ g n z -n n=0 z=e jωT T=1 [1.127] jω -jω Φ y( ω ) = G ( e ) G ( e ) Φ u( ω ) igualmente 29 Φ yu( ω ) = 1 2π 1 2π ∞ ∑e -jnω n=- ∞ ∞ r yu n = ∞ ∑e ∑ e = G (e ) Φ ( ω ) = -jkω n=- ∞ k= 0 -jkω 1 2π ∞ -j(n-k)ω ∞ ∑ e ∑g n=- ∞ -jnω k r u n-k k= 0 [1.128] r u n-k u Secuencias Pseudoaleatorias (PRBS) x y s 0 0 0 0 1 1 1 0 1 1 1 0 0 1 0 0 0 0 1 0 0 0 0 1 0 1 0 0 1 1 1 0 0 m=4 N = 2 m-1 = 8 1.7. Referencias [1] Haykin, Simon (1994). Communication Systems, John Wiley & Sons, Inc., New York. Astrom Papoulis Kwakernaak Athans 30