Control lineal cuadrático gaussiano

De Wikipedia, la enciclopedia libre

En la teoría de control, el problema de control lineal cuadrático gaussiano (LQG) es uno de los más fundamentales de control óptimo. Se refiere a sistemas lineales inciertos perturbados por ruido blanco gaussiano aditivo, que tiene la información de estado incompleta (es decir, no todas las variables de estado se miden y disponible para la regeneración) y sometidos a control de sujetos a cuadráticas costes. Además, la solución es única y constituye una ley de control de realimentación dinámico lineal que se calcula y fácil de implementar. Finalmente el controlador LQG también es fundamental para el control óptimo de los sistemas no lineales perturbados.[1]

El controlador LQG es simplemente la combinación de un filtro de Kalman es decir, un estimador lineal cuadrática (LQE) con un regulador lineal cuadrático (LQR). El principio de separación garantiza que estos pueden ser diseñados y calculan de forma independiente. LQG de control se aplica tanto a los sistemas lineales invariantes en el tiempo, así como sistemas de variables en el tiempo lineales. La aplicación a los sistemas invariantes en el tiempo lineales es bien conocido. La aplicación de sistemas de variables en el tiempo lineal permite el diseño de controladores de captación lineal para sistemas inciertos no lineales.

El controlador LQG en sí es un sistema dinámico como el sistema que controla. Ambos sistemas tienen la misma dimensión estado. Por lo tanto la aplicación de la controlador LQG puede ser problemático si la dimensión del estado del sistema es grande. El problema LQG de orden reducido (problema LQG orden fijo) supera está fijando a priori el número de estados del controlador LQG. Este problema es más difícil de resolver porque ya no es separable. También la solución ya no es único. A pesar de estos hechos algoritmos numéricos están disponibles[2][3][4][5]​ para resolver los asociados ecuaciones de proyección óptimos[6][7]​ que constituyen condiciones necesarias y suficientes para que un controlador LQG de orden reducido localmente óptima.[2]

Por último, una palabra de precaución. LQG optimalidad no garantiza automáticamente buenas propiedades de solidez.[8]​ La estabilidad robusta del sistema de circuito cerrado debe ser revisado por separado después de que el controlador LQG ha sido diseñado. Promover robustez algunos de los parámetros del sistema puede suponer estocástico en lugar de determinista. El problema de control más difícil asociada conduce a un controlador óptimo similar de la cual sólo los parámetros del controlador son diferentes.[3]

Descripción matemática del problema y la solución[editar]

Tiempo continuo[editar]

Considere el sistema dinámico lineal,

donde representa el vector de las variables de estado del sistema, el vector de las entradas de control y el vector de salidas medidas disponibles para la retroalimentación. Tanto ruido blanco gaussiano aditivo sistema y aditivo blanco gaussiano ruido de medición afectar el sistema. Teniendo en cuenta este sistema el objetivo es encontrar la historia entrada de control que en cada momento puede depender sólo de las últimas mediciones de tal manera que la siguiente función de costo se minimiza,

donde denota el valor esperado. La hora final (horizonte) puede ser finito o infinito. Si el horizonte tiende a infinito el primer término de la función de coste se convierte en insignificante e irrelevante para el problema. Además de mantener los costos finitas la función de coste hay que tener para ser .

El controlador LQG que resuelve el problema de control de LQG se especifica mediante las siguientes ecuaciones:

La matriz se llama la ganancia de Kalman del filtro de Kalman asociado representado por la primera ecuación. En cada momento este filtro genera estimaciones del Estado usando las mediciones y entradas pasadas. La ganancia de Kalman se calcula a partir de las matrices , las dos matrices de intensidad asociado a los ruidos gaussianos blancos and y finalmente . Estas cinco matrices determinan la ganancia de Kalman a través de la siguiente ecuación diferencial de Riccati asociada a la matriz:

Dada la solución la ganancia de Kalman es igual:

La matriz se llama la matriz de ganancia de retroalimentación . Esta matriz está determinada por las matrices and a través de la siguiente ecuación diferencial de Riccati asociada a la matriz:

Dada la solución la ganancia de Kalman es igual

Observe la similitud de las dos ecuaciones diferenciales de la matriz de Riccati, la primera que corre hacia adelante en el tiempo, la segunda que corre hacia atrás en el tiempo. Esta similitud se llama dualidad . La primera ecuación diferencial de la matriz de Riccati resuelve el problema de estimación lineal cuadrática (LQE). La ecuación diferencial de la segunda matriz Riccati resuelve el problema del regulador lineal-cuadrático (LQR). Estos problemas son duales y juntos resuelven el problema de control lineal-cuadrático-Gaussiano (LQG). Entonces, el problema de LQG se separa en el problema LQE y LQR que se puede resolver de forma independiente. Por lo tanto, el problema de LQG se llama separable .

Cuando y las matrices de intensidad de ruido , no dependen de y cuando tiende a infinito, el controlador LQG se convierte en un sistema dinámico invariante en el tiempo. En ese caso, ambas ecuaciones diferenciales de la matriz de Riccati pueden ser reemplazadas por las dos ecuaciones de Riccati algebraicas asociadas.

Tiempo discreto[editar]

Dado que el problema de control de LQG en tiempo discreto es similar al del tiempo continuo, la siguiente descripción se centra en las ecuaciones matemáticas.

Las ecuaciones del sistema lineal de tiempo discreto son:

Referencias[editar]

  1. Athans M. (1971). «The role and use of the stochastic Linear-Quadratic-Gaussian problem in control system design». IEEE Transaction on Automatic Control. AC-16 (6): 529-552. doi:10.1109/TAC.1971.1099818. 
  2. a b Van Willigenburg L.G., De Koning W.L. (2000). «Numerical algorithms and issues concerning the discrete-time optimal projection equations». European Journal of Control 6 (1): 93-100.  Associated software download from Matlab Central Archivado el 9 de enero de 2022 en Wayback Machine..
  3. a b Van Willigenburg L.G., De Koning W.L. (1999). «Optimal reduced-order compensators for time-varying discrete-time systems with deterministic and white parameters». Automatica 35: 129-138. doi:10.1016/S0005-1098(98)00138-1.  Associated software download from Matlab Central Archivado el 18 de octubre de 2019 en Wayback Machine..
  4. Zigic D., Watson L.T., Collins E.G., Haddad W.M., Ying S. (1996). «Homotopy methods for solving the optimal projection equations for the H2 reduced order model problem». International Journal of Control 56 (1): 173-191. doi:10.1080/00207179208934308. 
  5. Collins Jr. E.G, Haddad W.M., Ying S. (1996). «A homotopy algorithm for reduced-order dynamic compensation using the Hyland-Bernstein optimal projection equations». Journal of Guidance Control & Dynamics 19 (2): 407-417. doi:10.2514/3.21633. 
  6. Hyland D.C, Bernstein D.S. (1984). «The optimal projection equations for fixed order dynamic compensation». IEEE Transaction on Automatic Control. AC-29 (11): 1034-1037. doi:10.1109/TAC.1984.1103418. 
  7. Bernstein D.S., Davis L.D., Hyland D.C. (1986). «The optimal projection equations for reduced-order discrete-time modeling estimation and control». Journal of Guidance Control and Dynamics 9 (3): 288-293. doi:10.2514/3.20105. 
  8. Green, Limebeer: Linear Robust Control, p. 27