MÉTODO VARIACIONAL COM UMA ESTRATÉGIA DE OBSERVAÇÃO INDIRETA PARA SISTEMAS LINEARES ESTOCÁSTICOS COM SALTOS NOS PARÂMETROS Daiane C. Bortolin , Carlos A. Silva, Eduardo F. Costa Universidade de São Paulo, São Carlos, Brasil, bortolin@icmc.usp.br, calex@calex.mat.br, efcosta@icmc.usp.br Resumo: Neste trabalho propomos um método variacional para o problema de custo médio a longo prazo para sistemas lineares com saltos Markovianos não-observados. O método introduz níveis intermediários de observação, partindo do cenário de observação completa, o que permite iniciar o método com soluções de equações de Riccati. Palavras-chave: Método variacional, controle ótimo, sis- temas lineares estocásticos. 1. INTRODUÇÃO Sistemas lineares com saltos Markovianos (SLMS) for- mam uma importante classe de sistemas estocásticos, e são utilizados para modelar processos cuja dinâmica muda de forma abrupta em determinados instantes. Encontramos na literatura resultados que remetem a noções de estabilidade [1], estabilizabilidade e detetabilidade [2], controle ótimo com normas H 2 , H e outros critérios [3], detecção de fa- lhas [4], filtragem [5] e diferentes cenários de observação, incluindo observações completas e parciais [6]. Consideramos a presença de ruído no sistema, e uti- lizamos o critério de custo médio a longo prazo (CMLP) para avaliar os SLSMs. No cenário de observação completa dos estados da cadeia de Markov, a solução ótima para o CMLP é obtida na forma de ganhos de realimentação linear, através de equações algébricas de Riccati (EAR), vide [7]. Quando a observação do estado da cadeia não é acessível ao controlador, temos poucos resultados na literatura sobre o CMLP para SLSM. No cenário de não-observação pode- mos citar [8], onde é proposto um algoritmo genético para obter os ganhos MS-estabilizantes. O algoritmo utiliza uma solução inicial (ganho inicial) MS-estabilizante gerado por EAR, porém a mudança do cenário de observação acontece de maneira abrupta, afetando a qualidade das soluções pos- teriores. Em [9] é feita uma aproximação para o CMLP através de uma abordagem variacional para o custo de ho- rizonte finito quadrático, cujos controles estão na forma de realimentação linear. A convergência do custo médio de ho- rizonte finito para o CMLP é demonstrada em [10], porém não se pode garantir a convergência por realimentação de es- tados. Neste artigo tratamos o problema como um conjunto de subproblemas associados a níveis de observação. Considera- mos a observação indireta da cadeia de Markov (θ ) via uma variável r k , tomando valores no conjunto finito S = {1,..., S} e assumindo P(r k = θ k |θ k )= c, onde c representa o nível de observação. A ideia é que esse nível de observação diminua gradativamente a fim de se aproximar do cenário de não-observação. No cenário inicial (observação com- pleta, c = c 0 = 1), podemos empregar a solução dada por EAR. Para cada passo m consideramos c = c m < c m-1 e calculamos os novos ganhos via uma adaptação/extensão do método variacional de [9]. Destacamos que uma vantagem do método é a inicializa- ção com solução da EAR, pois os métodos existentes normal- mente requerem um conjunto de ganhos MS-estabilizante, o que pode ser muito difícil de obter em certas aplicações. No método presente, se a EAR não tiver solução, então o pro- blema de controle não tem solução. O artigo está organizado da seguinte maneira: na Seção 2 são apresentados alguns resultados preliminares, a formu- lação do problema e o propósito do trabalho. Na Seção 3 é descrita a metodologia de observação indireta e o método variacional adaptado aplicado ao problema proposto. Uma análise dos resultados originados do algoritmo implemen- tado são apresentados na Seção 4. Por fim, na Seção 5 é feita a conclusão do trabalho. 2. PROPÓSITO Consideramos o SLSM em tempo discreto na forma Φ M : ( x k+1 = A θ k x k + B θ k u k + G θ k w k , y k = x 0 k C θ k x k + u 0 k D θ k u k , (1) com condição inicial x 0 R n , onde x R n é o estado do sistema, u R r é o controle, w k é uma variável aleatória 12 http://dx.doi.org/10.5540/DINCON.2011.001.1.0004