Tese de Doutorado UFRN / CT / PPgEE
UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE CENTRO DE TECNOLOGIA
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE CONTROLE
USANDO REDES NEURAIS
OSCAR GABRIEL FILHO
1
Tese de Doutorado UFRN / CT / PPgEE
OSCAR GABRIEL FILHO
CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE CONTROLE
USANDO REDES NEURAIS
Tese submetida ao Programa de Pós-Graduação em Engenharia Elétrica da Universidade Federal do Rio Grande do Norte como parte dos requisitos necessários para obtenção do título de Doutor em Ciências. Orientador: Prof. D.Sc. ANDRÉ LAURINDO MAITELLI
2
Tese de Doutorado UFRN / CT / PPgEE
SUMÁRIO
LISTA DE SÍMBOLOS E ABREVIATURAS ............................................................ V
LISTA DE FIGURAS .................................................................................................. VIII
LISTA DE TABELAS .................................................................................................. X
RESUMO ...................................................................................................................... XI
ABSTRACT .................................................................................................................. XII
AGRADECIMENTOS ................................................................................................. XIII
DEDICATÓRIA ........................................................................................................... XIV
Capítulo I - INTRODUÇÃO ......................................................................................... 1
Capítulo II - FUNDAMENTOS DE ESTABILIDADE E ROBUSTEZ ..................... 6
II.1 - Introdução ................................................................................................. 7
II.2 - Estabilidade ............................................................................................... 7
II.2.1 – Critério de Estabilidade Entrada - Saída ...................................... 8
II.2.2 – Método Direto de Lyapunov ....................................................... 10
II.3 - Robustez ....................................................................................................... 18
II.4 - Conclusões ................................................................................................... 20
Capítulo III - REDES NEURAIS ARTIFICIAIS....................................................... 22
3
Tese de Doutorado UFRN / CT / PPgEE
III.1 - Introdução .............................................................................................. 23
III.2 - Redes Neurais Multicamadas - RNM’s .................................................... 25
III.2.1 - Metodologia da Propagação Retroativa do Erro - PRE .............. 27
III.2.2 - Funções de Ativação dos Neurônios ........................................... 31
III.2.2.1 - Função Linear .............................................................. 32
III.2.2.2 - Função Sigmóide Unipolar ........................................... 33
III.2.2.3 - Função Sigmóide Bipolar ............................................. 34
III.2.3 - Algoritmo do Método de Propagação Retroativa do Erro .............. 35
III.2.3.1 - Algoritmo PRE (Versão Básica) ...................................... 35
III.2.3.2 - Técnicas para Melhoria de Desempenho do
Algoritmo PRE ............................................................... 40
III.2.3.2.1 - Randomização dos Padrões de Aprendizagem ... 41
III.2.3.2.3 - Ajuste da Declividade Funcional ....................... 43
III.2.3.2.4 - η-adaptativo (ou η-variável) ............................. 44
III.2.3.2.5 - Momento Normalizado ..................................... 45
III.3 - Conclusões .................................................................................................. 47
Capítulo IV - MODELAGEM DE SISTEMAS NÃO-LINEARES
USANDO REDES NEURAIS ARTIFICIAIS .......................................... 49
IV.1 - Introdução ................................................................................................... 50
IV.2 - Identificação de Sistemas usando RNA`s ..................................................... 52
IV.2.1 - Rede Neural com Resposta ao Impulso Finita
(“Neural Network with Finite Impulse Response” - NNFIR) ......... 54
IV.2.2 - Rede Neural Autoregressiva com Entradas Exógenas
(“Neural Network Autoregressive with Exogeneous 4
Tese de Doutorado UFRN / CT / PPgEE
Inputs” - NNARX) .................................................................... 55
IV.2.3 - Rede Neural Autoregressiva com Média Móvel
e Entradas Exógenas
(“Neural Network Autoregressive with Moving Average
and Exogeneous Inputs” - NNARMAX) .................................... 57
IV.2.4 - Rede Neural com Erro na Saída
(“Neural Network with Output Error” - NNOE) ........................... 59
IV.3 - Conclusões .................................................................................................. 61
Capítulo V - ESQUEMAS DE CONTROLE USANDO
REDES NEURAIS ARTIFICIAIS ............................................................ 62
V.1 - Introdução .................................................................................................... 63
V.2 - Formulação do Problema .............................................................................. 64
V.3 - Os Esquemas de Controle Indireto Propostos ............................................... 65
V.3.1 - Controle Híbrido Indireto ............................................................... 66
V.3.2 - Controle Neural Indireto ................................................................ 71
V.4 - Conclusões ................................................................................................... 72
Capítulo VI - ANÁLISE DE ESTABILIDADE E ROBUSTEZ .................................... 74
VI.1 - Introdução ................................................................................................... 75
VI.2 - Análise de Estabilidade ................................................................................ 76
VI.2.1 - Estabilidade versus Implementação Computacional :
Como Garantir Estabilidade usando η-adaptativo .......................... 91
VI.3 - Análise de Robustez .................................................................................... 92
VI.3.1 - Controle Híbrido Indireto .............................................................. 96
5
Tese de Doutorado UFRN / CT / PPgEE
VI.3.2 - Controle Neural Indireto ............................................................... 100
VI.4 - Conclusões .................................................................................................. 105
Capítulo VII - EXEMPLOS ........................................................................................... 107
VII.1 - Introdução ................................................................................................. 108
VII.2 - Exemplo 1 : Controle de Nível de um Reservatório .................................... 109
VII.2.1 - Sistema de Controle Híbrido Indireto ........................................... 110
VII.2.2 - Sistema de Controle Neural Indireto ............................................ 112
VII.3 - Exemplo 2 : Controle de uma Planta Não-Linear Polinomial ....................... 115
VII.3.1 - Sistema de Controle Híbrido Indireto ........................................... 115
VII.3.2 - Sistema de Controle Neural Indireto ............................................ 117
VII.4 - Exemplo 3 : Controle de uma Planta Não-Linear Periódica ......................... 121
VII.4.1 - Sistema de Controle Híbrido Indireto ........................................... 121
VII.4.2 - Sistema de Controle Neural Indireto ............................................ 125
VII.5 - Conclusões ................................................................................................. 130
Capítulo VIII - CONCLUSÕES ..................................................................................... 132
REFERÊNCIAS BIBLIOGRÁFICAS ........................................................................... 137
APÊNDICE A - Metodologia da Propagação Retroativa do Erro
(“Error Backpropagation”) ..................................................................... 141
6
Tese de Doutorado UFRN / CT / PPgEE
LISTA DE SÍMBOLOS E ABREVIATURAS
* Valor ótimo ou fixo
^ Valor estimado
. Conjunto
ARMAX Autoregressivo com Média Móvel e Entradas Exógenas
ARX Autoregressivo com Entradas Exógenas
BIBO Entrada Limitada Saída Limitada
FIR Resposta ao Impulso Finita
c Ciclo de atualização dos pesos sinápticos
cn Controlador neural
d Atraso de transporte da planta
E Função erro global ou função custo
e Erro local de treinamento de uma RNM
f , FAN Função de ativação de um neurônio
h Camada escondida
in Identificador neural
J Jacobiano da planta
k Tempo discreto ou ordem do neurônio na camada de saída de uma RNM
p Número de nós na camada escondida de uma RNM
M Horizonte de controle
MIMO Entradas Múltiplas, Saídas Múltiplas
n Ordem da planta
7
Tese de Doutorado UFRN / CT / PPgEE
NC Número de camadas de uma RNM
NET Sinal de ativação de um neurônio
NN Número de camadas de uma RNM
NNARMAX Rede Neural Autoregressiva com Média Móvel e Entradas Exógenas
NNARX Rede Neural Autoregressiva com Entradas Exógenas
NNFIR Rede Neural com Resposta ao Impulso Finita
NNOE Rede Neural com Erro na Saída
NPTR Número de padrões (ou pontos) de treinamento
o Camada de saída ou saída desejada
OE Erro na Saída
PRE Método da Propagação Retroativa do Erro (“Backpropagation”)
R Conjunto dos números reais
RNA Rede Neural Artificial
RNM Rede Neural Multicamadas (perceptron multicamadas)
SISO Entrada Única, Saída Única
sup Supremum
T Limiar de operação (“threshold”) ou transposta de vetor (ou de matriz)
tr Traço de uma matriz quadrada
Ts Período de amostragem da planta
Tt Tempo total de treinamento das redes neurais existentes na malha de controle
u(k) Sinal de controle ou entrada da planta no instante k
*, xx Ponto de equilíbrio
Xi Vetor de entrada do i-ésimo padrão de aprendizagem
y(k) Saída da planta no instante k
y_Ref(k) Saída de referência no instante k
8
Tese de Doutorado UFRN / CT / PPgEE
z Saída corrente de uma RNM
z-1 Operador de atraso unitário no tempo discreto
W Matriz de pesos sinápticos
α Constante de momento
β Declividade ou coeficiente angular
ε Tolerância para convergência da rede neural
η Constante de aprendizagem
δ Vetor de erro da Regra Delta
θ Parâmetro de um sistema
ϕ Vetor regressor
ω Supremum de um conjunto
ωc Erro de controle
ωp Erro de controle de estado permanente (“steady-state”)
Ωc Conjunto de erros de controle
Ωp Conjunto de erros de controle de estado permanente (“steady-state”)
9
Tese de Doutorado UFRN / CT / PPgEE
LISTA DE FIGURAS
II.1 - Sistema estável ....................................................................................................... 14
II.2 - Sistema assintoticamente estável ............................................................................. 14
II.3 - Estabilidade de um sistema dinâmico (Plano de Fase) .............................................. 16
III.1 - Representação de um neurônio j ............................................................................. 23
III.2 - Representação modificada de um neurônio j ........................................................... 24
III.3 - Rede Neural Multicamadas - RNM’s ....................................................................... 26
III.4 - Neurônio = Somatório + Funcional ......................................................................... 31
III.5 - Função Linear, com β = 0.5, 1.0 e 2.0 .................................................................. 32
III.6 - Função Sigmóide Unipolar, com β = 0.5, 1.0 e 2.0 ............................................... 33
III.7 - Função Sigmóide Bipolar, com β = 0.5, 1.0 e 2.0 ................................................. 34
III.8 - Papel do coeficiente α no processo de convergência .............................................. 46
IV.1 - Modelo de estrutura NNFIR .................................................................................... 55
IV.2 - Modelo de estrutura NNARX .................................................................................. 56
IV.3 - Modelo de estrutura NNARMAX ............................................................................. 59
IV.4 - Modelo de estrutura NNOE .................................................................................... 60
V.1 - Esquema de Controle Híbrido Indireto ..................................................................... 66
V.2 - Esquema de Controle Neural Indireto ....................................................................... 71
VII.1 - Reservatório .......................................................................................................... 109
VII.2 - Controle de Nível - y , u e ωc (Controle Híbrido Indireto) .................................... 111
10
Tese de Doutorado UFRN / CT / PPgEE
VII.3(a) - Controle de Nível - y (Controle Neural Indireto) ............................................... 113
VII.3(b) - Controle de Nível - u e ωc (Controle Neural Indireto) ...................................... 114
VII.4 - Planta da expressão (VII.2) - y , u e ωc (Controle Híbrido Indireto) ..................... 116
VII.5(a) - Planta da expressão (VII.2) - y (Controle Neural Indireto) ................................. 118
VII.5(b) - Planta da expressão (VII.2) - u e ωc (Controle Neural Indireto) ....................... 119
VII.6 - Planta da expressão (VII.2) c/ perturbação (Controle Neural Indireto) ................... 120
VII.7 - Planta da expressão (VII.3) - y , u e ωc (Controle Híbrido Indireto) ..................... 122
VII.8 - Planta da expressão (VII.3) c/ variação de +25% em seus parâmetros
u e y (Controle Híbrido Indireto) ......................................................................... 123
VII.9 - Planta da expressão (VII.3) c/ variação de +25% em seus parâmetros
Erro de Controle ωc (Controle Híbrido Indireto) ................................................... 124
VII.10(a) - Planta da expressão (VII.3) - y (Controle Neural Indireto) ............................... 126
VII.10(b) - Planta da expressão (VII.3) - u e ωc (Controle Neural Indireto) ..................... 127
VII.11 - Planta da expressão (VII.3) c/ variação de +25% em seus parâmetros
u e y (Controle Neural Indireto) ........................................................................ 128
VII.12 - Planta da expressão (VII.3) c/ variação de +25% em seus parâmetros
Erro de Controle ωc (Controle Neural Indireto) .................................................. 129
11
Tese de Doutorado UFRN / CT / PPgEE
LISTA DE TABELAS
VII.1 - Erros de Controle de Nível (Controle Híbrido Indireto) ......................................... 112
VII.2 - Erros de Controle de Nível (Controle Neural Indireto) ........................................... 114
VII.3 - Erro de Controle da Expressão (VII.2) (Controle Híbrido Indireto) ....................... 117
VII.4 - Erro de Controle da Expressão (VII.2) (Controle Neural Indireto) ......................... 119
VII.5 - Erros de Controle da Expressão (VII.2) c/ perturbação (Controle Neural Indireto). 120
VII.6 - Erro de Controle da Expressão (VII.3) (Controle Híbrido Indireto) ....................... 123
VII.7 - Erros de Controle da Expressão (VII.3) c/ variação nos parâmetros da planta
(Controle Híbrido Indireto) ................................................................................... 125
VII.8 - Erro de Controle da Expressão (VII.3) (Controle Neural Indireto) ......................... 127
VII.9 - Erros de Controle da Expressão (VII.3) c/ variação nos parâmetros da planta
(Controle Neural Indireto) ..................................................................................... 129
12
Tese de Doutorado UFRN / CT / PPgEE
RESUMO
Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com
treinamento em tempo real (“on-line”), no desenvolvimento de duas estratégias de controle
indireto. Os esquemas propostos denominam-se Controle Híbrido Indireto e Controle Neural
Indireto. Todo o treinamento dos neurodispositivos - o identificador da planta e o
controlador, quando presentes na malha de controle indireto, é realizado com um mínimo de
atraso computacional, de modo a contemplar o controle de plantas com pequenos períodos de
amostragem.
São apresentados Teoremas de Estabilidade para garantia da convergência dos
dispositivos neurais, assim como foram feitas considerações para adequar o método de
aceleração da convergência η-adaptativo utilizado às condições de estabilidade.
Para cada esquema de controle indireto foi desenvolvido um teorema que permite
calcular o máximo erro permanente (“steady-state error”) que poderá ocorrer em função da
tolerância previamente especificada para convergência dos dispositivos neurais usados na
malha de controle, desde que a estabilidade seja garantida. Estes teoremas foram
denominados de Teoremas da Robustez e constituem a principal contribuição deste trabalho.
As condições de estabilidade e robustez foram testadas para as estratégias de Controle
Híbrido Indireto e de Controle Neural Indireto, sendo apresentados os resultados obtidos na
simulação computacional do controle de regulação de plantas não-lineares, BIBO (“Bounded
Input, Bounded Output”) estáveis.
13
Tese de Doutorado UFRN / CT / PPgEE
ABSTRACT
This work develops a robustness analysis with respect to the modeling errors, being
applied to the strategies of indirect control using Artificial Neural Networks - ANN’s, belong
to the multilayer feedforward perceptron class with on-line training based on gradient method
(backpropagation). The presented schemes are called Indirect Hybrid Control and Indirect
Neural Control.
They are presented two Robustness Theorems, being one for each proposed indirect
control scheme, which allow the computation of the maximum steady-state control error that
will occur due to the modeling error what is caused by the neural identifier, either for the
closed loop configuration having a conventional controller - Indirect Hybrid Control, or for
the closed loop configuration having a neural controller - Indirect Neural Control.
Considering that the robustness analysis is restrict only to the steady-state plant
behavior, this work also includes a stability analysis transcription that is suitable for
multilayer percetron class of ANN’s trained with backpropagation algorithm, to assure the
convergence and stability of the used neural systems. By other side, the boundness of the
initial transient behavior is assured by the assumption that the plant is BIBO (Bounded Input,
Bounded Output) stable.
The Robustness Theorems were tested on the proposed indirect control strategies,
while applied to regulation control of simulated examples using nonlinear plants, and its
results are presented.
14
Tese de Doutorado UFRN / CT / PPgEE
AGRADECIMENTOS
Ao meu orientador Prof. D.Sc. André Laurindo Maitelli, pela competência, estimulo e
compreensão com que me conduziu na elaboração deste trabalho;
Ao Coordenador do Programa de Pós-Graduação em Engenharia Elétrica - PPgEE, da
Universidade Federal do Rio Grande do Norte - UFRN, pelo apoio recebido enquanto aluno
desta instituição de pós-graduação;
Aos Professores do Programa de Pós-Graduação em Engenharia Elétrica - PPgEE, da
Universidade Federal do Rio Grande do Norte - UFRN, pela maneira competente e dedicada
com que transmitiram seus conhecimentos ao longo do meu aprendizado nesta instituição de
pós-graduação;
Aos colegas da Universidade Potiguar - UnP, pelo apoio e companheirismo;
Aos colegas da pós-graduação, pela amizade, incentivo e companheirismo;
À Deus pela dádiva da crença na busca incessante do saber como fonte inspiradora de vida.
15
Tese de Doutorado UFRN / CT / PPgEE
CAPÍTULO I
INTRODUÇÃO
16
Tese de Doutorado UFRN / CT / PPgEE
Controlar um sistema é fazer com que ele se comporte de uma maneira desejada
[Nφrgaard et al., 2001]. Este tem sido o desafio de séculos para a humanidade - controlar os
sistemas físicos da natureza de modo a garantir ao ser humano as condições satisfatórias de
segurança e conforto. A completa Teoria de Sistema Linear tem possibilitado a abordagem do
problema de controle através de modelos linearizados dos sistemas do mundo real, embora
esses sistemas sejam, em menor ou maior grau, possuidores de comportamentos não-lineares.
Na medida em que os requisitos de desempenho para os sistemas físicos tornam-se
cada vez mais exigentes, a utilização de modelos linearizados tem trazido grande limitação
operacional e, em algumas situações, pode até mesmo inviabilizar o projeto de sistemas de
controle eficientes. Para superar os problemas advindos da utilização da técnica de
linearização de sistemas físicos, alguns métodos de análise de estabilidade para sistemas não-
lineares foram desenvolvidos, tais como: Método do Plano de Fase, Método das Funções
Descritivas ou da Primeira Harmônica, Método de Popov ou da Estabilidade Absoluta e o
Método Indireto de Lyapunov. A principal desvantagem de se utilizar tais ferramentas é o seu
domínio limitado de aplicabilidade, restringindo-se apenas a algumas classes de problemas de
controle.
O sucesso dos sistemas de controle depende necessariamente da solução do problema
de estabilidade. Isto significa que o projeto de sistemas de controle deve passar antes pela
análise criteriosa da estabilidade, a fim de se estabelecer os limites para sua utilização. A
operação dentro dos limites de estabilidade é que garantirá a integridade funcional dos
sistemas físicos ou plantas, possibilitando o atendimento continuado dos requisitos de
desempenho do processo pré-especificados pelo projetista.
Outro problema importante para o projeto de sistemas de controle diz respeito ao grau
de robustez resultante da utilização de sistemas de malha fechada [Spooner et al., 2002];
6
Tese de Doutorado UFRN / CT / PPgEE
atender critérios de robustez tem sido crítico, principalmente em aplicações nas quais
variações no processo podem acarretar perdas inaceitáveis. Neste caso, a maneira apropriada
para resolver este problema tem sido propor técnicas de controle robusto não-linear que
possuam a propriedade de compensar as incertezas do sistema.
Estes são os problemas que se pretende resolver - realizar o controle de regulação de
sistemas físicos não-lineares, dentro de limites operacionais que atendam aos requisitos de
estabilidade e com um grau de robustez satisfatório. Para atingir estes objetivos serão usadas
as Redes Neurais Artificiais - RNA`s.
A proposta deste trabalho é utilizar as estruturas das RNA’s, mais especificamente das
Redes Neurais Multicamadas - RNM’s, na elaboração de estratégias de controle inteligente
que possam ser aplicadas em tempo real (“on-line”) e que apresentem um mínimo atraso
computacional. Para o treinamento das redes neurais é usado o método da Descida do
Gradiente, conhecido também por Propagação Retroativa do Erro - PRE (“Error Back
Propagation”).
As redes neurais necessitam de treinamento para desempenhar bem o seu papel, tarefa
que é computacionalmente intensiva. Minimizar o tempo computacional, de modo a viabilizar
o emprego das redes neurais no controle de plantas em tempo real, constitui-se num desafio
para os pesquisadores que vêm se dedicando ao Controle Neural. A partir de 1989, diversas
publicações têm sido feitas, dentre as quais destacamos [Werbos, 1989], [Narendra e
Parthasarathy, 1990], [Tanomaru e Omatu, 1992], [Maitelli e Gabriel, 1996], [Maitelli e
Gabriel, 1997], [Ng, 1997], [Adetona et al., 2001], [Nφrgaard et al., 2001] e [Spooner et al.,
2002], com o objetivo de propor novas técnicas de controle neural e também de prover o
rigoroso tratamento matemático às questões relacionadas com a estabilidade e a robustez de
sistemas de controle neurais.
7
Tese de Doutorado UFRN / CT / PPgEE
A estrutura desta tese está organizada como segue: o Capítulo II apresenta alguns
fundamentos sobre estabilidade e robustez de sistemas não-lineares, que constituem o
principal objetivo do desenvolvimento desta tese.
O Capítulo III trata das Redes Neurais Artificiais - RNA’s, com ênfase nas Redes
Neurais Multicamadas - RNM’s e o método da Propagação Retroativa do Erro - PRE. Este
método é desenvolvido matematicamente e implementado em linguagem algorítmica; da
mesma forma, são apresentadas algumas técnicas que foram usadas neste trabalho para
aceleração de convergência, que são: Randomização dos Padrões de Aprendizagem, η-
adaptativo e Momento Normalizado.
O Capítulo IV aborda a Modelagem de Sistemas Não-Lineares usando Redes Neurais
Artificiais, com o intuito de formar a base teórica necessária à compreensão da estratégia de
identificação da planta a ser controlada, com a finalidade de extrair os parâmetros a serem
utilizados no projeto do controlador.
O Capítulo V apresenta dois Esquemas de Controle usando Redes Neurais Artificiais
com treinamento em tempo real e mínimo atraso computacional - o Controlador Híbrido
Indireto e o Controlador Neural Indireto. É apresentado o algoritmo para a implementação
computacional de cada um deles usando a técnica de projeto indireto para o controlador, de
forma similar ao que foi proposto respectivamente em [Adetona et al., 2001] e em [Tanomaru
e Omatu, 1992], porém com algumas diferenças significativas, as quais serão destacadas
oportunamente nesse capítulo.
O Capítulo VI apresenta uma Análise de Estabilidade e Robustez dos esquemas de
controle propostos no capítulo anterior, através do enunciado e demonstração de novos
teoremas de robustez, os quais constituem a principal contribuição deste trabalho para a área
de controle usando redes neurais, uma abordagem do Controle Inteligente que nos últimos
anos vem desenvolvendo um grande esforço de pesquisa, com o objetivo de formular uma
8
Tese de Doutorado UFRN / CT / PPgEE
sustentação científica para novas técnicas capazes de solucionar eficientemente problemas de
controle de sistemas não-lineares.
O Capítulo VII apresenta os resultados obtidos através de simulações computacionais
com Exemplos de plantas não-lineares retiradas da literatura [Slotine e Li, 1991], [Ng, 1997] e
[Adetona et al., 2001].
Finalmente, o Capítulo VIII apresenta as Conclusões ressaltando as contribuições
desta tese e procurando estimular um maior aprofundamento neste ramo da ciência e
tecnologia, que certamente tem muita contribuição a dar para a melhoria da qualidade na
produção de bens e serviços, satisfazendo aos requisitos de desempenho exigidos pela
sociedade atual.
9
Tese de Doutorado UFRN / CT / PPgEE
CAPÍTULO II
FUNDAMENTOS DE ESTABILIDADE
E ROBUSTEZ
10
Tese de Doutorado UFRN / CT / PPgEE
II.1 - INTRODUÇÃO
Os sistemas de controle podem ser analisados e implementados de várias formas
dicotômicas, dentre elas destacamos: teoria linear ou não-linear, analógico ou discreto,
baseado no modelo entrada-saída (externo) ou no modelo no espaço de estados (interno).
Entretanto, todas estas abordagens têm em comum o objetivo de manipular o sistema físico de
interesse (ou planta), de tal modo que o mesmo opere o mais próximo possível de um
comportamento desejável, previamente estabelecido pelo projetista para atender os requisitos
de desempenho do processo. Este trabalho considerará somente os sistemas discretos não-
lineares e usará, quando necessário, conceitos de estabilidade aplicáveis aos modelos de
entrada-saída e de espaço de estados.
As características mais importantes de um sistema de controle são a estabilidade e a
robustez. Estabilidade significa manter uma planta sob controle, a despeito da ocorrência de
perturbações, enquanto que robustez significa manter o sistema de controle estável e com um
bom desempenho, apesar de somente possuir um modelo aproximado da planta ou existir
variações nos parâmetros físicos da planta [Spooner et al., 2002].
II.2 - ESTABILIDADE
Freqüentemente são empregados dois critérios para caracterizar diretamente o
comportamento de sistemas dinâmicos não-lineares quanto à estabilidade, que são: critério de
estabilidade entrada-saída (modelo externo) e o Método Direto de Lyapunov (modelo
interno), este último também denominado de 2o Método de Lyapunov.
II.2.1 - CRITÉRIO DE ESTABILIDADE ENTRADA - SAÍDA
22
Tese de Doutorado UFRN / CT / PPgEE
Este critério para avaliar a estabilidade de um sistema físico leva em consideração
apenas o comportamento dos sinais de entrada e saída do sistema, apresentando, portanto, a
desvantagem de não considerar a dinâmica interna do sistema. Neste caso, para analisar se o
sistema é estável ou não, é aplicado o critério de estabilidade BIBO (“Bounded Input,
Bounded Output” = “Entrada Limitada, Saída Limitada”), conforme será definido a seguir.
Entretanto, antes de definir estabilidade BIBO, serão apresentados também os conceitos
relacionados às normas de vetor e de matriz usadas neste trabalho.
Definição II.1: “Seja uma matriz quadrada . O operador traço é definido por nxnA R∈
( ) ∑=
=n
iiiaAtr
1, (II.1)
em que ai,i é um elemento da matriz A.”
Definição II.2: Norma de um vetor x ∈ é um escalar não negativo usado para medir seu
comprimento, tamanho ou distância, dependendo do contexto de sua aplicação.
nR
• Norma Euclidiana: ∑=
==n
ii
T xxxx1
22
(II.2)
• Norma infinito: iixmaxx =
∞ (II.3)
sendo xi o i-ésimo componente do vetor.
23
Tese de Doutorado UFRN / CT / PPgEE
A norma de Frobenius e a norma induzida infinito de uma matriz W ∈ formada por
elementos w
mnxR
i,j , são dadas por
• Norma de Frobenius: 21
1 1
2,
= ∑∑
= =
n
i
m
jjiF
wW (II.4)
[ ] 21T )(WWtrWF= (II.5)
• Norma infinito:
= ∑
=∞
m
jjii
wmaxW1
, (II.6)
Definição II.3 (Estabilidade BIBO = Bounded Input, Bounded Output Stability): “Um sistema
não-linear discreto representado por
10 )()),(),(()()),(),(()1(
Mkxkkukxhkykkukxfkx
<
==+
(II.7)
é dito ser BIBO estável se 32 MyMu <⇒<∞∞
, sendo , i = 1, 2 e 3.” Esta
definição foi adaptada de [Faleiros e Yoneyama, 2002], para sistemas discretos.
∞<iM
Definição II.4:“Seja Y um conjunto não vazio limitado superiormente e seja S o conjunto
de todos os limites superiores de Y, ou seja, se y∈Y e ymin<y<ymax então
S=s∈Rymax≤s<∞. O mínimo de S é o menor limite superior de Y, que é denominado de
supremum de Y, cujo símbolo é sup Y. Claro, se Y possuir um máximo, então max Y = sup
Y. Caso o conjunto Y não seja limitado superiormente, pode-se representar este fato 24
Tese de Doutorado UFRN / CT / PPgEE
escrevendo sup Y = ∞ e, se Y for um conjunto vazio, sup Y = -∞. Com estas convenções,
conclui-se que o supremum existe para qualquer subconjunto de números reais [Naylor e Sell,
1982].”
II.2.2 - MÉTODO DIRETO DE LYAPUNOV
Contribuições importantes para a Teoria de Estabilidade foram feitas pelo matemático
e engenheiro russo Aleksandr Mikhailovich Lyapunov (1857-1918), sendo de sua autoria o
Método Indireto (ou 1o Método de Lyapunov), que fornece as condições para a estabilidade
local de um sistema dinâmico não-linear em torno de um ponto de operação, a partir das
propriedades de estabilidade de sua respectiva aproximação linear (este método consiste na
justificativa teórica da Teoria Linear), e o Método Direto (ou 2o Método de Lyapunov), o qual
utiliza o conceito de energia para a verificação de estabilidade global de um sistema não-
linear.
Neste trabalho, vamos tratar do Método Direto aplicado aos sistemas discretos no
tempo. Porém, antes de apresentarmos os teoremas de estabilidade baseados no Método
Direto de Lyapunov, é necessário formalizar alguns conceitos matemáticos fundamentais.
Definição II.5: “Um ponto x(k) = x , ∀ , sendo o instante no qual o sistema atinge ekk ≥ ek
x , no espaço de estado é um ponto de equilíbrio de um sistema não forçado, i.e.
u(k) = 0, representado por x(k+1) = f(x(k)), se ele possuir a propriedade de permanecer em x
sempre que o estado do sistema atingir x .” Esta definição foi adaptada de [Khalil, 1996],
para sistemas discretos.
25
Tese de Doutorado UFRN / CT / PPgEE
Teorema II.6: “Um ponto x é um ponto de equilíbrio do sistema não-linear discreto dado
por x(k+1) = f(x(k)), se o seu comportamento for caracterizado por f( x ) = x .”
Prova:
Seja um sistema não-linear discreto representado por
x(k+1) = f(x(k)) (II.8)
Fazendo ∆x(k+1) = x(k+1) – x(k), tem-se que a condição para que x(k) seja um ponto de
equilíbrio é que ∆x(k+1) = 0, ou seja x(k+1) – x(k) = 0. Usando a expressão (II.8) e
denominando o ponto de equilíbrio de x , finalmente obtém-se a expressão que caracteriza o
comportamento de um ponto de equilíbrio de um sistema discreto, qual seja
f(x(k)) – x(k) = 0
f( x ) – x = 0 ⇒ f( x ) = x
em que x(k) = x , , sendo o instante no qual o sistema atinge o ponto de
equilíbrio; caso o ponto de equilíbrio seja a origem,
ekk ≥∀ ek
x = 0, tem-se que f(0) = 0.
Definição II.7: “Um ponto de equilíbrio x é um ponto de equilíbrio isolado se existe um
ε>0, tal que uma circunferência Bε com centro em x , i.e.
ε<−∈=ε xxxB :nR ,
26
Tese de Doutorado UFRN / CT / PPgEE
não contém outro ponto de equilíbrio além de x .”
Para analisar o comportamento de um sistema quanto a sua estabilidade em uma
vizinhança do ponto de equilíbrio x , ou seja f( x ) = x , será feita uma translação dos eixos
coordenados, de tal forma que a posição do ponto de equilíbrio passe a ser a origem de um
novo sistema, i.e., o ponto de equilíbrio passa a ser x* = 0. Para se obter este deslocamento,
faz-se:
)1()1()1(* +−+=+ kxkxkx
)1()1()1(* +∆−+∆=+∆ kxkxkx (II.9)
considerando que x é um ponto fixo por ser um ponto de equilíbrio do sistema no
referencial antigo, tem-se 0)1( =+kx∆ . Substituindo este resultado em (II.9) e manipulando
matematicamente, virá:
)1()1()1()1(* +∆=+∆−+∆=+∆ kxkxkxkx
Como , obtém-se )1()1(* +∆=+∆ kxkx
)]()(*[))()(*()())(()()1()(*)1(*kxkxkxkxf
kxkxfkxkxkxkx+−+=
−=−+=−+
Fazendo x*(k) = 0 (por ser a origem a nova posição do ponto de equilíbrio), tem-se
27
Tese de Doutorado UFRN / CT / PPgEE
)](0[))(0()1(* kxkxfkx +−+=+
)())(( kxkxf −=
)()1( kxkx −+=
)1( +∆= kx
0=
ficando, portanto, demonstrado que a translação de eixos faz com que x* = 0 passe a ser a
posição do ponto de equilíbrio isolado, desta vez localizado na origem dos eixos da nova
representação gráfica. Assim, em sistemas discretos, a expressão f(0) = 0 significa ponto de
equilíbrio na origem.
Desta forma, e sem perda de generalidade, doravante a origem será considerada um
ponto de equilíbrio isolado do sistema não-linear. Este procedimento, além de simplificar a
manipulação matemática, também permite a aplicação direta do conceito de norma para
avaliação e comparação de grandezas vetoriais.
Definição II.8: “A origem de é estável se ∀ε>0 existir um δ(ε)>0, tal
que se ||x(0)||<δ(ε) então ||x(k)||<ε, ∀k ≥ 0; caso contrário a origem é instável.”
))(()1( kxfkx =+
Figura II.1: Sistema estável
28
Tese de Doutorado UFRN / CT / PPgEE
Definição II.9: “A origem de é assintoticamente estável se a origem é
estável e
))(()1( kxfkx =+
0)(lim →∞→
kxk
, ou seja, x(k) → 0 quando k → ∞ (atratividade).”
Figura II.2: Sistema assintoticamente estável
Definição II.10: “A origem de é exponencialmente estável se a origem é
assintoticamente estável e existirem constantes γ,λ>0, tal que ||x(k||<γe
))(()1( kxfkx =+
-λk, ∀k≥0.”
O Método Direto de Lyapunov fornece os procedimentos necessários para testar a
estabilidade, sem requerer a solução de equações diferenciais ou de diferenças. Isto é muito
vantajoso, pois a resolução de equações diferenciais ou de diferenças para sistemas não-
lineares e/ou variantes no tempo, em alguns casos, torna-se bastante difícil ou até mesmo
impossível.
Inspirado na Mecânica Clássica, o Método Direto baseia-se no comportamento da
energia total (V) do sistema, denominada de função de Lyapunov.
Definição II.11 (Função de Lyapunov): “V(x(k)) é uma função de Lyapunov para o sistema
autônomo, discreto e não forçado
29
Tese de Doutorado UFRN / CT / PPgEE
x(k+1) = f(x(k)), f(0) = 0
y(k) = h(x(k)) (II.10)
em que x(k) é o estado e y(k) é a saída do sistema no tempo discreto k, se
1) V(x) é contínua em x, sendo V(0) = 0, e
2) V(x) > 0, para x ≠ 0.”
A curva na qual a função de Lyapunov V(x(k)) mantém-se com um valor constante
denomina-se curva de nível (energia total constante), conforme mostrado na Figura II.3
(Plano de Fase), onde também são representadas as possibilidades do comportamento de um
sistema de 2a ordem quanto à estabilidade.
Fig. II.3: Estabilidade de um sistema dinâmico (Plano de Fase)
A seguir serão estabelecidas as condições que uma função matemática deve satisfazer
para ser classificada com respeito a sua positividade ou negatividade.
Definição II.12 (Função definida positiva): “Uma função V(x) é definida positiva em uma 30
Tese de Doutorado UFRN / CT / PPgEE
vizinhança de x = 0, se V(x) > 0, ∀x tal que ||x|| < ε, ε >0 e V(0) = 0. Se as propriedades
são válidas ∀x ∈ Rn, então a função V(x) é definida positiva global.”
Definição II.13 (Função semi-definida positiva): “Uma função V(x) é semi-definida positiva
em uma vizinhança de x = 0, se V(x) ≥ 0, ∀x tal que ||x|| < ε, ε >0 e V(0) = 0. Se as
propriedades são válidas ∀x ∈ Rn, então a função V(x) é semi-definida positiva global.”
Definição II.14 (Função definida negativa): “Uma função V(x) é definida negativa em uma
vizinhança de x = 0, se V(x) < 0, ∀x tal que ||x|| < ε, ε >0 e V(0) = 0. Se as propriedades
são válidas ∀x ∈ Rn, então a função V(x) é definida negativa global.”
Definição II.15 (Função semi-definida negativa): “Uma função V(x) é semi-definida
negativa em uma vizinhança de x = 0, se V(x) ≤ 0, ∀x tal que ||x|| < ε, ε >0 e V(0) = 0. Se
as propriedades são válidas ∀x ∈ Rn, então a função V(x) é semi-definida negativa global.”
Teorema II.16: “Se para o sistema discreto x(k+1) = f(x(k)), f(0) = 0, existe uma função
V(x(k)) tal que
1) V(x) é contínua em x, sendo V(0) = 0,
2) V(x) > 0 (definida positiva),
3) (semi-definida negativa), 0))1(())(())(( ≤−−=∆ kxVkxVkxV
então a origem é um ponto de equilíbrio estável.”
Prova: [Khalil, 1996].
Teorema II.17: “Se para o sistema discreto x(k+1) = f(x(k)), f(0) = 0, existe uma função
31
Tese de Doutorado UFRN / CT / PPgEE
V(x(k)) tal que
1) V(x) é contínua em x, sendo V(0) = 0,
2) V(x) > 0 (definida positiva),
3) (definida negativa), 0))1(())(())(( <−−=∆ kxVkxVkxV
então a origem é um ponto de equilíbrio assintoticamente estável.”
Prova: [Khalil, 1996].
Teorema II.18: “Se para o sistema discreto x(k+1) = f(x(k)), f(0) = 0, existe uma função
V(x(k)) tal que
1) V(x) é contínua em x, sendo V(0) = 0,
2) V(x) > 0 (definida positiva),
3) (definida negativa) e 0))1(())(())(( <−−=∆ kxVkxVkxV
4) V(x) → ∞ quando ||x|| → ∞,
então a origem é um ponto de equilíbrio globalmente assintoticamente estável”.
Prova: [Khalil, 1996].
II.3 - ROBUSTEZ
O conceito de robustez está relacionado com a capacidade de um sistema permanecer
estável, apesar da existência de erros em seu modelo e/ou de variações nos parâmetros físicos
da planta. Na área do Controle Adaptativo, para reduzir os efeitos das variações dos
parâmetros da planta, a robustez é conseguida através do ajuste (ou adaptação) do controlador
32
Tese de Doutorado UFRN / CT / PPgEE
em tempo real (“on-line”) [Spooner et al., 2002].
Neste trabalho, supõe-se que o modelo matemático da planta é inicialmente
desconhecido e, para que seja viável o projeto do controlador, utiliza-se um identificador
baseado em redes neurais para ajustar indiretamente os parâmetros do controlador, que, por
sua vez, poderá ser um controlador convencional ou um controlador neural.
Definição II.19 (Erro de Controle): “Define-se erro de controle, ωc, como sendo o valor
absoluto da diferença entre a saída de referência (“set-point”) e a saída da planta, ou seja
)()(fRe_)(ω kykykc −=
sendo ωc(k)∈R+ , em que k é o tempo discreto. Adicionalmente, define-se Ωc como sendo
o conjunto dos erros de controle.”
Assim, para garantir que a estabilidade do sistema de controle de malha fechada não
será comprometida em decorrência dos erros de modelagem e/ou das variações nos
parâmetros físicos da planta, é suficiente demonstrar que o erro de controle de estado
permanente (“steady-state”), ωp, sendo ωp o valor absoluto da diferença entre a saída de
referência e a saída da planta no estado permanente, mantém-se limitado, ou seja, que
ω≤Ω psup , em que sup significa o valor supremum (o menor limite superior) de um
conjunto, Ωp⊂R+ é o conjunto de todos os erros de controle de estado permanente (Ωp⊂Ωc) e
ω é um valor máximo a ser definido, sendo que este último irá depender da tolerância
escolhida para o treinamento das redes neurais usadas nos esquemas de controle neural a
serem apresentados em um capítulo deste trabalho.
33
Tese de Doutorado UFRN / CT / PPgEE
Definição II.20: “Robustez é a capacidade do sistema de controle neural manter o erro de
controle de estado permanente dentro de um intervalo I, i.e., ωp∈I, sendo +⊂ω= R],0[I ,
de modo a garantir que o sistema permaneça estável e com um bom desempenho, apesar da
existência de erros de modelagem e/ou pequenas variações nos parâmetros da planta.” Esta
definição foi adaptada de [Spooner et al., 2002].
Isto significa dizer que, através da escolha apropriada da tolerância ε para
convergência das redes neurais usadas para implementar o esquema de controle, é possível
confinar o erro de controle ωp dentro de um intervalo I, ωp∈I, com a possibilidade de fazer
ω tão pequeno quanto se deseja, de modo a atender os requisitos de desempenho do sistema
de controle de malha fechada.
Assim, o máximo erro de controle dependerá da tolerância adotada para convergência
da rede neural, i.e. ( )εω=ω , como será demonstrado posteriormente, para cada um dos
esquemas de controle tratados neste trabalho.
Evidentemente, a principal desvantagem quando se pretende obter um desempenho
melhor do sistema de controle usando redes neurais, é o conseqüente aumento no tempo total
(Tt) gasto no treinamento das mesmas, com o risco deste tempo exceder o período de
amostragem (Ts) da planta e assim comprometer a estabilidade da malha de controle, i.e., o
tempo total de treinamento deve estar sujeito a restrição Tt ≤ Ts.
II.4 - CONCLUSÕES
Este capítulo teve a finalidade de apresentar alguns conceitos básicos sobre
estabilidade e robustez aplicáveis a sistemas não-lineares discretos, visando fornecer a base
mínima de conhecimento necessária à compreensão dos teoremas e suas respectivas
34
Tese de Doutorado UFRN / CT / PPgEE
demonstrações matemáticas que foram desenvolvidos para garantir a estabilidade e permitir a
avaliação da robustez das técnicas de controle usando redes neurais artificiais a serem tratadas
nos próximos capítulos.
É interessante ressaltar que a literatura técnica disponível normalmente dá ênfase à
análise de sistemas contínuos no tempo, por exemplo, [Slotine e Li, 1991] e [Khalil, 1996],
enquanto que para sistemas discretos, ou fazem referência a estes como sendo uma extensão
natural do caso contínuo ou sequer a eles se referem. Neste aspecto, este capítulo, além de
contextualizar os conceitos sobre estabilidade, também procurou formalizar o conceito de
ponto de equilíbrio para sistemas discretos não-lineares.
Finalmente, foi caracterizado e definido matematicamente o conceito de robustez com
respeito aos erros de modelagem e/ou às variações nos parâmetros da planta, estabelecendo
claramente o seu significado.
Os conceitos tratados neste capítulo, juntamente com os conceitos sobre redes neurais
artificiais, modelagem de sistemas não-lineares e suas aplicações em controle inteligente a
serem apresentados nos próximos capítulos, constituir-se-ão nos fundamentos necessários à
posterior compreensão da análise de robustez de sistemas de controle usando redes neurais
objeto deste trabalho.
35
Tese de Doutorado UFRN / CT / PPgEE
CAPÍTULO III
REDES NEURAIS ARTIFICIAIS
36
Tese de Doutorado UFRN / CT / PPgEE
III.1 - INTRODUÇÃO
As Redes Neurais Artificiais - RNA’s têm o propósito de simular de maneira
simplificada alguns comportamentos do sistema nervoso humano através de programas de
computador (“software”) ou de circuitos elétricos (“hardware”), e investigar se assim é
possível imitar estes sistemas de inteligência com que é dotado o ser humano [Rumelhart et
al., 1986]. O grande avanço da tecnologia de microprocessadores verificado nas últimas
décadas, vem possibilitando o desenvolvimento de programas que procuram implementar as
RNA’s e assim tirar proveito dos modelos matemáticos propostos para reproduzir algumas
manifestações que são características da inteligência humana [Gabriel, 1996].
As RNA’s são compostas de vários elementos conectados entre si de alguma forma,
possibilitando a operação em paralelo. Estes elementos são baseados no sistema nervoso do
ser humano e são denominados de neurônios (unidades computacionais). De acordo com o
modelo proposto por McCulloch-Pitts, cada neurônio pode ser modelado por um somador
seguido de uma função de ativação, de tal modo que um neurônio j, quando excitado por uma
entrada X = [x1 x2 ... x i]T, para i = 1, 2,..., I, e sendo submetido ao limiar de operação T
(“threshold”), apresenta uma saída yj, conforme mostrado a seguir.
Figura III.1 : Representação de um Neurônio j.
Define-se o sinal de ativação NET de um neurônio j, como sendo
49
Tese de Doutorado UFRN / CT / PPgEE
(III.1) NET x w Tj i j ii
I
==∑ ,
1
−
em que xi é uma entrada do neurônio j, wj,i é o peso sináptico correspondente à conexão do
neurônio j com o seu antecessor i e T é o limiar de operação do neurônio. Note que i é o
índice do neurônio de origem e j é o índice do neurônio de destino, para i = 1, 2,..., I e j = 1,
2,..., J. Uma outra forma de representar matematicamente o sinal de ativação NETj é
incluindo o limiar de operação T como um elemento adicional na matriz dos pesos
sinápticos, alimentado com uma entrada fixa de valor -1, ou seja, fazendo
Figura III.2 : Representação modificada de um Neurônio j.
onde se observa que . Esta representação traz vantagens na implementação
computacional do neurônio artificial, cuja expressão matemática passa a ser
T w j I= +, 1
(III.2) NET x wj ii
I
==
+
∑ ,1
1
j i
50
A forma como os neurônios são conectados entre si define a arquitetura da rede neural,
entendendo-se por arquitetura a organização topológica e a maneira pela qual os neurônios
obtêm suas entradas. Outro aspecto importante para a definição das RNA’s é o processo de
Tese de Doutorado UFRN / CT / PPgEE
aprendizagem adotado para o seu treinamento. No campo de identificação e controle de
sistemas, tem-se utilizado com freqüência a arquitetura multicamadas (“multilayer neural
network”), conjugada com a metodologia de aprendizagem baseada na Propagação
Retroativa do Erro - PRE (“Error BackPropagation”) devido a sua simplicidade na
implementação. A principal desvantagem em usar a metodologia PRE é o tempo de
treinamento da rede neural, entretanto, com computadores cada dia mais velozes e com o
auxilio de algumas técnicas de melhoria de desempenho, esta desvantagem vem sendo
amenizada. Se mesmo assim ainda persistir a impossibilidade de usar o PRE, sugere-se usar
uma técnica de segunda ordem, por exemplo, o método do Gradiente Conjugado ou o método
de Levenberg-Marquardt [Ng, 1997].
Neste capítulo são descritos as Redes Neurais Multicamadas - RNM’s e a metodologia
de atualização dos pesos sinápticos baseada na Propagação Retroativa do Erro - PRE
(maiores detalhes podem ser vistos em [Gabriel, 1996]), por serem as principais ferramentas
que serão usadas para a implementação dos esquemas de controle para sistemas dinâmicos
não-lineares objeto deste trabalho.
III.2 - REDES NEURAIS MULTICAMADAS - RNM’s
Este trabalho usa a organização dos neurônios em várias camadas justapostas, sem
realimentação, conhecida como Redes Neurais Multicamadas - RNM's. Uma RNM típica com
uma camada de entrada, uma camada intermediária e uma camada de saída é mostrada
na
figura abaixo:
51
Tese de Doutorado UFRN / CT / PPgEE
Figura III.3 : Rede Neural Multicamadas-RNM’s
Os neurônios estão dispostos em camadas que se justapõem umas às outras, formando
uma configuração em cascata, podendo existir mais de uma camada intermediária. A primeira
camada é a camada de entrada (“input layer”), as camadas intermediárias são as camadas
escondidas (“hidden layers”) e a última camada é a camada de saída (“output layer”). É
imediato constatar que a rede funciona no sentido direto da entrada para a saída
(“feedforward”) e a camada de entrada não possui neurônios (pseudocamada), constituindo-se
apenas na entrada da rede neural.
Algumas arquiteturas de Redes Neurais Multicamadas - RNM`s são boas para
aprender relações matemáticas, lineares ou não-lineares, a partir de um conjunto de dados de
entrada-saída, sendo, por isso, consideradas aproximadores universais [Haykin, 1999] de
funções matemáticas.
III.2.1 - METODOLOGIA DA PROPAGAÇÃO RETROATIVA DO ERRO - PRE
52
Tese de Doutorado UFRN / CT / PPgEE
O objetivo é encontrar uma regra capaz de ajustar os pesos sinápticos da rede neural
com base em um conjunto de pares de entrada-saída, denominados padrões de aprendizagem.
A questão pode ser colocada da seguinte forma: se os pesos sinápticos wj,i forem
considerados como elementos de uma matriz W , então o processo de aprendizagem consiste
na determinação da matriz W* que minimiza uma função erro (ou função custo) E,
escolhida previamente, e que de alguma forma deve ser baseada no erro de saída da rede.
A Propagação Retroativa do Erro - PRE é o método de aprendizagem mais comum
para a obtenção desse propósito [Narendra e Parthasarathy, 1990], cujas fórmulas
matemáticas em sua versão básica serão apresentadas neste capítulo. O termo básica é usado
para indicar que o mesmo pode ser enriquecido com técnicas auxiliares, que também serão
vistas mais adiante, visando uma melhoria de desempenho. O método PRE básico executa a
atualização (ou adaptação) dos pesos sinápticos de uma rede neural, de acordo com a seguinte
expressão:
W [c+1] = W [c] + ∆W [c] (III.3)
em que ∆W é a matriz de ajuste dos pesos sinápticos no ciclo de adaptação [c] (ou época),
cujos elementos são calculados por
wEw∂∂
−=∆ η (III.4)
onde η é a taxa de aprendizagem e wE ∂∂ é o gradiente da função erro global E em
relação ao peso w. Esta última expressão é conhecida como Método de Descida do
Gradiente, muito utilizado na solução de problemas de otimização irrestrita [Friedlander,
1994].
53
Tese de Doutorado UFRN / CT / PPgEE
Para melhor clareza de exposição, é necessário definir inicialmente:
Número de Pares de Treinamento NPTR: É a quantidade de pares de entrada-saída que
servirão de padrão de aprendizagem para o treinamento da RNM.
Sinal de Entrada do p-ésimo ponto de treinamento:
X p,i = [ xp,1 xp,2......xp,I ]T (III.5)
para p = 1, 2,..., NPTR e i = 1, 2,..., I entradas
Sinal Intermediário correspondente à p-ésima entrada:
Y p,j = [ yp,1 yp,2 yp,J ]T (III.6)
para p = 1, 2,..., NPTR e j = 1, 2,..., J neurônios escondidos
Sinal de Saída correspondente à p-ésima entrada:
Z p,k = [ zp,1 zp,2 zp,K ]T (III.7)
para p = 1, 2,..., NPTR e k = 1, 2,..., K neurônios de saída
Matriz Escondida W[h] dos pesos sinápticos:
W[h] = (III.8)
[ ]
[ ] [ ] [ ]
[ ] [ ]
12
][1
22221
1][
12][
11
............
..
..
hJI
hJ
hJ
hI
hh
hI
hh
www
wwwwww
54
Matriz de Saída W[o] dos pesos sinápticos:
Tese de Doutorado UFRN / CT / PPgEE
W[o] = (III.9)
[ ] [ ] [ ]
[ ] [ ] [ ]
[ ] [ ] [ ]
w w ww w w
w w w
o oJo
o oJo
Ko
Ko
KJo
11 12 1
21 22 2
1 2
. .
. .. . . . .. . . . .
. .
Sinal de Ativação do neurônio j correspondente à p-ésima entrada:
NET p,j = [ NETp,1 NETp,2 NETp,J ]T (III.10)
para p = 1, 2,..., NPTR.
Sinal de Saída Desejado para o neurônio k correspondente a p-ésima entrada:
Ο p,k = [ ο p,1 οp,2 οp,K ]T (III.11)
para p = 1, 2,..., NPTR.
Observe que, de acordo com a notação acima, os pares de treinamento são formados
por [X p,i , Ο p,k ]. Finalmente é escolhida uma função quadrática para o erro E, de tal forma a
garantir a convergência global dos pesos sinápticos [Friedlander, 1994], como sendo o
somatório do quadrado de todos os erros de saída da rede neural, calculados para cada padrão
de aprendizagem [Cichocki e Unbehauem, 1993], ou melhor,
E = (22
11ο p k p k
k
K
p
NPTRz, ,−
==∑ )1 ∑ (III.12)
para p = 1, 2,..., NPTR e k = 1, 2,..., K saídas da rede neural.
55
Tese de Doutorado UFRN / CT / PPgEE
A fórmula para ajustar (ou adaptar) os valores dos pesos sinápticos de cada
conexão existente entre um neurônio j da camada escondida e um neurônio k da camada de
saída, de maneira que o erro global E seja igual ou menor que uma tolerância
previamente especificada, i.e, tal que , é a seguinte [Gabriel, 1996]:
wo k j, ,
0≥ε
E ≤ ε
[ ] [ ] [ [cjk
cjko
cjko yww δ+=+ η,,
1,, (III.13) ] ]
onde [c] é o ciclo de adaptação (ou época), η é a taxa de aprendizagem,
, sendo que é a derivada primeira da função de ativação dos
neurônios da camada de saída.
)()( kokkk NETfzo ′−=δ )(.of ′
A fórmula para ajustar (ou adaptar) os valores dos pesos sinápticos que
interligam um neurônio i da camada de entrada da rede neural com um neurônio j da
camada escondida, é a seguinte [Gabriel, 1996]:
wh j i, ,
(III.14) [ ] [ ] ( )][
1,,,,
1,,
cK
kjkokijh
cijh
cijh wxNETfww
δ′+= ∑
=
+ η
para i = 1, 2,..., I entradas e j = 1, 2,..., J neurônios escondidos.
onde [c] é o ciclo de adaptação (ou época), η é a taxa de aprendizagem e é a
derivada primeira da função de ativação dos neurônios da camada escondida.
′f h ( ).
Embora a expressão (III.14) tenha sido desenvolvida para atualizar os pesos sinápticos
existentes entre a camada escondida e a camada de entrada de uma RNM de 3 camadas
(camada de entrada + uma camada escondida + camada de saída), a mesma pode ser estendida
para atualizar os pesos sinápticos entre duas camadas escondidas quaisquer, caso a RNM
56
Tese de Doutorado UFRN / CT / PPgEE
possua mais de uma camada escondida. Para isso, basta adequar as variáveis manipuladas pela
correspondente expressão, assim como seus respectivos subescritos, tomando-se o cuidado de
propagar o sinal de erro δ no sentido da última camada escondida para a camada de entrada.
III.2.2 - FUNÇÕES DE ATIVAÇÃO DOS NEURÔNIOS
Os neurônios artificiais são modelados matematicamente (modelo de McCulloch e
Pitts) para desempenhar duas operações básicas: um somatório e uma função, ou melhor,
NEURÔNIO = SOMATÓRIO + FUNÇÃO DE ATIVAÇÃO. Representando numa forma
esquemática, o neurônio artificial tem o seguinte aspecto:
Figura III.4: Neurônio = Somatório + Função de Ativação
Esta subseção é dedicada ao estudo da Função de Ativação f (.). Qualquer função que
seja contínua e derivável no intervalo que contém a variável NETl , para l = 1, 2,..., L, tal que
NET ∈ RL, pode ser uma Função de Ativação de um neurônio genérico l de uma RNA.
Entretanto, somente serão estudadas as funções Linear, Sigmóide Unipolar e Sigmóide
Bipolar, por serem mais freqüentemente utilizadas com o método de Propagação Retroativa
do Erro - PRE, que é o método de aprendizagem empregado neste trabalho.
57
Tese de Doutorado UFRN / CT / PPgEE
III.2.2.1 - FUNÇÃO LINEAR
Define-se Função Linear com declividade β, toda e qualquer função regida pela
equação
f (NETl) = β NETl, (III.15)
para l = 1, 2,..., L.
O gráfico da função expressa por (III.15) é mostrado na Figura III.5, onde β é a declividade
da reta.
-5 0 5NET
-2
0
2
f(NET
)
=2.0=1.0
=0.5
Figura III.5: Função Linear, com β = 0,5, 1,0 e 2,0
Sua derivada primeira é
(III.16) ( )′ =f NETl β
III.2.2.2 - FUNÇÃO SIGMÓIDE UNIPOLAR
58
Tese de Doutorado UFRN / CT / PPgEE
Define-se Função Sigmóide Unipolar, também denominada de Função Logística, com
declividade β no ponto correspondente a NET = 0, toda e qualquer função regida pela
equação
( )f NETel NETl
=+ −
11 4β , (III.17)
para l = 1, 2,..., L.
O gráfico da função expressa por (III.17) é mostrado na Figura III.6, onde β é a declividade
da reta tangente a curva em NET = 0.
-5 0 5NET
-2
0
2
f(NET
)
=2.0=1.0
=0.5
Figura III.6: Função Sigmóide Unipolar, com β = 0,5, 1,0 e 2,00
A derivada primeira da Função Sigmóide Unipolar expressa por (III.17) é
(III.18) ( ) ( ) ([′ = −f NET f NET f NETl l4 1β )]l
III.2.2.3 - FUNÇÃO SIGMÓIDE BIPOLAR
59
Tese de Doutorado UFRN / CT / PPgEE
Define-se Função Sigmóide Bipolar, também denominada de Função Tangente
Hiperbólica, com declividade β no ponto correspondente a NET = 0, toda e qualquer função
regida pela equação
( )f NET eel
NET
NET
l
l=
−+
−
−
11
2
2
β
β , (III.19)
para l = 1, 2,..., L.
O gráfico da função expressa por (III.19) é mostrado na Figura III.7, onde β é a declividade
da reta tangente a curva em NET = 0.
-5 0 5NET
-2
0
2
f(NET
)
=2.0=1.0
=0.5
Figura III.7: Função Sigmóide Bipolar, com β = 0,5, 1,0 e 2,0
A derivada primeira da Função Sigmóide Bipolar expressa por (III.19) é
(III.20) ( ) ( )([′ = −f NET f NETl β 12) ]l
III.2.3 - ALGORITMO DO MÉTODO DE PROPAGAÇÃO RETROATIVA DO ERRO
60
Tese de Doutorado UFRN / CT / PPgEE
O objetivo desta subseção é apresentar um algoritmo básico para a implementação
computacional da técnica de treinamento fundamentada na metodologia da Propagação
Retroativa do Erro - PRE.
III.2.3.1 - ALGORITMO PRE ( VERSÃO BÁSICA)
Para facilidade de apresentação, o algoritmo PRE , em sua versão básica com entrada
em lote (“batch”), é separado em duas partes, conforme se segue:
Primeira Parte: Declaração das principais variáveis computacionais
Número de pares de treinamento
NPTR: Inteiro;
Entrada para treinamento
X [posição na entrada,ordem no lote]: Matriz de Reais;
Saída desejada para treinamento
O [posição na saída,ordem no lote]: Matriz de Reais;
Número de camadas
NC: Inteiro;
Número de nós por camada
NN [camada]: Vetor de Inteiros;
Função de Ativação dos Neurônios
FAN [camada]: Código Funcional;
Código Funcional
CódigoFuncional: Caracter;
61
Tese de Doutorado UFRN / CT / PPgEE
Nó
NO [camada][posição na camada,ordem no lote]: Matriz de Reais;
Sinal de ativação
NET [camada][posição na camada,ordem no lote]: Matriz de Reais;
Peso sináptico
W [posição na rede][nó de destino,nó de origem]: Matriz de Reais;
Somatório dos produtos δ*w
SDW [posição na camada,ordem no lote]: Matriz de Reais;
Erro Local
ErroLocal[posição na camada de saída,ordem no lote]: Matriz de Reais;
Erro Total
E: Real;
Tolerância
ε: Real;
Constante de aprendizagem η
ETA: Real;
Segunda Parte: Algoritmo para implementação computacional
1o Passo: Propagação Direta (“Forward”)
Fazer NET = 0;
Para r = 1 até NC-1 fazer
Para p = 1 até NPTR fazer
Para s = 1 até NN[r+1] fazer
62
Tese de Doutorado UFRN / CT / PPgEE
Para t = 1 até NN[r+1] fazer
NET[r][s,t] = NET[r][s,t]+W[r][s,t]*NO[r][t,p];
FimPara;
FimPara;
FimPara;
Se FAN[r] = CodigoFuncional Então Fazer
Para p = 1 até NPTR Fazer
Para s = 1 até NN[r+1] Fazer
NO[r+1][s,p] = f(NET);
FimPara;
Se r+1<NC Então Fazer
NO[r+1][s+1,p] = THRESHOLD;
FimSe;
FimPara;
FimSe;
FimPara;
2o Passo: Calcular Erro de Saída
Fazer E = 0;
Para p = 1 até NPTR Fazer
Para s = 1 até NN[NC] Fazer
ErroLocal[s,p] = O[s,p]-NO[NC][s,p];
E = E+0,5*SQR(ErroLocal[s,p]);
FimPara;
63
Tese de Doutorado UFRN / CT / PPgEE
FimPara;
3o Passo: Verificar Convergência
Se E > ε Então Fazer
Ir Para o 4o Passo;
Senão Fazer
Ir Para o 5o Passo;
FimSe;
4o Passo: Propagação Reversa(“Backward”)
Fazer r = NC-1;
Se FAN[r] = CodigoFuncional Então Fazer
Para p = 1 até NPTR Fazer
Para s = 1 até NN[NC] Fazer
AUX[s,p] = ; ( ) [ ] [ ][ ]( )′ −f NET O s p NO NC s p* , ,
FimPara;
FimPara;
FimSe;
Fazer SDW = 0;
Para p = 1 até NPTR Fazer
Para s =1 até NN[r]+1 Fazer
Para t =1 até NN[r+1] Fazer
64
Tese de Doutorado UFRN / CT / PPgEE
SDW [s,p]= SDW [s,p]+AUX[t,p]*W[r][t,s];
FimPara;
FimPara;
FimPara;
Para s = 1 até NN[r+1] Fazer
Para t = 1 até NN[r]+1 Fazer
Para p =1 até NPTR Fazer
W[r][s,t] = W[r][s,t]+ETA*AUX[s,p]*NO[r][t,p];
FimPara;
FimPara;
FimPara;
Para r = NC-1 até 1 Fazer
Se FAN[r] = CodigoFuncional Então Fazer
Para p = 1 até NPTR Fazer
Para s = 1 até NN[r+1] Fazer
AUX[s,p] = ; ( ) [ ]′f NET SDW s p* ,
FimPara;
FimPara;
FimSe;
Fazer SDW = 0;
Para p = 1 até NPTR Fazer
Para s = 1 até NN[r]+1 Fazer
Para t = 1 até NN[r+1] Fazer
SDW [s,p]= SDW [s,p]+AUX[t,p]*W[r][t,s];
65
Tese de Doutorado UFRN / CT / PPgEE
FimPara;
FimPara;
FimPara;
Para s = 1 até NN[r+1] Fazer
Para t = 1 até NN[r]+1 Fazer
Para p =1 até NPTR Fazer
W[r][s,t] = W[r][s,t]+ETA*AUX[s,p]*NO[r][t,p];
FimPara;
FimPara;
FimPara;
FimPara;
Retornar para o 1o Passo;
5o Passo: Encerrar Aprendizagem
FimDaAprendizagem.
III.2.3.2- TÉCNICAS PARA MELHORIA DE DESEMPENHO DO ALGORITMO PRE
Este trabalho aplica algumas técnicas para melhoria de desempenho do algoritmo PRE
básico, que são: 1) Randomização dos Padrões de Aprendizagem, 2) Ajuste da Declividade
Funcional, 3) η-Adaptativo (ou Variável) e, finalmente, 4) Momento Normalizado.
As técnicas auxiliares para melhoria de desempenho do algoritmo PRE básico acima
citadas serão apresentadas a seguir, inclusive suas rotinas computacionais em linguagem
algorítmica que foram usadas na implementação.
66
Tese de Doutorado UFRN / CT / PPgEE
III.2.3.2.1 - RANDOMIZAÇÃO DOS PADRÕES DE APRENDIZAGEM
O processo de treinamento de uma RNM consiste em fazer com que a rede aprenda a
mapear pares de valores de entrada-saída previamente selecionados como padrões de
aprendizagem da rede neural. A utilização destes padrões durante o treinamento pode se dar
na ordem temporal ou randômica. Existem autores que citam a ordem randômica apenas para
o caso individual [Cichocki e Unbehauen, 1993], enquanto este trabalho usa a ordem
randômica para a entrada em lote (“batch”) dos padrões de aprendizagem. O que se pretende é
uma redução do tempo de duração da etapa de treinamento, em decorrência de uma
distribuição mais uniforme das variações dos pesos sinápticos em torno de seus respectivos
valores finais esperados (ou adaptados), para cada ciclo de aprendizagem.
A implementação é feita através da chamada de uma rotina computacional, que é
mostrada usando uma linguagem algorítmica. As variáveis usadas nesta rotina que já foram
declaradas no algoritmo PRE básico, serão consideradas variáveis globais, para evitar que
sejam declaradas novamente em nível local.
Código de chamada: RANDOMIZAÇÃO (NC; NN; NO; O)
Declaração de variáveis:
Conjunto dos pontos de treinamento
C : Conjunto de Bytes;
Matriz de saída desejada auxiliar
O_Aux[posição na saída,ordem no lote] : Matriz de Reais;
67
Tese de Doutorado UFRN / CT / PPgEE
Implementação:
Fazer C = conjunto vazio;
Para r = 1 até NPTR Fazer
C = C+[r]; Comentário : o símbolo [] significa conjunto
FimPara;
Fazer t = 1;
Repetir
Ativar gerador de números randômicos;
Fazer r = Número inteiro randômico entre 1 e NPTR , inclusive;
Se r ∈ C Então Fazer
Para s = 1 até NN[1]+1 Fazer
NO[1][s,r] = X[s,t];
FimPara;
Para s = 1 até NN[NC] Fazer
O_Aux[s,r] = O [s,t];
FimPara;
Fazer t = t+1;
Fazer C = C-[r];
FimSe;
Até t > NPTR;
A aplicação deste algoritmo produz uma reordenação aleatória dos padrões que serão
utilizados no processo de aprendizagem da RNM, criando condições para ocorrer uma maior
uniformização dos desvios acumulados dos pesos sinápticos em relação aos seus respectivos
valores finais. É oportuno ressaltar que esta técnica não altera o valor final dos parâmetros da
68
Tese de Doutorado UFRN / CT / PPgEE
rede neural. Apenas torna o processo de aprendizagem mais suave, com menores ajustes por
ciclo de treinamento, ao invés de fazer de forma brusca, propiciando assim uma convergência
mais rápida para os valores desejados na saída da RNM.
III.2.3.2.2 - AJUSTE DA DECLIVIDADE FUNCIONAL
O ajuste da declividade β da função de ativação permite a adequação da região de
trabalho da curva aos valores de entrada-saída da rede neural, como é intuitivo notar pela
análise das Figuras III.5, III.6 e III.7. A implementação computacional é simples, pois basta
declarar a variável β no campo de dados do programa principal, fazendo com que seu valor
seja atribuído às correspondentes funções de ativação e suas derivadas primeira,
individualmente ou por grupo de neurônios.
Declaração de variável:
Declividade das funções de ativação dos neurônios
β: Real;
Implementação:
É feita através da atribuição de um valor para a declividade da função de ativação
durante a evolução da rede no sentido direto e da sua derivada primeira, se for no
sentido inverso. Neste trabalho, as expressões matemáticas das correspondentes
funções de ativação foram escritas de tal forma que a declividade β representa o
coeficiente angular da tangente à curva na origem dos eixos cartesianos.
III.2.3.2.3 - η-ADAPTATIVO (ou η-VARIÁVEL)
69
Tese de Doutorado UFRN / CT / PPgEE
É uma técnica utilizada para aumentar a velocidade de convergência das redes neurais,
que, de maneira sucinta, consiste em variar a constante de aprendizagem η (ETA) durante a
etapa de treinamento da rede, buscando otimizar o processo de adaptação dos pesos
sinápticos, como também para evitar a sua parada num mínimo local.
A sua implementação foi feita através de uma rotina que deve ser chamada no final do
4o Passo do algoritmo PRE básico, porém antes da instrução de “Retornar ao 1o Passo”.
Sugere-se inicializar a variável ETA com um valor pequeno (0,001 ≤ ETA ≤ 0,1).
Código de Chamada: ETA_Adaptativo(ETA; E)
Declaração de Variáveis:
Erros Auxiliares
Erro_Aux1, Erro_Aux2: Real;
Implementação:
Comentário: Fazer Erro_Aux1 = 0 antes de implementar o algoritmo PRE
Fazer Erro_Aux2 = E;
Se Erro_Aux2 ≤ 1,04 * Erro_Aux1 Então Fazer
Se Erro_Aux2 > Erro_Aux1 Então Fazer
ETA = ETA;
Senão Fazer
ETA = 1,05 * ETA;
Senão Fazer
ETA = 0,7 * ETA;
FimSe;
70
Tese de Doutorado UFRN / CT / PPgEE
Fazer Erro_Aux1 = Erro_Aux2;
Os fatores 1,04, 1,05 e 0,7 usados na rotina acima são sugeridos por [Demuth e Beale,
1992]. Esta técnica também foi utilizada com sucesso em implementações práticas nos
trabalhos desenvolvidos por [Rezende e Maitelli, 1999a] e [Rezende e Maitelli, 1999b], tendo
o seu desempenho sido comparado com os algoritmos adaptativos Delta-Bar-Delta e
SuperSAB.
III.2.3.2.4 - MOMENTO NORMALIZADO
O algoritmo PRE, quando aplicado na forma original expressa em (III.3), pode trazer
problemas de convergência [Pansalkar e Sastry, 1994]. A técnica do momento é usada para
tentar acelerar a convergência do processo de aprendizagem para o mínimo local. A sua
implementação matemática é feita por
W [c+1] = W [c] + (1-α) ∆W [c] + α ∆W [c-1] (III.21)
onde α é o coeficiente do momento, sendo 0 ≤ α < 1. Na expressão (III.21) acima, nota-se
de imediato que a soma das componentes de atualização dos pesos sinápticos é unitária. A
interpretação é a seguinte: 0% (zero por cento) de momento significa correção dos pesos
sinápticos executada integralmente com base nas variações atuais, que corresponde a
aplicação do algoritmo PRE básico sem a técnica do momento, e, de outro extremo, 100%
(cem por cento) significa ausência total de atualização, o que acarretaria uma estagnação dos
pesos sinápticos em seus valores iniciais. Um valor sugerido para α é 0,95 [Demuth e Beale,
1992].
71
Tese de Doutorado UFRN / CT / PPgEE
Figura III.8: Papel do coeficiente α no processo de convergência
De acordo com a Figura III.8, o coeficiente α tem um papel importante que é o de
direcionar o próximo passo do processo de convergência. Observa-se que a adição vetorial da
componente α ∆ à componente ( ) ] faz com que esta última seja direcionada,
a cada ciclo [c] de atualização, no sentido de buscar o ponto de mínimo.
w c[ −1] 1−α ∆w c[
A implementação computacional desta técnica é feita diretamente no 4o Passo do
algoritmo PRE básico.
Declaração de variáveis:
Momento
ALFA: Real;
Matriz de variações atuais
DWAtual [posição na rede][nó de destino,nó de origem]: Matriz de Reais;
Matriz de variações anteriores
DWAnterior [posição na rede][nó de destino,nó de origem]: Matriz de Reais;
Implementação:
72
Tese de Doutorado UFRN / CT / PPgEE
Substituir a instrução
W[r][s,t] = W[r][s,t]+ETA*AUX[s,p]*NO[r][t,p];
nas duas linhas de código em que é prevista, por :
Comentário: Fazer DWAnterior = 0 antes de iniciar o treinamento
DWAtual[r][s,t] = ETA * AUX[s,q] * NO[r][t,q];
W[r][s,t] = W[r][s,t] + (1-ALFA)*DWAtual[r][s,t] + ALFA*DWAnterior[r][s,t];
DWAnterior[r][s,t] = DWAtual[r][s,t];
III.3 - CONCLUSÕES
Este capítulo teve o propósito de apresentar alguns fundamentos básicos sobre as
Redes Neurais Artificiais - RNA`s, com enfoque na arquitetura multicamadas, também
conhecida na literatura técnica especializada por multiperceptrons, devido a sua característica
de aproximadores universais [Haykin, 1999].
Dentro desta linha, foi apresentado o algoritmo de treinamento usado neste trabalho,
que é o Método de Descida do Gradiente, mais especificamente, a Metodologia da
Propagação Retroativa do Erro - PRE (“Error BackPropagation”). Muito se tem escrito
sobre as principais desvantagens deste método: é um método de busca local e é lento.
Exatamente para amenizar estas desvantagens, também foram apresentadas algumas técnicas
auxiliares para melhoria de desempenho, as quais procuram superar essas dificuldades
apontadas. Além disso, o problema da relativa lentidão do PRE atualmente vem deixando de
ser preocupante, em face do surgimento no mercado de sistemas microprocessados cada vez
mais rápidos, aliado à possibilidade de utilizar algoritmos para processamento paralelo,
explorando assim a característica de paralelismo inerente às redes neurais.
73
Tese de Doutorado UFRN / CT / PPgEE
Por outro lado, como este trabalho tem seu enfoque centrado na análise de estabilidade
e robustez de sistemas de controle indireto usando as redes neurais multicamadas, a utilização
da metodologia de primeira ordem do PRE é apenas uma das maneiras de implementar
controle usando redes neurais e, o emprego de outra técnica de aprendizagem supervisionada
mais rápida, por exemplo, o método de segunda ordem de Levenberg-Marquardt, não
compromete os resultados da análise de estabilidade e robustez que serão apresentados em
capítulo posterior, desde que a técnica de aprendizagem utilizada possua a função quadrática
especificada na expressão (III.12) como funcional.
74
Tese de Doutorado UFRN / CT / PPgEE
CAPÍTULO IV
MODELAGEM DE SISTEMAS NÃO-LINEARES
USANDO REDES NEURAIS ARTIFICIAIS
75
Tese de Doutorado UFRN / CT / PPgEE
IV.1 - INTRODUÇÃO
Modelagem matemática é a área do conhecimento que estuda maneiras de desenvolver
e implementar modelos matemáticos de sistemas reais [Aguirre, 2000]. Há várias técnicas
para se obter modelos matemáticos, com o objetivo de entender e controlar o comportamento
dinâmico de sistemas físicos (ou plantas), as quais são basicamente classificadas em
modelagem caixa branca (“white box”) e modelagem caixa preta (“black box”).
A modelagem caixa branca, também conhecida por modelagem pela física,
fenomenológica ou conceitual, consiste em se obter um modelo matemático completo do
sistema real, aplicando-se as leis da natureza que regem o comportamento de cada
componente do sistema. Neste tipo de modelagem ocorrem dificuldades ainda hoje não
superadas pela academia, principalmente no que diz respeito ao conhecimento de alguns
fenômenos não-lineares. Normalmente os modelos assim obtidos são linearizados num
determinado ponto de operação, sendo, portanto, somente confiáveis dentro de uma limitada
faixa de operação.
Por outro lado, a modelagem caixa preta, também conhecida por modelagem
experimental ou empírica, pouco ou nenhum conhecimento exige das leis da natureza que
regem o comportamento dos sistemas reais a serem modelados. Na literatura este tipo de
modelagem também é referenciado por identificação de sistemas [Narendra e Parthasarathy,
1990], [Aguirre, 2000]. Neste caso, a técnica e o tipo de modelo são bem mais simplificados
do que os utilizados na modelagem pela natureza do processo.
Seguindo a segunda abordagem, este trabalho referir-se-á à identificação de sistemas
como sendo uma área do conhecimento que estuda maneiras de modelar o comportamento
dinâmico dos sistemas físicos reais a partir de medições realizadas na entrada e na saída da
planta, ou seja, a partir de pares de valores entrada-saída. Um ponto que já vale ressaltar é a
62
Tese de Doutorado UFRN / CT / PPgEE
necessidade de conhecer previamente a ordem e o atraso de transporte da planta (ou
simplesmente atraso), antes de executar o processo de identificação propriamente dito. Para
fins de controle da planta, estes dados podem ser levantados preliminarmente através da
análise de resultados experimentais.
No modelo entrada-saída, as entradas e as saídas da planta são representadas por suas
respectivas derivadas, sendo que a ordem destas derivadas é que determinará o
comportamento dinâmico da planta. Para a interpretação correta das expressões matemáticas
correspondentes aos modelos que serão apresentados neste capítulo, as notações usadas para
identificar a ordem da entrada e da saída, assim como o atraso da planta, são definidas a
seguir:
ny = ordem de saída da planta
nu = ordem de entrada da planta
n = ordem da planta (igual a ordem de saída da planta, ou seja, n = ny)
d = atraso de transporte da planta (d = ny - nu)
Os sistemas físicos a serem modelados serão considerados causais, i.e., sistemas em
que a ordem de saída é maior ou, no mínimo, igual a de entrada da planta, ou seja, ny ≥ nu.
A técnica de identificação a ser usada baseia-se nas Redes Neurais Artificiais - RNA`s.
Quanto ao tipo do modelo, este poderá ser: 1) linear ou não-linear, o que dependerá
exclusivamente do tipo da função de ativação usada nos neurônios artificiais, 2)
determinístico ou estocástico, 3) contínuo ou discreto. O restante deste capítulo mostrará
como projetar e implementar computacionalmente, passo a passo, os modelos matemáticos
empregando a técnica das RNA`s dos tipos lineares ou não-lineares, determinísticos ou
estocásticos e discretos. Para tanto, será utilizada a nomenclatura tradicional para modelos
63
Tese de Doutorado UFRN / CT / PPgEE
matemáticos lineares precedida pelos termos redes neurais (“neural networks”), por exemplo:
modelo NNARX (“Neural Networks AutoRegressive with eXogenous inputs”) [Nφrgaard,
2001].
IV.2 - IDENTIFICAÇÃO DE SISTEMAS USANDO RNA`s
No Capítulo III foi visto que as Redes Neurais Multicamadas - RNM`s são boas para
aprender relações não-lineares a partir de um conjunto de dados de entrada-saída, sendo, por
isso, consideradas aproximadores universais de funções matemáticas. Portanto, uma técnica
freqüentemente usada é estender as estruturas dos modelos lineares para obter modelos não-
lineares, pela substituição de sua arquitetura interna por RNM`s. Esta técnica possui algumas
vantagens que a torna atrativa, conforme abaixo enumeradas [Nφrgaard, 2001]:
1a) é uma extensão natural dos modelos de estruturas lineares;
2a) a arquitetura interna pode ser expandida gradualmente na medida em que for
necessário flexibilidade para modelar relações não-lineares mais complexas;
3a) as decisões estruturais requeridas do usuário são reduzidas a um nível razoável
de compreensão suficiente ao seu manuseio;
4a) apropriada para o projeto de sistemas de controle.
No caso linear discreto, a relação entre o sistema físico (ou planta) e o seu modelo
linear é dada por
(IV.1) y k d k d n e k d( ) ( , , ). $ (+ = + +ϕ θT )
64
Tese de Doutorado UFRN / CT / PPgEE
em que y é a saída da planta, é o vetor regressor de entrada do modelo linear, é o ϕ $θ
vetor de parâmetros estimados da planta a ser identificada, com o erro de estimação definido
por e k , donde se deduz que a saída estimada é calculada por d y k d y k d( ) ( ) $(+ = + − + )
.θ
)
)
]
(IV.2) $( ) ( , , ) $y k d k d n+ = ϕT
Estendendo o modelo linear mostrado na expressão (IV.1) para o caso não-linear
usando RNM`s, a relação entre o sistema físico (ou planta) e o seu modelo de redes neurais
passa a ser descrita, de uma forma geral, por
(IV.3) y k d g k d n W e k d( ) [ ( , , ), ] (+ = + +ϕ
em que é a saída da planta, g é a função escolhida para modelar o comportamento
dinâmico da planta, é o vetor regressor de entrada do modelo, W é uma matriz contendo
os parâmetros ajustáveis da rede neural (pesos sinápticos), sendo o erro de estimação definido
por e k , donde se deduz que a saída estimada é calculada por
y
d
ϕ
d+y k y k d( ) ( ) $(+ = − +
(IV.4) $( ) [ ( , , ),y k d g k d n W+ = ϕ
A identificação de sistemas físicos usando RNA`s, de acordo com os modelos de
estruturas adotados em [Nφrgaard, 2001], pode ser feita através da utilização de um dos
modelos descritos nas subseções a seguir.
65
Tese de Doutorado UFRN / CT / PPgEE
IV.2.1 - REDE NEURAL COM RESPOSTA AO IMPULSO FINITA (“NEURAL NETWORK WITH FINITE IMPULSE RESPONSE” - NNFIR)
O modelo linear denominado Resposta ao Impulso Finita (“Finite Impulse Response”
- FIR) é dado pela expressão (IV.2), sendo
ϕ( , , ) [ ( ) , ( ) ,..., ( )]k d n u k u k u k nu= − −1
] (IV.5) ˆ,...,ˆ,ˆ[ˆ1 uno bbb=θ
em que u é a entrada da planta e representa os componentes do vetor de parâmetros
estimados da planta, para i = 0, 1,..., n
$bi
u.
A expressão matemática do modelo não-linear estendido denominado Rede Neural
com Resposta ao Impulso Finita (“Neural Networks Finite Impulse Response” - NNFIR ) é
dada pela expressão (IV.4), onde o vetor regressor ϕ é dado pela expressão
(IV.6) ϕ( , , ) [ ( ) , ( ) ,..., ( ) , ]k d n u k u k u k nu= − −1 1−
na qual foi propositalmente acrescida uma entrada extra de valor fixo igual a -1
correspondente à entrada do limiar de operação (“threshold”). Este artifício matemático, além
de reduzir a estrutura de dados do programa de implementação computacional, por incluir o
limiar de operação dentro da estrutura matricial dos pesos sinápticos, também atribui ao
algoritmo PRE a tarefa de ajustar o limiar de operação como se fosse um peso sináptico.
66
Tese de Doutorado UFRN / CT / PPgEE
O esquema correspondente ao modelo NNFIR é o seguinte
Figura IV.1: Modelo de estrutura NNFIR
Pelo fato de não haver realimentação da saída do modelo, é um modelo estável no
sentido BIBO, considerando que o vetor regressor e os pesos sinápticos têm valores finitos, ou
seja, desde que ϕ e W sejam finitas para qualquer instante k. Esta é uma característica
importante para a análise de estabilidade de sistemas não-lineares, devido a estes sistemas
terem um comportamento mais complexo do que os sistemas lineares.
IV.2.2 - REDE NEURAL AUTOREGRESSIVA COM ENTRADAS EXÓGENAS
(NEURAL NETWORK AUTOREGRESSIVE WITH EXOGENEOUS
INPUTS-
NNARX)
O modelo linear denominado Autoregressivo com Entradas Exógenas
(“AutoRegressive with eXogeneous inputs” - ARX) é dado pela expressão (IV.2), sendo
ϕ( , , ) [ ( ) ,..., ( ) , ( ) , ( ) ,..., ( )]k d n y k d y k d n u k u k u k d n= + − + − − + −1 1
67
Tese de Doutorado UFRN / CT / PPgEE
(IV.7) $ [ $ ,... $ , $ , $ ,..., $ ]θ = − −a a b b bn o n1 1
em que u e y são a entrada e a saída da planta, respectivamente, e , b são os
componentes do vetor de parâmetros estimados da planta, para i = 1,..., n e j = 0, 1,..., n.
$ai$
j
A expressão matemática do modelo não-linear estendido denominado Rede Neural
Autoregressiva com Entradas Exógenas (“Neural Networks AutoRegressive with eXogeneous
inputs” - NNARX ) é dada pela expressão (IV.4), onde o vetor regressor é dado por ϕ
ϕ( , , ) [ ( ) ,..., ( ) , ( ) , ( ) ,..., ( ) , ]k d n y k d y k d n u k u k u k d n= + − + − − + − −1 1 1
(IV.8)
em que a entrada extra, com valor fixo –1, corresponde à entrada do limiar de operação
(“threshold”) da rede neural.
O esquema correspondente ao modelo NNARX é o seguinte
Figura IV.2: Modelo de estrutura NNARX
Pelas mesmas razões apontadas no modelo NNFIR da subseção anterior, trata-se
também de um modelo estável no sentido BIBO, i.e., considerando que ϕ e W são
68
Tese de Doutorado UFRN / CT / PPgEE
finitas implica que o modelo NNARX é BIBO estável. A inexistência de problemas relativos à
estabilidade faz deste modelo de estrutura a escolha preferida quando o sistema a ser
modelado é determinístico ou o nível de ruído não é significativo [Nφrgaard, 2001].
O modelo NNARX possui um equivalente conhecido como modelo Série-Paralelo
[Narendra e Parthasarathy, 1990], onde as contribuições da entrada e da saída são
matematicamente separadas em duas redes neurais, de tal modo que a expressão (IV.4) é
desmembrada e passa então a ser escrita na forma
(IV.9) $( ) ( ( , , ), ) ( ( , ), )y k d g k d n W g k n Wy y y y u u u u+ = +ϕ ϕ
em que gy e gu são funções que representam a saída e a entrada do modelo Série-Paralelo,
respectivamente.
IV.2.3 - REDE NEURAL AUTOREGRESSIVA COM MÉDIA MÓVEL E ENTRADAS
EXÓGENAS
(NEURAL NETWORK AUTOREGRESSIVE WITH MOVING AVERAGE
AND EXOGENEOUS INPUTS - NNARMAX)
O modelo linear denominado Autoregressivo com Média Móvel e Entradas Exógenas
(“AutoRegressive with Moving Average and eXogeneous inputs” - ARMAX) é dado pela
expressão (IV.2), sendo
ϕ( , , ) [ ( ) ,..., ( ) , ( ) , ( ) ,...,
( ) , ( ) ,..., ( )]k d n y k d y k d n u k u k
u k d n e k d e k d n= + − + − −
+ − + − + −1 1
1
(IV.10) $ [ $ ,... $ , $ , $ ,..., $ , $ ,..., $ ]θ = − −a a b b b c cn o n n1 1 1
69
Tese de Doutorado UFRN / CT / PPgEE
em que u e y são a entrada e a saída da planta, respectivamente, e é o erro de estimação
calculado por e k e , b , são os componentes do vetor de
parâmetros estimados da planta, para i, k = 1,..., n e j = 0, 1,..., n.
d y k d y k d( ) ( ) $( )+ = + − + $ai$
j $ck
A característica principal do modelo de estrutura ARMAX é a realimentação dos erros
de estimação, tornando este modelo susceptível a problemas de estabilidade. Por esta razão,
no modelo ARMAX a análise de estabilidade é um problema mais complexo. Em algumas
situações, torna-se mais interessante considerar a estabilidade como uma propriedade local, o
que significa afirmar que o modelo ARMAX somente terá a sua estabilidade garantida quando
operar dentro de uma determinada região, podendo ficar instável fora da região de operação
[Nφrgaard, 2001].
A expressão matemática do modelo não-linear estendido denominado Rede Neural
Autoregressiva com Média Móvel e Entradas Exógenas (“Neural Networks AutoRegressive
with Moving Average and eXogeneous inputs” - NNARMAX) é dada pela expressão (IV.4),
onde o vetor regressor ϕ é dado por
(IV.11) ϕ( , , ) [ ( ) ,..., ( ) , ( ) , ( ) ,...,
( ) , ( ) ,..., ( ) , ]
k d n y k d y k d n u k u k
u k d n e k d e k d n
= + − + − −
+ − + − + − −
1 1
1 1
em que e é o erro de estimação calculado por , sendo que
novamente a entrada extra, com valor fixo –1, corresponde à entrada do limiar de operação
(“threshold”) da rede neural, com o objetivo exclusivo de facilitar a implementação
computacional do modelo, conforme já foi explicado anteriormente.
e k d y k d y k d( ) ( ) $(+ = + − + )
70
Tese de Doutorado UFRN / CT / PPgEE
O esquema correspondente ao modelo NNARMAX é o seguinte
Figura IV.3: Modelo de estrutura NNARMAX
Os modelos que possuem realimentação de suas próprias saídas são denominados de
modelos recorrentes ou dinâmicos. Este modelo é recomendado quando o nível de ruído é
muito significativo.
IV.2.4 - REDE NEURAL COM ERRO NA SAÍDA
(NEURAL NETWORK WITH OUTPUT ERROR - NNOE)
O modelo linear denominado Erro na Saída (“Output Error” - OE) é também um
modelo recorrente, cuja expressão matemática é dada pela expressão (IV.2), sendo
ϕ( , , ) [ $( ) ,..., $( ) , ( ) , ( ) ,..., ( )]k d n y k d y k d n u k u k u k d n= + − + − − + −1 1
(IV.12) $ [ $ ,... $ , $ , $ ,..., $ ]θ = − −a a b b bn o n1 1
71
Tese de Doutorado UFRN / CT / PPgEE
em que u e são a entrada e a saída estimada da planta, respectivamente, e , são os
componentes do vetor de parâmetros estimados da planta, para i = 1,..., n e j = 0, 1,..., n.
$y $ai$bj
Trata-se também de um modelo que possui realimentação de sua saída, portanto, está
sujeito a problemas de estabilidade, da mesma forma que o modelo linear ARMAX
apresentado na subseção anterior.
A expressão matemática do modelo não-linear estendido denominado Rede Neural
Erro na Saída (“Neural Networks Output Error” - NNOE ) é dada pela expressão (IV.4), onde
o vetor regressor é dado por ϕ
(IV.13)
ϕ( , , ) [ $( ) ,..., $( ) , ( ) , ( ) ,..., ( )k d n y k d y k d n u k u k u k d n= + − + − − + − −1 1 , ]1
em que novamente a entrada extra, com valor fixo –1, corresponde à entrada do limiar de
operação (“threshold”) da rede neural, conforme explicado anteriormente.
O esquema correspondente ao modelo NNOE é o seguinte
Figura IV.4: Modelo de estrutura NNOE
72
Tese de Doutorado UFRN / CT / PPgEE
O modelo NNOE possui um equivalente conhecido como modelo Paralelo [Narendra
e Parthasarathy, 1990], onde as contribuições da entrada e da saída estimada são
matematicamente separadas em duas redes neurais, de tal modo que a expressão (IV.4) é
desmembrada e passa então a ser escrita na forma
(IV.14) $( ) [ ( , , ), ] [ ( , ), ]$ $ $y k d g k d n W g k n Wy y y y u u u u+ = +ϕ ϕ
em que e ggy$ u são funções que representam a saída estimada e a entrada do modelo
Paralelo, respectivamente.
IV.3 - CONCLUSÕES
Identificação de sistemas é a área do conhecimento que estuda maneiras de modelar o
comportamento dinâmico dos sistemas físicos reais a partir de medições realizadas na entrada
e na saída da planta, ou seja, a partir de pares de valores entrada-saída.
Portanto, neste capítulo foram apresentados alguns modelos de estruturas baseados nas
Redes Neurais Artificiais - RNA`s que podem ser usados para identificação de plantas não-
lineares de dinâmica desconhecida, sendo necessário que se conheça previamente a ordem e o
atraso de transporte da planta.
Dentre os modelos apresentados, o Rede Neural Autoregressiva com Entradas
Exógenas (Neural Network AutoRegressive with EXogeneous Inputs - NNARX) é o
freqüentemente mais usado, principalmente quando o sistema a ser modelado é determinístico
ou o nível de ruído não é proporcionalmente significativo, devido a inexistência de problemas
relativos à estabilidade do modelo por não existir realimentação de sua saída.
73
Tese de Doutorado UFRN / CT / PPgEE
CAPÍTULO V
ESQUEMAS DE CONTROLE USANDO
REDES NEURAIS ARTIFICIAIS
74
Tese de Doutorado UFRN / CT / PPgEE
V.1 - INTRODUÇÃO
Até este capítulo pretendeu-se apenas apresentar alguns conceitos básicos que regem o
funcionamento das Redes Neurais Artificiais - RNA’s e dos modelos de estruturas aplicados
para a identificação de sistemas não-lineares de dinâmica desconhecida, com o propósito de
dar uma fundamentação teórica para os Esquemas de Controle Indireto a serem apresentados
neste capítulo. A denominação de indireto decorre do fato de que os parâmetros do
controlador são ajustados com base na saída estimada da planta , e não na saída real
da planta, y(k + d), isto devido aos seguintes motivos:
$(y k d+ )
• impossibilidade do controlador em acessar diretamente a saída da planta, já que entre
esta saída e o controlador existe a própria planta;
• necessidade de possuir um valor para a saída da planta, logo após a aplicação do sinal
de controle u(k), para possibilitar o treinamento do controlador, caso também seja neural,
dentro do intervalo de tempo correspondente ao período de amostragem da planta.
São propostas 02 (duas) estratégias de controle: 1a) Controle Híbrido Indireto, em que
somente o identificador é neural, 2a) Controle Neural Indireto, em que ambos, identificador e
controlador, são neurais. A arquitetura de redes neurais que será usada é baseada nas Redes
Neurais Multicamadas - RNM’s, com lei de adaptação fornecida pela metodologia de
Propagação Retroativa do Erro - PRE, em que são utilizadas algumas técnicas auxiliares, já
descritas anteriormente, para reduzir o tempo gasto no treinamento das redes neurais, de modo
a viabilizar seu emprego no controle de processos em tempo real.
O objetivo agora é desenvolver algoritmos capazes de implementar os esquemas de
controle neural indireto, totalmente treinados em tempo real e com um mínimo atraso
74
Tese de Doutorado UFRN / CT / PPgEE
computacional, o qual significa o tempo despendido pelo computador para calcular o novo
valor do sinal de controle u(k), a ser aplicado na entrada da planta, imediatamente após a
última amostragem do valor de saída da planta [Åström e Wittenmark, 1990]. Depreende-se,
portanto, que o atraso computacional não inclui o tempo de treinamento das redes neurais,
devendo estes intervalos de tempo ficarem embutidos dentro o período de amostragem da
planta TS, ou seja, enquanto o computador espera para fazer a próxima amostragem (tempo
morto). É importante ressaltar que o tempo total gasto pelas ações necessárias ao controle não
deve exceder o período de amostragem da planta, sob pena de ter que abortá-las e aplicar
novamente o sinal de controle anterior, o que pode trazer problemas de estabilidade.
V.2 - FORMULAÇÃO DO PROBLEMA
Seja uma planta contínua, discretizada com um período de amostragem TS, de única
entrada-única saída (SISO - “Single Input, Single Output”), com condições iniciais conhecidas
e descrita pela equação diferença a seguir:
, y k d g y k d y k d n u k u k u k d n( ) ( ( ) ,..., ( ) , ( ) , ( ) ,..., ( ))+ = + − + − − + −1 1
(V.1)
e que admite uma inversa da forma
u k g y k d y k d y k d n u k u k d n( ) ( ( ) , ( ) ,..., ( ) , ( ) ,..., ( ))= + + − + − − + −−1 1 1
(V.2)
em que u é o sinal de controle, y é a saída da planta, n é a ordem conhecida da planta e d é
75
Tese de Doutorado UFRN / CT / PPgEE
o atraso de transporte da planta também conhecido [Levin e Narendra, 1996]. O problema
consiste então em selecionar uma seqüência de sinais de controle u(k), de tal modo a manter
as correspondentes saídas da planta y(k+d), o mais próximo possível das referências
y_Ref(k+d), previamente estabelecidas para k = 0, 1,..., M-1, onde M é o horizonte total de
controle. Em situações práticas, a entrada da planta é limitada pela capacidade do atuador, ou
seja, um ≤ u(k) ≤ uM , onde um é o valor mínimo e uM é o valor máximo da entrada.
Para solucionar esse problema foram desenvolvidas duas estratégias de controle neural
indireto que utilizam dispositivos baseados no princípio de funcionamento das RNM’s, com
metodologia de aprendizagem PRE, e que devem obedecer as seguintes premissas básicas de
projeto: 1a) todo o treinamento deve ser feito em tempo real, e 2a) o atraso computacional
deve ser o mínimo possível.
As soluções propostas podem ser estendidas para o caso de plantas de múltiplas
entradas-múltiplas saídas (MIMO - “Multiple Inputs, Multiple Outputs”).
V.3 - OS ESQUEMAS DE CONTROLE INDIRETO PROPOSTOS
São apresentadas 02 (duas) estratégias de controle em tempo real ou recursivas,
denominadas de Controle Híbrido Indireto e Controle Neural Indireto. Ambas as estratégias
possuem um identificador neural, sendo que a diferença entre elas reside somente na maneira
em que o controlador é projetado. Na primeira estratégia, somente o identificador é neural e o
controlador consiste numa lei de controle implementada indiretamente sem necessidade de
treinamento e, na segunda, o identificador e o controlador são ambos neurais.
76
Tese de Doutorado UFRN / CT / PPgEE
O sistema de controle híbrido consiste basicamente em um identificador neural e em
um controlador convencional (lei de controle), que são utilizados para calcular recursivamente
o sinal de controle u(k) a ser aplicado na planta, conforme esquema abaixo:
Figura V.1: Esquema de Controle Híbrido Indireto
em que z-1 é o operador de atraso unitário e ein(k+d) é o erro no treinamento do
identificador neural em tempo real.
O cálculo do sinal de controle u(k) a ser aplicado na planta, de modo a se obter uma
saída y(k+d) o mais próximo possível da referência y_Ref(k+d), será feito com base no
Jacobiano estimado da planta, obedecendo a seguinte seqüência de passos:
1o passo: No intervalo de tempo entre k-1 e k o identificador neural é treinado com os dados
obtidos até o instante k-1, possibilitando assim o cálculo do Jacobiano estimado ( +d-1) da J
planta, que é dado pela seguinte expressão matemática
77
Tese de Doutorado UFRN / CT / PPgEE
$( )$(
( )J k d y k d
u k+ − =
+ −−
1 11
∂∂
) (V.3)
2o passo: Tomando-se uma aproximação por diferença avançada (“forward”) de 1a ordem,
para a derivada parcial, tem-se
$( )$( )
( )$( ) $( )
( ) ( )J k d y k d
u ky k d y k d
u k u k+ − ≅
+ −−
=+ − − + −
− − −1 1
11 21 2
∆∆
u k J k d u k J k d y k d y k d( ). $( ) ( ). $( ) $( ) $( )− + − − − + − = + − − + −1 1 2 1 1 2
(V.4)
3o passo: Como a expressão (V.4) foi obtida a partir da premissa de que o identificador neural
já está treinado com os dados disponíveis até o instante k-1, a idéia agora é usá-la para
estimar o valor do próximo sinal de controle u(k) a ser aplicado na planta, na hipótese de que
tenda para y_Ref(k+d), sendo que este último é conhecido. Portanto, partindo
da expressão (V.4), pela simples substituição do último sinal de controle disponível, u(k-1),
por u(k) a ser calculado, e de por y_Ref(k+d), tem-se
$(y k d+ −1)
)
2
1
1
$(y k d+ −1
(V.5) u k J k d u k J k d y k d y k d( ). $( ) ( ). $( ) _ ( ) $( )+ − − − + − = + − + −1 2 1 Ref
Subtraindo a expressão (V.5) de (V.4) e manipulando algebricamente, com o objetivo de
eliminar o par de entrada-saída estimada mais distante, [u(k-2) , ], virá $( )y k d+ − 2
u k J k d u k J k d y k d y k d( ). $( ) ( ). $( ) _ ( ) $( )+ − − − + − = + − + −1 1 1 Ref
[ ( ) ( )]. $( ) _ ( ) $( )u k u k J k d y k d y k d− − + − = + − + −1 1 Ref
u k u k y k d y k dJ k d
( ) ( ) _ ( ) $($( )
= − ++ − + −+ −
1 11
Ref ) (V.6)
78
Tese de Doutorado UFRN / CT / PPgEE
A expressão (V.6) é similar à expressão desenvolvida por [Adetona et al., 2001]. A
diferença básica é que esses autores usaram um modelo matemático baseado na linearização
da planta por série de Taylor, enquanto que o desenvolvimento usado neste trabalho tem como
ponto de partida uma aproximação de 1a ordem da derivada que fornece o Jacobiano estimado
da planta.
Foi visto acima que a finalidade do identificador neural é obter um valor estimado para
a saída e para o Jacobiano da planta. Como neste trabalho será usada, no máximo, uma rede
neural contendo 03 (três) camadas - entrada, escondida e saída, com função de ativação não-
linear (p.ex. sigmóide bipolar) na camada escondida e função de ativação linear na camada de
saída, por sua característica de aproximador universal [Haykin, 1999] e também por razões
relacionadas com o tempo de treinamento, será desenvolvida uma expressão para o cálculo de
baseada nos valores dos parâmetros do identificador neural após o seu
treinamento. Obviamente, se for usada também uma função linear para a camada escondida da
rede acima citada, recai-se no caso de linearização da planta.
$(J k d+ −1)
)
Iniciando-se o processo de cálculo do Jacobiano estimado aplicando-se o identificador
neural especificado, tem-se:
(V.7) $( ) (y k d f NETo o+ − =1 1
em que fo(.) é a função de ativação da camada de saída (a letra o vem de “output” = saída) e
o número 1 subescrito que aparece em NET é devido ao identificador possuir apenas uma
saída, por se tratar de uma planta SISO.
Derivando em relação ao sinal de entrada e aplicando a regra da cadeia, tem-se
79
Tese de Doutorado UFRN / CT / PPgEE
∂∂
∂∂
∂∂
$( )( )
$( ) .( )
y k du k
y k dNET
NETu ko
o+ −−
=+ −
−1
11
11
1 (V.8)
A primeira derivada que surge no membro direito da expressão (V.8), pode ser escrita como
∂∂
∂∂
$( ) ( )('y k d
NETf NET
NETf NET
o
o o
oo
+ −= =
1
1
1
11 )o
1 1−
(V.9)
e a segunda derivada do membro direito da expressão (V.8), pode ser deduzida conforme se
segue
NET f NET w f NET w f NET w wo h h o h h o h hJ o J o J1 1 1 1 2 1 2 1= + + + +( ). ( ). ... ( )., , , , , , , ,
∂∂
∂∂
∂∂
∂∂
NETu k
f NETNET
u kw f NET
NETu k
w
f NETNET
u kw
oh h
ho h h
ho
h hJhJ
o J
11
11 1 2
21 2
1
1 1
1
( )( ).
( ). ( ).
( ).
( ).( )
.
', ,
', ,
', ,
−=
−+
−+
−
1
em que fh(.) é a função de ativação da camada escondida (a letra h vem de “hidden” =
escondida) e p é o número de neurônios da camada escondida. Agrupando os termos sob um
somatório, tem-se
∂∂
∂
∂NET
u kf NET
NETu k
woh hj
hjo j
j
p1
111 1( )
( ).( )
.', ,−
=−=
∑ (V.10)
O valor da derivada parcial da expressão (V.10) é dado por
80
Tese de Doutorado UFRN / CT / PPgEE
22,,12,,
2
1,,
1,,
)1(.
)22(.)2(.
+−+−
−
+==
−−+
+−+−++−+−+= ∑∑dnjhdnjh
dn
niijh
n
iijhhj
wkuw
indkuwindkywNET
12,,)1( +−=−∂
∂dnjh
hj wku
NET (V.11)
em que 2n-d+1 é o número de entradas, excluindo a entrada do limiar de operação
(“threshold”). Substituindo a expressão (V.11) em (V.10), tem-se
∑=
+−=−∂
∂ p
jjodnjhhjh
o wwNETfku
NET
1,1,12,,
'1 .).()1(
(V.12)
Finalmente, substituindo as expressões (V.12) e (V.9) em (V.8), obtém-se a expressão para o
cálculo do Jacobiano estimado da planta em função dos parâmetros do identificador após o
treinamento da rede neural, qual seja
$( )$( ) .
( )J k d y k d
NETNET
u ko
o+ − =+ −
−1 1
11
1∂∂
∂∂
(V.13) ∑=
+−=p
jjodnjhhjhoo wwNETfNETf
1,1,12,,
'1
' .).().(
Apenas por questão de coerência com a Figura V.1, ressalta-se que os pesos sinápticos
referenciados por correspondem à conexão da entrada u(k-1), de posição 2n-d+1
contada de cima para baixo (penúltima entrada), com os neurônios j da camada escondida.
12,, +−dnjhw
V.3.2 - CONTROLE NEURAL INDIRETO
Foi desenvolvido um esquema de Controle Neural Indireto, constituído basicamente
81
Tese de Doutorado UFRN / CT / PPgEE
de um Controlador Neural (cn) e de um Identificador Neural (in), que foram dispostos
conforme figura a seguir [Tanomaru e Omatu, 1992], [Gabriel, 1996]:
Figura V.2: Esquema de Controle Neural Indireto
O asterisco em ecn+in*(k+d) significa que os pesos sinápticos do identificador neural
foram mantidos fixos durante todo o treinamento do controlador neural. O treinamento dos
dispositivos neurais é executado usando o Método da Descida do Gradiente, tratado no
Capítulo III deste trabalho. A técnica para o treinamento do controlador consiste em treinar
inicialmente o identificador, usando para isso o erro ein. Logo em seguida, treina-se o
controlador + identificador, desta vez usando o erro ecn+in* , enquanto se mantém os pesos
sinápticos do identificador fixos. Mais detalhes do treinamento do Controlador Neural
Indireto podem ser vistos em [Gabriel, 1996].
V.4 - CONCLUSÕES
O propósito deste capítulo foi apresentar dois esquemas de controle indireto - Controle
82
Tese de Doutorado UFRN / CT / PPgEE
Híbrido Indireto e Controle Neural Indireto. A denominação de indireto decorre do fato de
que os parâmetros do controlador são ajustados com base na saída estimada da planta
, e não na saída real, isto devido ao controlador não ter acesso direto à saída da
planta para seu treinamento.
$(y k d+ )
No Controle Híbrido Indireto, somente o identificador é neural, e no Controle Neural
Indireto, ambos, identificador e controlador, são neurais. A rigor, a lógica usada no cálculo
do sinal de controle u(k), para os sistemas de controle indireto apresentados neste capítulo, é
igual, diferindo apenas no modo que o controlador é implementado, ou seja, no modo que o
sinal de controle é obtido - no primeiro, é calculado com base numa lei de controle
convencional, enquanto no segundo, o cálculo do sinal de controle é feito implicitamente por
uma associação de redes neurais em série ( ou cascata).
A arquitetura de redes neurais que será usada é baseada nas Redes Neurais
Multicamadas - RNM’s, com lei de adaptação fornecida pela metodologia de Propagação
Retroativa do Erro - PRE, em que são utilizadas algumas técnicas auxiliares para reduzir o
tempo gasto no treinamento do identificador neural e do controlador neural, de modo a
viabilizar seu emprego no controle de processos em tempo real.
O Controle Híbrido Indireto é uma estratégia que requer menor tempo para
treinamento, visto que possui somente uma rede neural multicamadas para treinar, ao
contrário do Controle Neural Indireto, que possui duas redes neurais multicamadas. Em
contrapartida, este último consegue produzir um sinal de controle que permite a saída da
planta atingir a referência em menor tempo, devido a capacidade de generalização do
controlador neural dentro do espaço de busca. Por conseguinte, a técnica do Controle Neural
Indireto é a mais recomendada por apresentar melhores resultados, desde que se consiga
enquadrar o tempo gasto no treinamento das redes neurais dentro do período de amostragem
da planta.
83
Tese de Doutorado UFRN / CT / PPgEE
O desenvolvimento matemático da primeira estratégia é uma contribuição original
deste trabalho, enquanto a segunda, já foi utilizada anteriormente por outros autores, entre
eles, [Tanomaru e Omatu, 1992], [Rivals et al., 1994], [Maitelli e Gabriel, 1996] e [Gabriel,
1996]. Registra-se, entretanto, que a lei de controle correspondente à primeira estratégia
(expressão V.6), é similar à expressão desenvolvida no trabalho de [Adetona et al., 2001],
sendo que a diferença básica é que esses últimos autores citados usaram um desenvolvimento
matemático baseado na linearização da planta por série de Taylor, para depois aplicar a rede
neural, com a finalidade de predizer alguns valores necessários para o cálculo do sinal de
controle. Por outro lado, o desenvolvimento usado neste trabalho tem como ponto de partida
uma aproximação por diferença avançada (“forward”) de 1a ordem, para a derivada que
fornece o Jacobiano estimado da planta, cujo valor é calculado com base nos parâmetros do
identificador neural.
84
Tese de Doutorado UFRN / CT / PPgEE
CAPÍTULO VI
ANÁLISE DE ESTABILIDADE
E ROBUSTEZ
85
Tese de Doutorado UFRN / CT / PPgEE
VI.1 - INTRODUÇÃO
Uma das questões mais difíceis de responder com respeito a um sistema físico é
quanto a sua estabilidade. Usualmente, por estabilidade entende-se que o sistema é estável
quando permanece sob controle. Isto significa que o sistema responderá sempre de uma
maneira apropriada quando for aplicada uma entrada [Phillips et al., 2000].
O esquema de controle deve ser estruturalmente estável e robusto, no sentido de que o
erro de controle tenda ou se acomode o mais próximo possível de zero em regime permanente
(“steady-state”), mesmo estando baseado num modelo aproximado ou na presença de
pequenas perturbações nos parâmetros originais da planta. Note que, na prática, nunca se tem
um modelo perfeito da planta e os valores de seus parâmetros físicos estão sujeitos a algum
tipo de variação, então, robustez é sempre um requisito importante [Franklin et al., 2002].
A contribuição principal deste trabalho é analisar a robustez dos sistemas de controle
indireto apresentados no capítulo anterior, com respeito aos erros de treinamento do
identificador neural e do controlador neural, com o objetivo de procurar determinar o valor do
máximo erro de controle permanente possível de ocorrer, em decorrência da utilização do
modelo identificado da planta na malha fechada de controle. Como resultado prático desta
análise, pretende-se estabelecer uma relação matemática que possa ser diretamente aplicada
para projetar qual a tolerância para o treinamento das redes neurais, de tal forma a limitar o
erro de controle permanente em uma faixa de desempenho aceitável.
Este capítulo será integralmente dedicado à análise de estabilidade e robustez dos
esquemas de Controle Híbrido Indireto e Controle Neural Indireto. Trata-se, portanto, da
parte de maior importância deste trabalho, por abordar um assunto desafiador que vem
despertando o interesse da comunidade científica nos últimos anos.
107
Tese de Doutorado UFRN / CT / PPgEE
VI.2 - ANÁLISE DE ESTABILIDADE
A análise de convergência e estabilidade das redes neurais aplicadas em sistemas de
controle tem sido tratada por vários autores, por exemplo, [Ng, 1997], [Haykin, 1999] e
[Spooner et al., 2002]. A análise adaptada para este trabalho foi originalmente desenvolvida
por [Ng, 1997] e baseia-se no Método Direto de Lyapunov. Esta análise será feita para planta
com atraso unitário, sem que isto cause perda de generalidade, somente para simplificar o
tratamento matemático e assim facilitar a sua compreensão.
O erro global para treinamento do identificador neural e do controlador neural em
cascata com o identificador neural, é dado respectivamente por:
[E k y k y kin ( ) ( ) $( )= −12
2] (VI.1)
[ 2)(ˆ)(Ref_21)( kykykE incn −=+ ] (VI.2)
O gradiente do erro global dado pelas expressões (VI.1) e (VI.2), com relação aos
parâmetros da rede neural, é calculado da seguinte maneira:
[ ]∂
∂∂
∂∂
∂
E kW k
y k y k y kW k
e k y kW k
in
in
( )( )
( ) $( )$( )(
( )$( )( )
−= − −
−
= −−
1 1
1
) (VI.3)
[ ]∂∂
∂∂
∂∂
∂∂
∂∂
E kW k
y k y k y kW k
e k y ku k
u kW k
e k J k u kW k
cn in
cn in
cn in
+
+
+
−= − −
−
= −−
−−
= −−−
( )( )
_ ( ) $( )$( )( )
( )$( )( )
( )( )
( ) $( ) ( )( )
1 1
111
11
Ref
(VI.4)
108
Tese de Doutorado UFRN / CT / PPgEE
Nas expressões de VI.1 a VI.4, é a saída do identificador neural e é a
saída do controlador neural, sendo que esta última também é a entrada da planta; as siglas cn
e in significam controlador neural e identificador neural, respectivamente.
)(ˆ ky )1( −ku
A função discreta de Lyapunov será composta por parcelas que contemplam o erro no
processo de treinamento e os erros ocorridos nos pesos sinápticos durante o treinamento da
rede neural (com apenas uma camada escondida), sendo dada por [Ng, 1997]
( )V k e k W k W k tr W k W k
V k V k V k
o o h h( ) ( ) ~ ( ) ~ ( ) ~ ( ) ~ ( )
( ) ( ) ( )
= + +
= + +
12
2
1 2 3
T T
(VI.5)
em que e representa o erro no processo de treinamento, W k , com
dimensões Jx1, e W k , com dimensões IxJ, representam os erros nos pesos
sinápticos durante o treinamento da rede neural, supondo que e
, i.e., que W e W são as matrizes dos pesos sinápticos ajustados da
camada de saída (“output layer”, referenciada pelo subescrito o ) e da camada escondida
(“hidden layer” , referenciada pelo subescrito h ) após o treinamento, respectivamente.
~ ( ) ( ) *W k Wo o= −
lim ( )k oW k W→∞
=
o
h
o
~ ( ) ( ) *W k Wh h= −
h*
o h
*
lim ( ) *
k hW k W→∞
= *
A variação da função de Lyapunov devido ao processo de treinamento será definida como
[ ] [ ][ ]
∆
∆ ∆ ∆
V k V k V k V k V k V k V k
e k e k W k W k W k W k
tr W k W k W k W k
V k V k V k
o o o o
h h h h
( ) ( ( ) ( )) ( ( ) ( )) ( ( ) ( ))
( ) ( ) ~ ( ) ~ ( ) ~ ( ) ~ ( )
~ ( ) ~ ( ) ~ ( ) ~ ( )
( ) ( ) ( )
= + − + + − + + −
= + − + + + −
+ + + −
= + +
1 1 2 2 3 3
2 2
1 2 3
1 1 112
1 1 1
1 1
T T
T T
+ (VI.6)
109
Tese de Doutorado UFRN / CT / PPgEE
A variação do erro de treinamento pode ser expressa como
e k e k e k
e k e kW k
W k tr e kW k
W ko
oh
h
( ) ( ) ( )
( ) ( )( )
( ) ( )( )
( )
+ = +
= +−
− +
−
−
1
11
11
∆
∆ ∆∂
∂∂
∂
T T (VI.7)
Aplicando a expressão na definição de ∆V)()()1( kekeke ∆+=+ 1(k) dada pela expressão
(VI.6), tem-se
[ ][ ][ ]
[ ]
∆
∆ ∆
V k e k e k
e k e k e k e k
e k e k e k
12 21
21
12
1 1
12
2
( ) ( ) ( )
( ) ( ) ( ) (
( ) ( ) ( )
= + −
= + − + +
= +
)
∆ ∆ ∆
∆ ∆
∆ ∆
V k e k e k e k
e kW k
W k tr e kW k
W k
e k e kW k
W k tr e kW k
W k
oo
hh
oo
hh
112
11
11
12 1
1 12 1
1
( ) ( ) ( ) ( )
( )( )
( ) ( )( )
( )
( ) ( )( )
( ) ( )( )
( )
= +
=−
− +
−
−
+−
− +
−
−
∂∂
∂∂
∂∂
∂∂
T T
T T
x
=−
−
+
−
−
+
−
−
+
−
−
∂∂
∂∂
∂∂
∂∂
e kW k
W k e k e kW k
W k
tr e kW k
W k e k tr e kW k
W k
oo
oo
hh
hh
( )( )
( ) ( ) ( )( )
( )
( )( )
( ) ( ) ( )( )
( )
11 1
2 11
11 1
2 11
T T
T T
∆ ∆
∆ ∆
+
−
−
−
−
= + +
∂∂
∂∂
e kW k
W k tr e kW k
W k
V k V k V k
oo
hh
a b c
( )( )
( ) ( )( )
( )
( ) ( ) ( )
11
11
1 1 1
T T
∆ ∆
∆ ∆ ∆ (VI.8)
Feitas as considerações acima quanto à variação da função de Lyapunov, serão apresentados a
seguir os teoremas de estabilidade do identificador e do controlador baseados nas Redes
Neurais Multicamadas – RNM`s.
110
Tese de Doutorado UFRN / CT / PPgEE
Teorema VI.1 (Convergência do Identificador Neural): “Sejam e as taxas de
aprendizagem da camada de saída e da camada escondida, respectivamente. Então para
garantir convergência e estabilidade, é suficiente encontrar as taxas de aprendizagem como se
segue:
ηino ηin
h
0 12< <ηin
o
o maxinD( ),
(VI.9)
0 12< <ηin
h
h maxinD( ),
(VI.10)
em que e são definidos como Do maxin, Dh max
in, D max Do max
in
k oin
, ( )= k e
D m kh maxin
k F, = ax Dhin ( ) , sendo D k y k
W koin( )$( )( )
=−
∂∂ 1o
in e D k y kW kh
in
hin( )$( )( )
=−
∂∂ 1
. Os símbolos
. e . F correspondem à norma Euclidiana e à norma de Frobenius, respectivamente.”
Prova: [Ng, 1997]
Da expressão (VI.8) , é dado por ∆V a1
∆ ∆ ∆V ke k
W kW k e k
e kW k
W k
e kW k
e k y kW k
e ke k
W k
ain
oin o
inin
in
oin o
in
in
oin in
oin
oin
inin
oin
1 11 1
2 11
11
1
12 1
( )( )
( )( ) ( )
( )( )
( )
( )( )
( )$( )
( )
( )( )
( )
=−
−
+
−
−
=−
−−
+−
∂∂
∂∂
∂∂
η∂∂
∂∂
T T
x
−−
= −−−
+−−
= −
T
η∂∂
η∂∂
η∂∂
ino
inoin
ino
inoin in
oin
oin
ain
in
e k y kW k
e k y kW k
e k y kW k
e k
( )$( )
( )
( )$( )
( )( ) ( )
$( )( )
( )
11
11
12
11
22
2 24
12Λ
(VI.11)
111
Tese de Doutorado UFRN / CT / PPgEE
Fazendo D k y kW ko
in
oin( )$( )
( )=
−−
∂∂
11
e D max Do maxin
k oin
, ( )= k . Então
[ ]2
max,
2
22
1
)(2)(21
)(2)(21
ino
oin
oin
ino
ino
oin
oin
ino
ina
DkD
kDkD
η−η≥
η−η=Λ
(VI.12)
Das expressões (VI.11) e (VI.12) deduz-se que, para garantir convergência, o valor da taxa de
aprendizagem tem que ser escolhido como a seguir ηino
0 22< <ηin
o
o maxinD( ),
(VI.13)
Se η então a expressão (VI.12) também pode ser escrita como 2max,1 )( in
ooin Dη=
[ ]
Λ1
2 1
2
2
2
1
12
2
12
2
ain
oin
ino o
in
o maxin
oin
ino
D kD k
D
D k
= −
≥ −
( )( )
( )
( )
,
ηη
η η
(VI.14)
Da expressão (VI.14), para convergência e estabilidade deve atender 0 , ou
satisfazer
η1 21< <η
(VI.15) [ ]η ηino 2 1− > 0
η η1 1
2
20
( )( ),
−>
Do maxin (VI.16)
112
Tese de Doutorado UFRN / CT / PPgEE
Da expressão (VI.16) decorre que a máxima taxa de aprendizagem que garante a
convergência mais rápida ou ótima equivale a , o que corresponde a η1 1=
ηino
o maxinD
*
,( )=
12 (VI.17)
que é igual a metade do limite superior do valor calculado pela expressão (VI.13).
Voltando à expressão (VI.8), é dado por ∆V b1
∆ ∆ ∆
Λ
V k tre k
W kW k e k tr
e kW k
W k
e k y kW k
e k y kW k
e k
bin
hin h
inin
in
hin h
in
inh
inhin
Finh
inhin
F
bin
in
1
22
2 24
12
11
11
11
12
11
( )( )
( )( ) ( )
( )( )
( )
( )$( )
( )( ) ( )
$( )( )
( )
=−
−
+
−
−
= −−−
+−−
= −
∂∂
∂∂
η∂∂
η∂∂
T T
(VI.18)
Fazendo D k y kW kh
in
hin( )$( )
( )=
−−
∂∂
11
e D max D kh maxin
k hin
F, ( )= . Então
[ ]2
max,
2
22
1
)(2)(21
)(2)(21
inh
hin
hinF
inh
F
inh
hin
hinF
inh
inb
DkD
kDkD
η−η≥
η−η=Λ
(VI.19)
113
Tese de Doutorado UFRN / CT / PPgEE
A expressão (VI.19) deve satisfazer a mesma condição da expressão (VI.12) para que a
expressão (VI.18) seja negativa. Desta maneira, para convergência tem que ser escolhido
como
ηinh
0 22< <ηin
h
h maxinD( ),
e a taxa de aprendizagem ótima é 2max,
*
)1
ino
hinη
(D= .
Voltando à expressão (VI.8), é dado por ∆V c1
[ ] [ ] ∆ ∆ ∆
Λ
V ke k
W kW k tr
e kW k
W k
D k D k tr D k D k e k
e k
cin
oin o
in in
hin h
in
oin T
oin
ino
hin T
hin
inh
in
cin
in
1
2
12
11
11( )
( )( )
( )( )
( )( )
( ) ( ) ( ) ( ) ( )
( )
=−
−
−
−
=
=
∂∂
∂∂
η η
T T
(VI.20)
Fazendo e então
. Desta forma, Λ e podem ser reescritos como
[ ]Φo oin T
oin
inok D k D k( ) ( ) ( )= η
hk k) ( ) 1a
[ ] Φh hin T
hin
inhk tr D k D k( ) ( ) ( )= η
Λ Φ Φ1c o= ( Λ1b
[ ]Λ Φ Φ112
2a o ok k= −( ) ( )
[ ]Λ Φ Φ112
2b h hk k= −( ) ( )
Desde que a expressão (VI.20) é positiva, convergência e estabilidade somente são garantidas
se . Em decorrência Λ Λ Λ1 1a b+ > 1c
[ ] [ ]12
2 12
2Φ Φ Φ Φ Φ Φo o h h ok k k k k( ) ( ) ( ) ( ) ( ) ( )− + − > h k
[ ] [Φ Φ Φ Φo h o hk k k k( ) ( ) ( ) ( )+ − +
>1 1
20] (VI.21)
114
Tese de Doutorado UFRN / CT / PPgEE
A expressão (VI.21) exige que Φ Φ . Então, para convergência e estabilidade é
suficiente escolher as taxas de aprendizagem do identificador neural como segue:
o hk k( ) ( )+ 2<
0 12< <ηin
o
o maxinD( ),
0 12< <ηin
h
h maxinD( ),
A seguir, serão analisadas as parcelas e da expressão (VI.6), que ainda
faltam para completar a análise variacional da função candidata de Lyapunov. Estas parcelas
correspondem ao erro nos pesos. Supondo que W esteja próximo do ponto de convergência
local e que , o erro do identificador neural pode ser aproximado por
∆V k2 ( ) ∆V k3 ( )
in
lim *
k
in inW W→∞
=
e k y k
W kW W k
y kW k
W k
in inin in
inin
( )$( )
( )[ (
$( )( )
~ ( )
*+ ≈+
−
= −+
1 1
1
∂∂
∂∂
T
T
)] (VI.22)
Então, da expressão (VI.6) e usando a expressão (VI.22), é dado por ∆V k2 ( )
[ ] [ ]∆V k W k W k W k W ko
in T
oin
oin T
oin
2 1 1( ) ~ ( ) ~ ( ) ~ ( ) ~ ( )= + + −
)1(
)1()1()()1(2
)()1(ˆ
)()1(ˆ
)1()(
)(~)()1(ˆ
)1(2)(
22
2222
T22
T
2
+Λ−=
++η++η−=
∂
+∂
∂
+∂+η
+
∂
+∂+η=∆
ke
kDkeke
kWky
kWkyke
kWkW
kykekV
inin
inoin
oinin
oin
ino
ino
inoin
inoin
oin
oin
(VI.23)
115
Tese de Doutorado UFRN / CT / PPgEE
em que
[ ]2
max,
2
2
)(2
)1(2
ino
oin
oin
ino
oin
oin
in
D
kD
η−η≥
+η−η=Λ
(VI.24)
Conseqüentemente, a expressão (VI.24) deve satisfazer a mesma condição da expressão
(VI.19) para que a expressão (VI.23) seja negativa. Desta maneira, é suficiente que a taxa de
aprendizagem seja escolhida obedecendo a 0 . 12< <ηin
o
o maxinD( ),
Então, da expressão (VI.6) e usando a expressão (VI.22), é dado por ∆V k3 ( )
[ ] [ ]
)1(
)1()1()()1(2
)()1(ˆ
)()1(ˆ
)1()(
)(~)()1(ˆ
)1(2
)(~)(~)1(~)1(~)(
23
2222
T22
T3
+Λ−=
++η++η−=
∂
+∂
∂
+∂+η
+
∂
+∂+η=
−++=∆
ke
kDkeke
kWky
kWkytrke
kWkW
kytrke
kWkWkWkWtrkV
inin
F
inhin
hinin
hin
inh
inh
inhin
inhin
hin
hin
inh
Tinh
inh
Tinh
(VI.25)
em que
[ ]2
max,
2
3
)(2
)1(2
inh
hin
hin
F
inh
hin
hin
in
D
kD
η−η≥
+η−η=Λ
(VI.26)
116
Tese de Doutorado UFRN / CT / PPgEE
Conseqüentemente, a expressão (VI.26) deve satisfazer a mesma condição da expressão
(VI.19) para que a expressão (VI.25) seja negativa. Desta maneira, é suficiente que a taxa de
aprendizagem seja escolhida obedecendo a 0 . 12< <ηin
h
h maxinD( ),
O Teorema de Convergência Generalizado para as taxas de aprendizagem do
identificador neural será estabelecido a seguir:
Teorema VI.2 (Convergência Generalizada do Identificador Neural): “Para garantir
convergência e estabilidade, é suficiente escolher as taxas de aprendizagem da seguinte
maneira:
0 1< <ηin
o
p (VI.27)
[ ]( )2maxmax,)22(
10inin
o
hin
xwpdn +−<η< (VI.28)
em que d e n são o atraso e a ordem da planta, p e (2n-d+2) são os números de unidades
escondidas e entradas (incluindo o limiar de operação), respectivamente,
w max W ko maxin
k oin
, ( )=∞
, x max kmaxin
k hin=
∞φ ( ) e .
∞ é a norma infinito.”
Prova: [Ng, 1997]
Para a camada de saída
)()1(
)(ˆk
kWky in
oino
φ=−∂
∂ (VI.29)
117
Tese de Doutorado UFRN / CT / PPgEE
em que [ ] e é o valor da saída da j-ésima unidade
escondida e p é o número de unidades escondidas. Desde que
[φ ο ο οoin
hin
hin
hpink k k( ) ( ) , ( ) ,..., ( )
T= 1 2 ]k οhj
in
οhjin ≤ 1 , j = 1, 2, ...., p,
considerando que a função de ativação do neurônio seja sigmóide, e pela definição da norma
Euclidiana no Rp tem-se D pin ≤ e, em decorrência, Desta forma virá Din max, .2 = p
p
oin
10 <η< (VI.30)
Para a camada escondida, tem-se
∂∂
$( )( )
( ) ( ) ( ),
, ,y k
w kx k w k f k
h ijin i
ino jin
h j−= − ′
111
∂∂
φ$( )( )
( ) ( ) ( ),
, ,y k
W kk w k f k
h jin h
ino jin
h j−= − ′
111
[ ]∂∂
φ$( )( )
( ) ( )y kW k
k W khin h
infin
−=
1T
[ ]
ino
in
F
inf
inh
Fin
h
wxpdn
kWkkWky
max,max
T
)22(
)()()1(
)(ˆ
+−≤
φ=−∂
∂
em que é o valor da maior entrada do identificador neural,
e . Em
conseqüência, virá
xmaxin
[woin (11[ ]W k k f k w k f k w k f kf
inh o
inh o p
inh p( ) ) ( ) , ( ) ( ) ,..., ( ) ( ), , , , , ,
T= − ′ − ′ − ′1 21 2 11 1 1 ] ′ =f h max, 1
[ ]( )2maxmax,)22(
10inin
o
hin
xwpdn +−<η< (VI.31)
118
Tese de Doutorado UFRN / CT / PPgEE
Caso seja usada uma taxa de aprendizagem única para todos os neurônios do
identificador neural, i.e., para a camada de saída e a camada escondida, deve-se adotar o
menor valor entre os calculados pelas expressões (VI.27) e (VI.28), qual seja
(VI.32) η ηin ino
inhmin= ( ,η )
Teorema VI.3 (Convergência do Controlador Neural): “Sejam e as taxas de
aprendizagem da camada de saída e da camada escondida do controlador neural,
respectivamente. Então a convergência local é garantida se as taxas de aprendizagem e
forem encontradas como:
ηcno ηcn
h
ηcno
ηcnh
0 12
< <ηcno
max o maxcnJ D$ ( ),
2 (VI.33)
0 12
< <ηcnh
max h maxcnJ D$ ( ),
2 (VI.34)
em que D max Do maxcn
k ocn
, ( )= k , D max D kh maxcn
k hcn
F, ( )= , D ku k
W kocn o
cn
ocn( )
( )( )
=−
∂∂ 1 1
,
D ku k
W khcn o
cn
hcn( )
( )( )
=−
∂∂ 1
e , em que uinh
ino wwpJ max,max,max ..ˆ = o é a saída do controlador neural.”
119
Prova: [Ng, 1997]
Tese de Doutorado UFRN / CT / PPgEE
Da expressão (VI.8), para o controlador é ∆V ka1 ( )
∆V ke k
W ke k
u kW k
e ke k
W ke k
u kW k
e k J ku kW k
acn in
ocn cn
ocn in
ocn
ocn
cn incn in
ocn cn
ocn in
ocn
ocn
cno
cn inocn
ocn cn
o
1
2 22
111
12 1
11
11
12
( )( )
( )( )
( )( )
( )( )
( )( )
( )( )
( ) $ ( )( )( )
( )
=−
−−
+−
−−
= −−−
+
++
++
+
+
∂∂
η∂∂
∂∂
η∂∂
η∂∂
η
T
T
x
2 2 44
12
11
e k J ku kW k
e k
cn inocn
ocn
acn
cn in
+
+
−−
= −
( ) $ ( )( )( )
( )
∂∂
Λ
(VI.35)
Comparando a expressão (VI.35) com a (VI.11), pode ser visto que ambas as condições são
similares, exceto pela existência do termo do Jacobiano estimado da planta, , também
conhecido como sensibilidade estimada da planta, o qual também é necessário para cálculo do
controlador. De maneira semelhante, a análise para e do controlador
neural é a mesma que foi feita para o identificador neural.
$J
∆V kb1 ( ) ∆V kc1 ( )
A seguir, será analisada a parte da função de Lyapunov correspondente a função do erro do
controlador. Supondo que W esteja próximo do ponto de convergência local e que
, o erro do controlador neural pode ser aproximado por
cn
lim ( ) *
k
cn cnW k W→∞
=
e k J k
u kW k
W W k
J ku kW k
W k
cn inocn
cncn cn
ocn
cncn
+ + ≈ ++
−
= − ++
( ) $( )( )
( )[ (
$( )( )
( )~ ( )
*1 11
11
∂∂
∂∂
T
T
)] (VI.36)
120
Tese de Doutorado UFRN / CT / PPgEE
Da expressão (VI.6) e usando a expressão (VI.36), é dado por ∆V k2 ( )
[ ] [ ]
)1(
)1()1()1(ˆ)()1(2
)()1(
)()1(
)1()(
...)(~)()1(
)1(ˆ)1(2
)(~)(~)1(~)1(~)(
22
22222
T22
T2
+Λ−=
+++η++η−=
∂
+∂
∂
+∂+η
+
∂
+∂++η=
−++=∆
+
++
+
+
ke
kDkekJke
kWku
kWku
ke
kWkW
kukJke
kWkWkWkWkV
incncn
cnoincn
ocnincn
ocn
cno
cno
cno
cno
incnocn
cnocn
o
cno
incnocn
cno
Tcno
cno
Tcno
(VI.37)
em que
[ ]2
max,2max
222
)(ˆ2
)1()1(ˆ2
cno
ocn
ocn
cno
ocn
ocn
cn
DJ
kDkJ
η−η≥
++η−η=Λ
(VI.38)
Desta maneira, é suficiente que a taxa de aprendizagem seja escolhida obedecendo a
0 12
< <ηcno
max o maxcnJ D$ ( ),
2. Esta é praticamente a mesma condição de estabilidade do
identificador neural, exceto pela inclusão do Jacobiano estimado da planta, , o qual também
é necessário para treinamento do controlador neural.
$J
De maneira semelhante é feita a análise para os pesos da camada escondida. Supondo que
é a entrada de controle para o identificador neural, então o Jacobiano )1()(12 −=+− kukxindn
estimado da planta é definido como se segue:
121
Tese de Doutorado UFRN / CT / PPgEE
(VI.39)
max
max,max,
1,1,12,,
''
ˆ)(
.).().()(ˆ
J
wwp
wwkfkfkJ
inh
ino
p
j
injo
indnjhho
≡
≤
≈ ∑=
+−
desde que e . O peso máximo na camada escondida é definido como ′ =f o 1 ′ =f h max, 1
w m kh maxin
k, ( )=∞
ax Whin . Desta forma,
0 12 2
< <ηcno
max o maxcnJ D$ ( ),
0 12 2
< <ηcnh
max h maxcnJ D$ ( ),
Desde que o controlador e o identificador neurais têm a mesma estrutura de redes
neurais multicamadas, o critério de convergência generalizado para o controlador neural pode
ser enunciado no próximo teorema.
Teorema VI.4 (Convergência Generalizada do Controlador Neural): “Para a garantir
convergência local e estabilidade do controlador neural, é suficiente escolher as taxas de
aprendizagem da seguinte maneira:
0 12
< <ηcno
maxpJ$ (VI.40)
[ ]( )2maxmaxmax,
ˆ)22(
10Jxwpdn cncn
o
hcn
+−<η< (VI.41)
122
Tese de Doutorado UFRN / CT / PPgEE
em que d e n são o atraso e a ordem da planta, p e (2n-d+2) são os números de unidades
escondidas e entradas (incluindo o limiar de operação), respectivamente,
w max W ko maxcn
k ocn
, ( )=∞
, x max kmaxcn
k hcn=
∞φ ( ) e .
∞ é a norma infinito.”
Prova: A prova deste teorema é similar a feita para o Teorema VI.3, observando-se apenas a
inclusão do Jacobiano estimado da planta.
Caso seja usada uma taxa de aprendizagem única para todos os neurônios do
controlador neural, i.e., para a camada de saída e a camada escondida, deve-se adotar o
menor valor entre os calculados pelas expressões (VI.40) e (VI.41), qual seja
(VI.42) η ηcn cno
cnhmin= ( , )η
VI.2.1 - ESTABILIDADE versus IMPLEMENTAÇÃO COMPUTACIONAL :
COMO GARANTIR ESTABILIDADE USANDO η-ADAPTATIVO
O método para melhoria de desempenho do η-adaptativo (vide Capítulo III - subseção
III.2.3.2.4) é recomendado para evitar a parada num mínimo local e para aumentar a
velocidade de convergência das redes neurais. Este método consiste em variar a taxa de
aprendizagem η (ETA) durante a etapa de treinamento da rede, buscando um valor ótimo que
permita a aceleração do processo de convergência dos pesos sinápticos.
123
Como a estabilidade da rede neural exige a limitação da taxa de aprendizagem, pode-
se inferir que, em algum instante do treinamento, o método do η-adaptativo poderia vir a
violar a condição de estabilidade prevista pelos teoremas apresentados nesta seção,
Tese de Doutorado UFRN / CT / PPgEE
comprometendo assim a convergência da rede neural. Para evitar que isso possa vir a ocorrer,
a implementação do η-adaptativo deve ser modificada, de modo a incluir uma condição que
imponha um limite ao valor da taxa de aprendizagem durante o treinamento da rede neural.
VI.3 - ANÁLISE DE ROBUSTEZ
Esta seção contém a principal contribuição deste trabalho. Em uma primeira etapa será
desenvolvida a análise de robustez para o Controlador Híbrido Indireto e, posteriormente, a
mesma análise será adequadamente estendida para o Controlador Neural Indireto. Porém,
para dar sustentação e melhor compreensão à análise propriamente dita, antes serão
estabelecidos alguns conceitos preliminares.
Definição VI.5: “Tomando como base a expressão (III.12), define-se erro global de
treinamento no tempo discreto, E(k+d), para uma rede neural possuindo somente uma saída,
como sendo
E(k+d) = [∑=
+−+NPTR
ppdke
1
2)1(21 ] , (VI.43)
em que NPTR é o número de pares de entrada-saída usado para treinamento e e(k+d–p+1)
é o erro local ocorrido para cada um desses pares durante a fase de treinamento da rede neural
no instante k+d–p+1. O par de treinamento mais recente é quando se faz p = 1 e o mais
antigo, quando se faz p = NPTR.
124
O erro local é calculado por
Tese de Doutorado UFRN / CT / PPgEE
) (VI.44) ()()( dkzdkοdke +−+=+
em que o é o valor desejado e z é o valor da saída corrente da rede neural. A rede neural
perceptron multicamadas é considerada treinada pelo método da Propagação Retroativa do
Erro - PRE (“backpropagation”) somente quando , sendo uma constante
não negativa, que é a tolerância especificada para a convergência da rede neural.”
E k d( )+ ≤ ε ε
Lema VI.6: “Seja um sistema de controle indireto composto de uma planta com
, e um identificador neural , com U e Y , cujo
objetivo é fazer a saída da planta seguir um valor de referência (“set-point”), ,
através do cálculo do sinal de controle u(k), tal que tenda para y_Ref(k+d).
Considerando que o Jacobiano estimado da planta existe e é diferente de zero , é
válido afirmar que existe um instante , a partir do qual ”
YUP →: ,
R⊂ˆ
y fRe_
ˆ( ≠J
c( .
R⊂YU , YXI ˆ: →
ck
22 +−⊂⊂ dnX R
)1( −+ dk
kkku >∀=∆ ,0)
Y∈
)0
y
Prova: Retomando a expressão (V.6), que estabelece a lei de controle para o sistema de
controle indireto, que é válida tanto para o sistema de Controle Híbrido Indireto quanto para o
sistema de Controle Neural Indireto (vide Capítulo V, subseção V.4), tem-se
u k u k y k d y k dJ k d
( ) ( ) _ ( ) $($( )
= − ++ − + −+ −
1 11
Ref ) (VI.45)
Manipulando matematicamente a expressão (VI.45), vem
125
Tese de Doutorado UFRN / CT / PPgEE
( ) ( ) ( ) ( )[ ] ( )1ˆ.11ˆRef_ −+−−=−+−+ dkJkukudkydky
( ) ( ) ( 1ˆ).(1ˆRef_ −+∆=−+−+ dkJkudkydky ) (VI.46)
Sabendo que o identificador após treinado é utilizado para determinar o valor do sinal de
controle tal que tenda para y_Ref(k+d), podemos concluir que existe um
instante k = k
)1(ˆ −+ dky
c , quando efetivamente a saída do identificador converge para o valor de
referência, a partir do qual a expressão (VI.46) passará a ter o seguinte valor
( ) ckkdkJku >∀−+∆= ,1ˆ).(0 (VI.47)
Considerando que , finalmente obtém-se 0ˆ ≠J
ckkku >∀=∆ ,0)( (VI.48)
ou seja, existe um instante k = kc , a partir do qual o sinal de controle permanecerá constante.
Lema VI.7: “A relação entre o erro local para cada par de treinamento p, ou seja
, e o correspondente erro global E(k + d), para uma rede neural de uma única )1( +−+ pdke
saída, é tal que a desigualdade
126
Tese de Doutorado UFRN / CT / PPgEE
)(2)1( dkEpdke +≤+−+
é verdadeira ∀ .” NPTRpdk ...,2,1,0, =≥
Prova: Partindo da expressão (VI.43), tem-se que o erro global é dado por
[ ] [ ] [ 222 )1(...)1()(21)( +−+++−+++=+ NPTRdkedkedkedkE ]
]
[ ] [ ] [ 222 )1(...)1()()(2 +−+++−+++=+ NPTRdkedkedkedkE
Por dedução matemática, ∀p, p = 1, 2, ..., NPTR, tem-se
[ ] )(2)1( 2 dkEpdke +≤+−+
[ ] )(2)1( 2 dkEpdke +≤+−+
Aplicando a propriedade do módulo, que afirma ee =2 [Antar et al., 1979], obtém-se
)(2)1( dkEpdke +≤+−+ (VI.49)
é verdadeira ∀ . NPTRpdk ...,,2,1,0, =≥
VI.3.1 - CONTROLADOR HÍBRIDO INDIRETO
127
Tese de Doutorado UFRN / CT / PPgEE
O sistema de Controle Híbrido Indireto (Figura V.1) é caracterizado por possuir um
controlador convencional ajustado indiretamente por um identificador neural.
Teorema VI.8 (Robustez do Erro de Controle ): “Seja um sistema de Controle Híbrido
Indireto de uma planta BIBO estável, dada pelos pares de entrada-saída [u(k) , y(k+d)].
Sendo Ωp o conjunto dos erros de controle de estado permanente, pp ω=Ω , dados por
, com )( Mdklim ckk0,u(k)
Mp
c
++ω=ω>∀=∆
∞→)()(fRe_)( ... yyc −=ω , pode-se afirmar que
inpsup ε≤Ω 2
em que . é um conjunto, kc é tal que , M é o intervalo de estabilização
da planta contado a partir de k
ckkku >∀=∆ ,0)(
0≥inc + d e é a tolerância especificada para convergência
do treinamento do identificador neural.”
ε
Prova: Reportando-se à expressão (V.6) do capítulo anterior, qual seja
u k u k y k d y k dJ k d
( ) ( ) _ ( ) $( )$( )
= − ++ − + −+ −
1 11
Ref
( ) ( ) ( ) ( )[ ] ( )1ˆ.11ˆRef_ −+−−=−+−+ dkJkukudkydky
e considerando que , tem-se )1()1()1(ˆ −+−−+=−+ dkedkydky in
( ) ( ) ( ) ( ) ( )[ ] ( )1ˆ.111Ref_ −+−−=−++−+−+ dkJkukudkedkydky in
128
Tese de Doutorado UFRN / CT / PPgEE
(VI.50) ( ) ( ) ( ) ( ) ( )11ˆ.1Ref_ −+−−+∆+−+=+ dkedkJkudkydky in
Subtraindo y(k+d) de ambos os membros da expressão (VI.50), virá
)1()1(ˆ).(
)1()()()(Ref_
−+−−+∆+
+−+++−=+−+
dkedkJku
dkydkydkydky
in
[ ]
)1()1(ˆ).(
)1()(
−+−−+∆+
−+−+−=
dkedkJku
dkydky
in
)1()1(ˆ).()( −+−−+∆++∆−= dkedkJkudky in
Supondo que o sinal de controle u(k) permaneça constante após o instante k = kc ,
exatamente quando o identificador neural converge, de tal maneira a forçar indiretamente que
y(k+d) tenda para y_Ref(k+d), então ∀ tem-se ckk >
)1()()()(Ref_ −+−+∆−=+−+ dkedkydkydky in (VI.51)
Extraindo o valor absoluto de (VI.51) e definindo o erro de controle como sendo
)()(Ref_)( dkydkydkc +−+=+ω , virá
)1()()()(Ref_ −+++∆=+−+ dkedkydkydky in
)1()()( −+++∆=+ω dkedkydk inc (VI.52)
Aplicando a desigualdade triangular, obtém-se
129
Tese de Doutorado UFRN / CT / PPgEE
)1()()( −+++∆≤+ω dkedkydk inc (VI.53)
Na expressão (VI.53), o primeiro termo do membro direito, que representa a dinâmica da
planta, tende para zero na medida que o tempo discreto aumenta a partir do instante kc + d,
onde kc é o instante no qual o sinal de controle fica constante para sempre, i.e., existe um
inteiro positivo M tal que
)1()()( −+++++∆≤++ω MdkeMdkyMdk inc
cujo limite, quando M tende para infinito (estado permanente), é dado por
)1()(,0)(
−++≤++ω>∀=∆
∞→MdkeMdklim inc
kkkuM
c
(VI.54)
Aplicando a expressão (VI.49) para o instante k + d + M – 1 e, de maneira conservativa ao
tomar para comparação somente o par de treinamento mais recente (p = 1), tem-se
)1(2)1( −++≤−++ MdkEMdke inin (VI.55)
Assim, das expressões (VI.54) e (VI.55) e tendo em vista que a parada do processo de
convergência do identificador neural somente ocorre quando a condição
é atendida, onde ε é a tolerância especificada pelo projetista,
obtém-se
inin MdkE ε≤−++ )1( 0≥in
130
Tese de Doutorado UFRN / CT / PPgEE
inc
kkkuM
Mdklimc
ε≤++ω>∀=∆
∞→2)(
,0)(
(VI.56)
Denominando de Ωp o conjunto dos erros de controle de estado permanente, qual seja
++ω=Ω>∀=∆
∞→)( Mdklim c
kk0,u(k)Mp
c
(VI.57)
e considerando que , deduz-se que Ω . Agora, aplicando o
operador supremum no conjunto de todos os possíveis erros de controle obtidos através da
expressão (VI.57), finalmente conclui-se que
)( Mdkcc ++ω=Ω cp Ω⊂
inpsup ε≤Ω 2 (VI.58)
em que M é o horizonte de estabilização da planta, contado a partir do instante kc + d.
Constata-se, como era intuitivo prever, que o maior erro de controle de estado
permanente possível de ocorrer no sistema de Controle Híbrido Indireto depende
exclusivamente da tolerância arbitrada para o treinamento do identificador neural.
Evidentemente, a validade deste teorema está condicionada à convergência do identificador
neural que, por sua vez, dependerá do valor da taxa de aprendizagem usado no treinamento da
correspondente rede neural [Ng, 1997].
ε in
VI.3.2 - CONTROLADOR NEURAL INDIRETO
131
Tese de Doutorado UFRN / CT / PPgEE
A diferença básica entre os sistemas de Controle Híbrido Indireto (Figura V.1) e de
Controle Neural Indireto (Figura V.2) apresentados no capítulo anterior, é a maneira como o
controlador é implementado, já que ambos possuem em comum um identificador neural. No
primeiro, o controlador é simplesmente uma lei de controle analítica, enquanto no segundo o
controlador também é uma rede neural artificial.
Embora a implementação do controlador dá-se de maneira diferente, o cálculo do sinal
de controle u(k) a ser aplicado na planta, tal que a saída da planta y(k+d) seja o mais
próximo possível do sinal de referência y_Ref(k+d), segue rigorosamente os mesmos passos,
entretanto utilizando metodologias diferentes. Os passos para obtenção do valor do sinal de
controle u(k) são os seguintes:
1o passo: ler o par de treinamento [u(k-1) , y(k+d-1)],
2o passo: treinar o identificador neural, obtendo assim , $( )y k d+ −1
3o passo: usando o identificador neural treinado no passo anterior, calcular u(k) tal
que e, finalmente, $( ) _ (y k d y k d+ − = +1 Ref )
4o passo: aplicar u(k) na planta.
A diferença entre os sistemas de controle híbrido e totalmente neural ocorre somente
no 3o passo, pois no caso do híbrido, o cálculo de u(k) é feito usando-se a expressão (V.6)
desenvolvida no capítulo anterior, enquanto que, no caso do totalmente neural, o cálculo é
feito usando um controlador neural treinado em cascata com o identificador neural, este
último sendo mantido com os mesmos valores dos pesos sinápticos que foram obtidos na
etapa precedente de identificação da planta [Tanomaru e Omatu, 1992] e [Maitelli e Gabriel,
1996].
132
Tese de Doutorado UFRN / CT / PPgEE
Teorema VI.9 (Robustez do Erro de Controle ): “Seja um sistema de Controle Neural
Indireto de uma planta BIBO estável, dada pelos pares de entrada-saída [u(k) , y(k+d)].
Sendo Ωp o conjunto dos erros de controle de estado permanente, pp ω=Ω , dados por
, com )1( −++ω=ω>∀=∆
∞→Mdklim c
kk0,u(k)Mp
c
)()(fRe_)( ... yyc −=ω , pode-se afirmar que
*22 incninpsup +ε+ε≤Ω
em que . é um conjunto, kc é tal que , M é o intervalo de estabilização
da planta contado a partir de k
ckkku >∀=∆ ,0)(
0, * ≥ε +incninc + d e ε são as tolerâncias especificadas para
convergência do treinamento do identificador e do controlador neurais, respectivamente. O
asterisco em in* significa que o identificador neural foi mantido com pesos fixos durante o
treinamento do controlador neural.”
Prova: Usando-se a expressão (VI.49) para o controlador neural em cascata com o
identificador neural, este último mantido com pesos sinápticos fixos, de maneira conservativa
ao tomar para comparação somente o erro local mais recente (p = 1), deduz-se que
)(2)( ** dkEdke incnincn +≤+ ++ (VI.59)
De acordo com a Figura V.2, verifica-se que .
Substituindo esta última relação em (VI.59), virá
)(ˆ)(Ref_)(* dkydkydke incn +−+=++
)(2)(ˆ)(Ref_ * dkEdkydky incn +≤+−+ + (VI.60)
133
Tese de Doutorado UFRN / CT / PPgEE
Sabendo-se que , a expressão (VI.60) pode ser escrita como )()()(ˆ dkedkydky in +−+=+
)(2)()()(Ref_ * dkEdkedkydky incnin +≤+++−+ + (VI.61)
Aplicando a desigualdade triangular ao membro esquerdo da expressão (VI.61), virá
)(2)()()(Ref_ * dkEdkedkydky incnin +≤+−+−+ +
)()(2)()(Ref_ * dkedkEdkydky inincn +++≤+−+ + (VI.62)
Considerando que o erro de identificação não está disponível por depender do
valor de y(k+d) até então desconhecido, faz-se necessário escrever e em função de
, e assim retroativamente para d ≥ 1, ou seja
. Desta forma, tem-se
)( dkein +
)( dkin +
)1( −+ dkein
)( edkein =+ )()1( dkedk inin +∆+−+
)()1()(2)()(Ref_ * dkedkedkEdkydky ininincn +∆+−+++≤+−+ +
(VI.6
3)
Sabendo que o erro de controle é dado por )()(Ref_)( dkydkydkc +−+=+ω , virá
)()1()(2)( * dkedkedkEdk ininincnc +∆+−+++≤+ω + (VI.64)
134
Tese de Doutorado UFRN / CT / PPgEE
Reordenando a expressão (VI.64) e considerando que o termo correspondente à variação do
erro de identificação, ∆ , tende a anular-se na medida em que o tempo discreto
aumenta a partir do instante k
)( dkein +
c + d, onde kc é o instante em que o sinal de controle u(k) fica
constante ∀ , ou seja, existe um M inteiro e positivo tal que ckk >
)(2)()1()( * MdkEMdkeMdkeMdk incnininc +++++∆+−++≤++ω +
(VI.65)
e considerando também que
1o) a planta é BIBO estável, de modo a garantir que os vetores de entrada do
controlador e do identificador neurais sejam limitados,
2o) o identificador neural faz a estimativa da planta a menos ou, na pior hipótese, igual
ao erro de treinamento escolhido pelo projetista, e ε in
3o) o sinal u(k) é comum à entrada do identificador neural e da planta,
pode-se afirmar que tomando o limite de (VI.65) quando M tende para infinito (estado
permanente), na suposição de que tem-se ckkku >∀=∆ ,0)( ,
)(2)1()( *,0)(
MdkEMdkeMdklim incninckkku
Mc
+++−++≤++ω +
>∀=∆∞→
(VI.66)
Agora, com base na expressão (VI.55), donde se deduz que inin Mdke ε≤−++ 2)1( , e
sabendo que , obtém-se ** )( incnincn MdkE ++ ε≤++
135
Tese de Doutorado UFRN / CT / PPgEE
*,0)(
22)( incninckkku
MMdklim
c
+
>∀=∆∞→
ε+ε≤++ω (VI.67)
em que é a tolerância especificada para convergência do treinamento do
identificador neural e é a tolerância especificada para convergência do
treinamento do controlador neural em cascata com o identificador neural, onde o identificador
é mantido com pesos sinápticos fixos durante todo o treinamento do controlador neural.
0≥εin
0* ≥ε +incn
Denominando de Ωp o conjunto dos erros de controle de estado permanente, qual seja
++ω=Ω>∀=∆
∞→)( Mdklim c
kk0,u(k)Mp
c
(VI.68)
e considerando que , deduz-se que Ω . Agora, aplicando o
operador supremum no conjunto de todos os possíveis erros de controle obtidos através da
expressão (VI.68), finalmente conclui-se que
)( Mdkcc ++ω=Ω cp Ω⊂
*22 incninpsup +ε+ε≤Ω (VI.69)
em que M é o horizonte de estabilização da planta, contado a partir do instante kc + d.
Constata-se, como era intuitivo esperar, que o maior erro de controle possível de
ocorrer no sistema de Controle Neural Indireto depende das tolerâncias especificadas para o
treinamento do identificador e do controlador neurais. Diante disso, é um bom procedimento
escolher tolerâncias que obedeçam a condição abaixo:
136
Tese de Doutorado UFRN / CT / PPgEE
, (VI.70) ε εin cn in≤ + *
e não o contrário, pois um maior esforço no treinamento do identificador neural em relação ao
controlador neural, além de contribuir para a redução do erro de controle, também favorece o
aumento na velocidade de convergência da planta para o valor de referência (“set-point”).
VI.4 - CONCLUSÕES
Neste capítulo foram analisadas as questões relacionadas com a estabilidade e a
robustez de sistemas de controle indireto usando redes neurais, em consonância com a linha
de pesquisa proposta neste trabalho.
Na parte de Análise de Estabilidade, foram apresentados teoremas que estabelecem
condições que limitam o valor da taxa de aprendizagem [Ng, 1997], de maneira a garantir
a convergência das redes neurais utilizadas, tanto para o esquema de Controle Híbrido
Indireto quanto para o esquema de Controle Neural Indireto.
η
Ainda em se tratando da análise de estabilidade, também foram feitas considerações
que visaram adequar a implementação computacional do método η-adaptativo, apresentado
no Capítulo III deste trabalho e que é recomendado para acelerar a convergência do
treinamento dos dispositivos neurais usados nos sistemas de controle indireto, às condições de
estabilidade das Redes Neurais Multicamadas - RNM`s.
Em seqüência, tratou-se da Análise de Robustez, que constitui a principal contribuição
deste trabalho, sendo propostos critérios matemáticos rigorosos que permitem calcular o
limite do erro de controle em função da tolerância especificada previamente para
convergência das redes neurais, i.e., foram desenvolvidas expressões que possibilitam avaliar
a robustez dos esquemas de controle apresentados, com respeito aos erros do processo de 137
Tese de Doutorado UFRN / CT / PPgEE
treinamento das redes neurais, tanto para o sistema de Controle Híbrido Indireto quanto para
o sistema de Controle Neural Indireto.
Quanto ao problema da robustez, embora esteja sendo definida com respeito aos erros
do processo de treinamento das redes neurais, é imediato concluir que a mesma também
engloba os erros de modelagem e/ou variações de parâmetros da planta, isto devido às redes
neurais serem consideradas aproximadores universais [Haykin, 1999] de funções
matemáticas.
É interessante registrar que as técnicas de controle foram implementadas e testadas
computacionalmente, passo a passo, tomando-se como exemplo o controle de algumas
plantas. As simulações computacionais realizadas confirmaram todos os valores esperados, o
que possibilitou verificar a confiabilidade das propostas matemáticas apresentadas para dar
uma solução às questões relativas à estabilidade e à robustez dos esquemas de controle neural
indireto.
Finalmente, ressalta-se a simplicidade do cálculo do máximo erro de controle de
estado permanente (“steady-state”) que, certamente, constitui um atrativo para aplicação
prática dos esquemas apresentados neste trabalho, o que será mostrado no próximo capítulo
através da simulação computacional do controle de algumas plantas retiradas da literatura
técnica especializada [Slotine e Li, 1991], [Ng, 1997] e [Adetona et al., 2001].
138
Tese de Doutorado UFRN / CT / PPgEE
CAPÍTULO VII
EXEMPLOS
139
Tese de Doutorado UFRN / CT / PPgEE
VII.1 - INTRODUÇÃO
Os exemplos que serão apresentados neste capítulo têm a finalidade de demonstrar a
eficiência dos sistemas de Controle Híbrido Indireto e do Sistema Neural Indireto, quando
aplicados no controle de plantas retiradas da literatura técnica, assim como comprovar a
validade e a aplicabilidade dos respectivos Teoremas de Robustez, que constituem a principal
contribuição deste trabalho. Os exemplos selecionados foram os seguintes:
Exemplo 1: Controle de nível de um reservatório de seção transversal variável [Slotine e Li,
1991]. É um processo não-linear de 1a ordem. Este exemplo é similar ao que foi utilizado no
trabalho elaborado por [Maitelli e Gabriel, 1996].
Exemplo 2: Controle de uma planta não-linear polinomial [Ng, 1997]. Trata-se de uma
planta de 1a ordem e atraso de transporte unitário, contendo não-linearidades polinomiais
simultaneamente nos sinais de entrada e de saída. Foi incluído um teste simulando a aplicação
de uma perturbação no sinal de saída da planta.
Exemplo 3: Controle de uma planta não-linear periódica [Adetona et al., 2001]. Este
exemplo é uma planta não-linear de 2a ordem e atraso de transporte unitário, com diversos
termos senoidais de freqüências diferentes. Foram incluídos testes simulando a ocorrência de
uma variação nos valores dos parâmetros da planta.
VII.2 - EXEMPLO 1: CONTROLE DE NÍVEL DE UM RESERVATÓRIO
132
Tese de Doutorado UFRN / CT / PPgEE
O sistema a ser considerado é um reservatório de seção transversal variável mostrado
na Figura VII.1 [Slotine e Li, 1991]. A válvula de entrada é controlada de maneira a manter o
nível constante em um valor previamente estabelecido, designado por y_Ref. A válvula de
saída pode ser manipulada externamente e é mantida fixa durante a etapa de equalização do
nível. Trata-se, portanto, de um sistema não-linear de 1a ordem, cujo esquema é o seguinte:
Figura VII.1: Reservatório
A dinâmica do reservatório é modelada pela equação diferencial de 1a ordem
( ) ( )( )[ ]
( )( )[ ]tyA
tgyAtyAtq
dttdy se 2
+= (VII.1)
em que t indica o tempo em segundo, y(t) é o nível em metros a ser controlado, qe(t) e qs(t)
são as vazões de entrada e de saída do reservatório em m3/s, respectivamente, As é a área da
seção transversal de saída do reservatório e g é a aceleração da gravidade igual a 10m/s2. Foi
considerado que A[y(t)] = A0 + [y(t)]2, onde A0 é a área da seção transversal em m2. Para
efeito de cálculo, foram atribuídos os seguintes valores: A0 = 1m2 , As = 0,1A0, sendo adotado
um período de amostragem Ts = 1s. O método usado para simulação da planta foi o Runge-
Kutta de 4a ordem. O objetivo é, partindo-se de um nível inicial, atingir e manter o nível
133
Tese de Doutorado UFRN / CT / PPgEE
desejado para o reservatório durante um determinado intervalo de tempo previamente
estipulado, que são:
Nível inicial = 1m Níveis desejados = 2m (0s t 200s) ≤ ≤
= 3m (200s < t 400s) ≤
= 2m (400s < t 600s) ≤
= 3m (600s < t 800s) ≤
Um atuador mantém o sinal de controle limitado, de tal forma que a vazão de entrada
fique restrita ao intervalo 0 q≤ e(t) ≤ 1m3/s.
VII.2.1 - SISTEMA DE CONTROLE HÍBRIDO INDIRETO
A simulação computacional do sistema de Controle Híbrido Indireto foi realizada
usando um identificador neural com as seguintes características:
Número de camadas de nós: 3
Número de nós por camada: 2, 5 e 1
Número de vetores de treinamento (p): 2
Funções de ativação: sigmóide bipolar, para as camada escondida, e
linear, para a camada de saída
Tolerância para convergência da RNA (εin): 1.0E-03
Os resultados obtidos são mostrados nos gráficos abaixo:
134
Tese de Doutorado UFRN / CT / PPgEE
0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0k
0
0 .0 0
1 .0 0
2 .0 0
3 .0 0
4 .0 0
5 .0 0
6 .0 0
Saída da Planta
R eferenciaS aída da P lanta
0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0 0( x P eriod o d e A m ostragem ) s
0 .00 0 0
0 .2 0 0 0
0 .4 0 0 0
0 .6 0 0 0
0 .8 0 0 0
1 .0 0 0 0
1 .2 0 0 0
1 .4 0 0 0
Sinal de Controle u ( k ) , m3/s
0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0 0( x P eriod o d e A m ostragem ) s
0 .00 0 0
0 .1 0 0 0
0 .2 0 0 0
0 .3 0 0 0
0 .4 0 0 0
0 .5 0 0 0
0 .6 0 0 0
0 .7 0 0 0
0 .8 0 0 0
0 .9 0 0 0
1 .0 0 0 0
1 .1 0 0 0
1 .2 0 0 0
1 .3 0 0 0
1 .4 0 0 0
1 .5 0 0 0
1 .6 0 0 0
1 .7 0 0 0
1 .8 0 0 0
1 .9 0 0 0
2 .0 0 0 0
Erro de Controle
Figura VII.2: Controle de Nível - y , u e ωc (Controle Híbrido Indireto)
Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de
Controle Híbrido Indireto encontram-se rigorosamente dentro do limite estabelecido pelo
135
Tese de Doutorado UFRN / CT / PPgEE
Teorema VI.8 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos na
tabela abaixo para comparação.
Tabela VII.1: Erros de Controle de Nível (Controle Híbrido Indireto)
εin
(tolerância)
inε2
(limite de erro)
k
(iteração)
ωp
(erro de controle)
1,0E-03 44,72E-03 200 30,85E-03
1,0E-03 44,72E-03 400 17,32E-03
1,0E-03 44,72E-03 600 5,615E-03
1,0E-03 44,72E-03 800 24,03E-03
VII.2.2 - SISTEMA DE CONTROLE NEURAL INDIRETO
O identificador e o controlador neurais usados têm as seguintes características básicas:
Identificador Neural (in)
Número de camadas de nós: 2
Número de nós por camada: 2 e 1
Número de vetores de treinamento (p): 3
Funções de ativação: linear
Tolerância para convergência da RNA (εin): 1.0E-03
Controlador Neural (cn)
136
Tese de Doutorado UFRN / CT / PPgEE
Número de camadas de nós: 3
Número de nós por camada: 2, 5 e 1
Número de vetores de treinamento (p): 3
Funções de ativação: sigmóide bipolar, para as camada escondida, e
linear, para a camada de saída
Tolerância para convergência da RNA (εcn+in*): 1.0E-03
Foram usadas as seguintes técnicas para melhoria de desempenho do algoritmo PRE:
Randomização;
η-adaptativo.
A simulação do controle do nível do reservatório apresentou os seguintes resultados
gráficos:
0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0 0( x P eriod o d e A m ostragem ) s
0 .00 0 0
1 .0 0 0 0
2 .0 0 0 0
3 .0 0 0 0
4 .0 0 0 0
5 .0 0 0 0
6 .0 0 0 0
Nível ( m
)
R eferênciaS aída da P lanta
Figura VII.3(a): Controle de Nível - y (Controle Neural Indireto)
137
Tese de Doutorado UFRN / CT / PPgEE
0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0 0( x P eriod o d e A m ostragem ) s
0 .00 0 0
0 .2 0 0 0
0 .4 0 0 0
0 .6 0 0 0
0 .8 0 0 0
1 .0 0 0 0
1 .2 0 0 0
1 .4 0 0 0
Sinal de Controle u ( k ) , m3/s
0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0 0( x P eriod o d e A m ostragem ) s
0 .00 0 0
0 .1 0 0 0
0 .2 0 0 0
0 .3 0 0 0
0 .4 0 0 0
0 .5 0 0 0
0 .6 0 0 0
0 .7 0 0 0
0 .8 0 0 0
0 .9 0 0 0
1 .0 0 0 0
1 .1 0 0 0
1 .2 0 0 0
1 .3 0 0 0
1 .4 0 0 0
1 .5 0 0 0
1 .6 0 0 0
1 .7 0 0 0
1 .8 0 0 0
1 .9 0 0 0
2 .0 0 0 0
Erro de Controle
Figura VII.3(b): Controle de Nível - u e ωc (Controle Neural Indireto)
Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de
Controle Neural Indireto também se encontram rigorosamente dentro do limite estabelecido
pelo Teorema VI.9 (Robustez do Erro de Controle), conforme tabela abaixo.
Tabela VII.2: Erros de Controle de Nível (Controle Neural Indireto)
εin , εcn+in*
(tolerância)
*22 incnin +ε+ε
(limite de erro)
k
(iteração)
ωp
(erro de controle)
1,0E-03 89,44E-03 200 33,74E-03
1,0E-03 89,44E-03 400 38,12E-03
1,0E-03 89,44E-03 600 2,769E-03
1,0E-03 89,44E-03 800 31,15E-03
138
Tese de Doutorado UFRN / CT / PPgEE
VII.3 - EXEMPLO 2: CONTROLE DE UMA PLANTA NÃO-LINEAR POLINOMIAL
[NG, 1997]
O objetivo desta simulação é mostrar que os algoritmos dos sistemas propostos de
controle neural, além de serem capazes de controlar uma planta contendo não-linearidades nos
sinais de entrada e de saída, também atendem os Teoremas de Robustez apresentados neste
trabalho. O sistema a ser controlado foi retirado do livro de [Ng, 1997] e sua equação,
desconsiderando o termo do ruído (este termo foi removido para viabilizar a finalidade da
simulação, que é a verificação da robustez), tem a seguinte forma:
y k y ky k
u k( ) ( )( )
( )+ =+
+11 2
3 (VII.2)
VII.3.1 - SISTEMA DE CONTROLE HÍBRIDO INDIRETO
A simulação computacional do sistema de Controle Híbrido Indireto foi realizada
usando um identificador neural com as seguintes características:
Número de camadas de nós: 3
Número de nós por camada: 2, 8 e 1
Número de vetores de treinamento (p): 2
Funções de ativação: sigmóide bipolar, para as camada escondida, e
linear, para a camada de saída
Tolerância para convergência da RNA (εin): 1.0E-03
139
Tese de Doutorado UFRN / CT / PPgEE
Os resultados obtidos são mostrados nos gráficos abaixo:
0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0k
0
0 .0 0
1 .0 0
2 .0 0
3 .0 0
4 .0 0
5 .0 0
6 .0 0
7 .0 0
Saída da Planta
R eferenciaS aída da P lanta
0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0k
0
0 .0 00 .1 00 .2 00 .3 00 .4 00 .5 00 .6 00 .7 00 .8 00 .9 01 .0 01 .1 01 .2 01 .3 01 .4 01 .5 01 .6 01 .7 01 .8 01 .9 02 .0 02 .1 02 .2 02 .3 02 .4 02 .5 02 .6 02 .7 02 .8 02 .9 03 .0 0
Sinal de Controle
0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0k
0
0 .0 0
0 .1 0
0 .2 0
0 .3 0
0 .4 0
0 .5 0
0 .6 0
0 .7 0
0 .8 0
0 .9 0
1 .0 0
1 .1 0
1 .2 0
1 .3 0
1 .4 0
1 .5 0
1 .6 0
1 .7 0
1 .8 0
1 .9 0
2 .0 0
Erro de Controle
Figura VII.4: Planta da expressão (VII.2) - y , u e ωc (Controle Híbrido Indireto)
Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de
Controle Híbrido Indireto encontram-se rigorosamente dentro do limite estabelecido pelo
140
Tese de Doutorado UFRN / CT / PPgEE
Teorema VI.8 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos na
tabela abaixo para comparação.
Tabela VII.3: Erro de Controle da expressão (VII.2) (Controle Híbrido Indireto)
εin
(tolerância)
inε2
(limite de erro)
k
(iteração)
ωp
(erro de controle)
1,0E-03 44,72E-03 200 29,44E-03
VII.3.2 - SISTEMA DE CONTROLE NEURAL INDIRETO
O identificador e o controlador neurais usados têm as seguintes características básicas:
Identificador Neural (in)
Número de camadas de nós: 2
Número de nós por camada: 2 e 1
Número de vetores de treinamento (p): 2
Funções de ativação: linear;
Tolerância para convergência da RNA (εin): 1.0E-03
Controlador Neural (cn)
Número de camadas de nós: 3
Número de nós por camada: 2, 8 e 1
141
Tese de Doutorado UFRN / CT / PPgEE
Número de vetores de treinamento (p): 2
Funções de ativação: sigmóide bipolar, para as camada escondida, e
linear, para a camada de saída
Tolerância para convergência da RNA (εcn+in*): 1.0E-03
Foram usadas as seguintes técnicas para melhoria de desempenho do algoritmo PRE:
Randomização;
η-adaptativo.
A simulação do controle da planta não-linear da expressão (VII.2) apresentou os
seguintes resultados gráficos:
0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0k
0
0 .0 0
1 .0 0
2 .0 0
3 .0 0
4 .0 0
5 .0 0
6 .0 0
7 .0 0
Saída
R eferênciaS aída da P lanta
Figura VII.5(a): Planta da expressão (VII.2) - y (Controle Neural Indireto)
142
Tese de Doutorado UFRN / CT / PPgEE
0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0k
0
0 .0 00 .1 00 .2 00 .3 00 .4 00 .5 00 .6 00 .7 00 .8 00 .9 01 .0 01 .1 01 .2 01 .3 01 .4 01 .5 01 .6 01 .7 01 .8 01 .9 02 .0 02 .1 02 .2 02 .3 02 .4 02 .5 02 .6 02 .7 02 .8 02 .9 03 .0 0
Sinal de Controle
0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0 0
0 .0 0
0 .1 0
0 .2 0
0 .3 0
0 .4 0
0 .5 0
0 .6 0
0 .7 0
0 .8 0
0 .9 0
1 .0 0
1 .1 0
1 .2 0
1 .3 0
1 .4 0
1 .5 0
1 .6 0
1 .7 0
1 .8 0
1 .9 0
2 .0 0
Erro de Controle
Figura VII.5(b): Planta da expressão (VII.2) - u e ωc (Controle Neural Indireto)
Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de
Controle Neural Indireto também se encontram rigorosamente dentro do limite estabelecido
pelo Teorema VI.9 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos
na tabela abaixo para comparação.
Tabela VII.4: Erro de Controle da expressão (VII.2) (Controle Neural Indireto)
εin , εcn+in*
(tolerância)
*22 incnin +ε+ε
(limite de erro)
k
(iteração)
ωp
(erro de controle)
1,0E-03 89,44E-03 200 64,16E-03
143
Tese de Doutorado UFRN / CT / PPgEE
Ainda com respeito a este exemplo, o algoritmo de Controle Neural Indireto foi
testado para verificar a sua capacidade de retomar o controle da planta após a ocorrência de
uma perturbação. A perturbação foi aplicada em k = 300, equivalente a um desvio de 20% da
saída de estado permanente que vinha sendo mantida pela planta, conforme figuras abaixo:
0 .0 0 1 0 0 .00 2 0 0 .0 0 3 0 0 .0 0 4 00 .0 0k
0 .0 0
2 .0 0
4 .0 0
6 .0 0
Erro de Con
trole , Sinal de Con
trole e Saída da Planta
R eferênciaS aída da P lanta
S inal de C ontrole
Erro de C ontrole
P erturbação
Figura VII.6: Planta da expressão(VII.2) c/ perturbação - y, u e ωc (Controle Neural Indireto)
Os erros de controle de estado permanente, após a ocorrência da perturbação, também
se encontram rigorosamente dentro do limite estabelecido pelo Teorema VI.9 (Robustez do
Erro de Controle), cujos resultados encontram-se transcritos na tabela abaixo para
comparação.
Tabela VII.5: Erros de Controle da expressão (VII.2) c/ perturbação(Controle Neural Indireto)
εin , εcn+in*
(tolerância)
*22 incnin +ε+ε
(limite de erro)
k
(iteração)
ωp
(erro de controle)
1,0E-03 89,44E-03 200 62,07E-03
1,0E-03 89,44E-03 400 62,07E-03
144
Tese de Doutorado UFRN / CT / PPgEE
VII.4 - EXEMPLO 3: CONTROLE DE UMA PLANTA NÃO-LINEAR PERIÓDICA
[ADETONA ET AL., 2001]
Neste exemplo, o objetivo é validar os Teoremas de Robustez apresentados neste
trabalho, através do controle de uma planta contendo não-linearidades senoidais de
freqüências variadas. A eficiência dos sistemas de controle também será testada para situações
que contemplam a ocorrência de variações nos parâmetros físicos da planta. O sistema a ser
controlado foi retirado de um trabalho de [Adetona et al., 2001]. Trata-se de uma planta não-
linear de 2a ordem com atraso de transporte unitário, cuja equação é a seguinte:
+
−++−++
+−++−++++=+
))(cos(1))1()((2)]1()(9[1.0
)]1()(2))1()((8.0[sin4.0))]1()((8.0cos[2.0)1(
kykukukyky
kukukykykykyky
(VII.3)
VII.4.1 - SISTEMA DE CONTROLE HÍBRIDO INDIRETO
A simulação computacional do sistema de Controle Híbrido Indireto foi realizada
usando um identificador neural com as seguintes características:
Número de camadas de nós: 3
Número de nós por camada: 4, 8 e 1
Número de vetores de treinamento (p): 2
Funções de ativação: sigmóide bipolar, para as camada escondida, e
linear, para a camada de saída;
Tolerância para convergência da RNA (εin): 1.0E-03
145
Tese de Doutorado UFRN / CT / PPgEE
Os resultados obtidos são mostrados nos gráficos abaixo:
0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k
0
0 .0 0
0 .2 0
0 .4 0
0 .6 0
0 .8 0
1 .0 0
1 .2 0
1 .4 0
1 .6 0
1 .8 0
2 .0 0
Saída da Planta R eferência
S aída da P lanta
0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k
0
-1 .0 0
-0 .9 0
-0 .8 0
-0 .7 0
-0 .6 0
-0 .5 0
-0 .4 0
-0 .3 0
-0 .2 0
-0 .1 0
0 .0 0
0 .1 0
0 .2 0
0 .3 0
0 .4 0
0 .5 0
0 .6 0
0 .7 0
0 .8 0
0 .9 0
1 .0 0
Sinal de Controle
0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k
0
0 .0 0
0 .1 0
0 .2 0
0 .3 0
0 .4 0
0 .5 0
0 .6 0
0 .7 0
0 .8 0
0 .9 0
1 .0 0
1 .1 0
Erro de Controle
Figura VII.7: Planta da expressão (VII.3) - y , u e ωc (Controle Híbrido Indireto)
146
Tese de Doutorado UFRN / CT / PPgEE
Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de
Controle Híbrido Indireto encontram-se rigorosamente dentro do limite estabelecido pelo
Teorema VI.8 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos na
tabela abaixo para comparação.
Tabela VII.6: Erro de Controle da expressão (VII.3) (Controle Híbrido Indireto)
εin
(tolerância)
inε2
(limite de erro)
k
(iteração)
ωp
(erro de controle)
1.0E-03 44,72E-03 400 23,55E-03
Agora, o teste será realizado introduzindo uma variação brusca nos parâmetros da planta, com a finalidade de verificar a eficiência do sistema de controle na estabilização da planta com parâmetros modificados.
Os resultados obtidos para uma variação de +25% nos valores originais dos
parâmetros da planta foram os seguintes:
0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0 0k
-1.0 0
-0.8 0
-0.6 0
-0.4 0
-0.2 0
0.0 0
0.2 0
0.4 0
0.6 0
0.8 0
1.0 0
1.2 0
1.4 0
1.6 0
1.8 0
2.0 0
Sinais de Con
trole e de Saída da Plant
a
R eferênciaS aída da P lanta
Variação nos parâm etros da P lanta
S inal de C ontrole
Figura VII.8: Planta da expressão (VII.3) com variação de +25% em seus parâmetros - u e y
(Controle Híbrido Indireto)
147
Tese de Doutorado UFRN / CT / PPgEE
Na Figura VII.8 observa-se claramente que, após ter sido introduzida uma variação
nos parâmetros da planta, o sistema de controle efetuou o cálculo, em tempo real (“on-line”),
do novo valor do sinal de controle necessário para estabilizar novamente a saída da planta
próximo do valor de referência (“set-point”), comprovando assim a robustez do sistema de
Controle Híbrido Indireto, apesar da ocorrência de uma perturbação estruturada no modelo
original da planta [Bhattacharyya, 1987].
Os erros de controle cometidos foram os seguintes:
0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k
0
0 .0 0
0 .1 0
0 .2 0
0 .3 0
0 .4 0
0 .5 0
0 .6 0
0 .7 0
0 .8 0
0 .9 0
1 .0 0
1 .1 0
Erro de Con
trole
Figura VII.9: Planta da expressão (VII.3) com variação de +25% em seus parâmetros.
Erro de Controle - ωc (Controle Híbrido Indireto)
Os erros de controle de estado permanente, antes e após a ocorrência de variação nos
parâmetros da planta, também se encontram rigorosamente dentro do limite estabelecido pelo
Teorema VI.8 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos na
tabela abaixo para comparação.
148
Tese de Doutorado UFRN / CT / PPgEE
Tabela VII.7: Erros de Controle da expressão (VII.3) c/ variação nos parâmetros da planta
(Controle Híbrido Indireto)
εin
(tolerância)
inε2
(limite de erro)
k
(iteração)
ωp
(erro de controle)
1,0E-03 44,72E-03 200 2,57E-03
1,0E-03 44,72E-03 400 0,96E-03
VII.4.2 - SISTEMA DE CONTROLE NEURAL INDIRETO
O identificador e o controlador neurais usados têm as seguintes características básicas:
Identificador Neural (in)
Número de camadas de nós: 2
Número de nós por camada: 4 e 1
Número de vetores de treinamento (p): 2
Funções de ativação: linear
Tolerância para convergência da RNA (εin): 1.0E-03
Controlador Neural (cn)
Número de camadas de nós: 3
Número de nós por camada: 4, 8 e 1
Número de vetores de treinamento (p): 2
149
Tese de Doutorado UFRN / CT / PPgEE
Funções de ativação: sigmóide bipolar, para as camada escondida, e
linear, para a camada de saída
Tolerância para convergência da RNA (εcn+in*): 1.0E-03
Foram usadas as seguintes técnicas para melhoria de desempenho do algoritmo PRE:
Randomização;
η-adaptativo.
A simulação do controle da planta não-linear da expressão (VII.3) apresentou os
seguintes resultados gráficos:
0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0 0k
0.00
0 .2 0
0 .4 0
0 .6 0
0 .8 0
1 .0 0
1 .2 0
1 .4 0
1 .6 0
1 .8 0
2 .0 0
Saída da Planta
R eferênciaS aída da P lanta
Figura VII.10(a): Planta da expressão (VII.3) - y (Controle Neural Indireto)
150
Tese de Doutorado UFRN / CT / PPgEE
0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k
0
-1 .0 0
-0 .9 0
-0 .8 0
-0 .7 0
-0 .6 0
-0 .5 0
-0 .4 0
-0 .3 0
-0 .2 0
-0 .1 0
0 .0 0
0 .1 0
0 .2 0
0 .3 0
0 .4 0
0 .5 0
0 .6 0
0 .7 0
0 .8 0
0 .9 0
1 .0 0
Sinal de Controle
0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k
0
0 .0 0
0 .1 0
0 .2 0
0 .3 0
0 .4 0
0 .5 0
0 .6 0
0 .7 0
0 .8 0
0 .9 0
1 .0 0
1 .1 0
Erro de Controle
Figura VII.10(b): Planta da expressão (VII.3) - u e ωc (Controle Neural Indireto)
Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de
Controle Neural Indireto também se encontram rigorosamente dentro do limite estabelecido
pelo Teorema VI.9 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos
na tabela abaixo para comparação.
Tabela VII.8: Erro de Controle da expressão (VII.3) (Controle Neural Indireto)
εin , εcn+in*
(tolerância)
*22 incnin +ε+ε
(limite de erro)
k
(iteração)
ωp
(erro de controle)
1,0E-03 89,44E-03 400 40,70E-03
151
Tese de Doutorado UFRN / CT / PPgEE
Da mesma maneira feita com o sistema de Controle Híbrido Indireto, foi realizado um
teste introduzindo uma variação brusca nos parâmetros da planta, com a finalidade de
verificar a eficiência do sistema de controle na estabilização da planta com parâmetros
modificados.
Os resultados obtidos para uma variação de +25% nos valores originais dos
parâmetros da planta foram os seguintes:
0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0 0k
-1.0 0
-0.8 0
-0.6 0
-0.4 0
-0.2 0
0.0 0
0.2 0
0.4 0
0.6 0
0.8 0
1.0 0
1.2 0
1.4 0
1.6 0
1.8 0
2.0 0
Sinais de Con
trole e de Saída da Plant
a
R eferênciaS aída da P lanta
S inal de C ontrole
Variação nosparâm etros da P lanta
Figura VII.11: Planta da expressão (VII.3) com variação de +25% em seus parâmetros - u e y
(Controle Neural Indireto)
Na Figura VII.11 observa-se claramente que, após ter sido introduzida uma variação
nos parâmetros da planta, o sistema de controle efetuou o cálculo, em tempo real (“on-line”),
do novo valor do sinal de controle necessário para estabilizar novamente a saída da planta
próximo do valor de referência (“set-point”), comprovando assim a robustez do sistema de
Controle Neural Indireto, apesar da ocorrência de uma perturbação estruturada no modelo
original da planta [Bhattacharyya, 1987].
152
Tese de Doutorado UFRN / CT / PPgEE
Os erros de controle cometidos foram os seguintes:
0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k
0
0 .0 0
0 .1 0
0 .2 0
0 .3 0
0 .4 0
0 .5 0
0 .6 0
0 .7 0
0 .8 0
0 .9 0
1 .0 0
1 .1 0
Erro de Con
trole
Figura VII.12: Planta da expressão (VII.3) com variação de +25% em seus parâmetros
Erro de Controle - ωc (Controle Neural Indireto)
Os erros de controle de estado permanente, antes e após a ocorrência de variação nos
parâmetros da planta, também se encontram rigorosamente dentro do limite estabelecido pelo
Teorema VI.9 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos na
tabela abaixo para comparação.
Tabela VII.9: Erros de Controle da expressão (VII.3) c/variação nos parâmetros da planta
(Controle Neural Indireto)
εin , εcn+in*
(tolerância)
*22 incnin +ε+ε
(limite de erro)
k
(iteração)
ωp
(erro de controle)
1,0E-03 89,44E-03 200 21,87E-03
1,0E-03 89,44E-03 400 20,43E-03
153
Tese de Doutorado UFRN / CT / PPgEE
VII.5 - CONCLUSÕES
Neste capítulo, 3 (três) exemplos de plantas com dinâmica não-linear foram usadas
para testar a eficiência dos esquemas de controle apresentados neste trabalho - Controle
Híbrido Indireto e Controle Neural Indireto, e, principalmente, comprovar a validade e a
aplicabilidade dos Teoremas de Estabilidade e de Robustez, sendo que estes últimos
correspondem às contribuições de maior importância dentro deste trabalho.
Os resultados apresentados mostraram que todas as simulações comportaram-se de
modo estável e os erros de controle de estado permanente (“steady-state”) mantiveram-se
dentro dos valores esperados, apesar dos erros inerentes ao treinamento das redes neurais,
demonstrando assim tratarem de sistemas robustos. Adicionalmente, constatou-se que o
sistema de Controle Neural Indireto mostrou-se mais eficiente no controle de regulação das
plantas testadas, por apresentar menor tempo de acomodação.
É importante ressaltar que nenhum pré-treinamento foi feito nos dispositivos neurais
utilizados nas malhas de controle, embora se reconheça a necessidade de fazê-lo no caso de
vir a usar estes esquemas no problema servo, i.e., no controle de seguidor de modelo de
referência (“model following”). Neste caso, o pré-treinamento do identificador neural, usando
um sinal persistentemente excitante [Åström e Wittenmark, 1989] aplicado à planta, justifica-
se pela necessidade do modelo ter que aprender não somente a operação da planta em um
ponto (regulação), mas nos diversos pontos de operação pelos quais o sistema poderá
excursionar durante o processo de controle. Com relação ao problema do controle de
regulação tratado neste trabalho, o pré-treinamento do identificador neural com um sinal
persistentemente excitante, certamente reduzirá as oscilações indesejadas (“chatterings”) que
ocorrem no início do controle em cada ponto de operação, minimizando assim o transitório
inicial.
154
Tese de Doutorado UFRN / CT / PPgEE
A constatação mais importante é a comprovação da validade dos Teoremas de
Robustez em todos os testes realizados, tanto para o sistema de Controle Híbrido Indireto
quanto para o sistema de Controle Neural Indireto. Observou-se que para todos os casos
testados, inclusive para outras plantas hipotéticas não apresentadas nos exemplos deste
trabalho, o erro de controle de estado permanente observado, ωp, comportou-se abaixo do
limite de erro calculado através dos respectivos Teoremas de Robustez.
Ressalta-se, também, a eficiência dos controladores empregados em re-estabilizar o
sistema de controle de malha fechada, após a aplicação de perturbações no sinal de saída da
planta ou, até mesmo, após a variação dos parâmetros da planta, apresentando assim a
propriedade de estabilização robusta [Bhattacharyya, 1987].
A utilização dos Teoremas da Robustez permitirá ao projetista de controle neural
indireto estabelecer antecipadamente a tolerância para convergência dos dispositivos neurais,
de modo a atender requisitos de desempenho relacionados com o erro de controle no estado
permanente (“steady-state error”), desde que seja garantida a estabilidade do identificador
neural e do controlador neural usados nos esquemas de controle de malha fechada [Ng, 1997].
155
Tese de Doutorado UFRN / CT / PPgEE
CAPÍTULO VIII
CONCLUSÕES
156
Tese de Doutorado UFRN / CT / PPgEE
Sistemas baseados em redes neurais da classe feedforward perceptron multicamadas,
com os parâmetros ajustados pelo método de descida do gradiente (“backpropagation”), são
bons mapeadores de funções matemáticas, prestando-se, portanto, para utilização como
identificador e controlador para plantas não-lineares com dinâmica desconhecida. No presente
trabalho, foram mostrados dois esquemas de controle - Controle Híbrido Indireto e o
Controle Neural Indireto.
O primeiro deles, o Controle Híbrido Indireto, foi desenvolvido neste trabalho e
constitui uma contribuição para a área de Controle Inteligente. A denominação de híbrido é
devido ao identificador ser neural, enquanto que o controlador é uma Lei de Controle baseada
no Jacobiano estimado da planta, e que é obtida através da interpretação adequada do papel do
identificador neural dentro da malha de controle. É interessante registrar que um sistema de
controle similar foi desenvolvido em trabalho recente apresentado por [Adetona et al., 2001],
cuja pesquisa contou com suporte financeiro da NASA/USA.
O segundo esquema de controle - Controle Neural Indireto já havia sido mostrado em
um trabalho anterior, ocasião em que foram estudados aspectos relativos a melhoria do tempo
de treinamento das redes neurais, utilizando técnicas auxiliares de desempenho [Maitelli e
Gabriel, 1996], [Gabriel, 1996] e [Maitelli e Gabriel, 1997], as quais são indicadas para
encontrar heuristicamente uma metodologia que atenda simultaneamente os requisitos de
tempo e de desempenho.
Desta vez, o escopo principal deste trabalho está relacionado somente com o requisito
de desempenho do sistema de controle, mais especificamente com a robustez de sistemas de
controle indireto com respeito aos erros de treinamento das redes neurais. Além disso,
ressalta-se que o requisito relativo ao tempo de treinamento das redes neurais está cada dia
menos preocupante, tendo em vista o aumento considerável na velocidade dos sistemas
computacionais ocorrido nas últimas décadas.
141
Tese de Doutorado UFRN / CT / PPgEE
Portanto, o presente trabalho apresentou ferramentas que permitem especificar
previamente a tolerância para convergência de cada um dos dispositivos neurais usados nos
sistemas de controle indireto - híbrido e neural, de modo a atender o máximo erro admitido
para o valor de saída da planta. Estas ferramentas são os Teoremas da Estabilidade [Ng,
1997], que aplicadas em conjunto com os Teoremas de Robustez possibilitam ao projetista de
sistemas de controle inteligente uma abordagem segura e eficiente para o projeto de sistemas
de controle indireto usando as Redes Neurais Artificiais - RNA`s.
Os requisitos para a garantia de estabilidade, conforme demonstrado nos Teoremas de
Estabilidade, são implementados diretamente na parte do programa correspondente ao método
de otimização η-adaptativo, através da limitação da constante de aprendizagem.
Os Teoremas de Estabilidade e Robustez foram testados no controle de regulação de
três plantas não-lineares retiradas da literatura técnica e que foram mostrados no corpo desta
tese na forma de exemplos. As malhas de controle de cada exemplo foram simuladas
computacionalmente em tempo real (“on-line”), i.e., sem a utilização de pré-treinamento dos
respectivos dispositivos neurais. Certamente, o pré-treinamento do identificador neural com
um sinal persistentemente excitante traria uma melhora significativa no transitório inicial
ocorrido em cada exemplo apresentado, além de viabilizar o seu emprego seguro em
problema servo (rastreamento) ou seguidor de modelo de referência.
Todos os exemplos implementados validaram os teoremas apresentados, com destaque
para os Teoremas de Robustez, por se tratar da contribuição original mais importante deste
trabalho, que pode ser aplicado com facilidade no projeto de sistemas de controle indireto
usando as Redes Neurais Artificiais - RNA`s.
Os Teoremas de Robustez permitiram determinar a priori o valor do máximo erro de
controle de estado permanente (“steady-state”), para cada exemplo testado
142
Tese de Doutorado UFRN / CT / PPgEE
computacionalmente, em função da tolerância escolhida para a parada do processo de
convergência das redes neurais usadas nos respectivos esquemas de controle indireto.
Resumindo, as principais contribuições desta tese, foram as seguintes:
1a) desenvolvimento matemático de uma Lei de Controle para o esquema de
Controle Híbrido Indireto;
2a) proposição e demonstração dos Teoremas de Robustez, quer seja para o
esquema de Controle Híbrido Indireto quer seja para o esquema de Controle
Neural Indireto;
3a) teste, através de simulações computacionais, dos Teoremas de Estabilidade
e Robustez aplicados aos esquemas de Controle Híbrido Indireto e de Controle
Neural Indireto.
Desta maneira, conclui-se que este trabalho apresentou novas ferramentas de análise e
projeto de sistemas de controle inteligente, que se mostraram capazes de superar algumas das
limitações atualmente impostas à Teoria de Controle Linear, e de serem confiáveis sob os
aspectos de estabilidade e robustez, mesmo quando submetido à perturbações no sinal de
saída ou à variações nos parâmetros da planta.
Como sugestão para estudos futuros, propõe-se:
1a) extensão e adequação de conceitos, assim como o cálculo de parâmetros de
desempenho, existentes na Teoria de Controle Clássico para a Teoria de
Controle Inteligente, tais como: sobresinal (“overshoot”), tempo de
acomodação (“settling time”), perturbação crítica, margem de estabilidade e
outros que possam ser aplicáveis;
143
Tese de Doutorado UFRN / CT / PPgEE
2a) estudo para estimar a ordem (n) e o atraso de transporte (d) de plantas não-
lineares;
3a) avaliação da conseqüência no desempenho do sistema de controle de malha
fechada, assim como a proposição de uma estratégia alternativa eficiente, caso
o tempo total de treinamento das redes neurais (Tt) exceda o período de
amostragem da planta (Ts), ou seja, para o caso em que Tt > Ts;
4a) análise de estabilidade e robustez dos esquemas de controle desenvolvidos
neste trabalho, usando a Teoria das Desigualdades Matriciais Lineares (“LMI`s
- Linear Matrix Inequalities”);
5a) extensão da análise de robustez para o problema servo (rastreamento) ou
seguidor de modelo de referência.
Finalizando, acredita-se que este trabalho tenha contribuído técnica e cientificamente
para a construção de uma Teoria de Controle Inteligente, que seja apropriada para atender aos
anseios da sociedade por equipamentos com melhor desempenho.
144
Tese de Doutorado UFRN / CT / PPgEE
REFERÊNCIAS BIBLIOGRÁFICAS
Adetona, O., Sathananthan, S. e Keel, L. H., (2001). Robust Nonlinear Adaptive Control
Using Neural Networks. In: Proc of the American Control Conference, pp. 3884/3889.
Arlington, VA. USA.
Antar, A. Neto, Sampaio, J. L. P., Lapa, N. e Cavallantte, S. L., (1979). Conjuntos e Funções.
Editora Moderna Ltda. São Paulo. SP. Brasil.
Åström, K. J. e Wittenmark, B., (1989). Adaptive Control. Addison - Wesley. Reading,
Massachusetts. USA.
Åström, K. J. e Wittenmark, B., (1990). Computer-Controlled Systems. Prentice-Hall
International, Inc. New Jersey. USA.
Aguirre, L. A., (2000). Introdução à Identificação de Sistemas. Editora UFMG. Belo
Horizonte, MG. Brasil.
Bhattacharyya, S. P., (1987). Robust Stabilization Against Structured Perturbations. Springer-
Verlag. Berlin. Germany.
Cichocki, A. e Unbehauen, R., (1993). Neural Networks for Optimization and Signal
Processing. John Wiley & Sons. West Sussex. England.
Demuth, H. e Beale, M., (1992). Neural Network Toolbox User’s Guide. The MathWorks,
Inc. Massachusetts. USA.
Faleiros, A. C. e Yoneyama, T., (2002). Teoria Matemática de Sistemas. Editora Arte &
Ciência. São Paulo. SP. Brasil.
145
Tese de Doutorado UFRN / CT / PPgEE
Franklin, G. F., Powell, J. D. e Emami-Naeini, A., (2002). Feedback Control of Dynamic
Systems. Editora Prentice-Hall, Inc. New Jersey. USA.
Friedlander, A., (1994). Elementos de Programação Não-Linear. Editora UNICAMP.
Campinas, São Paulo. Brasil.
Gabriel, O. Filho, (1996). Um Esquema de Controle Adaptativo Neural com Treinamento em
Tempo Real. Dissertação de Mestrado. Universidade Federal do Rio grande do Norte-
UFRN. Natal, Rio Grande do Norte. Brasil
Haykin, S., (1999). Redes Neurais. Artmed Editora Ltda. Porto Alegre, Rio Grande do Sul.
Brasil.
Khalil, H. K., (1996). Nonlinear Systems. Prentice-Hall, Inc. New Jersey. USA.
Levin, A.U., e Narendra, K.S., (1996). Control of Nonlinear Dynamical Systems Using
Neural Networks - IEEE Transactions on Neural Networks, Vol. 7, No. 1, pp. 30-42. USA.
Maitelli, A. L. e Gabriel, O. Filho, (1996). Um Esquema de Controle Adaptativo Neural com
Treinamento “On-Line”. Anais do 7o Congreso Latinoamericano de Control Automatico-
LACC-IFAC, Volumen 2, pp. 887-892. Buenos Aires. Argentina.
Maitelli, A. L. e Gabriel, O. Filho, (1997). Um Controlador Adaptativo Neural Aplicado a
uma Planta Não-Linear. Anais do III Congresso Brasileiro de Redes Neurais. pp. 466-471.
Florianópolis, SC. Brasil.
Narendra, K. S. e Parthasarathy, K., (1990). Identification and control of dynamical system
using neural networks. IEEE Transactions on Neural Networks, Vol. 1, No. 1, pp. 4-27.
USA.
Naylor, A. W. e Sell, G. R., (1982). Linear Operator Theory in Engineering and Science.
Springer-Verlag New York Inc. New York, NY. USA.
146
Tese de Doutorado UFRN / CT / PPgEE
Ng, G. W. (1997). Application of Neural Networks to Adaptive Control of Nonlinear Systems.
Research Studies Press Ltd. London. England.
Nφrgaard, M., Rvn, O., Poulse, N. K. e Hansen, L. K., (2001). Neural Networks for Modelling
and Control of Dynamic Systems. Springer-Verlag London Limited. London. England.
Pansalkar, V. V. e Sastry, P. S., (1994). Analysis of the Back-Propagation Algorithm with
Momentum. IEEE Transactions on Neural Networks, Vol. 5, No. 3, pp. 505-506. USA.
Phillips, C. L. e Harbor, R. D., (2000). Feedback Control Systems. Editora Prentice-Hall, Inc.
New Jersey. USA.
Rezende, J. A. D. e Maitelli, A. L., (1999a). Um Estudo Comparativo entre Diferentes
Técnicas de Otimização do Treinamento de Neurocontroladores. Anais do IV Congresso
Brasileiro de Redes Neurais. pp. 209-214. São José dos Campos, SP. Brasil.
Rezende, J. A. D. e Maitelli, A. L., (1999b). Um Esquema de Neurocontrole com
Treinamento em Tempo Real Aplicado ao Posicionamento de um Servomotor. Anais do 4o
Simpósio Brasileiro de Automação Inteligente. pp. 98-103. São Paulo, SP. Brasil.
Rivals, I., Canas, D., Personnaz, L. e Dreyfus, G., (1994). Modeling and Control of Robots
and Intelligent Vehicles by Neural Networks. In: Proc of the IEEE Conference on
Intelligent Vehicles. Paris. France.
Rumelhart, D. E., McClelland, J. L. e The PDP Group, (1986a). Parallel Distributed
Processing: Explorations in the Microstructure of Cognition, Vols. 1 e 2.The MIT Press.
Cambridge. Massachusetts. USA.
Slotine, J. J. E. e Li, W., (1991). Applied Nonlinear Control. Prentice-Hall, Inc. New Jersey.
USA.
Spooner, J. T, Maggiore, M., Ordónez, R. e Passino, K. M., (2002). Stable Adaptive Control
and Estimation for Nonlinear Systems. John Wiley & Sons Inc. New York. USA.
147
Tese de Doutorado UFRN / CT / PPgEE
Tanomaru, J. e Omatu, S., (1992). Process Control by On-Line Trained Neural Controllers.
IEEE Transactions on Industrial Electronics, Vol. 39, No.6. USA.
Werbos, P. J., (1989). Backpropagation and neurocontrol : A review and prospectus, in Proc.
IJCNN’89, , pp. I-209/I-216. Washington, DC. USA.
148
Tese de Doutorado UFRN / CT / PPgEE
APÊNDICE A
METODOLOGIA DA PROPAGAÇÃO RETROATIVA DO ERRO - PRE
(“ERROR BACKPROPAGATION”)
149
Tese de Doutorado UFRN / CT / PPgEE
A.1 - INTRODUÇÃO
O objetivo do Método da Propagação retroativa do Erro – PRE é encontrar uma regra
capaz de ajustar os pesos sinápticos da rede neural com base em um conjunto de pares de
entrada-saída, denominados padrões de aprendizagem. A questão pode ser colocada da
seguinte forma: se os pesos sinápticos w forem considerados como elementos de uma matriz
W, então o processo de aprendizagem consiste na determinação da matriz W* que minimiza
uma função erro global (ou função custo) E, fixada previamente, e que de alguma forma deve
ser baseada no erro de saída da rede.
O método PRE executa o ajuste (ou adaptação) dos pesos sinápticos de uma rede
neural, de acordo com a seguinte expressão:
W [c+1] = W [c] + ∆W [c] (A.1)
em que ∆W é a matriz de ajuste do pesos sinápticos no ciclo de adaptação [c] , cujos
elementos são calculados por
∂∂
−=∆wEw η (A.2)
onde η é a taxa de aprendizagem e wE ∂∂ é o gradiente da função erro global E em
relação a cada peso sináptico w. A função escolhida para o erro global E é
E = (= =
−NPTR
p
K
kkpkp zo
1 1
2,,2)∑∑1 (A.3)
para p = 1, 2,..., NPTR.
Natal / RN - Brasil Março 2004
em que o é a saída desejada e z é a saída corrente da rede neural.
Tese de Doutorado UFRN / CT / PPgEE
A seguir é iniciado o desenvolvimento matemático da metodologia da Propagação
Retroativa do Erro, que, na primeira fase, consiste em ajustar (ou adaptar) os valores dos
pesos sinápticos w de cada conexão existente entre os neurônios da camada de saída e os da
camada precedente, de maneira que o erro global E seja igual ou menor que uma tolerância
previamente estabelecida, i.e, tal que e, na segunda fase, ainda perseguindo o
propósito de minimizar o erro global E , consiste em ajustar os pesos sinápticos w de cada
conexão existente entre os neurônios da última camada intermediária (ou escondida) e os da
camada precedente e assim sucessivamente, fazendo com que o sinal de erro se propague
retroativamente até ajustar a primeira matriz W
ε≤E
[1] da RNM.
É oportuno registrar que esta metodologia executa o ajuste dos pesos sinápticos no
sentido da saída para a entrada (“backward”), enquanto que a evolução da rede se dá no
sentido da entrada para a saída (“forward”). Apenas para simplicidade expositiva, sem perda
de generalidade, o raciocínio será conduzido para um sinal de entrada (p = 1) e uma camada
escondida, podendo, entretanto, ser estendido para configurações maiores.
A.2 - AJUSTE DOS PESOS SINÁPTICOS CONECTADOS À CAMADA DE SAÍDA
Tem o objetivo de encontrar uma expressão matemática que possibilite executar o
ajuste dos pesos sinápticos da matriz que conecta a camada de saída com a camada escondida
precedente, neste caso representada por W[o] , que atenda a tolerância estabelecida para o erro
global da rede. Visando também a simplicidade de exposição, será omitido o índice ‘o’ (de
“output”) da matriz W[o] e de seus respectivos elementos. O ajuste ∆W é uma matriz cujos
elementos são calculados em cada ciclo de ajuste [c] (ou época) por
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
∆wE
wk jk j
,,
= −
η
∂∂
(A.4)
O objetivo é desenvolver a expressão contida dentro dos parênteses acima, de tal foma
que a influência dos pesos sinápticos no erro global E possa ser calculada através de
variáveis de rede facilmente acessíveis. Para isso deriva-se parcialmente E em relação a wk,j,
aplicando a Regra da Cadeia para introduzir a variável intermediária NETk , ou seja
∂∂
∂∂
∂∂
Ew
ENET
NETwk j k
k
k j, ,
= (A.5)
Veja que
∂∂
∂
∂NETw
w y
wk
k j
k j jk
K
k j,
,
,=
=∑
1
=( )∂
∂
w y
wk j j
k jk
K ,
,=∑
1
=( ) ( ) ( )∂
∂
∂
∂
∂
∂
w y
w
w y
w
w y
wj j
k j
k j j
k j
K j j
k j
1,
,
,
,
,
,... ...+ + + +
= (A.6) y j
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
Denominando-se de δ k a parcela do erro de saída produzido pelo k-ésimo neurônio, devido
a influência de NETk , tem-se :
δ k = − (A.7) ∂
∂E
NETk
Aplicando (A.6) e (A.7) na expressão (A.5), o resultado será
∂∂
δE
wy
k jk= − j
y
]
(A.8)
Substituindo (A.8) na expressão (A.4), virá finalmente
(A.9) ∆wk j k j, = η δ
para j = 1, 2, ..., J e k = 1, 2, ..., K. Esta expressão é conhecida como Regra Delta para
ajuste dos pesos sinápticos que interligam os neurônios da camada de saída com os da camada
precedente. Substituindo (A.9) na expressão do PRE (A.1), tem-se :
[ ] [ ] [ [w w yk j
ck jc
k j
c
, ,+ = +1 ηδ
] (A.10)
Passando a expressão (A.10) para a forma vetorial, virá
W [c+1] = W [c] + [η δ saída YT][c] (A.11)
Natal / RN - Brasil
Março 2004
Tese de Doutorado UFRN / CT / PPgEE
A Regra Delta para a camada de saída apresentada pela expressão (A.9) acima, pode
ser melhor explicitada para facilitar o seu cálculo. Para atingir este objetivo parte-se da
relação de dependência existente entre as variáveis E , zk e NETk , dada por
(A.12) ( ) ([E NET E z NETk k= )]k
Sabendo-se que
δ (A.13) ∂
∂kk
ENET
= −
Agora aplicando a Regra da Cadeia para introduzir a variável intermediária zk , virá
δ (A.14) ∂∂
∂∂k
k
k
k
Ez
zNET
= −
Considerando que
zk = fk(NETk) (A.15)
onde fk(.) é a função de ativação escolhida para os neurônios da última camada da RNM,
podendo ser qualquer função contínua e derivável, virá imediatamente que
(∂∂
zNET
f NETk
kk= ′ )k (A.16)
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
e que
( )
k
K
kkk
k z
zo
zE
∂
−∂
=∂∂ ∑
=1
2
21
=( )∑
=
∂−∂K
k k
kk
zzo
1
2
21
= ( ) ( )∑=
∂−∂
−K
k k
kkkk z
zozο
1
= ( ) ( ) ( ) ( )......11
11 +∂−∂
−ο++∂−∂
−k
kkkk
k zzo
zz
zozο
( ) ( )k
KKKK z
zozο∂−∂
−+...
= (A.17) ( kk zo −− )
)
Substituindo (A.16) e (A.17) em (A.14) tem-se a expressão prática para o cálculo do erro δk ,
qual seja
(A.18) ( ) ( kkkkk NETfzo ′−=δ
que aplicado em (A.9) dá
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
(A.19) ( ) ( jkkkkjk yNETfzow ′−η=∆ , )
]
Os pesos sinápticos que conectam a camada de saída com a camada precedente podem ser,
então, atualizados por
[ ] [ ] ( ) ( )[ [cjkkkk
cjk
cjk yNETfzoww ′−η+=+
,1
,] (A.20)
onde [c] é o sobrescrito que indica o ciclo de atualização.
A expressão (A.20) serve para atualizar os pesos sinápticos da última matriz de
qualquer RNM, neste caso a matriz W[o]. Esta primeira fase é importante no processo de
aprendizagem das RNM’s, porém, para completar este processo, ainda é necessário
desenvolver uma expressão matemática que permita executar a adaptação dos outros pesos
sinápticos que conectam os neurônios das camadas escondidas entre si. Este é o objetivo da
próxima fase da metodologia de aprendizagem PRE.
A.3 - AJUSTE DOS PESOS SINÁPTICOS QUE CONECTAM A CAMADA ESCONDIDA COM A ENTRADA (OU DUAS CAMADAS ESCONDIDAS)
Nesta fase a atenção está voltada para a matriz W[h] (o índice h vem de “hidden”),
cujos elementos constituem-se dos pesos sinápticos wj,i que interligam os neurônios da
camada intermediária (ou camada escondida) com a entrada da rede neural. Vale adiantar que,
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
caso a RNM possuir mais do que 3 camadas, a metodologia que ora será desenvolvida para
adaptação da matriz W[h] , também se aplicaria às outras matrizes que conectam as camadas
escondidas entre si de maneira retroativa, isto quer dizer, obedecendo o sentido que vai da
última camada escondida para a entrada da RNM.
O procedimento inicial é semelhante àquele descrito na primeira fase, exceto onde
aparece os subescritos k,j , que passam a ser substituídos por j,i , os quais, de acordo com a
nomenclatura adotada, significam j o neurônio de destino e i o neurônio de origem. Desta
vez, visando também a simplicidade de exposição, será omitido o índice h da matriz W[h] e
de seus respectivos elementos, pois nesta fase somente a mesma será objeto de manipulação
matemática. O ajuste dos pesos sinápticos é obtido aplicando-se o Método do Gradiente, de
acordo com as expressões (A.1) e (A.2), sendo que, desta vez, o termo ∆W que aparece na
expressão (A.2) é uma matriz cujos elementos são calculados por
∆wE
wj ij i
,,
= −
η
∂∂
(A.21)
Mais uma vez, o objetivo é desenvolver a expressão contida dentro dos parênteses acima, de
tal forma que a influência dos pesos sinápticos no erro global E possa ser calculada através
de variáveis de rede de fácil acesso. Para isso, deriva-se parcialmente E em relação a wj,i ,
aplicando a Regra da Cadeia para introduzir a variável intermediária NETj , ou seja
∂∂
∂∂
∂
∂E
wE
NETNETwj i j
j
j i, ,
= (A.22)
Observa-se que
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
∂
∂
∂
∂
NETw
w x
wj
j i
j i ij
J
j i,
,
,=
=∑
1
=( )∂
∂
w x
wj i i
j ij
J ,
,=∑
1
=( ) ( ) ( )∂
∂
∂
∂
∂
∂
w x
w
w x
w
w x
wi i
j i
j i i
j i
J i i
j i
1,
,
,
,
,
,... ...+ + + +
= (A.23) xi
Denominando-se de δ j a parcela do erro produzido pelo j-ésimo neurônio da camada
escondida, devido a influência de NETj , virá :
δ j = −∂
∂E
NETj (A.24)
Aplicando (A.23) e (A.24) na expressão (B.22), virá então
∂∂
δE
wx
j ij i
,= − (A.25)
Substituindo (A.25) na expressão (A.21) virá finalmente
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
∆wj,i = η δ j xi (A.26)
para i = 1, 2, ..., I e j = 1, 2, ..., J. Esta é a expressão da conhecida Regra Delta (vide
expressão A.9), que aqui encontra-se adequada para uso na atualização dos pesos sinápticos
da camada escondida, os quais são atualizados da seguinte maneira
(A.27) [ ] [ ] [ [ ]w w xj i
cj ic
j i
c
, ,+ = +1 ηδ ]
Passando a expressão (A.27) para a forma vetorial, tem-se
W [c+1] = W [c] + [η δ escondida X T][c] (A.28)
A expressão (A.27) e sua equivalente vetorial (A.28) tem um grande inconveniente que deve
ser contornado, que é o cálculo do sinal de erro δ da camada escondida, que não é possível
fazer diretamente. Para resolver este problema, usam-se variáveis de rede que sejam
facilmente acessíveis, conforme demonstrado a seguir.
Partindo-se da definição de δ j dado por (A.24), e aplicando a Regra da Cadeia para
introduzir a variável intermediária yj ,virá
δ ∂
∂jj
ENET
= −
=−∂∂
∂
∂Ey
yNETj
j
j (A.29)
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
O objetivo é substituir os fatores que aparecem na expressão acima, de maneira a possibilitar
o cálculo do sinal de erro gerado por cada neurônio j escondido. Decorre de imediato que
(A.30) (y f NETj j= )j
onde fj(.) é a função de ativação escolhida para os neurônios da camada escondida da RNM,
podendo ser qualquer função contínua e derivável. Derivando a expressão (A.30) em relação a
NETj, tem-se a expressão que substituirá o segundo fator que aparece na expressão (A.29),
que é
(∂
∂
yNET
f NETj
jj= ′ )j (A.31)
Agora, para desenvolver o primeiro fator que aparece na expressão (A.29), deriva-se o erro
global E em relação a yj , ou seja
( )( )( )
−
∂∂
=∂∂ ∑
=
2
121 K
kjkkk
jj
yNETfoyy
E
= ( ) ( )( )[ ]jkk
K
k jkk yNETf
yzo∑
= ∂∂
−−1
= ( ) ( ) ( )[ ]j
jkkk
K
kkk y
yNETNETfzo
∂
∂′−−∑
=1 (A.32)
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
Sabendo-se que
(A.33) ( ) ( kkkkk NETfzo ′−=δ )
j
e que
( )NET y w yk j k jj
J=
=∑ ,
1
( )[ ]∂
∂∂∂
NET y
y yw y
k j
j jk j
j
J
j=
=∑ ,
1
= ( )∂∂ y
w y w y w yj
k k j j k, , ,... ...1 1+ + + + J J
= w (A.34) k j,
Substituindo (A.33) e (A.34) em (A.32) virá
∂∂
δEy
wj
kk
K
k j= −=∑
1, (A.35)
Agora, levando (A.31) e (A.35) em (A.29) obtém-se a expressão procurada para o sinal de
erro δ j , que é
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
( )j j j kk
K
k jf NET w= ′=∑
1,δ δ
,δ
(A.36)
para j = 1, 2,..., J.
Levando o valor acima de δ j para (A.26) obtém-se a expressão que dá a adaptação dos pesos
sinápticos entre a camada escondida e a camada de entrada de uma RNM de 3 camadas,
conforme configuração adotada para o desenvolvimento desta segunda fase, qual seja
(A.37) ( )∆w f NET x wj i j j i kk
K
k j, = ′=∑η
1
para i = 1, 2,..., I e j = 1, 2,..., J.
A expressão (A.37) é conhecida como Regra de Aprendizagem Delta Generalizada. Os pesos
sinápticos que conectam a camada escondida com a camada de entrada da RNM, podem ser
então atualizados por
(A.38) [ ] [ ] ( )w w f NET x wj ic
j ic
j j i k k jk
K c
, , ,
[ ]+
=
= + ′
∑1
1
η δ
para i = 1, 2,..., I e j = 1, 2,..., J.
onde [c] é o sobrescrito que indica o ciclo de atualização.
Embora a expressão (A.38) tenha sido desenvolvida para atualizar os pesos sinápticos
existentes entre a camada escondida e a camada de entrada de uma RNM de 3 camadas
(camada de entrada + uma camada escondida + camada de saída), a mesma pode ser estendida
para atualizar os pesos sinápticos entre duas camadas escondidas quaisquer, caso a RNM
possua mais de uma camada escondida. Para isso, basta adequar as variáveis manipuladas pela
correspondente expressão, assim como seus respectivos subescritos, tomando-se o cuidado de
Natal / RN - Brasil Março 2004
Tese de Doutorado UFRN / CT / PPgEE
propagar o sinal de erro δ no sentido inverso, i.e., da última camada escondida para a
camada de entrada.
Natal / RN - Brasil Março 2004