+ All Categories
Home > Documents > CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes...

CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes...

Date post: 05-Jun-2020
Category:
Upload: others
View: 0 times
Download: 0 times
Share this document with a friend
169
Tese de Doutorado UFRN / CT / PPgEE UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE CENTRO DE TECNOLOGIA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE CONTROLE USANDO REDES NEURAIS OSCAR GABRIEL FILHO 1
Transcript
Page 1: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE CENTRO DE TECNOLOGIA

PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE CONTROLE

USANDO REDES NEURAIS

OSCAR GABRIEL FILHO

1

Page 2: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

OSCAR GABRIEL FILHO

CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE CONTROLE

USANDO REDES NEURAIS

Tese submetida ao Programa de Pós-Graduação em Engenharia Elétrica da Universidade Federal do Rio Grande do Norte como parte dos requisitos necessários para obtenção do título de Doutor em Ciências. Orientador: Prof. D.Sc. ANDRÉ LAURINDO MAITELLI

2

Page 3: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

SUMÁRIO

LISTA DE SÍMBOLOS E ABREVIATURAS ............................................................ V

LISTA DE FIGURAS .................................................................................................. VIII

LISTA DE TABELAS .................................................................................................. X

RESUMO ...................................................................................................................... XI

ABSTRACT .................................................................................................................. XII

AGRADECIMENTOS ................................................................................................. XIII

DEDICATÓRIA ........................................................................................................... XIV

Capítulo I - INTRODUÇÃO ......................................................................................... 1

Capítulo II - FUNDAMENTOS DE ESTABILIDADE E ROBUSTEZ ..................... 6

II.1 - Introdução ................................................................................................. 7

II.2 - Estabilidade ............................................................................................... 7

II.2.1 – Critério de Estabilidade Entrada - Saída ...................................... 8

II.2.2 – Método Direto de Lyapunov ....................................................... 10

II.3 - Robustez ....................................................................................................... 18

II.4 - Conclusões ................................................................................................... 20

Capítulo III - REDES NEURAIS ARTIFICIAIS....................................................... 22

3

Page 4: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

III.1 - Introdução .............................................................................................. 23

III.2 - Redes Neurais Multicamadas - RNM’s .................................................... 25

III.2.1 - Metodologia da Propagação Retroativa do Erro - PRE .............. 27

III.2.2 - Funções de Ativação dos Neurônios ........................................... 31

III.2.2.1 - Função Linear .............................................................. 32

III.2.2.2 - Função Sigmóide Unipolar ........................................... 33

III.2.2.3 - Função Sigmóide Bipolar ............................................. 34

III.2.3 - Algoritmo do Método de Propagação Retroativa do Erro .............. 35

III.2.3.1 - Algoritmo PRE (Versão Básica) ...................................... 35

III.2.3.2 - Técnicas para Melhoria de Desempenho do

Algoritmo PRE ............................................................... 40

III.2.3.2.1 - Randomização dos Padrões de Aprendizagem ... 41

III.2.3.2.3 - Ajuste da Declividade Funcional ....................... 43

III.2.3.2.4 - η-adaptativo (ou η-variável) ............................. 44

III.2.3.2.5 - Momento Normalizado ..................................... 45

III.3 - Conclusões .................................................................................................. 47

Capítulo IV - MODELAGEM DE SISTEMAS NÃO-LINEARES

USANDO REDES NEURAIS ARTIFICIAIS .......................................... 49

IV.1 - Introdução ................................................................................................... 50

IV.2 - Identificação de Sistemas usando RNA`s ..................................................... 52

IV.2.1 - Rede Neural com Resposta ao Impulso Finita

(“Neural Network with Finite Impulse Response” - NNFIR) ......... 54

IV.2.2 - Rede Neural Autoregressiva com Entradas Exógenas

(“Neural Network Autoregressive with Exogeneous 4

Page 5: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Inputs” - NNARX) .................................................................... 55

IV.2.3 - Rede Neural Autoregressiva com Média Móvel

e Entradas Exógenas

(“Neural Network Autoregressive with Moving Average

and Exogeneous Inputs” - NNARMAX) .................................... 57

IV.2.4 - Rede Neural com Erro na Saída

(“Neural Network with Output Error” - NNOE) ........................... 59

IV.3 - Conclusões .................................................................................................. 61

Capítulo V - ESQUEMAS DE CONTROLE USANDO

REDES NEURAIS ARTIFICIAIS ............................................................ 62

V.1 - Introdução .................................................................................................... 63

V.2 - Formulação do Problema .............................................................................. 64

V.3 - Os Esquemas de Controle Indireto Propostos ............................................... 65

V.3.1 - Controle Híbrido Indireto ............................................................... 66

V.3.2 - Controle Neural Indireto ................................................................ 71

V.4 - Conclusões ................................................................................................... 72

Capítulo VI - ANÁLISE DE ESTABILIDADE E ROBUSTEZ .................................... 74

VI.1 - Introdução ................................................................................................... 75

VI.2 - Análise de Estabilidade ................................................................................ 76

VI.2.1 - Estabilidade versus Implementação Computacional :

Como Garantir Estabilidade usando η-adaptativo .......................... 91

VI.3 - Análise de Robustez .................................................................................... 92

VI.3.1 - Controle Híbrido Indireto .............................................................. 96

5

Page 6: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

VI.3.2 - Controle Neural Indireto ............................................................... 100

VI.4 - Conclusões .................................................................................................. 105

Capítulo VII - EXEMPLOS ........................................................................................... 107

VII.1 - Introdução ................................................................................................. 108

VII.2 - Exemplo 1 : Controle de Nível de um Reservatório .................................... 109

VII.2.1 - Sistema de Controle Híbrido Indireto ........................................... 110

VII.2.2 - Sistema de Controle Neural Indireto ............................................ 112

VII.3 - Exemplo 2 : Controle de uma Planta Não-Linear Polinomial ....................... 115

VII.3.1 - Sistema de Controle Híbrido Indireto ........................................... 115

VII.3.2 - Sistema de Controle Neural Indireto ............................................ 117

VII.4 - Exemplo 3 : Controle de uma Planta Não-Linear Periódica ......................... 121

VII.4.1 - Sistema de Controle Híbrido Indireto ........................................... 121

VII.4.2 - Sistema de Controle Neural Indireto ............................................ 125

VII.5 - Conclusões ................................................................................................. 130

Capítulo VIII - CONCLUSÕES ..................................................................................... 132

REFERÊNCIAS BIBLIOGRÁFICAS ........................................................................... 137

APÊNDICE A - Metodologia da Propagação Retroativa do Erro

(“Error Backpropagation”) ..................................................................... 141

6

Page 7: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

LISTA DE SÍMBOLOS E ABREVIATURAS

* Valor ótimo ou fixo

^ Valor estimado

. Conjunto

ARMAX Autoregressivo com Média Móvel e Entradas Exógenas

ARX Autoregressivo com Entradas Exógenas

BIBO Entrada Limitada Saída Limitada

FIR Resposta ao Impulso Finita

c Ciclo de atualização dos pesos sinápticos

cn Controlador neural

d Atraso de transporte da planta

E Função erro global ou função custo

e Erro local de treinamento de uma RNM

f , FAN Função de ativação de um neurônio

h Camada escondida

in Identificador neural

J Jacobiano da planta

k Tempo discreto ou ordem do neurônio na camada de saída de uma RNM

p Número de nós na camada escondida de uma RNM

M Horizonte de controle

MIMO Entradas Múltiplas, Saídas Múltiplas

n Ordem da planta

7

Page 8: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

NC Número de camadas de uma RNM

NET Sinal de ativação de um neurônio

NN Número de camadas de uma RNM

NNARMAX Rede Neural Autoregressiva com Média Móvel e Entradas Exógenas

NNARX Rede Neural Autoregressiva com Entradas Exógenas

NNFIR Rede Neural com Resposta ao Impulso Finita

NNOE Rede Neural com Erro na Saída

NPTR Número de padrões (ou pontos) de treinamento

o Camada de saída ou saída desejada

OE Erro na Saída

PRE Método da Propagação Retroativa do Erro (“Backpropagation”)

R Conjunto dos números reais

RNA Rede Neural Artificial

RNM Rede Neural Multicamadas (perceptron multicamadas)

SISO Entrada Única, Saída Única

sup Supremum

T Limiar de operação (“threshold”) ou transposta de vetor (ou de matriz)

tr Traço de uma matriz quadrada

Ts Período de amostragem da planta

Tt Tempo total de treinamento das redes neurais existentes na malha de controle

u(k) Sinal de controle ou entrada da planta no instante k

*, xx Ponto de equilíbrio

Xi Vetor de entrada do i-ésimo padrão de aprendizagem

y(k) Saída da planta no instante k

y_Ref(k) Saída de referência no instante k

8

Page 9: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

z Saída corrente de uma RNM

z-1 Operador de atraso unitário no tempo discreto

W Matriz de pesos sinápticos

α Constante de momento

β Declividade ou coeficiente angular

ε Tolerância para convergência da rede neural

η Constante de aprendizagem

δ Vetor de erro da Regra Delta

θ Parâmetro de um sistema

ϕ Vetor regressor

ω Supremum de um conjunto

ωc Erro de controle

ωp Erro de controle de estado permanente (“steady-state”)

Ωc Conjunto de erros de controle

Ωp Conjunto de erros de controle de estado permanente (“steady-state”)

9

Page 10: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

LISTA DE FIGURAS

II.1 - Sistema estável ....................................................................................................... 14

II.2 - Sistema assintoticamente estável ............................................................................. 14

II.3 - Estabilidade de um sistema dinâmico (Plano de Fase) .............................................. 16

III.1 - Representação de um neurônio j ............................................................................. 23

III.2 - Representação modificada de um neurônio j ........................................................... 24

III.3 - Rede Neural Multicamadas - RNM’s ....................................................................... 26

III.4 - Neurônio = Somatório + Funcional ......................................................................... 31

III.5 - Função Linear, com β = 0.5, 1.0 e 2.0 .................................................................. 32

III.6 - Função Sigmóide Unipolar, com β = 0.5, 1.0 e 2.0 ............................................... 33

III.7 - Função Sigmóide Bipolar, com β = 0.5, 1.0 e 2.0 ................................................. 34

III.8 - Papel do coeficiente α no processo de convergência .............................................. 46

IV.1 - Modelo de estrutura NNFIR .................................................................................... 55

IV.2 - Modelo de estrutura NNARX .................................................................................. 56

IV.3 - Modelo de estrutura NNARMAX ............................................................................. 59

IV.4 - Modelo de estrutura NNOE .................................................................................... 60

V.1 - Esquema de Controle Híbrido Indireto ..................................................................... 66

V.2 - Esquema de Controle Neural Indireto ....................................................................... 71

VII.1 - Reservatório .......................................................................................................... 109

VII.2 - Controle de Nível - y , u e ωc (Controle Híbrido Indireto) .................................... 111

10

Page 11: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

VII.3(a) - Controle de Nível - y (Controle Neural Indireto) ............................................... 113

VII.3(b) - Controle de Nível - u e ωc (Controle Neural Indireto) ...................................... 114

VII.4 - Planta da expressão (VII.2) - y , u e ωc (Controle Híbrido Indireto) ..................... 116

VII.5(a) - Planta da expressão (VII.2) - y (Controle Neural Indireto) ................................. 118

VII.5(b) - Planta da expressão (VII.2) - u e ωc (Controle Neural Indireto) ....................... 119

VII.6 - Planta da expressão (VII.2) c/ perturbação (Controle Neural Indireto) ................... 120

VII.7 - Planta da expressão (VII.3) - y , u e ωc (Controle Híbrido Indireto) ..................... 122

VII.8 - Planta da expressão (VII.3) c/ variação de +25% em seus parâmetros

u e y (Controle Híbrido Indireto) ......................................................................... 123

VII.9 - Planta da expressão (VII.3) c/ variação de +25% em seus parâmetros

Erro de Controle ωc (Controle Híbrido Indireto) ................................................... 124

VII.10(a) - Planta da expressão (VII.3) - y (Controle Neural Indireto) ............................... 126

VII.10(b) - Planta da expressão (VII.3) - u e ωc (Controle Neural Indireto) ..................... 127

VII.11 - Planta da expressão (VII.3) c/ variação de +25% em seus parâmetros

u e y (Controle Neural Indireto) ........................................................................ 128

VII.12 - Planta da expressão (VII.3) c/ variação de +25% em seus parâmetros

Erro de Controle ωc (Controle Neural Indireto) .................................................. 129

11

Page 12: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

LISTA DE TABELAS

VII.1 - Erros de Controle de Nível (Controle Híbrido Indireto) ......................................... 112

VII.2 - Erros de Controle de Nível (Controle Neural Indireto) ........................................... 114

VII.3 - Erro de Controle da Expressão (VII.2) (Controle Híbrido Indireto) ....................... 117

VII.4 - Erro de Controle da Expressão (VII.2) (Controle Neural Indireto) ......................... 119

VII.5 - Erros de Controle da Expressão (VII.2) c/ perturbação (Controle Neural Indireto). 120

VII.6 - Erro de Controle da Expressão (VII.3) (Controle Híbrido Indireto) ....................... 123

VII.7 - Erros de Controle da Expressão (VII.3) c/ variação nos parâmetros da planta

(Controle Híbrido Indireto) ................................................................................... 125

VII.8 - Erro de Controle da Expressão (VII.3) (Controle Neural Indireto) ......................... 127

VII.9 - Erros de Controle da Expressão (VII.3) c/ variação nos parâmetros da planta

(Controle Neural Indireto) ..................................................................................... 129

12

Page 13: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

RESUMO

Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com

treinamento em tempo real (“on-line”), no desenvolvimento de duas estratégias de controle

indireto. Os esquemas propostos denominam-se Controle Híbrido Indireto e Controle Neural

Indireto. Todo o treinamento dos neurodispositivos - o identificador da planta e o

controlador, quando presentes na malha de controle indireto, é realizado com um mínimo de

atraso computacional, de modo a contemplar o controle de plantas com pequenos períodos de

amostragem.

São apresentados Teoremas de Estabilidade para garantia da convergência dos

dispositivos neurais, assim como foram feitas considerações para adequar o método de

aceleração da convergência η-adaptativo utilizado às condições de estabilidade.

Para cada esquema de controle indireto foi desenvolvido um teorema que permite

calcular o máximo erro permanente (“steady-state error”) que poderá ocorrer em função da

tolerância previamente especificada para convergência dos dispositivos neurais usados na

malha de controle, desde que a estabilidade seja garantida. Estes teoremas foram

denominados de Teoremas da Robustez e constituem a principal contribuição deste trabalho.

As condições de estabilidade e robustez foram testadas para as estratégias de Controle

Híbrido Indireto e de Controle Neural Indireto, sendo apresentados os resultados obtidos na

simulação computacional do controle de regulação de plantas não-lineares, BIBO (“Bounded

Input, Bounded Output”) estáveis.

13

Page 14: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

ABSTRACT

This work develops a robustness analysis with respect to the modeling errors, being

applied to the strategies of indirect control using Artificial Neural Networks - ANN’s, belong

to the multilayer feedforward perceptron class with on-line training based on gradient method

(backpropagation). The presented schemes are called Indirect Hybrid Control and Indirect

Neural Control.

They are presented two Robustness Theorems, being one for each proposed indirect

control scheme, which allow the computation of the maximum steady-state control error that

will occur due to the modeling error what is caused by the neural identifier, either for the

closed loop configuration having a conventional controller - Indirect Hybrid Control, or for

the closed loop configuration having a neural controller - Indirect Neural Control.

Considering that the robustness analysis is restrict only to the steady-state plant

behavior, this work also includes a stability analysis transcription that is suitable for

multilayer percetron class of ANN’s trained with backpropagation algorithm, to assure the

convergence and stability of the used neural systems. By other side, the boundness of the

initial transient behavior is assured by the assumption that the plant is BIBO (Bounded Input,

Bounded Output) stable.

The Robustness Theorems were tested on the proposed indirect control strategies,

while applied to regulation control of simulated examples using nonlinear plants, and its

results are presented.

14

Page 15: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

AGRADECIMENTOS

Ao meu orientador Prof. D.Sc. André Laurindo Maitelli, pela competência, estimulo e

compreensão com que me conduziu na elaboração deste trabalho;

Ao Coordenador do Programa de Pós-Graduação em Engenharia Elétrica - PPgEE, da

Universidade Federal do Rio Grande do Norte - UFRN, pelo apoio recebido enquanto aluno

desta instituição de pós-graduação;

Aos Professores do Programa de Pós-Graduação em Engenharia Elétrica - PPgEE, da

Universidade Federal do Rio Grande do Norte - UFRN, pela maneira competente e dedicada

com que transmitiram seus conhecimentos ao longo do meu aprendizado nesta instituição de

pós-graduação;

Aos colegas da Universidade Potiguar - UnP, pelo apoio e companheirismo;

Aos colegas da pós-graduação, pela amizade, incentivo e companheirismo;

À Deus pela dádiva da crença na busca incessante do saber como fonte inspiradora de vida.

15

Page 16: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

CAPÍTULO I

INTRODUÇÃO

16

Page 17: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Controlar um sistema é fazer com que ele se comporte de uma maneira desejada

[Nφrgaard et al., 2001]. Este tem sido o desafio de séculos para a humanidade - controlar os

sistemas físicos da natureza de modo a garantir ao ser humano as condições satisfatórias de

segurança e conforto. A completa Teoria de Sistema Linear tem possibilitado a abordagem do

problema de controle através de modelos linearizados dos sistemas do mundo real, embora

esses sistemas sejam, em menor ou maior grau, possuidores de comportamentos não-lineares.

Na medida em que os requisitos de desempenho para os sistemas físicos tornam-se

cada vez mais exigentes, a utilização de modelos linearizados tem trazido grande limitação

operacional e, em algumas situações, pode até mesmo inviabilizar o projeto de sistemas de

controle eficientes. Para superar os problemas advindos da utilização da técnica de

linearização de sistemas físicos, alguns métodos de análise de estabilidade para sistemas não-

lineares foram desenvolvidos, tais como: Método do Plano de Fase, Método das Funções

Descritivas ou da Primeira Harmônica, Método de Popov ou da Estabilidade Absoluta e o

Método Indireto de Lyapunov. A principal desvantagem de se utilizar tais ferramentas é o seu

domínio limitado de aplicabilidade, restringindo-se apenas a algumas classes de problemas de

controle.

O sucesso dos sistemas de controle depende necessariamente da solução do problema

de estabilidade. Isto significa que o projeto de sistemas de controle deve passar antes pela

análise criteriosa da estabilidade, a fim de se estabelecer os limites para sua utilização. A

operação dentro dos limites de estabilidade é que garantirá a integridade funcional dos

sistemas físicos ou plantas, possibilitando o atendimento continuado dos requisitos de

desempenho do processo pré-especificados pelo projetista.

Outro problema importante para o projeto de sistemas de controle diz respeito ao grau

de robustez resultante da utilização de sistemas de malha fechada [Spooner et al., 2002];

6

Page 18: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

atender critérios de robustez tem sido crítico, principalmente em aplicações nas quais

variações no processo podem acarretar perdas inaceitáveis. Neste caso, a maneira apropriada

para resolver este problema tem sido propor técnicas de controle robusto não-linear que

possuam a propriedade de compensar as incertezas do sistema.

Estes são os problemas que se pretende resolver - realizar o controle de regulação de

sistemas físicos não-lineares, dentro de limites operacionais que atendam aos requisitos de

estabilidade e com um grau de robustez satisfatório. Para atingir estes objetivos serão usadas

as Redes Neurais Artificiais - RNA`s.

A proposta deste trabalho é utilizar as estruturas das RNA’s, mais especificamente das

Redes Neurais Multicamadas - RNM’s, na elaboração de estratégias de controle inteligente

que possam ser aplicadas em tempo real (“on-line”) e que apresentem um mínimo atraso

computacional. Para o treinamento das redes neurais é usado o método da Descida do

Gradiente, conhecido também por Propagação Retroativa do Erro - PRE (“Error Back

Propagation”).

As redes neurais necessitam de treinamento para desempenhar bem o seu papel, tarefa

que é computacionalmente intensiva. Minimizar o tempo computacional, de modo a viabilizar

o emprego das redes neurais no controle de plantas em tempo real, constitui-se num desafio

para os pesquisadores que vêm se dedicando ao Controle Neural. A partir de 1989, diversas

publicações têm sido feitas, dentre as quais destacamos [Werbos, 1989], [Narendra e

Parthasarathy, 1990], [Tanomaru e Omatu, 1992], [Maitelli e Gabriel, 1996], [Maitelli e

Gabriel, 1997], [Ng, 1997], [Adetona et al., 2001], [Nφrgaard et al., 2001] e [Spooner et al.,

2002], com o objetivo de propor novas técnicas de controle neural e também de prover o

rigoroso tratamento matemático às questões relacionadas com a estabilidade e a robustez de

sistemas de controle neurais.

7

Page 19: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A estrutura desta tese está organizada como segue: o Capítulo II apresenta alguns

fundamentos sobre estabilidade e robustez de sistemas não-lineares, que constituem o

principal objetivo do desenvolvimento desta tese.

O Capítulo III trata das Redes Neurais Artificiais - RNA’s, com ênfase nas Redes

Neurais Multicamadas - RNM’s e o método da Propagação Retroativa do Erro - PRE. Este

método é desenvolvido matematicamente e implementado em linguagem algorítmica; da

mesma forma, são apresentadas algumas técnicas que foram usadas neste trabalho para

aceleração de convergência, que são: Randomização dos Padrões de Aprendizagem, η-

adaptativo e Momento Normalizado.

O Capítulo IV aborda a Modelagem de Sistemas Não-Lineares usando Redes Neurais

Artificiais, com o intuito de formar a base teórica necessária à compreensão da estratégia de

identificação da planta a ser controlada, com a finalidade de extrair os parâmetros a serem

utilizados no projeto do controlador.

O Capítulo V apresenta dois Esquemas de Controle usando Redes Neurais Artificiais

com treinamento em tempo real e mínimo atraso computacional - o Controlador Híbrido

Indireto e o Controlador Neural Indireto. É apresentado o algoritmo para a implementação

computacional de cada um deles usando a técnica de projeto indireto para o controlador, de

forma similar ao que foi proposto respectivamente em [Adetona et al., 2001] e em [Tanomaru

e Omatu, 1992], porém com algumas diferenças significativas, as quais serão destacadas

oportunamente nesse capítulo.

O Capítulo VI apresenta uma Análise de Estabilidade e Robustez dos esquemas de

controle propostos no capítulo anterior, através do enunciado e demonstração de novos

teoremas de robustez, os quais constituem a principal contribuição deste trabalho para a área

de controle usando redes neurais, uma abordagem do Controle Inteligente que nos últimos

anos vem desenvolvendo um grande esforço de pesquisa, com o objetivo de formular uma

8

Page 20: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

sustentação científica para novas técnicas capazes de solucionar eficientemente problemas de

controle de sistemas não-lineares.

O Capítulo VII apresenta os resultados obtidos através de simulações computacionais

com Exemplos de plantas não-lineares retiradas da literatura [Slotine e Li, 1991], [Ng, 1997] e

[Adetona et al., 2001].

Finalmente, o Capítulo VIII apresenta as Conclusões ressaltando as contribuições

desta tese e procurando estimular um maior aprofundamento neste ramo da ciência e

tecnologia, que certamente tem muita contribuição a dar para a melhoria da qualidade na

produção de bens e serviços, satisfazendo aos requisitos de desempenho exigidos pela

sociedade atual.

9

Page 21: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

CAPÍTULO II

FUNDAMENTOS DE ESTABILIDADE

E ROBUSTEZ

10

Page 22: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

II.1 - INTRODUÇÃO

Os sistemas de controle podem ser analisados e implementados de várias formas

dicotômicas, dentre elas destacamos: teoria linear ou não-linear, analógico ou discreto,

baseado no modelo entrada-saída (externo) ou no modelo no espaço de estados (interno).

Entretanto, todas estas abordagens têm em comum o objetivo de manipular o sistema físico de

interesse (ou planta), de tal modo que o mesmo opere o mais próximo possível de um

comportamento desejável, previamente estabelecido pelo projetista para atender os requisitos

de desempenho do processo. Este trabalho considerará somente os sistemas discretos não-

lineares e usará, quando necessário, conceitos de estabilidade aplicáveis aos modelos de

entrada-saída e de espaço de estados.

As características mais importantes de um sistema de controle são a estabilidade e a

robustez. Estabilidade significa manter uma planta sob controle, a despeito da ocorrência de

perturbações, enquanto que robustez significa manter o sistema de controle estável e com um

bom desempenho, apesar de somente possuir um modelo aproximado da planta ou existir

variações nos parâmetros físicos da planta [Spooner et al., 2002].

II.2 - ESTABILIDADE

Freqüentemente são empregados dois critérios para caracterizar diretamente o

comportamento de sistemas dinâmicos não-lineares quanto à estabilidade, que são: critério de

estabilidade entrada-saída (modelo externo) e o Método Direto de Lyapunov (modelo

interno), este último também denominado de 2o Método de Lyapunov.

II.2.1 - CRITÉRIO DE ESTABILIDADE ENTRADA - SAÍDA

22

Page 23: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Este critério para avaliar a estabilidade de um sistema físico leva em consideração

apenas o comportamento dos sinais de entrada e saída do sistema, apresentando, portanto, a

desvantagem de não considerar a dinâmica interna do sistema. Neste caso, para analisar se o

sistema é estável ou não, é aplicado o critério de estabilidade BIBO (“Bounded Input,

Bounded Output” = “Entrada Limitada, Saída Limitada”), conforme será definido a seguir.

Entretanto, antes de definir estabilidade BIBO, serão apresentados também os conceitos

relacionados às normas de vetor e de matriz usadas neste trabalho.

Definição II.1: “Seja uma matriz quadrada . O operador traço é definido por nxnA R∈

( ) ∑=

=n

iiiaAtr

1, (II.1)

em que ai,i é um elemento da matriz A.”

Definição II.2: Norma de um vetor x ∈ é um escalar não negativo usado para medir seu

comprimento, tamanho ou distância, dependendo do contexto de sua aplicação.

nR

• Norma Euclidiana: ∑=

==n

ii

T xxxx1

22

(II.2)

• Norma infinito: iixmaxx =

∞ (II.3)

sendo xi o i-ésimo componente do vetor.

23

Page 24: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A norma de Frobenius e a norma induzida infinito de uma matriz W ∈ formada por

elementos w

mnxR

i,j , são dadas por

• Norma de Frobenius: 21

1 1

2,

= ∑∑

= =

n

i

m

jjiF

wW (II.4)

[ ] 21T )(WWtrWF= (II.5)

• Norma infinito:

= ∑

=∞

m

jjii

wmaxW1

, (II.6)

Definição II.3 (Estabilidade BIBO = Bounded Input, Bounded Output Stability): “Um sistema

não-linear discreto representado por

10 )()),(),(()()),(),(()1(

Mkxkkukxhkykkukxfkx

<

==+

(II.7)

é dito ser BIBO estável se 32 MyMu <⇒<∞∞

, sendo , i = 1, 2 e 3.” Esta

definição foi adaptada de [Faleiros e Yoneyama, 2002], para sistemas discretos.

∞<iM

Definição II.4:“Seja Y um conjunto não vazio limitado superiormente e seja S o conjunto

de todos os limites superiores de Y, ou seja, se y∈Y e ymin<y<ymax então

S=s∈Rymax≤s<∞. O mínimo de S é o menor limite superior de Y, que é denominado de

supremum de Y, cujo símbolo é sup Y. Claro, se Y possuir um máximo, então max Y = sup

Y. Caso o conjunto Y não seja limitado superiormente, pode-se representar este fato 24

Page 25: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

escrevendo sup Y = ∞ e, se Y for um conjunto vazio, sup Y = -∞. Com estas convenções,

conclui-se que o supremum existe para qualquer subconjunto de números reais [Naylor e Sell,

1982].”

II.2.2 - MÉTODO DIRETO DE LYAPUNOV

Contribuições importantes para a Teoria de Estabilidade foram feitas pelo matemático

e engenheiro russo Aleksandr Mikhailovich Lyapunov (1857-1918), sendo de sua autoria o

Método Indireto (ou 1o Método de Lyapunov), que fornece as condições para a estabilidade

local de um sistema dinâmico não-linear em torno de um ponto de operação, a partir das

propriedades de estabilidade de sua respectiva aproximação linear (este método consiste na

justificativa teórica da Teoria Linear), e o Método Direto (ou 2o Método de Lyapunov), o qual

utiliza o conceito de energia para a verificação de estabilidade global de um sistema não-

linear.

Neste trabalho, vamos tratar do Método Direto aplicado aos sistemas discretos no

tempo. Porém, antes de apresentarmos os teoremas de estabilidade baseados no Método

Direto de Lyapunov, é necessário formalizar alguns conceitos matemáticos fundamentais.

Definição II.5: “Um ponto x(k) = x , ∀ , sendo o instante no qual o sistema atinge ekk ≥ ek

x , no espaço de estado é um ponto de equilíbrio de um sistema não forçado, i.e.

u(k) = 0, representado por x(k+1) = f(x(k)), se ele possuir a propriedade de permanecer em x

sempre que o estado do sistema atingir x .” Esta definição foi adaptada de [Khalil, 1996],

para sistemas discretos.

25

Page 26: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Teorema II.6: “Um ponto x é um ponto de equilíbrio do sistema não-linear discreto dado

por x(k+1) = f(x(k)), se o seu comportamento for caracterizado por f( x ) = x .”

Prova:

Seja um sistema não-linear discreto representado por

x(k+1) = f(x(k)) (II.8)

Fazendo ∆x(k+1) = x(k+1) – x(k), tem-se que a condição para que x(k) seja um ponto de

equilíbrio é que ∆x(k+1) = 0, ou seja x(k+1) – x(k) = 0. Usando a expressão (II.8) e

denominando o ponto de equilíbrio de x , finalmente obtém-se a expressão que caracteriza o

comportamento de um ponto de equilíbrio de um sistema discreto, qual seja

f(x(k)) – x(k) = 0

f( x ) – x = 0 ⇒ f( x ) = x

em que x(k) = x , , sendo o instante no qual o sistema atinge o ponto de

equilíbrio; caso o ponto de equilíbrio seja a origem,

ekk ≥∀ ek

x = 0, tem-se que f(0) = 0.

Definição II.7: “Um ponto de equilíbrio x é um ponto de equilíbrio isolado se existe um

ε>0, tal que uma circunferência Bε com centro em x , i.e.

ε<−∈=ε xxxB :nR ,

26

Page 27: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

não contém outro ponto de equilíbrio além de x .”

Para analisar o comportamento de um sistema quanto a sua estabilidade em uma

vizinhança do ponto de equilíbrio x , ou seja f( x ) = x , será feita uma translação dos eixos

coordenados, de tal forma que a posição do ponto de equilíbrio passe a ser a origem de um

novo sistema, i.e., o ponto de equilíbrio passa a ser x* = 0. Para se obter este deslocamento,

faz-se:

)1()1()1(* +−+=+ kxkxkx

)1()1()1(* +∆−+∆=+∆ kxkxkx (II.9)

considerando que x é um ponto fixo por ser um ponto de equilíbrio do sistema no

referencial antigo, tem-se 0)1( =+kx∆ . Substituindo este resultado em (II.9) e manipulando

matematicamente, virá:

)1()1()1()1(* +∆=+∆−+∆=+∆ kxkxkxkx

Como , obtém-se )1()1(* +∆=+∆ kxkx

)]()(*[))()(*()())(()()1()(*)1(*kxkxkxkxf

kxkxfkxkxkxkx+−+=

−=−+=−+

Fazendo x*(k) = 0 (por ser a origem a nova posição do ponto de equilíbrio), tem-se

27

Page 28: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

)](0[))(0()1(* kxkxfkx +−+=+

)())(( kxkxf −=

)()1( kxkx −+=

)1( +∆= kx

0=

ficando, portanto, demonstrado que a translação de eixos faz com que x* = 0 passe a ser a

posição do ponto de equilíbrio isolado, desta vez localizado na origem dos eixos da nova

representação gráfica. Assim, em sistemas discretos, a expressão f(0) = 0 significa ponto de

equilíbrio na origem.

Desta forma, e sem perda de generalidade, doravante a origem será considerada um

ponto de equilíbrio isolado do sistema não-linear. Este procedimento, além de simplificar a

manipulação matemática, também permite a aplicação direta do conceito de norma para

avaliação e comparação de grandezas vetoriais.

Definição II.8: “A origem de é estável se ∀ε>0 existir um δ(ε)>0, tal

que se ||x(0)||<δ(ε) então ||x(k)||<ε, ∀k ≥ 0; caso contrário a origem é instável.”

))(()1( kxfkx =+

Figura II.1: Sistema estável

28

Page 29: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Definição II.9: “A origem de é assintoticamente estável se a origem é

estável e

))(()1( kxfkx =+

0)(lim →∞→

kxk

, ou seja, x(k) → 0 quando k → ∞ (atratividade).”

Figura II.2: Sistema assintoticamente estável

Definição II.10: “A origem de é exponencialmente estável se a origem é

assintoticamente estável e existirem constantes γ,λ>0, tal que ||x(k||<γe

))(()1( kxfkx =+

-λk, ∀k≥0.”

O Método Direto de Lyapunov fornece os procedimentos necessários para testar a

estabilidade, sem requerer a solução de equações diferenciais ou de diferenças. Isto é muito

vantajoso, pois a resolução de equações diferenciais ou de diferenças para sistemas não-

lineares e/ou variantes no tempo, em alguns casos, torna-se bastante difícil ou até mesmo

impossível.

Inspirado na Mecânica Clássica, o Método Direto baseia-se no comportamento da

energia total (V) do sistema, denominada de função de Lyapunov.

Definição II.11 (Função de Lyapunov): “V(x(k)) é uma função de Lyapunov para o sistema

autônomo, discreto e não forçado

29

Page 30: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

x(k+1) = f(x(k)), f(0) = 0

y(k) = h(x(k)) (II.10)

em que x(k) é o estado e y(k) é a saída do sistema no tempo discreto k, se

1) V(x) é contínua em x, sendo V(0) = 0, e

2) V(x) > 0, para x ≠ 0.”

A curva na qual a função de Lyapunov V(x(k)) mantém-se com um valor constante

denomina-se curva de nível (energia total constante), conforme mostrado na Figura II.3

(Plano de Fase), onde também são representadas as possibilidades do comportamento de um

sistema de 2a ordem quanto à estabilidade.

Fig. II.3: Estabilidade de um sistema dinâmico (Plano de Fase)

A seguir serão estabelecidas as condições que uma função matemática deve satisfazer

para ser classificada com respeito a sua positividade ou negatividade.

Definição II.12 (Função definida positiva): “Uma função V(x) é definida positiva em uma 30

Page 31: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

vizinhança de x = 0, se V(x) > 0, ∀x tal que ||x|| < ε, ε >0 e V(0) = 0. Se as propriedades

são válidas ∀x ∈ Rn, então a função V(x) é definida positiva global.”

Definição II.13 (Função semi-definida positiva): “Uma função V(x) é semi-definida positiva

em uma vizinhança de x = 0, se V(x) ≥ 0, ∀x tal que ||x|| < ε, ε >0 e V(0) = 0. Se as

propriedades são válidas ∀x ∈ Rn, então a função V(x) é semi-definida positiva global.”

Definição II.14 (Função definida negativa): “Uma função V(x) é definida negativa em uma

vizinhança de x = 0, se V(x) < 0, ∀x tal que ||x|| < ε, ε >0 e V(0) = 0. Se as propriedades

são válidas ∀x ∈ Rn, então a função V(x) é definida negativa global.”

Definição II.15 (Função semi-definida negativa): “Uma função V(x) é semi-definida

negativa em uma vizinhança de x = 0, se V(x) ≤ 0, ∀x tal que ||x|| < ε, ε >0 e V(0) = 0. Se

as propriedades são válidas ∀x ∈ Rn, então a função V(x) é semi-definida negativa global.”

Teorema II.16: “Se para o sistema discreto x(k+1) = f(x(k)), f(0) = 0, existe uma função

V(x(k)) tal que

1) V(x) é contínua em x, sendo V(0) = 0,

2) V(x) > 0 (definida positiva),

3) (semi-definida negativa), 0))1(())(())(( ≤−−=∆ kxVkxVkxV

então a origem é um ponto de equilíbrio estável.”

Prova: [Khalil, 1996].

Teorema II.17: “Se para o sistema discreto x(k+1) = f(x(k)), f(0) = 0, existe uma função

31

Page 32: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

V(x(k)) tal que

1) V(x) é contínua em x, sendo V(0) = 0,

2) V(x) > 0 (definida positiva),

3) (definida negativa), 0))1(())(())(( <−−=∆ kxVkxVkxV

então a origem é um ponto de equilíbrio assintoticamente estável.”

Prova: [Khalil, 1996].

Teorema II.18: “Se para o sistema discreto x(k+1) = f(x(k)), f(0) = 0, existe uma função

V(x(k)) tal que

1) V(x) é contínua em x, sendo V(0) = 0,

2) V(x) > 0 (definida positiva),

3) (definida negativa) e 0))1(())(())(( <−−=∆ kxVkxVkxV

4) V(x) → ∞ quando ||x|| → ∞,

então a origem é um ponto de equilíbrio globalmente assintoticamente estável”.

Prova: [Khalil, 1996].

II.3 - ROBUSTEZ

O conceito de robustez está relacionado com a capacidade de um sistema permanecer

estável, apesar da existência de erros em seu modelo e/ou de variações nos parâmetros físicos

da planta. Na área do Controle Adaptativo, para reduzir os efeitos das variações dos

parâmetros da planta, a robustez é conseguida através do ajuste (ou adaptação) do controlador

32

Page 33: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

em tempo real (“on-line”) [Spooner et al., 2002].

Neste trabalho, supõe-se que o modelo matemático da planta é inicialmente

desconhecido e, para que seja viável o projeto do controlador, utiliza-se um identificador

baseado em redes neurais para ajustar indiretamente os parâmetros do controlador, que, por

sua vez, poderá ser um controlador convencional ou um controlador neural.

Definição II.19 (Erro de Controle): “Define-se erro de controle, ωc, como sendo o valor

absoluto da diferença entre a saída de referência (“set-point”) e a saída da planta, ou seja

)()(fRe_)(ω kykykc −=

sendo ωc(k)∈R+ , em que k é o tempo discreto. Adicionalmente, define-se Ωc como sendo

o conjunto dos erros de controle.”

Assim, para garantir que a estabilidade do sistema de controle de malha fechada não

será comprometida em decorrência dos erros de modelagem e/ou das variações nos

parâmetros físicos da planta, é suficiente demonstrar que o erro de controle de estado

permanente (“steady-state”), ωp, sendo ωp o valor absoluto da diferença entre a saída de

referência e a saída da planta no estado permanente, mantém-se limitado, ou seja, que

ω≤Ω psup , em que sup significa o valor supremum (o menor limite superior) de um

conjunto, Ωp⊂R+ é o conjunto de todos os erros de controle de estado permanente (Ωp⊂Ωc) e

ω é um valor máximo a ser definido, sendo que este último irá depender da tolerância

escolhida para o treinamento das redes neurais usadas nos esquemas de controle neural a

serem apresentados em um capítulo deste trabalho.

33

Page 34: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Definição II.20: “Robustez é a capacidade do sistema de controle neural manter o erro de

controle de estado permanente dentro de um intervalo I, i.e., ωp∈I, sendo +⊂ω= R],0[I ,

de modo a garantir que o sistema permaneça estável e com um bom desempenho, apesar da

existência de erros de modelagem e/ou pequenas variações nos parâmetros da planta.” Esta

definição foi adaptada de [Spooner et al., 2002].

Isto significa dizer que, através da escolha apropriada da tolerância ε para

convergência das redes neurais usadas para implementar o esquema de controle, é possível

confinar o erro de controle ωp dentro de um intervalo I, ωp∈I, com a possibilidade de fazer

ω tão pequeno quanto se deseja, de modo a atender os requisitos de desempenho do sistema

de controle de malha fechada.

Assim, o máximo erro de controle dependerá da tolerância adotada para convergência

da rede neural, i.e. ( )εω=ω , como será demonstrado posteriormente, para cada um dos

esquemas de controle tratados neste trabalho.

Evidentemente, a principal desvantagem quando se pretende obter um desempenho

melhor do sistema de controle usando redes neurais, é o conseqüente aumento no tempo total

(Tt) gasto no treinamento das mesmas, com o risco deste tempo exceder o período de

amostragem (Ts) da planta e assim comprometer a estabilidade da malha de controle, i.e., o

tempo total de treinamento deve estar sujeito a restrição Tt ≤ Ts.

II.4 - CONCLUSÕES

Este capítulo teve a finalidade de apresentar alguns conceitos básicos sobre

estabilidade e robustez aplicáveis a sistemas não-lineares discretos, visando fornecer a base

mínima de conhecimento necessária à compreensão dos teoremas e suas respectivas

34

Page 35: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

demonstrações matemáticas que foram desenvolvidos para garantir a estabilidade e permitir a

avaliação da robustez das técnicas de controle usando redes neurais artificiais a serem tratadas

nos próximos capítulos.

É interessante ressaltar que a literatura técnica disponível normalmente dá ênfase à

análise de sistemas contínuos no tempo, por exemplo, [Slotine e Li, 1991] e [Khalil, 1996],

enquanto que para sistemas discretos, ou fazem referência a estes como sendo uma extensão

natural do caso contínuo ou sequer a eles se referem. Neste aspecto, este capítulo, além de

contextualizar os conceitos sobre estabilidade, também procurou formalizar o conceito de

ponto de equilíbrio para sistemas discretos não-lineares.

Finalmente, foi caracterizado e definido matematicamente o conceito de robustez com

respeito aos erros de modelagem e/ou às variações nos parâmetros da planta, estabelecendo

claramente o seu significado.

Os conceitos tratados neste capítulo, juntamente com os conceitos sobre redes neurais

artificiais, modelagem de sistemas não-lineares e suas aplicações em controle inteligente a

serem apresentados nos próximos capítulos, constituir-se-ão nos fundamentos necessários à

posterior compreensão da análise de robustez de sistemas de controle usando redes neurais

objeto deste trabalho.

35

Page 36: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

CAPÍTULO III

REDES NEURAIS ARTIFICIAIS

36

Page 37: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

III.1 - INTRODUÇÃO

As Redes Neurais Artificiais - RNA’s têm o propósito de simular de maneira

simplificada alguns comportamentos do sistema nervoso humano através de programas de

computador (“software”) ou de circuitos elétricos (“hardware”), e investigar se assim é

possível imitar estes sistemas de inteligência com que é dotado o ser humano [Rumelhart et

al., 1986]. O grande avanço da tecnologia de microprocessadores verificado nas últimas

décadas, vem possibilitando o desenvolvimento de programas que procuram implementar as

RNA’s e assim tirar proveito dos modelos matemáticos propostos para reproduzir algumas

manifestações que são características da inteligência humana [Gabriel, 1996].

As RNA’s são compostas de vários elementos conectados entre si de alguma forma,

possibilitando a operação em paralelo. Estes elementos são baseados no sistema nervoso do

ser humano e são denominados de neurônios (unidades computacionais). De acordo com o

modelo proposto por McCulloch-Pitts, cada neurônio pode ser modelado por um somador

seguido de uma função de ativação, de tal modo que um neurônio j, quando excitado por uma

entrada X = [x1 x2 ... x i]T, para i = 1, 2,..., I, e sendo submetido ao limiar de operação T

(“threshold”), apresenta uma saída yj, conforme mostrado a seguir.

Figura III.1 : Representação de um Neurônio j.

Define-se o sinal de ativação NET de um neurônio j, como sendo

49

Page 38: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

(III.1) NET x w Tj i j ii

I

==∑ ,

1

em que xi é uma entrada do neurônio j, wj,i é o peso sináptico correspondente à conexão do

neurônio j com o seu antecessor i e T é o limiar de operação do neurônio. Note que i é o

índice do neurônio de origem e j é o índice do neurônio de destino, para i = 1, 2,..., I e j = 1,

2,..., J. Uma outra forma de representar matematicamente o sinal de ativação NETj é

incluindo o limiar de operação T como um elemento adicional na matriz dos pesos

sinápticos, alimentado com uma entrada fixa de valor -1, ou seja, fazendo

Figura III.2 : Representação modificada de um Neurônio j.

onde se observa que . Esta representação traz vantagens na implementação

computacional do neurônio artificial, cuja expressão matemática passa a ser

T w j I= +, 1

(III.2) NET x wj ii

I

==

+

∑ ,1

1

j i

50

A forma como os neurônios são conectados entre si define a arquitetura da rede neural,

entendendo-se por arquitetura a organização topológica e a maneira pela qual os neurônios

obtêm suas entradas. Outro aspecto importante para a definição das RNA’s é o processo de

Page 39: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

aprendizagem adotado para o seu treinamento. No campo de identificação e controle de

sistemas, tem-se utilizado com freqüência a arquitetura multicamadas (“multilayer neural

network”), conjugada com a metodologia de aprendizagem baseada na Propagação

Retroativa do Erro - PRE (“Error BackPropagation”) devido a sua simplicidade na

implementação. A principal desvantagem em usar a metodologia PRE é o tempo de

treinamento da rede neural, entretanto, com computadores cada dia mais velozes e com o

auxilio de algumas técnicas de melhoria de desempenho, esta desvantagem vem sendo

amenizada. Se mesmo assim ainda persistir a impossibilidade de usar o PRE, sugere-se usar

uma técnica de segunda ordem, por exemplo, o método do Gradiente Conjugado ou o método

de Levenberg-Marquardt [Ng, 1997].

Neste capítulo são descritos as Redes Neurais Multicamadas - RNM’s e a metodologia

de atualização dos pesos sinápticos baseada na Propagação Retroativa do Erro - PRE

(maiores detalhes podem ser vistos em [Gabriel, 1996]), por serem as principais ferramentas

que serão usadas para a implementação dos esquemas de controle para sistemas dinâmicos

não-lineares objeto deste trabalho.

III.2 - REDES NEURAIS MULTICAMADAS - RNM’s

Este trabalho usa a organização dos neurônios em várias camadas justapostas, sem

realimentação, conhecida como Redes Neurais Multicamadas - RNM's. Uma RNM típica com

uma camada de entrada, uma camada intermediária e uma camada de saída é mostrada

na

figura abaixo:

51

Page 40: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Figura III.3 : Rede Neural Multicamadas-RNM’s

Os neurônios estão dispostos em camadas que se justapõem umas às outras, formando

uma configuração em cascata, podendo existir mais de uma camada intermediária. A primeira

camada é a camada de entrada (“input layer”), as camadas intermediárias são as camadas

escondidas (“hidden layers”) e a última camada é a camada de saída (“output layer”). É

imediato constatar que a rede funciona no sentido direto da entrada para a saída

(“feedforward”) e a camada de entrada não possui neurônios (pseudocamada), constituindo-se

apenas na entrada da rede neural.

Algumas arquiteturas de Redes Neurais Multicamadas - RNM`s são boas para

aprender relações matemáticas, lineares ou não-lineares, a partir de um conjunto de dados de

entrada-saída, sendo, por isso, consideradas aproximadores universais [Haykin, 1999] de

funções matemáticas.

III.2.1 - METODOLOGIA DA PROPAGAÇÃO RETROATIVA DO ERRO - PRE

52

Page 41: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

O objetivo é encontrar uma regra capaz de ajustar os pesos sinápticos da rede neural

com base em um conjunto de pares de entrada-saída, denominados padrões de aprendizagem.

A questão pode ser colocada da seguinte forma: se os pesos sinápticos wj,i forem

considerados como elementos de uma matriz W , então o processo de aprendizagem consiste

na determinação da matriz W* que minimiza uma função erro (ou função custo) E,

escolhida previamente, e que de alguma forma deve ser baseada no erro de saída da rede.

A Propagação Retroativa do Erro - PRE é o método de aprendizagem mais comum

para a obtenção desse propósito [Narendra e Parthasarathy, 1990], cujas fórmulas

matemáticas em sua versão básica serão apresentadas neste capítulo. O termo básica é usado

para indicar que o mesmo pode ser enriquecido com técnicas auxiliares, que também serão

vistas mais adiante, visando uma melhoria de desempenho. O método PRE básico executa a

atualização (ou adaptação) dos pesos sinápticos de uma rede neural, de acordo com a seguinte

expressão:

W [c+1] = W [c] + ∆W [c] (III.3)

em que ∆W é a matriz de ajuste dos pesos sinápticos no ciclo de adaptação [c] (ou época),

cujos elementos são calculados por

wEw∂∂

−=∆ η (III.4)

onde η é a taxa de aprendizagem e wE ∂∂ é o gradiente da função erro global E em

relação ao peso w. Esta última expressão é conhecida como Método de Descida do

Gradiente, muito utilizado na solução de problemas de otimização irrestrita [Friedlander,

1994].

53

Page 42: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Para melhor clareza de exposição, é necessário definir inicialmente:

Número de Pares de Treinamento NPTR: É a quantidade de pares de entrada-saída que

servirão de padrão de aprendizagem para o treinamento da RNM.

Sinal de Entrada do p-ésimo ponto de treinamento:

X p,i = [ xp,1 xp,2......xp,I ]T (III.5)

para p = 1, 2,..., NPTR e i = 1, 2,..., I entradas

Sinal Intermediário correspondente à p-ésima entrada:

Y p,j = [ yp,1 yp,2 yp,J ]T (III.6)

para p = 1, 2,..., NPTR e j = 1, 2,..., J neurônios escondidos

Sinal de Saída correspondente à p-ésima entrada:

Z p,k = [ zp,1 zp,2 zp,K ]T (III.7)

para p = 1, 2,..., NPTR e k = 1, 2,..., K neurônios de saída

Matriz Escondida W[h] dos pesos sinápticos:

W[h] = (III.8)

[ ]

[ ] [ ] [ ]

[ ] [ ]

12

][1

22221

1][

12][

11

............

..

..

hJI

hJ

hJ

hI

hh

hI

hh

www

wwwwww

54

Matriz de Saída W[o] dos pesos sinápticos:

Page 43: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

W[o] = (III.9)

[ ] [ ] [ ]

[ ] [ ] [ ]

[ ] [ ] [ ]

w w ww w w

w w w

o oJo

o oJo

Ko

Ko

KJo

11 12 1

21 22 2

1 2

. .

. .. . . . .. . . . .

. .

Sinal de Ativação do neurônio j correspondente à p-ésima entrada:

NET p,j = [ NETp,1 NETp,2 NETp,J ]T (III.10)

para p = 1, 2,..., NPTR.

Sinal de Saída Desejado para o neurônio k correspondente a p-ésima entrada:

Ο p,k = [ ο p,1 οp,2 οp,K ]T (III.11)

para p = 1, 2,..., NPTR.

Observe que, de acordo com a notação acima, os pares de treinamento são formados

por [X p,i , Ο p,k ]. Finalmente é escolhida uma função quadrática para o erro E, de tal forma a

garantir a convergência global dos pesos sinápticos [Friedlander, 1994], como sendo o

somatório do quadrado de todos os erros de saída da rede neural, calculados para cada padrão

de aprendizagem [Cichocki e Unbehauem, 1993], ou melhor,

E = (22

11ο p k p k

k

K

p

NPTRz, ,−

==∑ )1 ∑ (III.12)

para p = 1, 2,..., NPTR e k = 1, 2,..., K saídas da rede neural.

55

Page 44: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A fórmula para ajustar (ou adaptar) os valores dos pesos sinápticos de cada

conexão existente entre um neurônio j da camada escondida e um neurônio k da camada de

saída, de maneira que o erro global E seja igual ou menor que uma tolerância

previamente especificada, i.e, tal que , é a seguinte [Gabriel, 1996]:

wo k j, ,

0≥ε

E ≤ ε

[ ] [ ] [ [cjk

cjko

cjko yww δ+=+ η,,

1,, (III.13) ] ]

onde [c] é o ciclo de adaptação (ou época), η é a taxa de aprendizagem,

, sendo que é a derivada primeira da função de ativação dos

neurônios da camada de saída.

)()( kokkk NETfzo ′−=δ )(.of ′

A fórmula para ajustar (ou adaptar) os valores dos pesos sinápticos que

interligam um neurônio i da camada de entrada da rede neural com um neurônio j da

camada escondida, é a seguinte [Gabriel, 1996]:

wh j i, ,

(III.14) [ ] [ ] ( )][

1,,,,

1,,

cK

kjkokijh

cijh

cijh wxNETfww

δ′+= ∑

=

+ η

para i = 1, 2,..., I entradas e j = 1, 2,..., J neurônios escondidos.

onde [c] é o ciclo de adaptação (ou época), η é a taxa de aprendizagem e é a

derivada primeira da função de ativação dos neurônios da camada escondida.

′f h ( ).

Embora a expressão (III.14) tenha sido desenvolvida para atualizar os pesos sinápticos

existentes entre a camada escondida e a camada de entrada de uma RNM de 3 camadas

(camada de entrada + uma camada escondida + camada de saída), a mesma pode ser estendida

para atualizar os pesos sinápticos entre duas camadas escondidas quaisquer, caso a RNM

56

Page 45: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

possua mais de uma camada escondida. Para isso, basta adequar as variáveis manipuladas pela

correspondente expressão, assim como seus respectivos subescritos, tomando-se o cuidado de

propagar o sinal de erro δ no sentido da última camada escondida para a camada de entrada.

III.2.2 - FUNÇÕES DE ATIVAÇÃO DOS NEURÔNIOS

Os neurônios artificiais são modelados matematicamente (modelo de McCulloch e

Pitts) para desempenhar duas operações básicas: um somatório e uma função, ou melhor,

NEURÔNIO = SOMATÓRIO + FUNÇÃO DE ATIVAÇÃO. Representando numa forma

esquemática, o neurônio artificial tem o seguinte aspecto:

Figura III.4: Neurônio = Somatório + Função de Ativação

Esta subseção é dedicada ao estudo da Função de Ativação f (.). Qualquer função que

seja contínua e derivável no intervalo que contém a variável NETl , para l = 1, 2,..., L, tal que

NET ∈ RL, pode ser uma Função de Ativação de um neurônio genérico l de uma RNA.

Entretanto, somente serão estudadas as funções Linear, Sigmóide Unipolar e Sigmóide

Bipolar, por serem mais freqüentemente utilizadas com o método de Propagação Retroativa

do Erro - PRE, que é o método de aprendizagem empregado neste trabalho.

57

Page 46: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

III.2.2.1 - FUNÇÃO LINEAR

Define-se Função Linear com declividade β, toda e qualquer função regida pela

equação

f (NETl) = β NETl, (III.15)

para l = 1, 2,..., L.

O gráfico da função expressa por (III.15) é mostrado na Figura III.5, onde β é a declividade

da reta.

-5 0 5NET

-2

0

2

f(NET

)

=2.0=1.0

=0.5

Figura III.5: Função Linear, com β = 0,5, 1,0 e 2,0

Sua derivada primeira é

(III.16) ( )′ =f NETl β

III.2.2.2 - FUNÇÃO SIGMÓIDE UNIPOLAR

58

Page 47: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Define-se Função Sigmóide Unipolar, também denominada de Função Logística, com

declividade β no ponto correspondente a NET = 0, toda e qualquer função regida pela

equação

( )f NETel NETl

=+ −

11 4β , (III.17)

para l = 1, 2,..., L.

O gráfico da função expressa por (III.17) é mostrado na Figura III.6, onde β é a declividade

da reta tangente a curva em NET = 0.

-5 0 5NET

-2

0

2

f(NET

)

=2.0=1.0

=0.5

Figura III.6: Função Sigmóide Unipolar, com β = 0,5, 1,0 e 2,00

A derivada primeira da Função Sigmóide Unipolar expressa por (III.17) é

(III.18) ( ) ( ) ([′ = −f NET f NET f NETl l4 1β )]l

III.2.2.3 - FUNÇÃO SIGMÓIDE BIPOLAR

59

Page 48: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Define-se Função Sigmóide Bipolar, também denominada de Função Tangente

Hiperbólica, com declividade β no ponto correspondente a NET = 0, toda e qualquer função

regida pela equação

( )f NET eel

NET

NET

l

l=

−+

11

2

2

β

β , (III.19)

para l = 1, 2,..., L.

O gráfico da função expressa por (III.19) é mostrado na Figura III.7, onde β é a declividade

da reta tangente a curva em NET = 0.

-5 0 5NET

-2

0

2

f(NET

)

=2.0=1.0

=0.5

Figura III.7: Função Sigmóide Bipolar, com β = 0,5, 1,0 e 2,0

A derivada primeira da Função Sigmóide Bipolar expressa por (III.19) é

(III.20) ( ) ( )([′ = −f NET f NETl β 12) ]l

III.2.3 - ALGORITMO DO MÉTODO DE PROPAGAÇÃO RETROATIVA DO ERRO

60

Page 49: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

O objetivo desta subseção é apresentar um algoritmo básico para a implementação

computacional da técnica de treinamento fundamentada na metodologia da Propagação

Retroativa do Erro - PRE.

III.2.3.1 - ALGORITMO PRE ( VERSÃO BÁSICA)

Para facilidade de apresentação, o algoritmo PRE , em sua versão básica com entrada

em lote (“batch”), é separado em duas partes, conforme se segue:

Primeira Parte: Declaração das principais variáveis computacionais

Número de pares de treinamento

NPTR: Inteiro;

Entrada para treinamento

X [posição na entrada,ordem no lote]: Matriz de Reais;

Saída desejada para treinamento

O [posição na saída,ordem no lote]: Matriz de Reais;

Número de camadas

NC: Inteiro;

Número de nós por camada

NN [camada]: Vetor de Inteiros;

Função de Ativação dos Neurônios

FAN [camada]: Código Funcional;

Código Funcional

CódigoFuncional: Caracter;

61

Page 50: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

NO [camada][posição na camada,ordem no lote]: Matriz de Reais;

Sinal de ativação

NET [camada][posição na camada,ordem no lote]: Matriz de Reais;

Peso sináptico

W [posição na rede][nó de destino,nó de origem]: Matriz de Reais;

Somatório dos produtos δ*w

SDW [posição na camada,ordem no lote]: Matriz de Reais;

Erro Local

ErroLocal[posição na camada de saída,ordem no lote]: Matriz de Reais;

Erro Total

E: Real;

Tolerância

ε: Real;

Constante de aprendizagem η

ETA: Real;

Segunda Parte: Algoritmo para implementação computacional

1o Passo: Propagação Direta (“Forward”)

Fazer NET = 0;

Para r = 1 até NC-1 fazer

Para p = 1 até NPTR fazer

Para s = 1 até NN[r+1] fazer

62

Page 51: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Para t = 1 até NN[r+1] fazer

NET[r][s,t] = NET[r][s,t]+W[r][s,t]*NO[r][t,p];

FimPara;

FimPara;

FimPara;

Se FAN[r] = CodigoFuncional Então Fazer

Para p = 1 até NPTR Fazer

Para s = 1 até NN[r+1] Fazer

NO[r+1][s,p] = f(NET);

FimPara;

Se r+1<NC Então Fazer

NO[r+1][s+1,p] = THRESHOLD;

FimSe;

FimPara;

FimSe;

FimPara;

2o Passo: Calcular Erro de Saída

Fazer E = 0;

Para p = 1 até NPTR Fazer

Para s = 1 até NN[NC] Fazer

ErroLocal[s,p] = O[s,p]-NO[NC][s,p];

E = E+0,5*SQR(ErroLocal[s,p]);

FimPara;

63

Page 52: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

FimPara;

3o Passo: Verificar Convergência

Se E > ε Então Fazer

Ir Para o 4o Passo;

Senão Fazer

Ir Para o 5o Passo;

FimSe;

4o Passo: Propagação Reversa(“Backward”)

Fazer r = NC-1;

Se FAN[r] = CodigoFuncional Então Fazer

Para p = 1 até NPTR Fazer

Para s = 1 até NN[NC] Fazer

AUX[s,p] = ; ( ) [ ] [ ][ ]( )′ −f NET O s p NO NC s p* , ,

FimPara;

FimPara;

FimSe;

Fazer SDW = 0;

Para p = 1 até NPTR Fazer

Para s =1 até NN[r]+1 Fazer

Para t =1 até NN[r+1] Fazer

64

Page 53: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

SDW [s,p]= SDW [s,p]+AUX[t,p]*W[r][t,s];

FimPara;

FimPara;

FimPara;

Para s = 1 até NN[r+1] Fazer

Para t = 1 até NN[r]+1 Fazer

Para p =1 até NPTR Fazer

W[r][s,t] = W[r][s,t]+ETA*AUX[s,p]*NO[r][t,p];

FimPara;

FimPara;

FimPara;

Para r = NC-1 até 1 Fazer

Se FAN[r] = CodigoFuncional Então Fazer

Para p = 1 até NPTR Fazer

Para s = 1 até NN[r+1] Fazer

AUX[s,p] = ; ( ) [ ]′f NET SDW s p* ,

FimPara;

FimPara;

FimSe;

Fazer SDW = 0;

Para p = 1 até NPTR Fazer

Para s = 1 até NN[r]+1 Fazer

Para t = 1 até NN[r+1] Fazer

SDW [s,p]= SDW [s,p]+AUX[t,p]*W[r][t,s];

65

Page 54: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

FimPara;

FimPara;

FimPara;

Para s = 1 até NN[r+1] Fazer

Para t = 1 até NN[r]+1 Fazer

Para p =1 até NPTR Fazer

W[r][s,t] = W[r][s,t]+ETA*AUX[s,p]*NO[r][t,p];

FimPara;

FimPara;

FimPara;

FimPara;

Retornar para o 1o Passo;

5o Passo: Encerrar Aprendizagem

FimDaAprendizagem.

III.2.3.2- TÉCNICAS PARA MELHORIA DE DESEMPENHO DO ALGORITMO PRE

Este trabalho aplica algumas técnicas para melhoria de desempenho do algoritmo PRE

básico, que são: 1) Randomização dos Padrões de Aprendizagem, 2) Ajuste da Declividade

Funcional, 3) η-Adaptativo (ou Variável) e, finalmente, 4) Momento Normalizado.

As técnicas auxiliares para melhoria de desempenho do algoritmo PRE básico acima

citadas serão apresentadas a seguir, inclusive suas rotinas computacionais em linguagem

algorítmica que foram usadas na implementação.

66

Page 55: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

III.2.3.2.1 - RANDOMIZAÇÃO DOS PADRÕES DE APRENDIZAGEM

O processo de treinamento de uma RNM consiste em fazer com que a rede aprenda a

mapear pares de valores de entrada-saída previamente selecionados como padrões de

aprendizagem da rede neural. A utilização destes padrões durante o treinamento pode se dar

na ordem temporal ou randômica. Existem autores que citam a ordem randômica apenas para

o caso individual [Cichocki e Unbehauen, 1993], enquanto este trabalho usa a ordem

randômica para a entrada em lote (“batch”) dos padrões de aprendizagem. O que se pretende é

uma redução do tempo de duração da etapa de treinamento, em decorrência de uma

distribuição mais uniforme das variações dos pesos sinápticos em torno de seus respectivos

valores finais esperados (ou adaptados), para cada ciclo de aprendizagem.

A implementação é feita através da chamada de uma rotina computacional, que é

mostrada usando uma linguagem algorítmica. As variáveis usadas nesta rotina que já foram

declaradas no algoritmo PRE básico, serão consideradas variáveis globais, para evitar que

sejam declaradas novamente em nível local.

Código de chamada: RANDOMIZAÇÃO (NC; NN; NO; O)

Declaração de variáveis:

Conjunto dos pontos de treinamento

C : Conjunto de Bytes;

Matriz de saída desejada auxiliar

O_Aux[posição na saída,ordem no lote] : Matriz de Reais;

67

Page 56: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Implementação:

Fazer C = conjunto vazio;

Para r = 1 até NPTR Fazer

C = C+[r]; Comentário : o símbolo [] significa conjunto

FimPara;

Fazer t = 1;

Repetir

Ativar gerador de números randômicos;

Fazer r = Número inteiro randômico entre 1 e NPTR , inclusive;

Se r ∈ C Então Fazer

Para s = 1 até NN[1]+1 Fazer

NO[1][s,r] = X[s,t];

FimPara;

Para s = 1 até NN[NC] Fazer

O_Aux[s,r] = O [s,t];

FimPara;

Fazer t = t+1;

Fazer C = C-[r];

FimSe;

Até t > NPTR;

A aplicação deste algoritmo produz uma reordenação aleatória dos padrões que serão

utilizados no processo de aprendizagem da RNM, criando condições para ocorrer uma maior

uniformização dos desvios acumulados dos pesos sinápticos em relação aos seus respectivos

valores finais. É oportuno ressaltar que esta técnica não altera o valor final dos parâmetros da

68

Page 57: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

rede neural. Apenas torna o processo de aprendizagem mais suave, com menores ajustes por

ciclo de treinamento, ao invés de fazer de forma brusca, propiciando assim uma convergência

mais rápida para os valores desejados na saída da RNM.

III.2.3.2.2 - AJUSTE DA DECLIVIDADE FUNCIONAL

O ajuste da declividade β da função de ativação permite a adequação da região de

trabalho da curva aos valores de entrada-saída da rede neural, como é intuitivo notar pela

análise das Figuras III.5, III.6 e III.7. A implementação computacional é simples, pois basta

declarar a variável β no campo de dados do programa principal, fazendo com que seu valor

seja atribuído às correspondentes funções de ativação e suas derivadas primeira,

individualmente ou por grupo de neurônios.

Declaração de variável:

Declividade das funções de ativação dos neurônios

β: Real;

Implementação:

É feita através da atribuição de um valor para a declividade da função de ativação

durante a evolução da rede no sentido direto e da sua derivada primeira, se for no

sentido inverso. Neste trabalho, as expressões matemáticas das correspondentes

funções de ativação foram escritas de tal forma que a declividade β representa o

coeficiente angular da tangente à curva na origem dos eixos cartesianos.

III.2.3.2.3 - η-ADAPTATIVO (ou η-VARIÁVEL)

69

Page 58: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

É uma técnica utilizada para aumentar a velocidade de convergência das redes neurais,

que, de maneira sucinta, consiste em variar a constante de aprendizagem η (ETA) durante a

etapa de treinamento da rede, buscando otimizar o processo de adaptação dos pesos

sinápticos, como também para evitar a sua parada num mínimo local.

A sua implementação foi feita através de uma rotina que deve ser chamada no final do

4o Passo do algoritmo PRE básico, porém antes da instrução de “Retornar ao 1o Passo”.

Sugere-se inicializar a variável ETA com um valor pequeno (0,001 ≤ ETA ≤ 0,1).

Código de Chamada: ETA_Adaptativo(ETA; E)

Declaração de Variáveis:

Erros Auxiliares

Erro_Aux1, Erro_Aux2: Real;

Implementação:

Comentário: Fazer Erro_Aux1 = 0 antes de implementar o algoritmo PRE

Fazer Erro_Aux2 = E;

Se Erro_Aux2 ≤ 1,04 * Erro_Aux1 Então Fazer

Se Erro_Aux2 > Erro_Aux1 Então Fazer

ETA = ETA;

Senão Fazer

ETA = 1,05 * ETA;

Senão Fazer

ETA = 0,7 * ETA;

FimSe;

70

Page 59: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Fazer Erro_Aux1 = Erro_Aux2;

Os fatores 1,04, 1,05 e 0,7 usados na rotina acima são sugeridos por [Demuth e Beale,

1992]. Esta técnica também foi utilizada com sucesso em implementações práticas nos

trabalhos desenvolvidos por [Rezende e Maitelli, 1999a] e [Rezende e Maitelli, 1999b], tendo

o seu desempenho sido comparado com os algoritmos adaptativos Delta-Bar-Delta e

SuperSAB.

III.2.3.2.4 - MOMENTO NORMALIZADO

O algoritmo PRE, quando aplicado na forma original expressa em (III.3), pode trazer

problemas de convergência [Pansalkar e Sastry, 1994]. A técnica do momento é usada para

tentar acelerar a convergência do processo de aprendizagem para o mínimo local. A sua

implementação matemática é feita por

W [c+1] = W [c] + (1-α) ∆W [c] + α ∆W [c-1] (III.21)

onde α é o coeficiente do momento, sendo 0 ≤ α < 1. Na expressão (III.21) acima, nota-se

de imediato que a soma das componentes de atualização dos pesos sinápticos é unitária. A

interpretação é a seguinte: 0% (zero por cento) de momento significa correção dos pesos

sinápticos executada integralmente com base nas variações atuais, que corresponde a

aplicação do algoritmo PRE básico sem a técnica do momento, e, de outro extremo, 100%

(cem por cento) significa ausência total de atualização, o que acarretaria uma estagnação dos

pesos sinápticos em seus valores iniciais. Um valor sugerido para α é 0,95 [Demuth e Beale,

1992].

71

Page 60: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Figura III.8: Papel do coeficiente α no processo de convergência

De acordo com a Figura III.8, o coeficiente α tem um papel importante que é o de

direcionar o próximo passo do processo de convergência. Observa-se que a adição vetorial da

componente α ∆ à componente ( ) ] faz com que esta última seja direcionada,

a cada ciclo [c] de atualização, no sentido de buscar o ponto de mínimo.

w c[ −1] 1−α ∆w c[

A implementação computacional desta técnica é feita diretamente no 4o Passo do

algoritmo PRE básico.

Declaração de variáveis:

Momento

ALFA: Real;

Matriz de variações atuais

DWAtual [posição na rede][nó de destino,nó de origem]: Matriz de Reais;

Matriz de variações anteriores

DWAnterior [posição na rede][nó de destino,nó de origem]: Matriz de Reais;

Implementação:

72

Page 61: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Substituir a instrução

W[r][s,t] = W[r][s,t]+ETA*AUX[s,p]*NO[r][t,p];

nas duas linhas de código em que é prevista, por :

Comentário: Fazer DWAnterior = 0 antes de iniciar o treinamento

DWAtual[r][s,t] = ETA * AUX[s,q] * NO[r][t,q];

W[r][s,t] = W[r][s,t] + (1-ALFA)*DWAtual[r][s,t] + ALFA*DWAnterior[r][s,t];

DWAnterior[r][s,t] = DWAtual[r][s,t];

III.3 - CONCLUSÕES

Este capítulo teve o propósito de apresentar alguns fundamentos básicos sobre as

Redes Neurais Artificiais - RNA`s, com enfoque na arquitetura multicamadas, também

conhecida na literatura técnica especializada por multiperceptrons, devido a sua característica

de aproximadores universais [Haykin, 1999].

Dentro desta linha, foi apresentado o algoritmo de treinamento usado neste trabalho,

que é o Método de Descida do Gradiente, mais especificamente, a Metodologia da

Propagação Retroativa do Erro - PRE (“Error BackPropagation”). Muito se tem escrito

sobre as principais desvantagens deste método: é um método de busca local e é lento.

Exatamente para amenizar estas desvantagens, também foram apresentadas algumas técnicas

auxiliares para melhoria de desempenho, as quais procuram superar essas dificuldades

apontadas. Além disso, o problema da relativa lentidão do PRE atualmente vem deixando de

ser preocupante, em face do surgimento no mercado de sistemas microprocessados cada vez

mais rápidos, aliado à possibilidade de utilizar algoritmos para processamento paralelo,

explorando assim a característica de paralelismo inerente às redes neurais.

73

Page 62: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Por outro lado, como este trabalho tem seu enfoque centrado na análise de estabilidade

e robustez de sistemas de controle indireto usando as redes neurais multicamadas, a utilização

da metodologia de primeira ordem do PRE é apenas uma das maneiras de implementar

controle usando redes neurais e, o emprego de outra técnica de aprendizagem supervisionada

mais rápida, por exemplo, o método de segunda ordem de Levenberg-Marquardt, não

compromete os resultados da análise de estabilidade e robustez que serão apresentados em

capítulo posterior, desde que a técnica de aprendizagem utilizada possua a função quadrática

especificada na expressão (III.12) como funcional.

74

Page 63: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

CAPÍTULO IV

MODELAGEM DE SISTEMAS NÃO-LINEARES

USANDO REDES NEURAIS ARTIFICIAIS

75

Page 64: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

IV.1 - INTRODUÇÃO

Modelagem matemática é a área do conhecimento que estuda maneiras de desenvolver

e implementar modelos matemáticos de sistemas reais [Aguirre, 2000]. Há várias técnicas

para se obter modelos matemáticos, com o objetivo de entender e controlar o comportamento

dinâmico de sistemas físicos (ou plantas), as quais são basicamente classificadas em

modelagem caixa branca (“white box”) e modelagem caixa preta (“black box”).

A modelagem caixa branca, também conhecida por modelagem pela física,

fenomenológica ou conceitual, consiste em se obter um modelo matemático completo do

sistema real, aplicando-se as leis da natureza que regem o comportamento de cada

componente do sistema. Neste tipo de modelagem ocorrem dificuldades ainda hoje não

superadas pela academia, principalmente no que diz respeito ao conhecimento de alguns

fenômenos não-lineares. Normalmente os modelos assim obtidos são linearizados num

determinado ponto de operação, sendo, portanto, somente confiáveis dentro de uma limitada

faixa de operação.

Por outro lado, a modelagem caixa preta, também conhecida por modelagem

experimental ou empírica, pouco ou nenhum conhecimento exige das leis da natureza que

regem o comportamento dos sistemas reais a serem modelados. Na literatura este tipo de

modelagem também é referenciado por identificação de sistemas [Narendra e Parthasarathy,

1990], [Aguirre, 2000]. Neste caso, a técnica e o tipo de modelo são bem mais simplificados

do que os utilizados na modelagem pela natureza do processo.

Seguindo a segunda abordagem, este trabalho referir-se-á à identificação de sistemas

como sendo uma área do conhecimento que estuda maneiras de modelar o comportamento

dinâmico dos sistemas físicos reais a partir de medições realizadas na entrada e na saída da

planta, ou seja, a partir de pares de valores entrada-saída. Um ponto que já vale ressaltar é a

62

Page 65: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

necessidade de conhecer previamente a ordem e o atraso de transporte da planta (ou

simplesmente atraso), antes de executar o processo de identificação propriamente dito. Para

fins de controle da planta, estes dados podem ser levantados preliminarmente através da

análise de resultados experimentais.

No modelo entrada-saída, as entradas e as saídas da planta são representadas por suas

respectivas derivadas, sendo que a ordem destas derivadas é que determinará o

comportamento dinâmico da planta. Para a interpretação correta das expressões matemáticas

correspondentes aos modelos que serão apresentados neste capítulo, as notações usadas para

identificar a ordem da entrada e da saída, assim como o atraso da planta, são definidas a

seguir:

ny = ordem de saída da planta

nu = ordem de entrada da planta

n = ordem da planta (igual a ordem de saída da planta, ou seja, n = ny)

d = atraso de transporte da planta (d = ny - nu)

Os sistemas físicos a serem modelados serão considerados causais, i.e., sistemas em

que a ordem de saída é maior ou, no mínimo, igual a de entrada da planta, ou seja, ny ≥ nu.

A técnica de identificação a ser usada baseia-se nas Redes Neurais Artificiais - RNA`s.

Quanto ao tipo do modelo, este poderá ser: 1) linear ou não-linear, o que dependerá

exclusivamente do tipo da função de ativação usada nos neurônios artificiais, 2)

determinístico ou estocástico, 3) contínuo ou discreto. O restante deste capítulo mostrará

como projetar e implementar computacionalmente, passo a passo, os modelos matemáticos

empregando a técnica das RNA`s dos tipos lineares ou não-lineares, determinísticos ou

estocásticos e discretos. Para tanto, será utilizada a nomenclatura tradicional para modelos

63

Page 66: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

matemáticos lineares precedida pelos termos redes neurais (“neural networks”), por exemplo:

modelo NNARX (“Neural Networks AutoRegressive with eXogenous inputs”) [Nφrgaard,

2001].

IV.2 - IDENTIFICAÇÃO DE SISTEMAS USANDO RNA`s

No Capítulo III foi visto que as Redes Neurais Multicamadas - RNM`s são boas para

aprender relações não-lineares a partir de um conjunto de dados de entrada-saída, sendo, por

isso, consideradas aproximadores universais de funções matemáticas. Portanto, uma técnica

freqüentemente usada é estender as estruturas dos modelos lineares para obter modelos não-

lineares, pela substituição de sua arquitetura interna por RNM`s. Esta técnica possui algumas

vantagens que a torna atrativa, conforme abaixo enumeradas [Nφrgaard, 2001]:

1a) é uma extensão natural dos modelos de estruturas lineares;

2a) a arquitetura interna pode ser expandida gradualmente na medida em que for

necessário flexibilidade para modelar relações não-lineares mais complexas;

3a) as decisões estruturais requeridas do usuário são reduzidas a um nível razoável

de compreensão suficiente ao seu manuseio;

4a) apropriada para o projeto de sistemas de controle.

No caso linear discreto, a relação entre o sistema físico (ou planta) e o seu modelo

linear é dada por

(IV.1) y k d k d n e k d( ) ( , , ). $ (+ = + +ϕ θT )

64

Page 67: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

em que y é a saída da planta, é o vetor regressor de entrada do modelo linear, é o ϕ $θ

vetor de parâmetros estimados da planta a ser identificada, com o erro de estimação definido

por e k , donde se deduz que a saída estimada é calculada por d y k d y k d( ) ( ) $(+ = + − + )

)

)

]

(IV.2) $( ) ( , , ) $y k d k d n+ = ϕT

Estendendo o modelo linear mostrado na expressão (IV.1) para o caso não-linear

usando RNM`s, a relação entre o sistema físico (ou planta) e o seu modelo de redes neurais

passa a ser descrita, de uma forma geral, por

(IV.3) y k d g k d n W e k d( ) [ ( , , ), ] (+ = + +ϕ

em que é a saída da planta, g é a função escolhida para modelar o comportamento

dinâmico da planta, é o vetor regressor de entrada do modelo, W é uma matriz contendo

os parâmetros ajustáveis da rede neural (pesos sinápticos), sendo o erro de estimação definido

por e k , donde se deduz que a saída estimada é calculada por

y

d

ϕ

d+y k y k d( ) ( ) $(+ = − +

(IV.4) $( ) [ ( , , ),y k d g k d n W+ = ϕ

A identificação de sistemas físicos usando RNA`s, de acordo com os modelos de

estruturas adotados em [Nφrgaard, 2001], pode ser feita através da utilização de um dos

modelos descritos nas subseções a seguir.

65

Page 68: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

IV.2.1 - REDE NEURAL COM RESPOSTA AO IMPULSO FINITA (“NEURAL NETWORK WITH FINITE IMPULSE RESPONSE” - NNFIR)

O modelo linear denominado Resposta ao Impulso Finita (“Finite Impulse Response”

- FIR) é dado pela expressão (IV.2), sendo

ϕ( , , ) [ ( ) , ( ) ,..., ( )]k d n u k u k u k nu= − −1

] (IV.5) ˆ,...,ˆ,ˆ[ˆ1 uno bbb=θ

em que u é a entrada da planta e representa os componentes do vetor de parâmetros

estimados da planta, para i = 0, 1,..., n

$bi

u.

A expressão matemática do modelo não-linear estendido denominado Rede Neural

com Resposta ao Impulso Finita (“Neural Networks Finite Impulse Response” - NNFIR ) é

dada pela expressão (IV.4), onde o vetor regressor ϕ é dado pela expressão

(IV.6) ϕ( , , ) [ ( ) , ( ) ,..., ( ) , ]k d n u k u k u k nu= − −1 1−

na qual foi propositalmente acrescida uma entrada extra de valor fixo igual a -1

correspondente à entrada do limiar de operação (“threshold”). Este artifício matemático, além

de reduzir a estrutura de dados do programa de implementação computacional, por incluir o

limiar de operação dentro da estrutura matricial dos pesos sinápticos, também atribui ao

algoritmo PRE a tarefa de ajustar o limiar de operação como se fosse um peso sináptico.

66

Page 69: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

O esquema correspondente ao modelo NNFIR é o seguinte

Figura IV.1: Modelo de estrutura NNFIR

Pelo fato de não haver realimentação da saída do modelo, é um modelo estável no

sentido BIBO, considerando que o vetor regressor e os pesos sinápticos têm valores finitos, ou

seja, desde que ϕ e W sejam finitas para qualquer instante k. Esta é uma característica

importante para a análise de estabilidade de sistemas não-lineares, devido a estes sistemas

terem um comportamento mais complexo do que os sistemas lineares.

IV.2.2 - REDE NEURAL AUTOREGRESSIVA COM ENTRADAS EXÓGENAS

(NEURAL NETWORK AUTOREGRESSIVE WITH EXOGENEOUS

INPUTS-

NNARX)

O modelo linear denominado Autoregressivo com Entradas Exógenas

(“AutoRegressive with eXogeneous inputs” - ARX) é dado pela expressão (IV.2), sendo

ϕ( , , ) [ ( ) ,..., ( ) , ( ) , ( ) ,..., ( )]k d n y k d y k d n u k u k u k d n= + − + − − + −1 1

67

Page 70: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

(IV.7) $ [ $ ,... $ , $ , $ ,..., $ ]θ = − −a a b b bn o n1 1

em que u e y são a entrada e a saída da planta, respectivamente, e , b são os

componentes do vetor de parâmetros estimados da planta, para i = 1,..., n e j = 0, 1,..., n.

$ai$

j

A expressão matemática do modelo não-linear estendido denominado Rede Neural

Autoregressiva com Entradas Exógenas (“Neural Networks AutoRegressive with eXogeneous

inputs” - NNARX ) é dada pela expressão (IV.4), onde o vetor regressor é dado por ϕ

ϕ( , , ) [ ( ) ,..., ( ) , ( ) , ( ) ,..., ( ) , ]k d n y k d y k d n u k u k u k d n= + − + − − + − −1 1 1

(IV.8)

em que a entrada extra, com valor fixo –1, corresponde à entrada do limiar de operação

(“threshold”) da rede neural.

O esquema correspondente ao modelo NNARX é o seguinte

Figura IV.2: Modelo de estrutura NNARX

Pelas mesmas razões apontadas no modelo NNFIR da subseção anterior, trata-se

também de um modelo estável no sentido BIBO, i.e., considerando que ϕ e W são

68

Page 71: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

finitas implica que o modelo NNARX é BIBO estável. A inexistência de problemas relativos à

estabilidade faz deste modelo de estrutura a escolha preferida quando o sistema a ser

modelado é determinístico ou o nível de ruído não é significativo [Nφrgaard, 2001].

O modelo NNARX possui um equivalente conhecido como modelo Série-Paralelo

[Narendra e Parthasarathy, 1990], onde as contribuições da entrada e da saída são

matematicamente separadas em duas redes neurais, de tal modo que a expressão (IV.4) é

desmembrada e passa então a ser escrita na forma

(IV.9) $( ) ( ( , , ), ) ( ( , ), )y k d g k d n W g k n Wy y y y u u u u+ = +ϕ ϕ

em que gy e gu são funções que representam a saída e a entrada do modelo Série-Paralelo,

respectivamente.

IV.2.3 - REDE NEURAL AUTOREGRESSIVA COM MÉDIA MÓVEL E ENTRADAS

EXÓGENAS

(NEURAL NETWORK AUTOREGRESSIVE WITH MOVING AVERAGE

AND EXOGENEOUS INPUTS - NNARMAX)

O modelo linear denominado Autoregressivo com Média Móvel e Entradas Exógenas

(“AutoRegressive with Moving Average and eXogeneous inputs” - ARMAX) é dado pela

expressão (IV.2), sendo

ϕ( , , ) [ ( ) ,..., ( ) , ( ) , ( ) ,...,

( ) , ( ) ,..., ( )]k d n y k d y k d n u k u k

u k d n e k d e k d n= + − + − −

+ − + − + −1 1

1

(IV.10) $ [ $ ,... $ , $ , $ ,..., $ , $ ,..., $ ]θ = − −a a b b b c cn o n n1 1 1

69

Page 72: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

em que u e y são a entrada e a saída da planta, respectivamente, e é o erro de estimação

calculado por e k e , b , são os componentes do vetor de

parâmetros estimados da planta, para i, k = 1,..., n e j = 0, 1,..., n.

d y k d y k d( ) ( ) $( )+ = + − + $ai$

j $ck

A característica principal do modelo de estrutura ARMAX é a realimentação dos erros

de estimação, tornando este modelo susceptível a problemas de estabilidade. Por esta razão,

no modelo ARMAX a análise de estabilidade é um problema mais complexo. Em algumas

situações, torna-se mais interessante considerar a estabilidade como uma propriedade local, o

que significa afirmar que o modelo ARMAX somente terá a sua estabilidade garantida quando

operar dentro de uma determinada região, podendo ficar instável fora da região de operação

[Nφrgaard, 2001].

A expressão matemática do modelo não-linear estendido denominado Rede Neural

Autoregressiva com Média Móvel e Entradas Exógenas (“Neural Networks AutoRegressive

with Moving Average and eXogeneous inputs” - NNARMAX) é dada pela expressão (IV.4),

onde o vetor regressor ϕ é dado por

(IV.11) ϕ( , , ) [ ( ) ,..., ( ) , ( ) , ( ) ,...,

( ) , ( ) ,..., ( ) , ]

k d n y k d y k d n u k u k

u k d n e k d e k d n

= + − + − −

+ − + − + − −

1 1

1 1

em que e é o erro de estimação calculado por , sendo que

novamente a entrada extra, com valor fixo –1, corresponde à entrada do limiar de operação

(“threshold”) da rede neural, com o objetivo exclusivo de facilitar a implementação

computacional do modelo, conforme já foi explicado anteriormente.

e k d y k d y k d( ) ( ) $(+ = + − + )

70

Page 73: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

O esquema correspondente ao modelo NNARMAX é o seguinte

Figura IV.3: Modelo de estrutura NNARMAX

Os modelos que possuem realimentação de suas próprias saídas são denominados de

modelos recorrentes ou dinâmicos. Este modelo é recomendado quando o nível de ruído é

muito significativo.

IV.2.4 - REDE NEURAL COM ERRO NA SAÍDA

(NEURAL NETWORK WITH OUTPUT ERROR - NNOE)

O modelo linear denominado Erro na Saída (“Output Error” - OE) é também um

modelo recorrente, cuja expressão matemática é dada pela expressão (IV.2), sendo

ϕ( , , ) [ $( ) ,..., $( ) , ( ) , ( ) ,..., ( )]k d n y k d y k d n u k u k u k d n= + − + − − + −1 1

(IV.12) $ [ $ ,... $ , $ , $ ,..., $ ]θ = − −a a b b bn o n1 1

71

Page 74: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

em que u e são a entrada e a saída estimada da planta, respectivamente, e , são os

componentes do vetor de parâmetros estimados da planta, para i = 1,..., n e j = 0, 1,..., n.

$y $ai$bj

Trata-se também de um modelo que possui realimentação de sua saída, portanto, está

sujeito a problemas de estabilidade, da mesma forma que o modelo linear ARMAX

apresentado na subseção anterior.

A expressão matemática do modelo não-linear estendido denominado Rede Neural

Erro na Saída (“Neural Networks Output Error” - NNOE ) é dada pela expressão (IV.4), onde

o vetor regressor é dado por ϕ

(IV.13)

ϕ( , , ) [ $( ) ,..., $( ) , ( ) , ( ) ,..., ( )k d n y k d y k d n u k u k u k d n= + − + − − + − −1 1 , ]1

em que novamente a entrada extra, com valor fixo –1, corresponde à entrada do limiar de

operação (“threshold”) da rede neural, conforme explicado anteriormente.

O esquema correspondente ao modelo NNOE é o seguinte

Figura IV.4: Modelo de estrutura NNOE

72

Page 75: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

O modelo NNOE possui um equivalente conhecido como modelo Paralelo [Narendra

e Parthasarathy, 1990], onde as contribuições da entrada e da saída estimada são

matematicamente separadas em duas redes neurais, de tal modo que a expressão (IV.4) é

desmembrada e passa então a ser escrita na forma

(IV.14) $( ) [ ( , , ), ] [ ( , ), ]$ $ $y k d g k d n W g k n Wy y y y u u u u+ = +ϕ ϕ

em que e ggy$ u são funções que representam a saída estimada e a entrada do modelo

Paralelo, respectivamente.

IV.3 - CONCLUSÕES

Identificação de sistemas é a área do conhecimento que estuda maneiras de modelar o

comportamento dinâmico dos sistemas físicos reais a partir de medições realizadas na entrada

e na saída da planta, ou seja, a partir de pares de valores entrada-saída.

Portanto, neste capítulo foram apresentados alguns modelos de estruturas baseados nas

Redes Neurais Artificiais - RNA`s que podem ser usados para identificação de plantas não-

lineares de dinâmica desconhecida, sendo necessário que se conheça previamente a ordem e o

atraso de transporte da planta.

Dentre os modelos apresentados, o Rede Neural Autoregressiva com Entradas

Exógenas (Neural Network AutoRegressive with EXogeneous Inputs - NNARX) é o

freqüentemente mais usado, principalmente quando o sistema a ser modelado é determinístico

ou o nível de ruído não é proporcionalmente significativo, devido a inexistência de problemas

relativos à estabilidade do modelo por não existir realimentação de sua saída.

73

Page 76: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

CAPÍTULO V

ESQUEMAS DE CONTROLE USANDO

REDES NEURAIS ARTIFICIAIS

74

Page 77: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

V.1 - INTRODUÇÃO

Até este capítulo pretendeu-se apenas apresentar alguns conceitos básicos que regem o

funcionamento das Redes Neurais Artificiais - RNA’s e dos modelos de estruturas aplicados

para a identificação de sistemas não-lineares de dinâmica desconhecida, com o propósito de

dar uma fundamentação teórica para os Esquemas de Controle Indireto a serem apresentados

neste capítulo. A denominação de indireto decorre do fato de que os parâmetros do

controlador são ajustados com base na saída estimada da planta , e não na saída real

da planta, y(k + d), isto devido aos seguintes motivos:

$(y k d+ )

• impossibilidade do controlador em acessar diretamente a saída da planta, já que entre

esta saída e o controlador existe a própria planta;

• necessidade de possuir um valor para a saída da planta, logo após a aplicação do sinal

de controle u(k), para possibilitar o treinamento do controlador, caso também seja neural,

dentro do intervalo de tempo correspondente ao período de amostragem da planta.

São propostas 02 (duas) estratégias de controle: 1a) Controle Híbrido Indireto, em que

somente o identificador é neural, 2a) Controle Neural Indireto, em que ambos, identificador e

controlador, são neurais. A arquitetura de redes neurais que será usada é baseada nas Redes

Neurais Multicamadas - RNM’s, com lei de adaptação fornecida pela metodologia de

Propagação Retroativa do Erro - PRE, em que são utilizadas algumas técnicas auxiliares, já

descritas anteriormente, para reduzir o tempo gasto no treinamento das redes neurais, de modo

a viabilizar seu emprego no controle de processos em tempo real.

O objetivo agora é desenvolver algoritmos capazes de implementar os esquemas de

controle neural indireto, totalmente treinados em tempo real e com um mínimo atraso

74

Page 78: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

computacional, o qual significa o tempo despendido pelo computador para calcular o novo

valor do sinal de controle u(k), a ser aplicado na entrada da planta, imediatamente após a

última amostragem do valor de saída da planta [Åström e Wittenmark, 1990]. Depreende-se,

portanto, que o atraso computacional não inclui o tempo de treinamento das redes neurais,

devendo estes intervalos de tempo ficarem embutidos dentro o período de amostragem da

planta TS, ou seja, enquanto o computador espera para fazer a próxima amostragem (tempo

morto). É importante ressaltar que o tempo total gasto pelas ações necessárias ao controle não

deve exceder o período de amostragem da planta, sob pena de ter que abortá-las e aplicar

novamente o sinal de controle anterior, o que pode trazer problemas de estabilidade.

V.2 - FORMULAÇÃO DO PROBLEMA

Seja uma planta contínua, discretizada com um período de amostragem TS, de única

entrada-única saída (SISO - “Single Input, Single Output”), com condições iniciais conhecidas

e descrita pela equação diferença a seguir:

, y k d g y k d y k d n u k u k u k d n( ) ( ( ) ,..., ( ) , ( ) , ( ) ,..., ( ))+ = + − + − − + −1 1

(V.1)

e que admite uma inversa da forma

u k g y k d y k d y k d n u k u k d n( ) ( ( ) , ( ) ,..., ( ) , ( ) ,..., ( ))= + + − + − − + −−1 1 1

(V.2)

em que u é o sinal de controle, y é a saída da planta, n é a ordem conhecida da planta e d é

75

Page 79: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

o atraso de transporte da planta também conhecido [Levin e Narendra, 1996]. O problema

consiste então em selecionar uma seqüência de sinais de controle u(k), de tal modo a manter

as correspondentes saídas da planta y(k+d), o mais próximo possível das referências

y_Ref(k+d), previamente estabelecidas para k = 0, 1,..., M-1, onde M é o horizonte total de

controle. Em situações práticas, a entrada da planta é limitada pela capacidade do atuador, ou

seja, um ≤ u(k) ≤ uM , onde um é o valor mínimo e uM é o valor máximo da entrada.

Para solucionar esse problema foram desenvolvidas duas estratégias de controle neural

indireto que utilizam dispositivos baseados no princípio de funcionamento das RNM’s, com

metodologia de aprendizagem PRE, e que devem obedecer as seguintes premissas básicas de

projeto: 1a) todo o treinamento deve ser feito em tempo real, e 2a) o atraso computacional

deve ser o mínimo possível.

As soluções propostas podem ser estendidas para o caso de plantas de múltiplas

entradas-múltiplas saídas (MIMO - “Multiple Inputs, Multiple Outputs”).

V.3 - OS ESQUEMAS DE CONTROLE INDIRETO PROPOSTOS

São apresentadas 02 (duas) estratégias de controle em tempo real ou recursivas,

denominadas de Controle Híbrido Indireto e Controle Neural Indireto. Ambas as estratégias

possuem um identificador neural, sendo que a diferença entre elas reside somente na maneira

em que o controlador é projetado. Na primeira estratégia, somente o identificador é neural e o

controlador consiste numa lei de controle implementada indiretamente sem necessidade de

treinamento e, na segunda, o identificador e o controlador são ambos neurais.

76

Page 80: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

O sistema de controle híbrido consiste basicamente em um identificador neural e em

um controlador convencional (lei de controle), que são utilizados para calcular recursivamente

o sinal de controle u(k) a ser aplicado na planta, conforme esquema abaixo:

Figura V.1: Esquema de Controle Híbrido Indireto

em que z-1 é o operador de atraso unitário e ein(k+d) é o erro no treinamento do

identificador neural em tempo real.

O cálculo do sinal de controle u(k) a ser aplicado na planta, de modo a se obter uma

saída y(k+d) o mais próximo possível da referência y_Ref(k+d), será feito com base no

Jacobiano estimado da planta, obedecendo a seguinte seqüência de passos:

1o passo: No intervalo de tempo entre k-1 e k o identificador neural é treinado com os dados

obtidos até o instante k-1, possibilitando assim o cálculo do Jacobiano estimado ( +d-1) da J

planta, que é dado pela seguinte expressão matemática

77

CPD
Caixa de texto
V.3.1 - CONTROLE HÍBRIDO INDIRETO
Page 81: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

$( )$(

( )J k d y k d

u k+ − =

+ −−

1 11

∂∂

) (V.3)

2o passo: Tomando-se uma aproximação por diferença avançada (“forward”) de 1a ordem,

para a derivada parcial, tem-se

$( )$( )

( )$( ) $( )

( ) ( )J k d y k d

u ky k d y k d

u k u k+ − ≅

+ −−

=+ − − + −

− − −1 1

11 21 2

∆∆

u k J k d u k J k d y k d y k d( ). $( ) ( ). $( ) $( ) $( )− + − − − + − = + − − + −1 1 2 1 1 2

(V.4)

3o passo: Como a expressão (V.4) foi obtida a partir da premissa de que o identificador neural

já está treinado com os dados disponíveis até o instante k-1, a idéia agora é usá-la para

estimar o valor do próximo sinal de controle u(k) a ser aplicado na planta, na hipótese de que

tenda para y_Ref(k+d), sendo que este último é conhecido. Portanto, partindo

da expressão (V.4), pela simples substituição do último sinal de controle disponível, u(k-1),

por u(k) a ser calculado, e de por y_Ref(k+d), tem-se

$(y k d+ −1)

)

2

1

1

$(y k d+ −1

(V.5) u k J k d u k J k d y k d y k d( ). $( ) ( ). $( ) _ ( ) $( )+ − − − + − = + − + −1 2 1 Ref

Subtraindo a expressão (V.5) de (V.4) e manipulando algebricamente, com o objetivo de

eliminar o par de entrada-saída estimada mais distante, [u(k-2) , ], virá $( )y k d+ − 2

u k J k d u k J k d y k d y k d( ). $( ) ( ). $( ) _ ( ) $( )+ − − − + − = + − + −1 1 1 Ref

[ ( ) ( )]. $( ) _ ( ) $( )u k u k J k d y k d y k d− − + − = + − + −1 1 Ref

u k u k y k d y k dJ k d

( ) ( ) _ ( ) $($( )

= − ++ − + −+ −

1 11

Ref ) (V.6)

78

Page 82: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A expressão (V.6) é similar à expressão desenvolvida por [Adetona et al., 2001]. A

diferença básica é que esses autores usaram um modelo matemático baseado na linearização

da planta por série de Taylor, enquanto que o desenvolvimento usado neste trabalho tem como

ponto de partida uma aproximação de 1a ordem da derivada que fornece o Jacobiano estimado

da planta.

Foi visto acima que a finalidade do identificador neural é obter um valor estimado para

a saída e para o Jacobiano da planta. Como neste trabalho será usada, no máximo, uma rede

neural contendo 03 (três) camadas - entrada, escondida e saída, com função de ativação não-

linear (p.ex. sigmóide bipolar) na camada escondida e função de ativação linear na camada de

saída, por sua característica de aproximador universal [Haykin, 1999] e também por razões

relacionadas com o tempo de treinamento, será desenvolvida uma expressão para o cálculo de

baseada nos valores dos parâmetros do identificador neural após o seu

treinamento. Obviamente, se for usada também uma função linear para a camada escondida da

rede acima citada, recai-se no caso de linearização da planta.

$(J k d+ −1)

)

Iniciando-se o processo de cálculo do Jacobiano estimado aplicando-se o identificador

neural especificado, tem-se:

(V.7) $( ) (y k d f NETo o+ − =1 1

em que fo(.) é a função de ativação da camada de saída (a letra o vem de “output” = saída) e

o número 1 subescrito que aparece em NET é devido ao identificador possuir apenas uma

saída, por se tratar de uma planta SISO.

Derivando em relação ao sinal de entrada e aplicando a regra da cadeia, tem-se

79

Page 83: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

∂∂

∂∂

∂∂

$( )( )

$( ) .( )

y k du k

y k dNET

NETu ko

o+ −−

=+ −

−1

11

11

1 (V.8)

A primeira derivada que surge no membro direito da expressão (V.8), pode ser escrita como

∂∂

∂∂

$( ) ( )('y k d

NETf NET

NETf NET

o

o o

oo

+ −= =

1

1

1

11 )o

1 1−

(V.9)

e a segunda derivada do membro direito da expressão (V.8), pode ser deduzida conforme se

segue

NET f NET w f NET w f NET w wo h h o h h o h hJ o J o J1 1 1 1 2 1 2 1= + + + +( ). ( ). ... ( )., , , , , , , ,

∂∂

∂∂

∂∂

∂∂

NETu k

f NETNET

u kw f NET

NETu k

w

f NETNET

u kw

oh h

ho h h

ho

h hJhJ

o J

11

11 1 2

21 2

1

1 1

1

( )( ).

( ). ( ).

( ).

( ).( )

.

', ,

', ,

', ,

−=

−+

−+

1

em que fh(.) é a função de ativação da camada escondida (a letra h vem de “hidden” =

escondida) e p é o número de neurônios da camada escondida. Agrupando os termos sob um

somatório, tem-se

∂∂

∂NET

u kf NET

NETu k

woh hj

hjo j

j

p1

111 1( )

( ).( )

.', ,−

=−=

∑ (V.10)

O valor da derivada parcial da expressão (V.10) é dado por

80

Page 84: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

22,,12,,

2

1,,

1,,

)1(.

)22(.)2(.

+−+−

+==

−−+

+−+−++−+−+= ∑∑dnjhdnjh

dn

niijh

n

iijhhj

wkuw

indkuwindkywNET

12,,)1( +−=−∂

∂dnjh

hj wku

NET (V.11)

em que 2n-d+1 é o número de entradas, excluindo a entrada do limiar de operação

(“threshold”). Substituindo a expressão (V.11) em (V.10), tem-se

∑=

+−=−∂

∂ p

jjodnjhhjh

o wwNETfku

NET

1,1,12,,

'1 .).()1(

(V.12)

Finalmente, substituindo as expressões (V.12) e (V.9) em (V.8), obtém-se a expressão para o

cálculo do Jacobiano estimado da planta em função dos parâmetros do identificador após o

treinamento da rede neural, qual seja

$( )$( ) .

( )J k d y k d

NETNET

u ko

o+ − =+ −

−1 1

11

1∂∂

∂∂

(V.13) ∑=

+−=p

jjodnjhhjhoo wwNETfNETf

1,1,12,,

'1

' .).().(

Apenas por questão de coerência com a Figura V.1, ressalta-se que os pesos sinápticos

referenciados por correspondem à conexão da entrada u(k-1), de posição 2n-d+1

contada de cima para baixo (penúltima entrada), com os neurônios j da camada escondida.

12,, +−dnjhw

V.3.2 - CONTROLE NEURAL INDIRETO

Foi desenvolvido um esquema de Controle Neural Indireto, constituído basicamente

81

Page 85: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

de um Controlador Neural (cn) e de um Identificador Neural (in), que foram dispostos

conforme figura a seguir [Tanomaru e Omatu, 1992], [Gabriel, 1996]:

Figura V.2: Esquema de Controle Neural Indireto

O asterisco em ecn+in*(k+d) significa que os pesos sinápticos do identificador neural

foram mantidos fixos durante todo o treinamento do controlador neural. O treinamento dos

dispositivos neurais é executado usando o Método da Descida do Gradiente, tratado no

Capítulo III deste trabalho. A técnica para o treinamento do controlador consiste em treinar

inicialmente o identificador, usando para isso o erro ein. Logo em seguida, treina-se o

controlador + identificador, desta vez usando o erro ecn+in* , enquanto se mantém os pesos

sinápticos do identificador fixos. Mais detalhes do treinamento do Controlador Neural

Indireto podem ser vistos em [Gabriel, 1996].

V.4 - CONCLUSÕES

O propósito deste capítulo foi apresentar dois esquemas de controle indireto - Controle

82

Page 86: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Híbrido Indireto e Controle Neural Indireto. A denominação de indireto decorre do fato de

que os parâmetros do controlador são ajustados com base na saída estimada da planta

, e não na saída real, isto devido ao controlador não ter acesso direto à saída da

planta para seu treinamento.

$(y k d+ )

No Controle Híbrido Indireto, somente o identificador é neural, e no Controle Neural

Indireto, ambos, identificador e controlador, são neurais. A rigor, a lógica usada no cálculo

do sinal de controle u(k), para os sistemas de controle indireto apresentados neste capítulo, é

igual, diferindo apenas no modo que o controlador é implementado, ou seja, no modo que o

sinal de controle é obtido - no primeiro, é calculado com base numa lei de controle

convencional, enquanto no segundo, o cálculo do sinal de controle é feito implicitamente por

uma associação de redes neurais em série ( ou cascata).

A arquitetura de redes neurais que será usada é baseada nas Redes Neurais

Multicamadas - RNM’s, com lei de adaptação fornecida pela metodologia de Propagação

Retroativa do Erro - PRE, em que são utilizadas algumas técnicas auxiliares para reduzir o

tempo gasto no treinamento do identificador neural e do controlador neural, de modo a

viabilizar seu emprego no controle de processos em tempo real.

O Controle Híbrido Indireto é uma estratégia que requer menor tempo para

treinamento, visto que possui somente uma rede neural multicamadas para treinar, ao

contrário do Controle Neural Indireto, que possui duas redes neurais multicamadas. Em

contrapartida, este último consegue produzir um sinal de controle que permite a saída da

planta atingir a referência em menor tempo, devido a capacidade de generalização do

controlador neural dentro do espaço de busca. Por conseguinte, a técnica do Controle Neural

Indireto é a mais recomendada por apresentar melhores resultados, desde que se consiga

enquadrar o tempo gasto no treinamento das redes neurais dentro do período de amostragem

da planta.

83

Page 87: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

O desenvolvimento matemático da primeira estratégia é uma contribuição original

deste trabalho, enquanto a segunda, já foi utilizada anteriormente por outros autores, entre

eles, [Tanomaru e Omatu, 1992], [Rivals et al., 1994], [Maitelli e Gabriel, 1996] e [Gabriel,

1996]. Registra-se, entretanto, que a lei de controle correspondente à primeira estratégia

(expressão V.6), é similar à expressão desenvolvida no trabalho de [Adetona et al., 2001],

sendo que a diferença básica é que esses últimos autores citados usaram um desenvolvimento

matemático baseado na linearização da planta por série de Taylor, para depois aplicar a rede

neural, com a finalidade de predizer alguns valores necessários para o cálculo do sinal de

controle. Por outro lado, o desenvolvimento usado neste trabalho tem como ponto de partida

uma aproximação por diferença avançada (“forward”) de 1a ordem, para a derivada que

fornece o Jacobiano estimado da planta, cujo valor é calculado com base nos parâmetros do

identificador neural.

84

Page 88: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

CAPÍTULO VI

ANÁLISE DE ESTABILIDADE

E ROBUSTEZ

85

Page 89: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

VI.1 - INTRODUÇÃO

Uma das questões mais difíceis de responder com respeito a um sistema físico é

quanto a sua estabilidade. Usualmente, por estabilidade entende-se que o sistema é estável

quando permanece sob controle. Isto significa que o sistema responderá sempre de uma

maneira apropriada quando for aplicada uma entrada [Phillips et al., 2000].

O esquema de controle deve ser estruturalmente estável e robusto, no sentido de que o

erro de controle tenda ou se acomode o mais próximo possível de zero em regime permanente

(“steady-state”), mesmo estando baseado num modelo aproximado ou na presença de

pequenas perturbações nos parâmetros originais da planta. Note que, na prática, nunca se tem

um modelo perfeito da planta e os valores de seus parâmetros físicos estão sujeitos a algum

tipo de variação, então, robustez é sempre um requisito importante [Franklin et al., 2002].

A contribuição principal deste trabalho é analisar a robustez dos sistemas de controle

indireto apresentados no capítulo anterior, com respeito aos erros de treinamento do

identificador neural e do controlador neural, com o objetivo de procurar determinar o valor do

máximo erro de controle permanente possível de ocorrer, em decorrência da utilização do

modelo identificado da planta na malha fechada de controle. Como resultado prático desta

análise, pretende-se estabelecer uma relação matemática que possa ser diretamente aplicada

para projetar qual a tolerância para o treinamento das redes neurais, de tal forma a limitar o

erro de controle permanente em uma faixa de desempenho aceitável.

Este capítulo será integralmente dedicado à análise de estabilidade e robustez dos

esquemas de Controle Híbrido Indireto e Controle Neural Indireto. Trata-se, portanto, da

parte de maior importância deste trabalho, por abordar um assunto desafiador que vem

despertando o interesse da comunidade científica nos últimos anos.

107

Page 90: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

VI.2 - ANÁLISE DE ESTABILIDADE

A análise de convergência e estabilidade das redes neurais aplicadas em sistemas de

controle tem sido tratada por vários autores, por exemplo, [Ng, 1997], [Haykin, 1999] e

[Spooner et al., 2002]. A análise adaptada para este trabalho foi originalmente desenvolvida

por [Ng, 1997] e baseia-se no Método Direto de Lyapunov. Esta análise será feita para planta

com atraso unitário, sem que isto cause perda de generalidade, somente para simplificar o

tratamento matemático e assim facilitar a sua compreensão.

O erro global para treinamento do identificador neural e do controlador neural em

cascata com o identificador neural, é dado respectivamente por:

[E k y k y kin ( ) ( ) $( )= −12

2] (VI.1)

[ 2)(ˆ)(Ref_21)( kykykE incn −=+ ] (VI.2)

O gradiente do erro global dado pelas expressões (VI.1) e (VI.2), com relação aos

parâmetros da rede neural, é calculado da seguinte maneira:

[ ]∂

∂∂

∂∂

E kW k

y k y k y kW k

e k y kW k

in

in

( )( )

( ) $( )$( )(

( )$( )( )

−= − −

= −−

1 1

1

) (VI.3)

[ ]∂∂

∂∂

∂∂

∂∂

∂∂

E kW k

y k y k y kW k

e k y ku k

u kW k

e k J k u kW k

cn in

cn in

cn in

+

+

+

−= − −

= −−

−−

= −−−

( )( )

_ ( ) $( )$( )( )

( )$( )( )

( )( )

( ) $( ) ( )( )

1 1

111

11

Ref

(VI.4)

108

Page 91: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Nas expressões de VI.1 a VI.4, é a saída do identificador neural e é a

saída do controlador neural, sendo que esta última também é a entrada da planta; as siglas cn

e in significam controlador neural e identificador neural, respectivamente.

)(ˆ ky )1( −ku

A função discreta de Lyapunov será composta por parcelas que contemplam o erro no

processo de treinamento e os erros ocorridos nos pesos sinápticos durante o treinamento da

rede neural (com apenas uma camada escondida), sendo dada por [Ng, 1997]

( )V k e k W k W k tr W k W k

V k V k V k

o o h h( ) ( ) ~ ( ) ~ ( ) ~ ( ) ~ ( )

( ) ( ) ( )

= + +

= + +

12

2

1 2 3

T T

(VI.5)

em que e representa o erro no processo de treinamento, W k , com

dimensões Jx1, e W k , com dimensões IxJ, representam os erros nos pesos

sinápticos durante o treinamento da rede neural, supondo que e

, i.e., que W e W são as matrizes dos pesos sinápticos ajustados da

camada de saída (“output layer”, referenciada pelo subescrito o ) e da camada escondida

(“hidden layer” , referenciada pelo subescrito h ) após o treinamento, respectivamente.

~ ( ) ( ) *W k Wo o= −

lim ( )k oW k W→∞

=

o

h

o

~ ( ) ( ) *W k Wh h= −

h*

o h

*

lim ( ) *

k hW k W→∞

= *

A variação da função de Lyapunov devido ao processo de treinamento será definida como

[ ] [ ][ ]

∆ ∆ ∆

V k V k V k V k V k V k V k

e k e k W k W k W k W k

tr W k W k W k W k

V k V k V k

o o o o

h h h h

( ) ( ( ) ( )) ( ( ) ( )) ( ( ) ( ))

( ) ( ) ~ ( ) ~ ( ) ~ ( ) ~ ( )

~ ( ) ~ ( ) ~ ( ) ~ ( )

( ) ( ) ( )

= + − + + − + + −

= + − + + + −

+ + + −

= + +

1 1 2 2 3 3

2 2

1 2 3

1 1 112

1 1 1

1 1

T T

T T

+ (VI.6)

109

Page 92: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A variação do erro de treinamento pode ser expressa como

e k e k e k

e k e kW k

W k tr e kW k

W ko

oh

h

( ) ( ) ( )

( ) ( )( )

( ) ( )( )

( )

+ = +

= +−

− +

1

11

11

∆ ∆∂

∂∂

T T (VI.7)

Aplicando a expressão na definição de ∆V)()()1( kekeke ∆+=+ 1(k) dada pela expressão

(VI.6), tem-se

[ ][ ][ ]

[ ]

∆ ∆

V k e k e k

e k e k e k e k

e k e k e k

12 21

21

12

1 1

12

2

( ) ( ) ( )

( ) ( ) ( ) (

( ) ( ) ( )

= + −

= + − + +

= +

)

∆ ∆ ∆

∆ ∆

∆ ∆

V k e k e k e k

e kW k

W k tr e kW k

W k

e k e kW k

W k tr e kW k

W k

oo

hh

oo

hh

112

11

11

12 1

1 12 1

1

( ) ( ) ( ) ( )

( )( )

( ) ( )( )

( )

( ) ( )( )

( ) ( )( )

( )

= +

=−

− +

+−

− +

∂∂

∂∂

∂∂

∂∂

T T

T T

x

=−

+

+

+

∂∂

∂∂

∂∂

∂∂

e kW k

W k e k e kW k

W k

tr e kW k

W k e k tr e kW k

W k

oo

oo

hh

hh

( )( )

( ) ( ) ( )( )

( )

( )( )

( ) ( ) ( )( )

( )

11 1

2 11

11 1

2 11

T T

T T

∆ ∆

∆ ∆

+

= + +

∂∂

∂∂

e kW k

W k tr e kW k

W k

V k V k V k

oo

hh

a b c

( )( )

( ) ( )( )

( )

( ) ( ) ( )

11

11

1 1 1

T T

∆ ∆

∆ ∆ ∆ (VI.8)

Feitas as considerações acima quanto à variação da função de Lyapunov, serão apresentados a

seguir os teoremas de estabilidade do identificador e do controlador baseados nas Redes

Neurais Multicamadas – RNM`s.

110

Page 93: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Teorema VI.1 (Convergência do Identificador Neural): “Sejam e as taxas de

aprendizagem da camada de saída e da camada escondida, respectivamente. Então para

garantir convergência e estabilidade, é suficiente encontrar as taxas de aprendizagem como se

segue:

ηino ηin

h

0 12< <ηin

o

o maxinD( ),

(VI.9)

0 12< <ηin

h

h maxinD( ),

(VI.10)

em que e são definidos como Do maxin, Dh max

in, D max Do max

in

k oin

, ( )= k e

D m kh maxin

k F, = ax Dhin ( ) , sendo D k y k

W koin( )$( )( )

=−

∂∂ 1o

in e D k y kW kh

in

hin( )$( )( )

=−

∂∂ 1

. Os símbolos

. e . F correspondem à norma Euclidiana e à norma de Frobenius, respectivamente.”

Prova: [Ng, 1997]

Da expressão (VI.8) , é dado por ∆V a1

∆ ∆ ∆V ke k

W kW k e k

e kW k

W k

e kW k

e k y kW k

e ke k

W k

ain

oin o

inin

in

oin o

in

in

oin in

oin

oin

inin

oin

1 11 1

2 11

11

1

12 1

( )( )

( )( ) ( )

( )( )

( )

( )( )

( )$( )

( )

( )( )

( )

=−

+

=−

−−

+−

∂∂

∂∂

∂∂

η∂∂

∂∂

T T

x

−−

= −−−

+−−

= −

T

η∂∂

η∂∂

η∂∂

ino

inoin

ino

inoin in

oin

oin

ain

in

e k y kW k

e k y kW k

e k y kW k

e k

( )$( )

( )

( )$( )

( )( ) ( )

$( )( )

( )

11

11

12

11

22

2 24

12Λ

(VI.11)

111

Page 94: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Fazendo D k y kW ko

in

oin( )$( )

( )=

−−

∂∂

11

e D max Do maxin

k oin

, ( )= k . Então

[ ]2

max,

2

22

1

)(2)(21

)(2)(21

ino

oin

oin

ino

ino

oin

oin

ino

ina

DkD

kDkD

η−η≥

η−η=Λ

(VI.12)

Das expressões (VI.11) e (VI.12) deduz-se que, para garantir convergência, o valor da taxa de

aprendizagem tem que ser escolhido como a seguir ηino

0 22< <ηin

o

o maxinD( ),

(VI.13)

Se η então a expressão (VI.12) também pode ser escrita como 2max,1 )( in

ooin Dη=

[ ]

Λ1

2 1

2

2

2

1

12

2

12

2

ain

oin

ino o

in

o maxin

oin

ino

D kD k

D

D k

= −

≥ −

( )( )

( )

( )

,

ηη

η η

(VI.14)

Da expressão (VI.14), para convergência e estabilidade deve atender 0 , ou

satisfazer

η1 21< <η

(VI.15) [ ]η ηino 2 1− > 0

η η1 1

2

20

( )( ),

−>

Do maxin (VI.16)

112

Page 95: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Da expressão (VI.16) decorre que a máxima taxa de aprendizagem que garante a

convergência mais rápida ou ótima equivale a , o que corresponde a η1 1=

ηino

o maxinD

*

,( )=

12 (VI.17)

que é igual a metade do limite superior do valor calculado pela expressão (VI.13).

Voltando à expressão (VI.8), é dado por ∆V b1

∆ ∆ ∆

Λ

V k tre k

W kW k e k tr

e kW k

W k

e k y kW k

e k y kW k

e k

bin

hin h

inin

in

hin h

in

inh

inhin

Finh

inhin

F

bin

in

1

22

2 24

12

11

11

11

12

11

( )( )

( )( ) ( )

( )( )

( )

( )$( )

( )( ) ( )

$( )( )

( )

=−

+

= −−−

+−−

= −

∂∂

∂∂

η∂∂

η∂∂

T T

(VI.18)

Fazendo D k y kW kh

in

hin( )$( )

( )=

−−

∂∂

11

e D max D kh maxin

k hin

F, ( )= . Então

[ ]2

max,

2

22

1

)(2)(21

)(2)(21

inh

hin

hinF

inh

F

inh

hin

hinF

inh

inb

DkD

kDkD

η−η≥

η−η=Λ

(VI.19)

113

Page 96: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A expressão (VI.19) deve satisfazer a mesma condição da expressão (VI.12) para que a

expressão (VI.18) seja negativa. Desta maneira, para convergência tem que ser escolhido

como

ηinh

0 22< <ηin

h

h maxinD( ),

e a taxa de aprendizagem ótima é 2max,

*

)1

ino

hinη

(D= .

Voltando à expressão (VI.8), é dado por ∆V c1

[ ] [ ] ∆ ∆ ∆

Λ

V ke k

W kW k tr

e kW k

W k

D k D k tr D k D k e k

e k

cin

oin o

in in

hin h

in

oin T

oin

ino

hin T

hin

inh

in

cin

in

1

2

12

11

11( )

( )( )

( )( )

( )( )

( ) ( ) ( ) ( ) ( )

( )

=−

=

=

∂∂

∂∂

η η

T T

(VI.20)

Fazendo e então

. Desta forma, Λ e podem ser reescritos como

[ ]Φo oin T

oin

inok D k D k( ) ( ) ( )= η

hk k) ( ) 1a

[ ] Φh hin T

hin

inhk tr D k D k( ) ( ) ( )= η

Λ Φ Φ1c o= ( Λ1b

[ ]Λ Φ Φ112

2a o ok k= −( ) ( )

[ ]Λ Φ Φ112

2b h hk k= −( ) ( )

Desde que a expressão (VI.20) é positiva, convergência e estabilidade somente são garantidas

se . Em decorrência Λ Λ Λ1 1a b+ > 1c

[ ] [ ]12

2 12

2Φ Φ Φ Φ Φ Φo o h h ok k k k k( ) ( ) ( ) ( ) ( ) ( )− + − > h k

[ ] [Φ Φ Φ Φo h o hk k k k( ) ( ) ( ) ( )+ − +

>1 1

20] (VI.21)

114

Page 97: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A expressão (VI.21) exige que Φ Φ . Então, para convergência e estabilidade é

suficiente escolher as taxas de aprendizagem do identificador neural como segue:

o hk k( ) ( )+ 2<

0 12< <ηin

o

o maxinD( ),

0 12< <ηin

h

h maxinD( ),

A seguir, serão analisadas as parcelas e da expressão (VI.6), que ainda

faltam para completar a análise variacional da função candidata de Lyapunov. Estas parcelas

correspondem ao erro nos pesos. Supondo que W esteja próximo do ponto de convergência

local e que , o erro do identificador neural pode ser aproximado por

∆V k2 ( ) ∆V k3 ( )

in

lim *

k

in inW W→∞

=

e k y k

W kW W k

y kW k

W k

in inin in

inin

( )$( )

( )[ (

$( )( )

~ ( )

*+ ≈+

= −+

1 1

1

∂∂

∂∂

T

T

)] (VI.22)

Então, da expressão (VI.6) e usando a expressão (VI.22), é dado por ∆V k2 ( )

[ ] [ ]∆V k W k W k W k W ko

in T

oin

oin T

oin

2 1 1( ) ~ ( ) ~ ( ) ~ ( ) ~ ( )= + + −

)1(

)1()1()()1(2

)()1(ˆ

)()1(ˆ

)1()(

)(~)()1(ˆ

)1(2)(

22

2222

T22

T

2

+Λ−=

++η++η−=

+∂

+∂+η

+

+∂+η=∆

ke

kDkeke

kWky

kWkyke

kWkW

kykekV

inin

inoin

oinin

oin

ino

ino

inoin

inoin

oin

oin

(VI.23)

115

Page 98: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

em que

[ ]2

max,

2

2

)(2

)1(2

ino

oin

oin

ino

oin

oin

in

D

kD

η−η≥

+η−η=Λ

(VI.24)

Conseqüentemente, a expressão (VI.24) deve satisfazer a mesma condição da expressão

(VI.19) para que a expressão (VI.23) seja negativa. Desta maneira, é suficiente que a taxa de

aprendizagem seja escolhida obedecendo a 0 . 12< <ηin

o

o maxinD( ),

Então, da expressão (VI.6) e usando a expressão (VI.22), é dado por ∆V k3 ( )

[ ] [ ]

)1(

)1()1()()1(2

)()1(ˆ

)()1(ˆ

)1()(

)(~)()1(ˆ

)1(2

)(~)(~)1(~)1(~)(

23

2222

T22

T3

+Λ−=

++η++η−=

+∂

+∂+η

+

+∂+η=

−++=∆

ke

kDkeke

kWky

kWkytrke

kWkW

kytrke

kWkWkWkWtrkV

inin

F

inhin

hinin

hin

inh

inh

inhin

inhin

hin

hin

inh

Tinh

inh

Tinh

(VI.25)

em que

[ ]2

max,

2

3

)(2

)1(2

inh

hin

hin

F

inh

hin

hin

in

D

kD

η−η≥

+η−η=Λ

(VI.26)

116

Page 99: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Conseqüentemente, a expressão (VI.26) deve satisfazer a mesma condição da expressão

(VI.19) para que a expressão (VI.25) seja negativa. Desta maneira, é suficiente que a taxa de

aprendizagem seja escolhida obedecendo a 0 . 12< <ηin

h

h maxinD( ),

O Teorema de Convergência Generalizado para as taxas de aprendizagem do

identificador neural será estabelecido a seguir:

Teorema VI.2 (Convergência Generalizada do Identificador Neural): “Para garantir

convergência e estabilidade, é suficiente escolher as taxas de aprendizagem da seguinte

maneira:

0 1< <ηin

o

p (VI.27)

[ ]( )2maxmax,)22(

10inin

o

hin

xwpdn +−<η< (VI.28)

em que d e n são o atraso e a ordem da planta, p e (2n-d+2) são os números de unidades

escondidas e entradas (incluindo o limiar de operação), respectivamente,

w max W ko maxin

k oin

, ( )=∞

, x max kmaxin

k hin=

∞φ ( ) e .

∞ é a norma infinito.”

Prova: [Ng, 1997]

Para a camada de saída

)()1(

)(ˆk

kWky in

oino

φ=−∂

∂ (VI.29)

117

Page 100: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

em que [ ] e é o valor da saída da j-ésima unidade

escondida e p é o número de unidades escondidas. Desde que

[φ ο ο οoin

hin

hin

hpink k k( ) ( ) , ( ) ,..., ( )

T= 1 2 ]k οhj

in

οhjin ≤ 1 , j = 1, 2, ...., p,

considerando que a função de ativação do neurônio seja sigmóide, e pela definição da norma

Euclidiana no Rp tem-se D pin ≤ e, em decorrência, Desta forma virá Din max, .2 = p

p

oin

10 <η< (VI.30)

Para a camada escondida, tem-se

∂∂

$( )( )

( ) ( ) ( ),

, ,y k

w kx k w k f k

h ijin i

ino jin

h j−= − ′

111

∂∂

φ$( )( )

( ) ( ) ( ),

, ,y k

W kk w k f k

h jin h

ino jin

h j−= − ′

111

[ ]∂∂

φ$( )( )

( ) ( )y kW k

k W khin h

infin

−=

1T

[ ]

ino

in

F

inf

inh

Fin

h

wxpdn

kWkkWky

max,max

T

)22(

)()()1(

)(ˆ

+−≤

φ=−∂

em que é o valor da maior entrada do identificador neural,

e . Em

conseqüência, virá

xmaxin

[woin (11[ ]W k k f k w k f k w k f kf

inh o

inh o p

inh p( ) ) ( ) , ( ) ( ) ,..., ( ) ( ), , , , , ,

T= − ′ − ′ − ′1 21 2 11 1 1 ] ′ =f h max, 1

[ ]( )2maxmax,)22(

10inin

o

hin

xwpdn +−<η< (VI.31)

118

Page 101: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Caso seja usada uma taxa de aprendizagem única para todos os neurônios do

identificador neural, i.e., para a camada de saída e a camada escondida, deve-se adotar o

menor valor entre os calculados pelas expressões (VI.27) e (VI.28), qual seja

(VI.32) η ηin ino

inhmin= ( ,η )

Teorema VI.3 (Convergência do Controlador Neural): “Sejam e as taxas de

aprendizagem da camada de saída e da camada escondida do controlador neural,

respectivamente. Então a convergência local é garantida se as taxas de aprendizagem e

forem encontradas como:

ηcno ηcn

h

ηcno

ηcnh

0 12

< <ηcno

max o maxcnJ D$ ( ),

2 (VI.33)

0 12

< <ηcnh

max h maxcnJ D$ ( ),

2 (VI.34)

em que D max Do maxcn

k ocn

, ( )= k , D max D kh maxcn

k hcn

F, ( )= , D ku k

W kocn o

cn

ocn( )

( )( )

=−

∂∂ 1 1

,

D ku k

W khcn o

cn

hcn( )

( )( )

=−

∂∂ 1

e , em que uinh

ino wwpJ max,max,max ..ˆ = o é a saída do controlador neural.”

119

Prova: [Ng, 1997]

Page 102: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Da expressão (VI.8), para o controlador é ∆V ka1 ( )

∆V ke k

W ke k

u kW k

e ke k

W ke k

u kW k

e k J ku kW k

acn in

ocn cn

ocn in

ocn

ocn

cn incn in

ocn cn

ocn in

ocn

ocn

cno

cn inocn

ocn cn

o

1

2 22

111

12 1

11

11

12

( )( )

( )( )

( )( )

( )( )

( )( )

( )( )

( ) $ ( )( )( )

( )

=−

−−

+−

−−

= −−−

+

++

++

+

+

∂∂

η∂∂

∂∂

η∂∂

η∂∂

η

T

T

x

2 2 44

12

11

e k J ku kW k

e k

cn inocn

ocn

acn

cn in

+

+

−−

= −

( ) $ ( )( )( )

( )

∂∂

Λ

(VI.35)

Comparando a expressão (VI.35) com a (VI.11), pode ser visto que ambas as condições são

similares, exceto pela existência do termo do Jacobiano estimado da planta, , também

conhecido como sensibilidade estimada da planta, o qual também é necessário para cálculo do

controlador. De maneira semelhante, a análise para e do controlador

neural é a mesma que foi feita para o identificador neural.

$J

∆V kb1 ( ) ∆V kc1 ( )

A seguir, será analisada a parte da função de Lyapunov correspondente a função do erro do

controlador. Supondo que W esteja próximo do ponto de convergência local e que

, o erro do controlador neural pode ser aproximado por

cn

lim ( ) *

k

cn cnW k W→∞

=

e k J k

u kW k

W W k

J ku kW k

W k

cn inocn

cncn cn

ocn

cncn

+ + ≈ ++

= − ++

( ) $( )( )

( )[ (

$( )( )

( )~ ( )

*1 11

11

∂∂

∂∂

T

T

)] (VI.36)

120

Page 103: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Da expressão (VI.6) e usando a expressão (VI.36), é dado por ∆V k2 ( )

[ ] [ ]

)1(

)1()1()1(ˆ)()1(2

)()1(

)()1(

)1()(

...)(~)()1(

)1(ˆ)1(2

)(~)(~)1(~)1(~)(

22

22222

T22

T2

+Λ−=

+++η++η−=

+∂

+∂+η

+

+∂++η=

−++=∆

+

++

+

+

ke

kDkekJke

kWku

kWku

ke

kWkW

kukJke

kWkWkWkWkV

incncn

cnoincn

ocnincn

ocn

cno

cno

cno

cno

incnocn

cnocn

o

cno

incnocn

cno

Tcno

cno

Tcno

(VI.37)

em que

[ ]2

max,2max

222

)(ˆ2

)1()1(ˆ2

cno

ocn

ocn

cno

ocn

ocn

cn

DJ

kDkJ

η−η≥

++η−η=Λ

(VI.38)

Desta maneira, é suficiente que a taxa de aprendizagem seja escolhida obedecendo a

0 12

< <ηcno

max o maxcnJ D$ ( ),

2. Esta é praticamente a mesma condição de estabilidade do

identificador neural, exceto pela inclusão do Jacobiano estimado da planta, , o qual também

é necessário para treinamento do controlador neural.

$J

De maneira semelhante é feita a análise para os pesos da camada escondida. Supondo que

é a entrada de controle para o identificador neural, então o Jacobiano )1()(12 −=+− kukxindn

estimado da planta é definido como se segue:

121

Page 104: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

(VI.39)

max

max,max,

1,1,12,,

''

ˆ)(

.).().()(ˆ

J

wwp

wwkfkfkJ

inh

ino

p

j

injo

indnjhho

≈ ∑=

+−

desde que e . O peso máximo na camada escondida é definido como ′ =f o 1 ′ =f h max, 1

w m kh maxin

k, ( )=∞

ax Whin . Desta forma,

0 12 2

< <ηcno

max o maxcnJ D$ ( ),

0 12 2

< <ηcnh

max h maxcnJ D$ ( ),

Desde que o controlador e o identificador neurais têm a mesma estrutura de redes

neurais multicamadas, o critério de convergência generalizado para o controlador neural pode

ser enunciado no próximo teorema.

Teorema VI.4 (Convergência Generalizada do Controlador Neural): “Para a garantir

convergência local e estabilidade do controlador neural, é suficiente escolher as taxas de

aprendizagem da seguinte maneira:

0 12

< <ηcno

maxpJ$ (VI.40)

[ ]( )2maxmaxmax,

ˆ)22(

10Jxwpdn cncn

o

hcn

+−<η< (VI.41)

122

Page 105: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

em que d e n são o atraso e a ordem da planta, p e (2n-d+2) são os números de unidades

escondidas e entradas (incluindo o limiar de operação), respectivamente,

w max W ko maxcn

k ocn

, ( )=∞

, x max kmaxcn

k hcn=

∞φ ( ) e .

∞ é a norma infinito.”

Prova: A prova deste teorema é similar a feita para o Teorema VI.3, observando-se apenas a

inclusão do Jacobiano estimado da planta.

Caso seja usada uma taxa de aprendizagem única para todos os neurônios do

controlador neural, i.e., para a camada de saída e a camada escondida, deve-se adotar o

menor valor entre os calculados pelas expressões (VI.40) e (VI.41), qual seja

(VI.42) η ηcn cno

cnhmin= ( , )η

VI.2.1 - ESTABILIDADE versus IMPLEMENTAÇÃO COMPUTACIONAL :

COMO GARANTIR ESTABILIDADE USANDO η-ADAPTATIVO

O método para melhoria de desempenho do η-adaptativo (vide Capítulo III - subseção

III.2.3.2.4) é recomendado para evitar a parada num mínimo local e para aumentar a

velocidade de convergência das redes neurais. Este método consiste em variar a taxa de

aprendizagem η (ETA) durante a etapa de treinamento da rede, buscando um valor ótimo que

permita a aceleração do processo de convergência dos pesos sinápticos.

123

Como a estabilidade da rede neural exige a limitação da taxa de aprendizagem, pode-

se inferir que, em algum instante do treinamento, o método do η-adaptativo poderia vir a

violar a condição de estabilidade prevista pelos teoremas apresentados nesta seção,

Page 106: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

comprometendo assim a convergência da rede neural. Para evitar que isso possa vir a ocorrer,

a implementação do η-adaptativo deve ser modificada, de modo a incluir uma condição que

imponha um limite ao valor da taxa de aprendizagem durante o treinamento da rede neural.

VI.3 - ANÁLISE DE ROBUSTEZ

Esta seção contém a principal contribuição deste trabalho. Em uma primeira etapa será

desenvolvida a análise de robustez para o Controlador Híbrido Indireto e, posteriormente, a

mesma análise será adequadamente estendida para o Controlador Neural Indireto. Porém,

para dar sustentação e melhor compreensão à análise propriamente dita, antes serão

estabelecidos alguns conceitos preliminares.

Definição VI.5: “Tomando como base a expressão (III.12), define-se erro global de

treinamento no tempo discreto, E(k+d), para uma rede neural possuindo somente uma saída,

como sendo

E(k+d) = [∑=

+−+NPTR

ppdke

1

2)1(21 ] , (VI.43)

em que NPTR é o número de pares de entrada-saída usado para treinamento e e(k+d–p+1)

é o erro local ocorrido para cada um desses pares durante a fase de treinamento da rede neural

no instante k+d–p+1. O par de treinamento mais recente é quando se faz p = 1 e o mais

antigo, quando se faz p = NPTR.

124

O erro local é calculado por

Page 107: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

) (VI.44) ()()( dkzdkοdke +−+=+

em que o é o valor desejado e z é o valor da saída corrente da rede neural. A rede neural

perceptron multicamadas é considerada treinada pelo método da Propagação Retroativa do

Erro - PRE (“backpropagation”) somente quando , sendo uma constante

não negativa, que é a tolerância especificada para a convergência da rede neural.”

E k d( )+ ≤ ε ε

Lema VI.6: “Seja um sistema de controle indireto composto de uma planta com

, e um identificador neural , com U e Y , cujo

objetivo é fazer a saída da planta seguir um valor de referência (“set-point”), ,

através do cálculo do sinal de controle u(k), tal que tenda para y_Ref(k+d).

Considerando que o Jacobiano estimado da planta existe e é diferente de zero , é

válido afirmar que existe um instante , a partir do qual ”

YUP →: ,

R⊂ˆ

y fRe_

ˆ( ≠J

c( .

R⊂YU , YXI ˆ: →

ck

22 +−⊂⊂ dnX R

)1( −+ dk

kkku >∀=∆ ,0)

Y∈

)0

y

Prova: Retomando a expressão (V.6), que estabelece a lei de controle para o sistema de

controle indireto, que é válida tanto para o sistema de Controle Híbrido Indireto quanto para o

sistema de Controle Neural Indireto (vide Capítulo V, subseção V.4), tem-se

u k u k y k d y k dJ k d

( ) ( ) _ ( ) $($( )

= − ++ − + −+ −

1 11

Ref ) (VI.45)

Manipulando matematicamente a expressão (VI.45), vem

125

Page 108: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

( ) ( ) ( ) ( )[ ] ( )1ˆ.11ˆRef_ −+−−=−+−+ dkJkukudkydky

( ) ( ) ( 1ˆ).(1ˆRef_ −+∆=−+−+ dkJkudkydky ) (VI.46)

Sabendo que o identificador após treinado é utilizado para determinar o valor do sinal de

controle tal que tenda para y_Ref(k+d), podemos concluir que existe um

instante k = k

)1(ˆ −+ dky

c , quando efetivamente a saída do identificador converge para o valor de

referência, a partir do qual a expressão (VI.46) passará a ter o seguinte valor

( ) ckkdkJku >∀−+∆= ,1ˆ).(0 (VI.47)

Considerando que , finalmente obtém-se 0ˆ ≠J

ckkku >∀=∆ ,0)( (VI.48)

ou seja, existe um instante k = kc , a partir do qual o sinal de controle permanecerá constante.

Lema VI.7: “A relação entre o erro local para cada par de treinamento p, ou seja

, e o correspondente erro global E(k + d), para uma rede neural de uma única )1( +−+ pdke

saída, é tal que a desigualdade

126

Page 109: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

)(2)1( dkEpdke +≤+−+

é verdadeira ∀ .” NPTRpdk ...,2,1,0, =≥

Prova: Partindo da expressão (VI.43), tem-se que o erro global é dado por

[ ] [ ] [ 222 )1(...)1()(21)( +−+++−+++=+ NPTRdkedkedkedkE ]

]

[ ] [ ] [ 222 )1(...)1()()(2 +−+++−+++=+ NPTRdkedkedkedkE

Por dedução matemática, ∀p, p = 1, 2, ..., NPTR, tem-se

[ ] )(2)1( 2 dkEpdke +≤+−+

[ ] )(2)1( 2 dkEpdke +≤+−+

Aplicando a propriedade do módulo, que afirma ee =2 [Antar et al., 1979], obtém-se

)(2)1( dkEpdke +≤+−+ (VI.49)

é verdadeira ∀ . NPTRpdk ...,,2,1,0, =≥

VI.3.1 - CONTROLADOR HÍBRIDO INDIRETO

127

Page 110: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

O sistema de Controle Híbrido Indireto (Figura V.1) é caracterizado por possuir um

controlador convencional ajustado indiretamente por um identificador neural.

Teorema VI.8 (Robustez do Erro de Controle ): “Seja um sistema de Controle Híbrido

Indireto de uma planta BIBO estável, dada pelos pares de entrada-saída [u(k) , y(k+d)].

Sendo Ωp o conjunto dos erros de controle de estado permanente, pp ω=Ω , dados por

, com )( Mdklim ckk0,u(k)

Mp

c

++ω=ω>∀=∆

∞→)()(fRe_)( ... yyc −=ω , pode-se afirmar que

inpsup ε≤Ω 2

em que . é um conjunto, kc é tal que , M é o intervalo de estabilização

da planta contado a partir de k

ckkku >∀=∆ ,0)(

0≥inc + d e é a tolerância especificada para convergência

do treinamento do identificador neural.”

ε

Prova: Reportando-se à expressão (V.6) do capítulo anterior, qual seja

u k u k y k d y k dJ k d

( ) ( ) _ ( ) $( )$( )

= − ++ − + −+ −

1 11

Ref

( ) ( ) ( ) ( )[ ] ( )1ˆ.11ˆRef_ −+−−=−+−+ dkJkukudkydky

e considerando que , tem-se )1()1()1(ˆ −+−−+=−+ dkedkydky in

( ) ( ) ( ) ( ) ( )[ ] ( )1ˆ.111Ref_ −+−−=−++−+−+ dkJkukudkedkydky in

128

Page 111: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

(VI.50) ( ) ( ) ( ) ( ) ( )11ˆ.1Ref_ −+−−+∆+−+=+ dkedkJkudkydky in

Subtraindo y(k+d) de ambos os membros da expressão (VI.50), virá

)1()1(ˆ).(

)1()()()(Ref_

−+−−+∆+

+−+++−=+−+

dkedkJku

dkydkydkydky

in

[ ]

)1()1(ˆ).(

)1()(

−+−−+∆+

−+−+−=

dkedkJku

dkydky

in

)1()1(ˆ).()( −+−−+∆++∆−= dkedkJkudky in

Supondo que o sinal de controle u(k) permaneça constante após o instante k = kc ,

exatamente quando o identificador neural converge, de tal maneira a forçar indiretamente que

y(k+d) tenda para y_Ref(k+d), então ∀ tem-se ckk >

)1()()()(Ref_ −+−+∆−=+−+ dkedkydkydky in (VI.51)

Extraindo o valor absoluto de (VI.51) e definindo o erro de controle como sendo

)()(Ref_)( dkydkydkc +−+=+ω , virá

)1()()()(Ref_ −+++∆=+−+ dkedkydkydky in

)1()()( −+++∆=+ω dkedkydk inc (VI.52)

Aplicando a desigualdade triangular, obtém-se

129

Page 112: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

)1()()( −+++∆≤+ω dkedkydk inc (VI.53)

Na expressão (VI.53), o primeiro termo do membro direito, que representa a dinâmica da

planta, tende para zero na medida que o tempo discreto aumenta a partir do instante kc + d,

onde kc é o instante no qual o sinal de controle fica constante para sempre, i.e., existe um

inteiro positivo M tal que

)1()()( −+++++∆≤++ω MdkeMdkyMdk inc

cujo limite, quando M tende para infinito (estado permanente), é dado por

)1()(,0)(

−++≤++ω>∀=∆

∞→MdkeMdklim inc

kkkuM

c

(VI.54)

Aplicando a expressão (VI.49) para o instante k + d + M – 1 e, de maneira conservativa ao

tomar para comparação somente o par de treinamento mais recente (p = 1), tem-se

)1(2)1( −++≤−++ MdkEMdke inin (VI.55)

Assim, das expressões (VI.54) e (VI.55) e tendo em vista que a parada do processo de

convergência do identificador neural somente ocorre quando a condição

é atendida, onde ε é a tolerância especificada pelo projetista,

obtém-se

inin MdkE ε≤−++ )1( 0≥in

130

Page 113: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

inc

kkkuM

Mdklimc

ε≤++ω>∀=∆

∞→2)(

,0)(

(VI.56)

Denominando de Ωp o conjunto dos erros de controle de estado permanente, qual seja

++ω=Ω>∀=∆

∞→)( Mdklim c

kk0,u(k)Mp

c

(VI.57)

e considerando que , deduz-se que Ω . Agora, aplicando o

operador supremum no conjunto de todos os possíveis erros de controle obtidos através da

expressão (VI.57), finalmente conclui-se que

)( Mdkcc ++ω=Ω cp Ω⊂

inpsup ε≤Ω 2 (VI.58)

em que M é o horizonte de estabilização da planta, contado a partir do instante kc + d.

Constata-se, como era intuitivo prever, que o maior erro de controle de estado

permanente possível de ocorrer no sistema de Controle Híbrido Indireto depende

exclusivamente da tolerância arbitrada para o treinamento do identificador neural.

Evidentemente, a validade deste teorema está condicionada à convergência do identificador

neural que, por sua vez, dependerá do valor da taxa de aprendizagem usado no treinamento da

correspondente rede neural [Ng, 1997].

ε in

VI.3.2 - CONTROLADOR NEURAL INDIRETO

131

Page 114: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A diferença básica entre os sistemas de Controle Híbrido Indireto (Figura V.1) e de

Controle Neural Indireto (Figura V.2) apresentados no capítulo anterior, é a maneira como o

controlador é implementado, já que ambos possuem em comum um identificador neural. No

primeiro, o controlador é simplesmente uma lei de controle analítica, enquanto no segundo o

controlador também é uma rede neural artificial.

Embora a implementação do controlador dá-se de maneira diferente, o cálculo do sinal

de controle u(k) a ser aplicado na planta, tal que a saída da planta y(k+d) seja o mais

próximo possível do sinal de referência y_Ref(k+d), segue rigorosamente os mesmos passos,

entretanto utilizando metodologias diferentes. Os passos para obtenção do valor do sinal de

controle u(k) são os seguintes:

1o passo: ler o par de treinamento [u(k-1) , y(k+d-1)],

2o passo: treinar o identificador neural, obtendo assim , $( )y k d+ −1

3o passo: usando o identificador neural treinado no passo anterior, calcular u(k) tal

que e, finalmente, $( ) _ (y k d y k d+ − = +1 Ref )

4o passo: aplicar u(k) na planta.

A diferença entre os sistemas de controle híbrido e totalmente neural ocorre somente

no 3o passo, pois no caso do híbrido, o cálculo de u(k) é feito usando-se a expressão (V.6)

desenvolvida no capítulo anterior, enquanto que, no caso do totalmente neural, o cálculo é

feito usando um controlador neural treinado em cascata com o identificador neural, este

último sendo mantido com os mesmos valores dos pesos sinápticos que foram obtidos na

etapa precedente de identificação da planta [Tanomaru e Omatu, 1992] e [Maitelli e Gabriel,

1996].

132

Page 115: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Teorema VI.9 (Robustez do Erro de Controle ): “Seja um sistema de Controle Neural

Indireto de uma planta BIBO estável, dada pelos pares de entrada-saída [u(k) , y(k+d)].

Sendo Ωp o conjunto dos erros de controle de estado permanente, pp ω=Ω , dados por

, com )1( −++ω=ω>∀=∆

∞→Mdklim c

kk0,u(k)Mp

c

)()(fRe_)( ... yyc −=ω , pode-se afirmar que

*22 incninpsup +ε+ε≤Ω

em que . é um conjunto, kc é tal que , M é o intervalo de estabilização

da planta contado a partir de k

ckkku >∀=∆ ,0)(

0, * ≥ε +incninc + d e ε são as tolerâncias especificadas para

convergência do treinamento do identificador e do controlador neurais, respectivamente. O

asterisco em in* significa que o identificador neural foi mantido com pesos fixos durante o

treinamento do controlador neural.”

Prova: Usando-se a expressão (VI.49) para o controlador neural em cascata com o

identificador neural, este último mantido com pesos sinápticos fixos, de maneira conservativa

ao tomar para comparação somente o erro local mais recente (p = 1), deduz-se que

)(2)( ** dkEdke incnincn +≤+ ++ (VI.59)

De acordo com a Figura V.2, verifica-se que .

Substituindo esta última relação em (VI.59), virá

)(ˆ)(Ref_)(* dkydkydke incn +−+=++

)(2)(ˆ)(Ref_ * dkEdkydky incn +≤+−+ + (VI.60)

133

Page 116: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Sabendo-se que , a expressão (VI.60) pode ser escrita como )()()(ˆ dkedkydky in +−+=+

)(2)()()(Ref_ * dkEdkedkydky incnin +≤+++−+ + (VI.61)

Aplicando a desigualdade triangular ao membro esquerdo da expressão (VI.61), virá

)(2)()()(Ref_ * dkEdkedkydky incnin +≤+−+−+ +

)()(2)()(Ref_ * dkedkEdkydky inincn +++≤+−+ + (VI.62)

Considerando que o erro de identificação não está disponível por depender do

valor de y(k+d) até então desconhecido, faz-se necessário escrever e em função de

, e assim retroativamente para d ≥ 1, ou seja

. Desta forma, tem-se

)( dkein +

)( dkin +

)1( −+ dkein

)( edkein =+ )()1( dkedk inin +∆+−+

)()1()(2)()(Ref_ * dkedkedkEdkydky ininincn +∆+−+++≤+−+ +

(VI.6

3)

Sabendo que o erro de controle é dado por )()(Ref_)( dkydkydkc +−+=+ω , virá

)()1()(2)( * dkedkedkEdk ininincnc +∆+−+++≤+ω + (VI.64)

134

Page 117: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Reordenando a expressão (VI.64) e considerando que o termo correspondente à variação do

erro de identificação, ∆ , tende a anular-se na medida em que o tempo discreto

aumenta a partir do instante k

)( dkein +

c + d, onde kc é o instante em que o sinal de controle u(k) fica

constante ∀ , ou seja, existe um M inteiro e positivo tal que ckk >

)(2)()1()( * MdkEMdkeMdkeMdk incnininc +++++∆+−++≤++ω +

(VI.65)

e considerando também que

1o) a planta é BIBO estável, de modo a garantir que os vetores de entrada do

controlador e do identificador neurais sejam limitados,

2o) o identificador neural faz a estimativa da planta a menos ou, na pior hipótese, igual

ao erro de treinamento escolhido pelo projetista, e ε in

3o) o sinal u(k) é comum à entrada do identificador neural e da planta,

pode-se afirmar que tomando o limite de (VI.65) quando M tende para infinito (estado

permanente), na suposição de que tem-se ckkku >∀=∆ ,0)( ,

)(2)1()( *,0)(

MdkEMdkeMdklim incninckkku

Mc

+++−++≤++ω +

>∀=∆∞→

(VI.66)

Agora, com base na expressão (VI.55), donde se deduz que inin Mdke ε≤−++ 2)1( , e

sabendo que , obtém-se ** )( incnincn MdkE ++ ε≤++

135

Page 118: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

*,0)(

22)( incninckkku

MMdklim

c

+

>∀=∆∞→

ε+ε≤++ω (VI.67)

em que é a tolerância especificada para convergência do treinamento do

identificador neural e é a tolerância especificada para convergência do

treinamento do controlador neural em cascata com o identificador neural, onde o identificador

é mantido com pesos sinápticos fixos durante todo o treinamento do controlador neural.

0≥εin

0* ≥ε +incn

Denominando de Ωp o conjunto dos erros de controle de estado permanente, qual seja

++ω=Ω>∀=∆

∞→)( Mdklim c

kk0,u(k)Mp

c

(VI.68)

e considerando que , deduz-se que Ω . Agora, aplicando o

operador supremum no conjunto de todos os possíveis erros de controle obtidos através da

expressão (VI.68), finalmente conclui-se que

)( Mdkcc ++ω=Ω cp Ω⊂

*22 incninpsup +ε+ε≤Ω (VI.69)

em que M é o horizonte de estabilização da planta, contado a partir do instante kc + d.

Constata-se, como era intuitivo esperar, que o maior erro de controle possível de

ocorrer no sistema de Controle Neural Indireto depende das tolerâncias especificadas para o

treinamento do identificador e do controlador neurais. Diante disso, é um bom procedimento

escolher tolerâncias que obedeçam a condição abaixo:

136

Page 119: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

, (VI.70) ε εin cn in≤ + *

e não o contrário, pois um maior esforço no treinamento do identificador neural em relação ao

controlador neural, além de contribuir para a redução do erro de controle, também favorece o

aumento na velocidade de convergência da planta para o valor de referência (“set-point”).

VI.4 - CONCLUSÕES

Neste capítulo foram analisadas as questões relacionadas com a estabilidade e a

robustez de sistemas de controle indireto usando redes neurais, em consonância com a linha

de pesquisa proposta neste trabalho.

Na parte de Análise de Estabilidade, foram apresentados teoremas que estabelecem

condições que limitam o valor da taxa de aprendizagem [Ng, 1997], de maneira a garantir

a convergência das redes neurais utilizadas, tanto para o esquema de Controle Híbrido

Indireto quanto para o esquema de Controle Neural Indireto.

η

Ainda em se tratando da análise de estabilidade, também foram feitas considerações

que visaram adequar a implementação computacional do método η-adaptativo, apresentado

no Capítulo III deste trabalho e que é recomendado para acelerar a convergência do

treinamento dos dispositivos neurais usados nos sistemas de controle indireto, às condições de

estabilidade das Redes Neurais Multicamadas - RNM`s.

Em seqüência, tratou-se da Análise de Robustez, que constitui a principal contribuição

deste trabalho, sendo propostos critérios matemáticos rigorosos que permitem calcular o

limite do erro de controle em função da tolerância especificada previamente para

convergência das redes neurais, i.e., foram desenvolvidas expressões que possibilitam avaliar

a robustez dos esquemas de controle apresentados, com respeito aos erros do processo de 137

Page 120: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

treinamento das redes neurais, tanto para o sistema de Controle Híbrido Indireto quanto para

o sistema de Controle Neural Indireto.

Quanto ao problema da robustez, embora esteja sendo definida com respeito aos erros

do processo de treinamento das redes neurais, é imediato concluir que a mesma também

engloba os erros de modelagem e/ou variações de parâmetros da planta, isto devido às redes

neurais serem consideradas aproximadores universais [Haykin, 1999] de funções

matemáticas.

É interessante registrar que as técnicas de controle foram implementadas e testadas

computacionalmente, passo a passo, tomando-se como exemplo o controle de algumas

plantas. As simulações computacionais realizadas confirmaram todos os valores esperados, o

que possibilitou verificar a confiabilidade das propostas matemáticas apresentadas para dar

uma solução às questões relativas à estabilidade e à robustez dos esquemas de controle neural

indireto.

Finalmente, ressalta-se a simplicidade do cálculo do máximo erro de controle de

estado permanente (“steady-state”) que, certamente, constitui um atrativo para aplicação

prática dos esquemas apresentados neste trabalho, o que será mostrado no próximo capítulo

através da simulação computacional do controle de algumas plantas retiradas da literatura

técnica especializada [Slotine e Li, 1991], [Ng, 1997] e [Adetona et al., 2001].

138

Page 121: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

CAPÍTULO VII

EXEMPLOS

139

Page 122: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

VII.1 - INTRODUÇÃO

Os exemplos que serão apresentados neste capítulo têm a finalidade de demonstrar a

eficiência dos sistemas de Controle Híbrido Indireto e do Sistema Neural Indireto, quando

aplicados no controle de plantas retiradas da literatura técnica, assim como comprovar a

validade e a aplicabilidade dos respectivos Teoremas de Robustez, que constituem a principal

contribuição deste trabalho. Os exemplos selecionados foram os seguintes:

Exemplo 1: Controle de nível de um reservatório de seção transversal variável [Slotine e Li,

1991]. É um processo não-linear de 1a ordem. Este exemplo é similar ao que foi utilizado no

trabalho elaborado por [Maitelli e Gabriel, 1996].

Exemplo 2: Controle de uma planta não-linear polinomial [Ng, 1997]. Trata-se de uma

planta de 1a ordem e atraso de transporte unitário, contendo não-linearidades polinomiais

simultaneamente nos sinais de entrada e de saída. Foi incluído um teste simulando a aplicação

de uma perturbação no sinal de saída da planta.

Exemplo 3: Controle de uma planta não-linear periódica [Adetona et al., 2001]. Este

exemplo é uma planta não-linear de 2a ordem e atraso de transporte unitário, com diversos

termos senoidais de freqüências diferentes. Foram incluídos testes simulando a ocorrência de

uma variação nos valores dos parâmetros da planta.

VII.2 - EXEMPLO 1: CONTROLE DE NÍVEL DE UM RESERVATÓRIO

132

Page 123: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

O sistema a ser considerado é um reservatório de seção transversal variável mostrado

na Figura VII.1 [Slotine e Li, 1991]. A válvula de entrada é controlada de maneira a manter o

nível constante em um valor previamente estabelecido, designado por y_Ref. A válvula de

saída pode ser manipulada externamente e é mantida fixa durante a etapa de equalização do

nível. Trata-se, portanto, de um sistema não-linear de 1a ordem, cujo esquema é o seguinte:

Figura VII.1: Reservatório

A dinâmica do reservatório é modelada pela equação diferencial de 1a ordem

( ) ( )( )[ ]

( )( )[ ]tyA

tgyAtyAtq

dttdy se 2

+= (VII.1)

em que t indica o tempo em segundo, y(t) é o nível em metros a ser controlado, qe(t) e qs(t)

são as vazões de entrada e de saída do reservatório em m3/s, respectivamente, As é a área da

seção transversal de saída do reservatório e g é a aceleração da gravidade igual a 10m/s2. Foi

considerado que A[y(t)] = A0 + [y(t)]2, onde A0 é a área da seção transversal em m2. Para

efeito de cálculo, foram atribuídos os seguintes valores: A0 = 1m2 , As = 0,1A0, sendo adotado

um período de amostragem Ts = 1s. O método usado para simulação da planta foi o Runge-

Kutta de 4a ordem. O objetivo é, partindo-se de um nível inicial, atingir e manter o nível

133

Page 124: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

desejado para o reservatório durante um determinado intervalo de tempo previamente

estipulado, que são:

Nível inicial = 1m Níveis desejados = 2m (0s t 200s) ≤ ≤

= 3m (200s < t 400s) ≤

= 2m (400s < t 600s) ≤

= 3m (600s < t 800s) ≤

Um atuador mantém o sinal de controle limitado, de tal forma que a vazão de entrada

fique restrita ao intervalo 0 q≤ e(t) ≤ 1m3/s.

VII.2.1 - SISTEMA DE CONTROLE HÍBRIDO INDIRETO

A simulação computacional do sistema de Controle Híbrido Indireto foi realizada

usando um identificador neural com as seguintes características:

Número de camadas de nós: 3

Número de nós por camada: 2, 5 e 1

Número de vetores de treinamento (p): 2

Funções de ativação: sigmóide bipolar, para as camada escondida, e

linear, para a camada de saída

Tolerância para convergência da RNA (εin): 1.0E-03

Os resultados obtidos são mostrados nos gráficos abaixo:

134

Page 125: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0k

0

0 .0 0

1 .0 0

2 .0 0

3 .0 0

4 .0 0

5 .0 0

6 .0 0

Saída da Planta

R eferenciaS aída da P lanta

0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0 0( x P eriod o d e A m ostragem ) s

0 .00 0 0

0 .2 0 0 0

0 .4 0 0 0

0 .6 0 0 0

0 .8 0 0 0

1 .0 0 0 0

1 .2 0 0 0

1 .4 0 0 0

Sinal de Controle u ( k ) , m3/s

0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0 0( x P eriod o d e A m ostragem ) s

0 .00 0 0

0 .1 0 0 0

0 .2 0 0 0

0 .3 0 0 0

0 .4 0 0 0

0 .5 0 0 0

0 .6 0 0 0

0 .7 0 0 0

0 .8 0 0 0

0 .9 0 0 0

1 .0 0 0 0

1 .1 0 0 0

1 .2 0 0 0

1 .3 0 0 0

1 .4 0 0 0

1 .5 0 0 0

1 .6 0 0 0

1 .7 0 0 0

1 .8 0 0 0

1 .9 0 0 0

2 .0 0 0 0

Erro de Controle

Figura VII.2: Controle de Nível - y , u e ωc (Controle Híbrido Indireto)

Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de

Controle Híbrido Indireto encontram-se rigorosamente dentro do limite estabelecido pelo

135

Page 126: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Teorema VI.8 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos na

tabela abaixo para comparação.

Tabela VII.1: Erros de Controle de Nível (Controle Híbrido Indireto)

εin

(tolerância)

inε2

(limite de erro)

k

(iteração)

ωp

(erro de controle)

1,0E-03 44,72E-03 200 30,85E-03

1,0E-03 44,72E-03 400 17,32E-03

1,0E-03 44,72E-03 600 5,615E-03

1,0E-03 44,72E-03 800 24,03E-03

VII.2.2 - SISTEMA DE CONTROLE NEURAL INDIRETO

O identificador e o controlador neurais usados têm as seguintes características básicas:

Identificador Neural (in)

Número de camadas de nós: 2

Número de nós por camada: 2 e 1

Número de vetores de treinamento (p): 3

Funções de ativação: linear

Tolerância para convergência da RNA (εin): 1.0E-03

Controlador Neural (cn)

136

Page 127: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Número de camadas de nós: 3

Número de nós por camada: 2, 5 e 1

Número de vetores de treinamento (p): 3

Funções de ativação: sigmóide bipolar, para as camada escondida, e

linear, para a camada de saída

Tolerância para convergência da RNA (εcn+in*): 1.0E-03

Foram usadas as seguintes técnicas para melhoria de desempenho do algoritmo PRE:

Randomização;

η-adaptativo.

A simulação do controle do nível do reservatório apresentou os seguintes resultados

gráficos:

0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0 0( x P eriod o d e A m ostragem ) s

0 .00 0 0

1 .0 0 0 0

2 .0 0 0 0

3 .0 0 0 0

4 .0 0 0 0

5 .0 0 0 0

6 .0 0 0 0

Nível ( m

)

R eferênciaS aída da P lanta

Figura VII.3(a): Controle de Nível - y (Controle Neural Indireto)

137

Page 128: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0 0( x P eriod o d e A m ostragem ) s

0 .00 0 0

0 .2 0 0 0

0 .4 0 0 0

0 .6 0 0 0

0 .8 0 0 0

1 .0 0 0 0

1 .2 0 0 0

1 .4 0 0 0

Sinal de Controle u ( k ) , m3/s

0 .0 0 2 0 0 .0 0 4 0 0 .0 0 6 0 0 .0 0 8 0 0 .0 0( x P eriod o d e A m ostragem ) s

0 .00 0 0

0 .1 0 0 0

0 .2 0 0 0

0 .3 0 0 0

0 .4 0 0 0

0 .5 0 0 0

0 .6 0 0 0

0 .7 0 0 0

0 .8 0 0 0

0 .9 0 0 0

1 .0 0 0 0

1 .1 0 0 0

1 .2 0 0 0

1 .3 0 0 0

1 .4 0 0 0

1 .5 0 0 0

1 .6 0 0 0

1 .7 0 0 0

1 .8 0 0 0

1 .9 0 0 0

2 .0 0 0 0

Erro de Controle

Figura VII.3(b): Controle de Nível - u e ωc (Controle Neural Indireto)

Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de

Controle Neural Indireto também se encontram rigorosamente dentro do limite estabelecido

pelo Teorema VI.9 (Robustez do Erro de Controle), conforme tabela abaixo.

Tabela VII.2: Erros de Controle de Nível (Controle Neural Indireto)

εin , εcn+in*

(tolerância)

*22 incnin +ε+ε

(limite de erro)

k

(iteração)

ωp

(erro de controle)

1,0E-03 89,44E-03 200 33,74E-03

1,0E-03 89,44E-03 400 38,12E-03

1,0E-03 89,44E-03 600 2,769E-03

1,0E-03 89,44E-03 800 31,15E-03

138

Page 129: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

VII.3 - EXEMPLO 2: CONTROLE DE UMA PLANTA NÃO-LINEAR POLINOMIAL

[NG, 1997]

O objetivo desta simulação é mostrar que os algoritmos dos sistemas propostos de

controle neural, além de serem capazes de controlar uma planta contendo não-linearidades nos

sinais de entrada e de saída, também atendem os Teoremas de Robustez apresentados neste

trabalho. O sistema a ser controlado foi retirado do livro de [Ng, 1997] e sua equação,

desconsiderando o termo do ruído (este termo foi removido para viabilizar a finalidade da

simulação, que é a verificação da robustez), tem a seguinte forma:

y k y ky k

u k( ) ( )( )

( )+ =+

+11 2

3 (VII.2)

VII.3.1 - SISTEMA DE CONTROLE HÍBRIDO INDIRETO

A simulação computacional do sistema de Controle Híbrido Indireto foi realizada

usando um identificador neural com as seguintes características:

Número de camadas de nós: 3

Número de nós por camada: 2, 8 e 1

Número de vetores de treinamento (p): 2

Funções de ativação: sigmóide bipolar, para as camada escondida, e

linear, para a camada de saída

Tolerância para convergência da RNA (εin): 1.0E-03

139

Page 130: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Os resultados obtidos são mostrados nos gráficos abaixo:

0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0k

0

0 .0 0

1 .0 0

2 .0 0

3 .0 0

4 .0 0

5 .0 0

6 .0 0

7 .0 0

Saída da Planta

R eferenciaS aída da P lanta

0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0k

0

0 .0 00 .1 00 .2 00 .3 00 .4 00 .5 00 .6 00 .7 00 .8 00 .9 01 .0 01 .1 01 .2 01 .3 01 .4 01 .5 01 .6 01 .7 01 .8 01 .9 02 .0 02 .1 02 .2 02 .3 02 .4 02 .5 02 .6 02 .7 02 .8 02 .9 03 .0 0

Sinal de Controle

0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0k

0

0 .0 0

0 .1 0

0 .2 0

0 .3 0

0 .4 0

0 .5 0

0 .6 0

0 .7 0

0 .8 0

0 .9 0

1 .0 0

1 .1 0

1 .2 0

1 .3 0

1 .4 0

1 .5 0

1 .6 0

1 .7 0

1 .8 0

1 .9 0

2 .0 0

Erro de Controle

Figura VII.4: Planta da expressão (VII.2) - y , u e ωc (Controle Híbrido Indireto)

Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de

Controle Híbrido Indireto encontram-se rigorosamente dentro do limite estabelecido pelo

140

Page 131: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Teorema VI.8 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos na

tabela abaixo para comparação.

Tabela VII.3: Erro de Controle da expressão (VII.2) (Controle Híbrido Indireto)

εin

(tolerância)

inε2

(limite de erro)

k

(iteração)

ωp

(erro de controle)

1,0E-03 44,72E-03 200 29,44E-03

VII.3.2 - SISTEMA DE CONTROLE NEURAL INDIRETO

O identificador e o controlador neurais usados têm as seguintes características básicas:

Identificador Neural (in)

Número de camadas de nós: 2

Número de nós por camada: 2 e 1

Número de vetores de treinamento (p): 2

Funções de ativação: linear;

Tolerância para convergência da RNA (εin): 1.0E-03

Controlador Neural (cn)

Número de camadas de nós: 3

Número de nós por camada: 2, 8 e 1

141

Page 132: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Número de vetores de treinamento (p): 2

Funções de ativação: sigmóide bipolar, para as camada escondida, e

linear, para a camada de saída

Tolerância para convergência da RNA (εcn+in*): 1.0E-03

Foram usadas as seguintes técnicas para melhoria de desempenho do algoritmo PRE:

Randomização;

η-adaptativo.

A simulação do controle da planta não-linear da expressão (VII.2) apresentou os

seguintes resultados gráficos:

0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0k

0

0 .0 0

1 .0 0

2 .0 0

3 .0 0

4 .0 0

5 .0 0

6 .0 0

7 .0 0

Saída

R eferênciaS aída da P lanta

Figura VII.5(a): Planta da expressão (VII.2) - y (Controle Neural Indireto)

142

Page 133: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0k

0

0 .0 00 .1 00 .2 00 .3 00 .4 00 .5 00 .6 00 .7 00 .8 00 .9 01 .0 01 .1 01 .2 01 .3 01 .4 01 .5 01 .6 01 .7 01 .8 01 .9 02 .0 02 .1 02 .2 02 .3 02 .4 02 .5 02 .6 02 .7 02 .8 02 .9 03 .0 0

Sinal de Controle

0 .0 0 4 0 .0 0 8 0 .0 0 1 2 0 .0 0 1 6 0 .0 0 2 0 0 .0 0

0 .0 0

0 .1 0

0 .2 0

0 .3 0

0 .4 0

0 .5 0

0 .6 0

0 .7 0

0 .8 0

0 .9 0

1 .0 0

1 .1 0

1 .2 0

1 .3 0

1 .4 0

1 .5 0

1 .6 0

1 .7 0

1 .8 0

1 .9 0

2 .0 0

Erro de Controle

Figura VII.5(b): Planta da expressão (VII.2) - u e ωc (Controle Neural Indireto)

Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de

Controle Neural Indireto também se encontram rigorosamente dentro do limite estabelecido

pelo Teorema VI.9 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos

na tabela abaixo para comparação.

Tabela VII.4: Erro de Controle da expressão (VII.2) (Controle Neural Indireto)

εin , εcn+in*

(tolerância)

*22 incnin +ε+ε

(limite de erro)

k

(iteração)

ωp

(erro de controle)

1,0E-03 89,44E-03 200 64,16E-03

143

Page 134: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Ainda com respeito a este exemplo, o algoritmo de Controle Neural Indireto foi

testado para verificar a sua capacidade de retomar o controle da planta após a ocorrência de

uma perturbação. A perturbação foi aplicada em k = 300, equivalente a um desvio de 20% da

saída de estado permanente que vinha sendo mantida pela planta, conforme figuras abaixo:

0 .0 0 1 0 0 .00 2 0 0 .0 0 3 0 0 .0 0 4 00 .0 0k

0 .0 0

2 .0 0

4 .0 0

6 .0 0

Erro de Con

trole , Sinal de Con

trole e Saída da Planta

R eferênciaS aída da P lanta

S inal de C ontrole

Erro de C ontrole

P erturbação

Figura VII.6: Planta da expressão(VII.2) c/ perturbação - y, u e ωc (Controle Neural Indireto)

Os erros de controle de estado permanente, após a ocorrência da perturbação, também

se encontram rigorosamente dentro do limite estabelecido pelo Teorema VI.9 (Robustez do

Erro de Controle), cujos resultados encontram-se transcritos na tabela abaixo para

comparação.

Tabela VII.5: Erros de Controle da expressão (VII.2) c/ perturbação(Controle Neural Indireto)

εin , εcn+in*

(tolerância)

*22 incnin +ε+ε

(limite de erro)

k

(iteração)

ωp

(erro de controle)

1,0E-03 89,44E-03 200 62,07E-03

1,0E-03 89,44E-03 400 62,07E-03

144

Page 135: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

VII.4 - EXEMPLO 3: CONTROLE DE UMA PLANTA NÃO-LINEAR PERIÓDICA

[ADETONA ET AL., 2001]

Neste exemplo, o objetivo é validar os Teoremas de Robustez apresentados neste

trabalho, através do controle de uma planta contendo não-linearidades senoidais de

freqüências variadas. A eficiência dos sistemas de controle também será testada para situações

que contemplam a ocorrência de variações nos parâmetros físicos da planta. O sistema a ser

controlado foi retirado de um trabalho de [Adetona et al., 2001]. Trata-se de uma planta não-

linear de 2a ordem com atraso de transporte unitário, cuja equação é a seguinte:

+

−++−++

+−++−++++=+

))(cos(1))1()((2)]1()(9[1.0

)]1()(2))1()((8.0[sin4.0))]1()((8.0cos[2.0)1(

kykukukyky

kukukykykykyky

(VII.3)

VII.4.1 - SISTEMA DE CONTROLE HÍBRIDO INDIRETO

A simulação computacional do sistema de Controle Híbrido Indireto foi realizada

usando um identificador neural com as seguintes características:

Número de camadas de nós: 3

Número de nós por camada: 4, 8 e 1

Número de vetores de treinamento (p): 2

Funções de ativação: sigmóide bipolar, para as camada escondida, e

linear, para a camada de saída;

Tolerância para convergência da RNA (εin): 1.0E-03

145

Page 136: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Os resultados obtidos são mostrados nos gráficos abaixo:

0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k

0

0 .0 0

0 .2 0

0 .4 0

0 .6 0

0 .8 0

1 .0 0

1 .2 0

1 .4 0

1 .6 0

1 .8 0

2 .0 0

Saída da Planta R eferência

S aída da P lanta

0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k

0

-1 .0 0

-0 .9 0

-0 .8 0

-0 .7 0

-0 .6 0

-0 .5 0

-0 .4 0

-0 .3 0

-0 .2 0

-0 .1 0

0 .0 0

0 .1 0

0 .2 0

0 .3 0

0 .4 0

0 .5 0

0 .6 0

0 .7 0

0 .8 0

0 .9 0

1 .0 0

Sinal de Controle

0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k

0

0 .0 0

0 .1 0

0 .2 0

0 .3 0

0 .4 0

0 .5 0

0 .6 0

0 .7 0

0 .8 0

0 .9 0

1 .0 0

1 .1 0

Erro de Controle

Figura VII.7: Planta da expressão (VII.3) - y , u e ωc (Controle Híbrido Indireto)

146

Page 137: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de

Controle Híbrido Indireto encontram-se rigorosamente dentro do limite estabelecido pelo

Teorema VI.8 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos na

tabela abaixo para comparação.

Tabela VII.6: Erro de Controle da expressão (VII.3) (Controle Híbrido Indireto)

εin

(tolerância)

inε2

(limite de erro)

k

(iteração)

ωp

(erro de controle)

1.0E-03 44,72E-03 400 23,55E-03

Agora, o teste será realizado introduzindo uma variação brusca nos parâmetros da planta, com a finalidade de verificar a eficiência do sistema de controle na estabilização da planta com parâmetros modificados.

Os resultados obtidos para uma variação de +25% nos valores originais dos

parâmetros da planta foram os seguintes:

0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0 0k

-1.0 0

-0.8 0

-0.6 0

-0.4 0

-0.2 0

0.0 0

0.2 0

0.4 0

0.6 0

0.8 0

1.0 0

1.2 0

1.4 0

1.6 0

1.8 0

2.0 0

Sinais de Con

trole e de Saída da Plant

a

R eferênciaS aída da P lanta

Variação nos parâm etros da P lanta

S inal de C ontrole

Figura VII.8: Planta da expressão (VII.3) com variação de +25% em seus parâmetros - u e y

(Controle Híbrido Indireto)

147

Page 138: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Na Figura VII.8 observa-se claramente que, após ter sido introduzida uma variação

nos parâmetros da planta, o sistema de controle efetuou o cálculo, em tempo real (“on-line”),

do novo valor do sinal de controle necessário para estabilizar novamente a saída da planta

próximo do valor de referência (“set-point”), comprovando assim a robustez do sistema de

Controle Híbrido Indireto, apesar da ocorrência de uma perturbação estruturada no modelo

original da planta [Bhattacharyya, 1987].

Os erros de controle cometidos foram os seguintes:

0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k

0

0 .0 0

0 .1 0

0 .2 0

0 .3 0

0 .4 0

0 .5 0

0 .6 0

0 .7 0

0 .8 0

0 .9 0

1 .0 0

1 .1 0

Erro de Con

trole

Figura VII.9: Planta da expressão (VII.3) com variação de +25% em seus parâmetros.

Erro de Controle - ωc (Controle Híbrido Indireto)

Os erros de controle de estado permanente, antes e após a ocorrência de variação nos

parâmetros da planta, também se encontram rigorosamente dentro do limite estabelecido pelo

Teorema VI.8 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos na

tabela abaixo para comparação.

148

Page 139: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Tabela VII.7: Erros de Controle da expressão (VII.3) c/ variação nos parâmetros da planta

(Controle Híbrido Indireto)

εin

(tolerância)

inε2

(limite de erro)

k

(iteração)

ωp

(erro de controle)

1,0E-03 44,72E-03 200 2,57E-03

1,0E-03 44,72E-03 400 0,96E-03

VII.4.2 - SISTEMA DE CONTROLE NEURAL INDIRETO

O identificador e o controlador neurais usados têm as seguintes características básicas:

Identificador Neural (in)

Número de camadas de nós: 2

Número de nós por camada: 4 e 1

Número de vetores de treinamento (p): 2

Funções de ativação: linear

Tolerância para convergência da RNA (εin): 1.0E-03

Controlador Neural (cn)

Número de camadas de nós: 3

Número de nós por camada: 4, 8 e 1

Número de vetores de treinamento (p): 2

149

Page 140: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Funções de ativação: sigmóide bipolar, para as camada escondida, e

linear, para a camada de saída

Tolerância para convergência da RNA (εcn+in*): 1.0E-03

Foram usadas as seguintes técnicas para melhoria de desempenho do algoritmo PRE:

Randomização;

η-adaptativo.

A simulação do controle da planta não-linear da expressão (VII.3) apresentou os

seguintes resultados gráficos:

0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0 0k

0.00

0 .2 0

0 .4 0

0 .6 0

0 .8 0

1 .0 0

1 .2 0

1 .4 0

1 .6 0

1 .8 0

2 .0 0

Saída da Planta

R eferênciaS aída da P lanta

Figura VII.10(a): Planta da expressão (VII.3) - y (Controle Neural Indireto)

150

Page 141: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k

0

-1 .0 0

-0 .9 0

-0 .8 0

-0 .7 0

-0 .6 0

-0 .5 0

-0 .4 0

-0 .3 0

-0 .2 0

-0 .1 0

0 .0 0

0 .1 0

0 .2 0

0 .3 0

0 .4 0

0 .5 0

0 .6 0

0 .7 0

0 .8 0

0 .9 0

1 .0 0

Sinal de Controle

0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k

0

0 .0 0

0 .1 0

0 .2 0

0 .3 0

0 .4 0

0 .5 0

0 .6 0

0 .7 0

0 .8 0

0 .9 0

1 .0 0

1 .1 0

Erro de Controle

Figura VII.10(b): Planta da expressão (VII.3) - u e ωc (Controle Neural Indireto)

Os erros de controle de estado permanente (“steady-state”) cometidos pelo sistema de

Controle Neural Indireto também se encontram rigorosamente dentro do limite estabelecido

pelo Teorema VI.9 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos

na tabela abaixo para comparação.

Tabela VII.8: Erro de Controle da expressão (VII.3) (Controle Neural Indireto)

εin , εcn+in*

(tolerância)

*22 incnin +ε+ε

(limite de erro)

k

(iteração)

ωp

(erro de controle)

1,0E-03 89,44E-03 400 40,70E-03

151

Page 142: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Da mesma maneira feita com o sistema de Controle Híbrido Indireto, foi realizado um

teste introduzindo uma variação brusca nos parâmetros da planta, com a finalidade de

verificar a eficiência do sistema de controle na estabilização da planta com parâmetros

modificados.

Os resultados obtidos para uma variação de +25% nos valores originais dos

parâmetros da planta foram os seguintes:

0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0 0k

-1.0 0

-0.8 0

-0.6 0

-0.4 0

-0.2 0

0.0 0

0.2 0

0.4 0

0.6 0

0.8 0

1.0 0

1.2 0

1.4 0

1.6 0

1.8 0

2.0 0

Sinais de Con

trole e de Saída da Plant

a

R eferênciaS aída da P lanta

S inal de C ontrole

Variação nosparâm etros da P lanta

Figura VII.11: Planta da expressão (VII.3) com variação de +25% em seus parâmetros - u e y

(Controle Neural Indireto)

Na Figura VII.11 observa-se claramente que, após ter sido introduzida uma variação

nos parâmetros da planta, o sistema de controle efetuou o cálculo, em tempo real (“on-line”),

do novo valor do sinal de controle necessário para estabilizar novamente a saída da planta

próximo do valor de referência (“set-point”), comprovando assim a robustez do sistema de

Controle Neural Indireto, apesar da ocorrência de uma perturbação estruturada no modelo

original da planta [Bhattacharyya, 1987].

152

Page 143: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Os erros de controle cometidos foram os seguintes:

0 .0 0 1 0 0 .0 0 2 0 0 .0 0 3 0 0 .0 0 4 0 0 .0k

0

0 .0 0

0 .1 0

0 .2 0

0 .3 0

0 .4 0

0 .5 0

0 .6 0

0 .7 0

0 .8 0

0 .9 0

1 .0 0

1 .1 0

Erro de Con

trole

Figura VII.12: Planta da expressão (VII.3) com variação de +25% em seus parâmetros

Erro de Controle - ωc (Controle Neural Indireto)

Os erros de controle de estado permanente, antes e após a ocorrência de variação nos

parâmetros da planta, também se encontram rigorosamente dentro do limite estabelecido pelo

Teorema VI.9 (Robustez do Erro de Controle), cujos resultados encontram-se transcritos na

tabela abaixo para comparação.

Tabela VII.9: Erros de Controle da expressão (VII.3) c/variação nos parâmetros da planta

(Controle Neural Indireto)

εin , εcn+in*

(tolerância)

*22 incnin +ε+ε

(limite de erro)

k

(iteração)

ωp

(erro de controle)

1,0E-03 89,44E-03 200 21,87E-03

1,0E-03 89,44E-03 400 20,43E-03

153

Page 144: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

VII.5 - CONCLUSÕES

Neste capítulo, 3 (três) exemplos de plantas com dinâmica não-linear foram usadas

para testar a eficiência dos esquemas de controle apresentados neste trabalho - Controle

Híbrido Indireto e Controle Neural Indireto, e, principalmente, comprovar a validade e a

aplicabilidade dos Teoremas de Estabilidade e de Robustez, sendo que estes últimos

correspondem às contribuições de maior importância dentro deste trabalho.

Os resultados apresentados mostraram que todas as simulações comportaram-se de

modo estável e os erros de controle de estado permanente (“steady-state”) mantiveram-se

dentro dos valores esperados, apesar dos erros inerentes ao treinamento das redes neurais,

demonstrando assim tratarem de sistemas robustos. Adicionalmente, constatou-se que o

sistema de Controle Neural Indireto mostrou-se mais eficiente no controle de regulação das

plantas testadas, por apresentar menor tempo de acomodação.

É importante ressaltar que nenhum pré-treinamento foi feito nos dispositivos neurais

utilizados nas malhas de controle, embora se reconheça a necessidade de fazê-lo no caso de

vir a usar estes esquemas no problema servo, i.e., no controle de seguidor de modelo de

referência (“model following”). Neste caso, o pré-treinamento do identificador neural, usando

um sinal persistentemente excitante [Åström e Wittenmark, 1989] aplicado à planta, justifica-

se pela necessidade do modelo ter que aprender não somente a operação da planta em um

ponto (regulação), mas nos diversos pontos de operação pelos quais o sistema poderá

excursionar durante o processo de controle. Com relação ao problema do controle de

regulação tratado neste trabalho, o pré-treinamento do identificador neural com um sinal

persistentemente excitante, certamente reduzirá as oscilações indesejadas (“chatterings”) que

ocorrem no início do controle em cada ponto de operação, minimizando assim o transitório

inicial.

154

Page 145: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A constatação mais importante é a comprovação da validade dos Teoremas de

Robustez em todos os testes realizados, tanto para o sistema de Controle Híbrido Indireto

quanto para o sistema de Controle Neural Indireto. Observou-se que para todos os casos

testados, inclusive para outras plantas hipotéticas não apresentadas nos exemplos deste

trabalho, o erro de controle de estado permanente observado, ωp, comportou-se abaixo do

limite de erro calculado através dos respectivos Teoremas de Robustez.

Ressalta-se, também, a eficiência dos controladores empregados em re-estabilizar o

sistema de controle de malha fechada, após a aplicação de perturbações no sinal de saída da

planta ou, até mesmo, após a variação dos parâmetros da planta, apresentando assim a

propriedade de estabilização robusta [Bhattacharyya, 1987].

A utilização dos Teoremas da Robustez permitirá ao projetista de controle neural

indireto estabelecer antecipadamente a tolerância para convergência dos dispositivos neurais,

de modo a atender requisitos de desempenho relacionados com o erro de controle no estado

permanente (“steady-state error”), desde que seja garantida a estabilidade do identificador

neural e do controlador neural usados nos esquemas de controle de malha fechada [Ng, 1997].

155

Page 146: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

CAPÍTULO VIII

CONCLUSÕES

156

Page 147: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Sistemas baseados em redes neurais da classe feedforward perceptron multicamadas,

com os parâmetros ajustados pelo método de descida do gradiente (“backpropagation”), são

bons mapeadores de funções matemáticas, prestando-se, portanto, para utilização como

identificador e controlador para plantas não-lineares com dinâmica desconhecida. No presente

trabalho, foram mostrados dois esquemas de controle - Controle Híbrido Indireto e o

Controle Neural Indireto.

O primeiro deles, o Controle Híbrido Indireto, foi desenvolvido neste trabalho e

constitui uma contribuição para a área de Controle Inteligente. A denominação de híbrido é

devido ao identificador ser neural, enquanto que o controlador é uma Lei de Controle baseada

no Jacobiano estimado da planta, e que é obtida através da interpretação adequada do papel do

identificador neural dentro da malha de controle. É interessante registrar que um sistema de

controle similar foi desenvolvido em trabalho recente apresentado por [Adetona et al., 2001],

cuja pesquisa contou com suporte financeiro da NASA/USA.

O segundo esquema de controle - Controle Neural Indireto já havia sido mostrado em

um trabalho anterior, ocasião em que foram estudados aspectos relativos a melhoria do tempo

de treinamento das redes neurais, utilizando técnicas auxiliares de desempenho [Maitelli e

Gabriel, 1996], [Gabriel, 1996] e [Maitelli e Gabriel, 1997], as quais são indicadas para

encontrar heuristicamente uma metodologia que atenda simultaneamente os requisitos de

tempo e de desempenho.

Desta vez, o escopo principal deste trabalho está relacionado somente com o requisito

de desempenho do sistema de controle, mais especificamente com a robustez de sistemas de

controle indireto com respeito aos erros de treinamento das redes neurais. Além disso,

ressalta-se que o requisito relativo ao tempo de treinamento das redes neurais está cada dia

menos preocupante, tendo em vista o aumento considerável na velocidade dos sistemas

computacionais ocorrido nas últimas décadas.

141

Page 148: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Portanto, o presente trabalho apresentou ferramentas que permitem especificar

previamente a tolerância para convergência de cada um dos dispositivos neurais usados nos

sistemas de controle indireto - híbrido e neural, de modo a atender o máximo erro admitido

para o valor de saída da planta. Estas ferramentas são os Teoremas da Estabilidade [Ng,

1997], que aplicadas em conjunto com os Teoremas de Robustez possibilitam ao projetista de

sistemas de controle inteligente uma abordagem segura e eficiente para o projeto de sistemas

de controle indireto usando as Redes Neurais Artificiais - RNA`s.

Os requisitos para a garantia de estabilidade, conforme demonstrado nos Teoremas de

Estabilidade, são implementados diretamente na parte do programa correspondente ao método

de otimização η-adaptativo, através da limitação da constante de aprendizagem.

Os Teoremas de Estabilidade e Robustez foram testados no controle de regulação de

três plantas não-lineares retiradas da literatura técnica e que foram mostrados no corpo desta

tese na forma de exemplos. As malhas de controle de cada exemplo foram simuladas

computacionalmente em tempo real (“on-line”), i.e., sem a utilização de pré-treinamento dos

respectivos dispositivos neurais. Certamente, o pré-treinamento do identificador neural com

um sinal persistentemente excitante traria uma melhora significativa no transitório inicial

ocorrido em cada exemplo apresentado, além de viabilizar o seu emprego seguro em

problema servo (rastreamento) ou seguidor de modelo de referência.

Todos os exemplos implementados validaram os teoremas apresentados, com destaque

para os Teoremas de Robustez, por se tratar da contribuição original mais importante deste

trabalho, que pode ser aplicado com facilidade no projeto de sistemas de controle indireto

usando as Redes Neurais Artificiais - RNA`s.

Os Teoremas de Robustez permitiram determinar a priori o valor do máximo erro de

controle de estado permanente (“steady-state”), para cada exemplo testado

142

Page 149: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

computacionalmente, em função da tolerância escolhida para a parada do processo de

convergência das redes neurais usadas nos respectivos esquemas de controle indireto.

Resumindo, as principais contribuições desta tese, foram as seguintes:

1a) desenvolvimento matemático de uma Lei de Controle para o esquema de

Controle Híbrido Indireto;

2a) proposição e demonstração dos Teoremas de Robustez, quer seja para o

esquema de Controle Híbrido Indireto quer seja para o esquema de Controle

Neural Indireto;

3a) teste, através de simulações computacionais, dos Teoremas de Estabilidade

e Robustez aplicados aos esquemas de Controle Híbrido Indireto e de Controle

Neural Indireto.

Desta maneira, conclui-se que este trabalho apresentou novas ferramentas de análise e

projeto de sistemas de controle inteligente, que se mostraram capazes de superar algumas das

limitações atualmente impostas à Teoria de Controle Linear, e de serem confiáveis sob os

aspectos de estabilidade e robustez, mesmo quando submetido à perturbações no sinal de

saída ou à variações nos parâmetros da planta.

Como sugestão para estudos futuros, propõe-se:

1a) extensão e adequação de conceitos, assim como o cálculo de parâmetros de

desempenho, existentes na Teoria de Controle Clássico para a Teoria de

Controle Inteligente, tais como: sobresinal (“overshoot”), tempo de

acomodação (“settling time”), perturbação crítica, margem de estabilidade e

outros que possam ser aplicáveis;

143

Page 150: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

2a) estudo para estimar a ordem (n) e o atraso de transporte (d) de plantas não-

lineares;

3a) avaliação da conseqüência no desempenho do sistema de controle de malha

fechada, assim como a proposição de uma estratégia alternativa eficiente, caso

o tempo total de treinamento das redes neurais (Tt) exceda o período de

amostragem da planta (Ts), ou seja, para o caso em que Tt > Ts;

4a) análise de estabilidade e robustez dos esquemas de controle desenvolvidos

neste trabalho, usando a Teoria das Desigualdades Matriciais Lineares (“LMI`s

- Linear Matrix Inequalities”);

5a) extensão da análise de robustez para o problema servo (rastreamento) ou

seguidor de modelo de referência.

Finalizando, acredita-se que este trabalho tenha contribuído técnica e cientificamente

para a construção de uma Teoria de Controle Inteligente, que seja apropriada para atender aos

anseios da sociedade por equipamentos com melhor desempenho.

144

Page 151: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

REFERÊNCIAS BIBLIOGRÁFICAS

Adetona, O., Sathananthan, S. e Keel, L. H., (2001). Robust Nonlinear Adaptive Control

Using Neural Networks. In: Proc of the American Control Conference, pp. 3884/3889.

Arlington, VA. USA.

Antar, A. Neto, Sampaio, J. L. P., Lapa, N. e Cavallantte, S. L., (1979). Conjuntos e Funções.

Editora Moderna Ltda. São Paulo. SP. Brasil.

Åström, K. J. e Wittenmark, B., (1989). Adaptive Control. Addison - Wesley. Reading,

Massachusetts. USA.

Åström, K. J. e Wittenmark, B., (1990). Computer-Controlled Systems. Prentice-Hall

International, Inc. New Jersey. USA.

Aguirre, L. A., (2000). Introdução à Identificação de Sistemas. Editora UFMG. Belo

Horizonte, MG. Brasil.

Bhattacharyya, S. P., (1987). Robust Stabilization Against Structured Perturbations. Springer-

Verlag. Berlin. Germany.

Cichocki, A. e Unbehauen, R., (1993). Neural Networks for Optimization and Signal

Processing. John Wiley & Sons. West Sussex. England.

Demuth, H. e Beale, M., (1992). Neural Network Toolbox User’s Guide. The MathWorks,

Inc. Massachusetts. USA.

Faleiros, A. C. e Yoneyama, T., (2002). Teoria Matemática de Sistemas. Editora Arte &

Ciência. São Paulo. SP. Brasil.

145

Page 152: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Franklin, G. F., Powell, J. D. e Emami-Naeini, A., (2002). Feedback Control of Dynamic

Systems. Editora Prentice-Hall, Inc. New Jersey. USA.

Friedlander, A., (1994). Elementos de Programação Não-Linear. Editora UNICAMP.

Campinas, São Paulo. Brasil.

Gabriel, O. Filho, (1996). Um Esquema de Controle Adaptativo Neural com Treinamento em

Tempo Real. Dissertação de Mestrado. Universidade Federal do Rio grande do Norte-

UFRN. Natal, Rio Grande do Norte. Brasil

Haykin, S., (1999). Redes Neurais. Artmed Editora Ltda. Porto Alegre, Rio Grande do Sul.

Brasil.

Khalil, H. K., (1996). Nonlinear Systems. Prentice-Hall, Inc. New Jersey. USA.

Levin, A.U., e Narendra, K.S., (1996). Control of Nonlinear Dynamical Systems Using

Neural Networks - IEEE Transactions on Neural Networks, Vol. 7, No. 1, pp. 30-42. USA.

Maitelli, A. L. e Gabriel, O. Filho, (1996). Um Esquema de Controle Adaptativo Neural com

Treinamento “On-Line”. Anais do 7o Congreso Latinoamericano de Control Automatico-

LACC-IFAC, Volumen 2, pp. 887-892. Buenos Aires. Argentina.

Maitelli, A. L. e Gabriel, O. Filho, (1997). Um Controlador Adaptativo Neural Aplicado a

uma Planta Não-Linear. Anais do III Congresso Brasileiro de Redes Neurais. pp. 466-471.

Florianópolis, SC. Brasil.

Narendra, K. S. e Parthasarathy, K., (1990). Identification and control of dynamical system

using neural networks. IEEE Transactions on Neural Networks, Vol. 1, No. 1, pp. 4-27.

USA.

Naylor, A. W. e Sell, G. R., (1982). Linear Operator Theory in Engineering and Science.

Springer-Verlag New York Inc. New York, NY. USA.

146

Page 153: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Ng, G. W. (1997). Application of Neural Networks to Adaptive Control of Nonlinear Systems.

Research Studies Press Ltd. London. England.

Nφrgaard, M., Rvn, O., Poulse, N. K. e Hansen, L. K., (2001). Neural Networks for Modelling

and Control of Dynamic Systems. Springer-Verlag London Limited. London. England.

Pansalkar, V. V. e Sastry, P. S., (1994). Analysis of the Back-Propagation Algorithm with

Momentum. IEEE Transactions on Neural Networks, Vol. 5, No. 3, pp. 505-506. USA.

Phillips, C. L. e Harbor, R. D., (2000). Feedback Control Systems. Editora Prentice-Hall, Inc.

New Jersey. USA.

Rezende, J. A. D. e Maitelli, A. L., (1999a). Um Estudo Comparativo entre Diferentes

Técnicas de Otimização do Treinamento de Neurocontroladores. Anais do IV Congresso

Brasileiro de Redes Neurais. pp. 209-214. São José dos Campos, SP. Brasil.

Rezende, J. A. D. e Maitelli, A. L., (1999b). Um Esquema de Neurocontrole com

Treinamento em Tempo Real Aplicado ao Posicionamento de um Servomotor. Anais do 4o

Simpósio Brasileiro de Automação Inteligente. pp. 98-103. São Paulo, SP. Brasil.

Rivals, I., Canas, D., Personnaz, L. e Dreyfus, G., (1994). Modeling and Control of Robots

and Intelligent Vehicles by Neural Networks. In: Proc of the IEEE Conference on

Intelligent Vehicles. Paris. France.

Rumelhart, D. E., McClelland, J. L. e The PDP Group, (1986a). Parallel Distributed

Processing: Explorations in the Microstructure of Cognition, Vols. 1 e 2.The MIT Press.

Cambridge. Massachusetts. USA.

Slotine, J. J. E. e Li, W., (1991). Applied Nonlinear Control. Prentice-Hall, Inc. New Jersey.

USA.

Spooner, J. T, Maggiore, M., Ordónez, R. e Passino, K. M., (2002). Stable Adaptive Control

and Estimation for Nonlinear Systems. John Wiley & Sons Inc. New York. USA.

147

Page 154: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Tanomaru, J. e Omatu, S., (1992). Process Control by On-Line Trained Neural Controllers.

IEEE Transactions on Industrial Electronics, Vol. 39, No.6. USA.

Werbos, P. J., (1989). Backpropagation and neurocontrol : A review and prospectus, in Proc.

IJCNN’89, , pp. I-209/I-216. Washington, DC. USA.

148

Page 155: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

APÊNDICE A

METODOLOGIA DA PROPAGAÇÃO RETROATIVA DO ERRO - PRE

(“ERROR BACKPROPAGATION”)

149

Page 156: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A.1 - INTRODUÇÃO

O objetivo do Método da Propagação retroativa do Erro – PRE é encontrar uma regra

capaz de ajustar os pesos sinápticos da rede neural com base em um conjunto de pares de

entrada-saída, denominados padrões de aprendizagem. A questão pode ser colocada da

seguinte forma: se os pesos sinápticos w forem considerados como elementos de uma matriz

W, então o processo de aprendizagem consiste na determinação da matriz W* que minimiza

uma função erro global (ou função custo) E, fixada previamente, e que de alguma forma deve

ser baseada no erro de saída da rede.

O método PRE executa o ajuste (ou adaptação) dos pesos sinápticos de uma rede

neural, de acordo com a seguinte expressão:

W [c+1] = W [c] + ∆W [c] (A.1)

em que ∆W é a matriz de ajuste do pesos sinápticos no ciclo de adaptação [c] , cujos

elementos são calculados por

∂∂

−=∆wEw η (A.2)

onde η é a taxa de aprendizagem e wE ∂∂ é o gradiente da função erro global E em

relação a cada peso sináptico w. A função escolhida para o erro global E é

E = (= =

−NPTR

p

K

kkpkp zo

1 1

2,,2)∑∑1 (A.3)

para p = 1, 2,..., NPTR.

Natal / RN - Brasil Março 2004

em que o é a saída desejada e z é a saída corrente da rede neural.

Page 157: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A seguir é iniciado o desenvolvimento matemático da metodologia da Propagação

Retroativa do Erro, que, na primeira fase, consiste em ajustar (ou adaptar) os valores dos

pesos sinápticos w de cada conexão existente entre os neurônios da camada de saída e os da

camada precedente, de maneira que o erro global E seja igual ou menor que uma tolerância

previamente estabelecida, i.e, tal que e, na segunda fase, ainda perseguindo o

propósito de minimizar o erro global E , consiste em ajustar os pesos sinápticos w de cada

conexão existente entre os neurônios da última camada intermediária (ou escondida) e os da

camada precedente e assim sucessivamente, fazendo com que o sinal de erro se propague

retroativamente até ajustar a primeira matriz W

ε≤E

[1] da RNM.

É oportuno registrar que esta metodologia executa o ajuste dos pesos sinápticos no

sentido da saída para a entrada (“backward”), enquanto que a evolução da rede se dá no

sentido da entrada para a saída (“forward”). Apenas para simplicidade expositiva, sem perda

de generalidade, o raciocínio será conduzido para um sinal de entrada (p = 1) e uma camada

escondida, podendo, entretanto, ser estendido para configurações maiores.

A.2 - AJUSTE DOS PESOS SINÁPTICOS CONECTADOS À CAMADA DE SAÍDA

Tem o objetivo de encontrar uma expressão matemática que possibilite executar o

ajuste dos pesos sinápticos da matriz que conecta a camada de saída com a camada escondida

precedente, neste caso representada por W[o] , que atenda a tolerância estabelecida para o erro

global da rede. Visando também a simplicidade de exposição, será omitido o índice ‘o’ (de

“output”) da matriz W[o] e de seus respectivos elementos. O ajuste ∆W é uma matriz cujos

elementos são calculados em cada ciclo de ajuste [c] (ou época) por

Natal / RN - Brasil Março 2004

Page 158: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

∆wE

wk jk j

,,

= −

η

∂∂

(A.4)

O objetivo é desenvolver a expressão contida dentro dos parênteses acima, de tal foma

que a influência dos pesos sinápticos no erro global E possa ser calculada através de

variáveis de rede facilmente acessíveis. Para isso deriva-se parcialmente E em relação a wk,j,

aplicando a Regra da Cadeia para introduzir a variável intermediária NETk , ou seja

∂∂

∂∂

∂∂

Ew

ENET

NETwk j k

k

k j, ,

= (A.5)

Veja que

∂∂

∂NETw

w y

wk

k j

k j jk

K

k j,

,

,=

=∑

1

=( )∂

w y

wk j j

k jk

K ,

,=∑

1

=( ) ( ) ( )∂

w y

w

w y

w

w y

wj j

k j

k j j

k j

K j j

k j

1,

,

,

,

,

,... ...+ + + +

= (A.6) y j

Natal / RN - Brasil Março 2004

Page 159: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Denominando-se de δ k a parcela do erro de saída produzido pelo k-ésimo neurônio, devido

a influência de NETk , tem-se :

δ k = − (A.7) ∂

∂E

NETk

Aplicando (A.6) e (A.7) na expressão (A.5), o resultado será

∂∂

δE

wy

k jk= − j

y

]

(A.8)

Substituindo (A.8) na expressão (A.4), virá finalmente

(A.9) ∆wk j k j, = η δ

para j = 1, 2, ..., J e k = 1, 2, ..., K. Esta expressão é conhecida como Regra Delta para

ajuste dos pesos sinápticos que interligam os neurônios da camada de saída com os da camada

precedente. Substituindo (A.9) na expressão do PRE (A.1), tem-se :

[ ] [ ] [ [w w yk j

ck jc

k j

c

, ,+ = +1 ηδ

] (A.10)

Passando a expressão (A.10) para a forma vetorial, virá

W [c+1] = W [c] + [η δ saída YT][c] (A.11)

Natal / RN - Brasil

Março 2004

Page 160: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

A Regra Delta para a camada de saída apresentada pela expressão (A.9) acima, pode

ser melhor explicitada para facilitar o seu cálculo. Para atingir este objetivo parte-se da

relação de dependência existente entre as variáveis E , zk e NETk , dada por

(A.12) ( ) ([E NET E z NETk k= )]k

Sabendo-se que

δ (A.13) ∂

∂kk

ENET

= −

Agora aplicando a Regra da Cadeia para introduzir a variável intermediária zk , virá

δ (A.14) ∂∂

∂∂k

k

k

k

Ez

zNET

= −

Considerando que

zk = fk(NETk) (A.15)

onde fk(.) é a função de ativação escolhida para os neurônios da última camada da RNM,

podendo ser qualquer função contínua e derivável, virá imediatamente que

(∂∂

zNET

f NETk

kk= ′ )k (A.16)

Natal / RN - Brasil Março 2004

Page 161: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

e que

( )

k

K

kkk

k z

zo

zE

−∂

=∂∂ ∑

=1

2

21

=( )∑

=

∂−∂K

k k

kk

zzo

1

2

21

= ( ) ( )∑=

∂−∂

−K

k k

kkkk z

zozο

1

= ( ) ( ) ( ) ( )......11

11 +∂−∂

−ο++∂−∂

−k

kkkk

k zzo

zz

zozο

( ) ( )k

KKKK z

zozο∂−∂

−+...

= (A.17) ( kk zo −− )

)

Substituindo (A.16) e (A.17) em (A.14) tem-se a expressão prática para o cálculo do erro δk ,

qual seja

(A.18) ( ) ( kkkkk NETfzo ′−=δ

que aplicado em (A.9) dá

Natal / RN - Brasil Março 2004

Page 162: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

(A.19) ( ) ( jkkkkjk yNETfzow ′−η=∆ , )

]

Os pesos sinápticos que conectam a camada de saída com a camada precedente podem ser,

então, atualizados por

[ ] [ ] ( ) ( )[ [cjkkkk

cjk

cjk yNETfzoww ′−η+=+

,1

,] (A.20)

onde [c] é o sobrescrito que indica o ciclo de atualização.

A expressão (A.20) serve para atualizar os pesos sinápticos da última matriz de

qualquer RNM, neste caso a matriz W[o]. Esta primeira fase é importante no processo de

aprendizagem das RNM’s, porém, para completar este processo, ainda é necessário

desenvolver uma expressão matemática que permita executar a adaptação dos outros pesos

sinápticos que conectam os neurônios das camadas escondidas entre si. Este é o objetivo da

próxima fase da metodologia de aprendizagem PRE.

A.3 - AJUSTE DOS PESOS SINÁPTICOS QUE CONECTAM A CAMADA ESCONDIDA COM A ENTRADA (OU DUAS CAMADAS ESCONDIDAS)

Nesta fase a atenção está voltada para a matriz W[h] (o índice h vem de “hidden”),

cujos elementos constituem-se dos pesos sinápticos wj,i que interligam os neurônios da

camada intermediária (ou camada escondida) com a entrada da rede neural. Vale adiantar que,

Natal / RN - Brasil Março 2004

Page 163: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

caso a RNM possuir mais do que 3 camadas, a metodologia que ora será desenvolvida para

adaptação da matriz W[h] , também se aplicaria às outras matrizes que conectam as camadas

escondidas entre si de maneira retroativa, isto quer dizer, obedecendo o sentido que vai da

última camada escondida para a entrada da RNM.

O procedimento inicial é semelhante àquele descrito na primeira fase, exceto onde

aparece os subescritos k,j , que passam a ser substituídos por j,i , os quais, de acordo com a

nomenclatura adotada, significam j o neurônio de destino e i o neurônio de origem. Desta

vez, visando também a simplicidade de exposição, será omitido o índice h da matriz W[h] e

de seus respectivos elementos, pois nesta fase somente a mesma será objeto de manipulação

matemática. O ajuste dos pesos sinápticos é obtido aplicando-se o Método do Gradiente, de

acordo com as expressões (A.1) e (A.2), sendo que, desta vez, o termo ∆W que aparece na

expressão (A.2) é uma matriz cujos elementos são calculados por

∆wE

wj ij i

,,

= −

η

∂∂

(A.21)

Mais uma vez, o objetivo é desenvolver a expressão contida dentro dos parênteses acima, de

tal forma que a influência dos pesos sinápticos no erro global E possa ser calculada através

de variáveis de rede de fácil acesso. Para isso, deriva-se parcialmente E em relação a wj,i ,

aplicando a Regra da Cadeia para introduzir a variável intermediária NETj , ou seja

∂∂

∂∂

∂E

wE

NETNETwj i j

j

j i, ,

= (A.22)

Observa-se que

Natal / RN - Brasil Março 2004

Page 164: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

NETw

w x

wj

j i

j i ij

J

j i,

,

,=

=∑

1

=( )∂

w x

wj i i

j ij

J ,

,=∑

1

=( ) ( ) ( )∂

w x

w

w x

w

w x

wi i

j i

j i i

j i

J i i

j i

1,

,

,

,

,

,... ...+ + + +

= (A.23) xi

Denominando-se de δ j a parcela do erro produzido pelo j-ésimo neurônio da camada

escondida, devido a influência de NETj , virá :

δ j = −∂

∂E

NETj (A.24)

Aplicando (A.23) e (A.24) na expressão (B.22), virá então

∂∂

δE

wx

j ij i

,= − (A.25)

Substituindo (A.25) na expressão (A.21) virá finalmente

Natal / RN - Brasil Março 2004

Page 165: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

∆wj,i = η δ j xi (A.26)

para i = 1, 2, ..., I e j = 1, 2, ..., J. Esta é a expressão da conhecida Regra Delta (vide

expressão A.9), que aqui encontra-se adequada para uso na atualização dos pesos sinápticos

da camada escondida, os quais são atualizados da seguinte maneira

(A.27) [ ] [ ] [ [ ]w w xj i

cj ic

j i

c

, ,+ = +1 ηδ ]

Passando a expressão (A.27) para a forma vetorial, tem-se

W [c+1] = W [c] + [η δ escondida X T][c] (A.28)

A expressão (A.27) e sua equivalente vetorial (A.28) tem um grande inconveniente que deve

ser contornado, que é o cálculo do sinal de erro δ da camada escondida, que não é possível

fazer diretamente. Para resolver este problema, usam-se variáveis de rede que sejam

facilmente acessíveis, conforme demonstrado a seguir.

Partindo-se da definição de δ j dado por (A.24), e aplicando a Regra da Cadeia para

introduzir a variável intermediária yj ,virá

δ ∂

∂jj

ENET

= −

=−∂∂

∂Ey

yNETj

j

j (A.29)

Natal / RN - Brasil Março 2004

Page 166: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

O objetivo é substituir os fatores que aparecem na expressão acima, de maneira a possibilitar

o cálculo do sinal de erro gerado por cada neurônio j escondido. Decorre de imediato que

(A.30) (y f NETj j= )j

onde fj(.) é a função de ativação escolhida para os neurônios da camada escondida da RNM,

podendo ser qualquer função contínua e derivável. Derivando a expressão (A.30) em relação a

NETj, tem-se a expressão que substituirá o segundo fator que aparece na expressão (A.29),

que é

(∂

yNET

f NETj

jj= ′ )j (A.31)

Agora, para desenvolver o primeiro fator que aparece na expressão (A.29), deriva-se o erro

global E em relação a yj , ou seja

( )( )( )

∂∂

=∂∂ ∑

=

2

121 K

kjkkk

jj

yNETfoyy

E

= ( ) ( )( )[ ]jkk

K

k jkk yNETf

yzo∑

= ∂∂

−−1

= ( ) ( ) ( )[ ]j

jkkk

K

kkk y

yNETNETfzo

∂′−−∑

=1 (A.32)

Natal / RN - Brasil Março 2004

Page 167: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

Sabendo-se que

(A.33) ( ) ( kkkkk NETfzo ′−=δ )

j

e que

( )NET y w yk j k jj

J=

=∑ ,

1

( )[ ]∂

∂∂∂

NET y

y yw y

k j

j jk j

j

J

j=

=∑ ,

1

= ( )∂∂ y

w y w y w yj

k k j j k, , ,... ...1 1+ + + + J J

= w (A.34) k j,

Substituindo (A.33) e (A.34) em (A.32) virá

∂∂

δEy

wj

kk

K

k j= −=∑

1, (A.35)

Agora, levando (A.31) e (A.35) em (A.29) obtém-se a expressão procurada para o sinal de

erro δ j , que é

Natal / RN - Brasil Março 2004

Page 168: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

( )j j j kk

K

k jf NET w= ′=∑

1,δ δ

(A.36)

para j = 1, 2,..., J.

Levando o valor acima de δ j para (A.26) obtém-se a expressão que dá a adaptação dos pesos

sinápticos entre a camada escondida e a camada de entrada de uma RNM de 3 camadas,

conforme configuração adotada para o desenvolvimento desta segunda fase, qual seja

(A.37) ( )∆w f NET x wj i j j i kk

K

k j, = ′=∑η

1

para i = 1, 2,..., I e j = 1, 2,..., J.

A expressão (A.37) é conhecida como Regra de Aprendizagem Delta Generalizada. Os pesos

sinápticos que conectam a camada escondida com a camada de entrada da RNM, podem ser

então atualizados por

(A.38) [ ] [ ] ( )w w f NET x wj ic

j ic

j j i k k jk

K c

, , ,

[ ]+

=

= + ′

∑1

1

η δ

para i = 1, 2,..., I e j = 1, 2,..., J.

onde [c] é o sobrescrito que indica o ciclo de atualização.

Embora a expressão (A.38) tenha sido desenvolvida para atualizar os pesos sinápticos

existentes entre a camada escondida e a camada de entrada de uma RNM de 3 camadas

(camada de entrada + uma camada escondida + camada de saída), a mesma pode ser estendida

para atualizar os pesos sinápticos entre duas camadas escondidas quaisquer, caso a RNM

possua mais de uma camada escondida. Para isso, basta adequar as variáveis manipuladas pela

correspondente expressão, assim como seus respectivos subescritos, tomando-se o cuidado de

Natal / RN - Brasil Março 2004

Page 169: CONTRIBUIÇÕES À ANÁLISE DE ROBUSTEZ DE SISTEMAS DE ... · Este trabalho utiliza as Redes Neurais Multicamadas - RNM’s, totalmente com treinamento em tempo real (“ on-line

Tese de Doutorado UFRN / CT / PPgEE

propagar o sinal de erro δ no sentido inverso, i.e., da última camada escondida para a

camada de entrada.

Natal / RN - Brasil Março 2004


Recommended