ABORDAGEM EVOLUTIVA E MÚLTIPLOS OBJETIVOS EM … · ser categorizado em problemas diferenciáveis...

6
40. SBAI - Simpósio Brasileiro de Automação Inteligente, São Paulo, SP, 08-10 de Setembro de 1999 ABORDAGEM EVOLUTIVA E MÚLTIPLOS OBJETIVOS EM IDENTIFICAÇÃO DE PROCESSO NÃO-LINEAR Leandro dos Saldos Coelho e Antonio Augusto Rodrigues Coelho Universidade Federal de Santa Catarina Departamento de Automação e Sistemas-e-mail: [lscoelho.aarcjtêlcmi.ufsc.br Caixa Postal 476, CEP 88040-900 - Florian6polis - SC Resumo Este artigo apresenta uma nova abordagem à aplicação de estratégias evolutivas em problemas de identificação de processos com múltiplos objetivos . A estratégia evolutiva proposta combina a utilização de parâmetros reais e inteiros para tratar simultaneamente a identificação da ordem e a otimização (presença/ausência) de parâmetros no modelo matemático estimado do processo. O procedimento adotado em identificação com múltiplos objetivos utiliza um critério combinando objetivos de parcimônia e adequação de modelos matemáticos estimados do tipo ARMAX. (AutoRegressive Moving Average with eXogenous inputs) e NARMAX (Nonlinear AKMAX). Um experimento prático consiste de procedimentos de estimação e validação realizados em um processo não-linear monovariável - fan -and-plate - em escala de laborat6rio. Palavras Chaves: Computação evolutiva, identificação de sistemas, otimização com múltiplos objetivos, processo experimental. Abstract: This paper presents a new approach for application of evolution strategies in problems of multiobjective process identification. Evolution strategies combine the utilization of real and integer parameters to deal with simultaneous identification of order and the optimization (presence/absence) of parameters in the estimated process mathematical model. The adopted procedure in the multiobjective identification uses a criterion with several objectives as selection, fitness and complexity of ARMAX (AutoRegressive Moving Average with eXogenollS inputs) and NARMAX. (Nonlinear ARMAX) estimated mathematical model. A practical experiment, assessed in estirnation and validation procedures, is a monovariable nonlinear process - fan-and-plate - in a laboratory scale. Keywords: Evolutionary computation, system identification, multiobjective otimization, experimental processo 1 INTRODUÇÃO A identificação de sistemas é tratada. muitas vezes, como um problema de otimização que envolve algumas ' inedidas para adequação de modelos candidatos a representar um processo real. A seleção de modelos matemáticos e ajuste dos parâmetros adequados são influenciados por diversos fatores, entre os quais: (i) conhecimento a priori do sistema (linearidade. grau de não-linearidade. atraso de transporte); (ii) propriedades do modelo do sistema identificado 643 (complexidade); (iii) escolha da medida de erro a ser minimizado; (iv) presença de ruídos (Johansson, 1993). A identificação de sistemas é um claro exercício que envolve múltiplos e conflitantes objetivos. tipicamente complexidade do modelo. critérios de desempenho e validação que influenciam a seleção das estruturas de modelo matemático mais adequadas. A noção de um "bom modelo" é .subjetiva e depende da preferência pessoal. levando a tentativa e erro ser uma regra relevante em identificação de processos. Várias razões existem para manter a ordem do modelo tão baixa quanto possível. Critérios de informação podem ser introduzidos para combinar a necessidade de adequação com o ' princípio da parcimônia. Estes critérios. tais como critérios de informação Bayesiana, de Akaike ou minimum description length, combinam a variância residual e ordem do modelo (Haber & Unbehauen, 1990). A meta do algoritmo de otimização é a mínimização de um critério de desempenho. Se todas as restrições e condições forem atendidas, o modelo encontrado pode ser aceito. Caso contrário. se uma das condições impostas é violada, todos os procedimentos de identificação. estimação de parâmetros e diagn6stico do modelo têm de serem repetidos até que um modelo apropriado seja encontrado. Muitos dos métodos de identificação. tais como os baseados em mínimos quadrados ou máxima verossimilhança são, em essência. técnicas de busca local guiada por gradiente e necessitam de um espaço de busca regular ou um índice de desempenho diferenciável. Estes métodos convencionais podem facilmente falhar na obtenção de um 6timo global se o espaço de busca do modelo é não-diferenciável ou o índice de desempenho não é "bem comportado". Adicionalmente. os métodos convencionais de identificação sofrem de algumas desvantagens, tais como: (i) alguma informação inicial dos parâmetros do sistema é necessária a priori para convergência do método; (ii) os parâmetros estimados podem ser tendenciosos se o ruído é correlacionado; (iii) há dificuldade na identificação do atraso de transporte; (iv) os métodos convencionais não podem ser facilmente aplicados em sistemas não-lineares. Os algoritmos evolutivos (AEs) - ou paradigmas da área de computação evolutiva - podem ser utilizados em identificação de processos. Os AEs formam uma classe de técnicas de otimização motivada pela observação dos sistemas biológicos levando ao desenvolvimento de modelos computacionais para

Transcript of ABORDAGEM EVOLUTIVA E MÚLTIPLOS OBJETIVOS EM … · ser categorizado em problemas diferenciáveis...

Page 1: ABORDAGEM EVOLUTIVA E MÚLTIPLOS OBJETIVOS EM … · ser categorizado em problemas diferenciáveis não-onde X=[XI> X2,. , x o], 11 éonúmero de parâmetros a serem otímízados,.Q

40. SBAI - Simpósio Brasileiro de Automação Inteligente, São Paulo, SP, 08-10 de Setembro de 1999

ABORDAGEM EVOLUTIVA E MÚLTIPLOS OBJETIVOS EM IDENTIFICAÇÃODE PROCESSO NÃO-LINEAR

Leandro dos Saldos Coelho e Antonio Augusto Rodrigues CoelhoUniversidade Federal de Santa Catarina

Departamento de Automação e Sistemas-e-mail: [lscoelho.aarcjtêlcmi.ufsc.brCaixa Postal 476, CEP 88040-900 - Florian6polis - SC

Resumo Este artigo apresenta uma nova abordagem à aplicaçãode estratégias evolutivas em problemas de identificação deprocessos com múltiplos objetivos . A estratégia evolutivaproposta combina a utilização de parâmetros reais e inteirospara tratar simultaneamente a identificação da ordem e aotimização (presença/ausência) de parâmetros no modelomatemático estimado do processo. O procedimento adotado emidentificação com múltiplos objetivos utiliza um critériocombinando objetivos de parcimônia e adequação de modelosmatemáticos estimados do tipo ARMAX. (AutoRegressiveMoving Average with eXogenous inputs) e NARMAX(Nonlinear AKMAX). Um experimento prático consiste deprocedimentos de estimação e validação realizados em umprocesso não-linear monovariável - fan-and-plate - emescala de laborat6rio.

Palavras Chaves: Computação evolutiva, identificação desistemas, otimização com múltiplos objetivos, processoexperimental.Abstract: This paper presents a new approach for applicationof evolution strategies in problems of multiobjective processidentification. Evolution strategies combine the utilization ofreal and integer parameters to deal with simultaneousidentification of order and the optimization (presence/absence)of parameters in the estimated process mathematical model.The adopted procedure in the multiobjective identification usesa criterion with several objectives as selection, fitness andcomplexity of ARMAX (AutoRegressive Moving Average witheXogenollS inputs) and NARMAX. (Nonlinear ARMAX)estimated mathematical model. A practical experiment,assessed in estirnation and validation procedures, is amonovariable nonlinear process - fan-and-plate - in alaboratory scale.

Keywords: Evolutionary computation, system identification,multiobjective otimization, experimental processo

1 INTRODUÇÃOA identificação de sistemas é tratada. muitas vezes, como umproblema de otimização que envolve algumas ' inedidas paraadequação de modelos candidatos a representar um processoreal. A seleção de modelos matemáticos e ajuste dosparâmetros adequados são influenciados por diversos fatores,entre os quais: (i) conhecimento a priori do sistema(linearidade. grau de não-linearidade. atraso de transporte); (ii)propriedades do modelo do sistema identificado

643

(complexidade); (iii) escolha da medida de erro a serminimizado; (iv) presença de ruídos (Johansson, 1993). Aidentificação de sistemas é um claro exercício que envolvemúltiplos e conflitantes objetivos. tipicamente complexidade domodelo. critérios de desempenho e validação que influenciam aseleção das estruturas de modelo matemático mais adequadas.A noção de um "bom modelo" é .subjetiva e depende dapreferência pessoal. levando a tentativa e erro ser uma regrarelevante em identificação de processos.

Várias razões existem para manter a ordem do modelo tãobaixa quanto possível. Critérios de informação podem serintroduzidos para combinar a necessidade de adequação com o 'princípio da parcimônia. Estes critérios. tais como critérios deinformação Bayesiana, de Akaike ou minimum descriptionlength, combinam a variância residual e ordem do modelo(Haber & Unbehauen, 1990). A meta do algoritmo deotimização é a mínimização de um critério de desempenho. Setodas as restrições e condições forem atendidas, o modeloencontrado pode ser aceito. Caso contrário. se uma dascondições impostas é violada, todos os procedimentos deidentificação. estimação de parâmetros e diagn6stico domodelo têm de serem repetidos até que um modelo apropriadoseja encontrado.

Muitos dos métodos de identificação. tais como os baseados emmínimos quadrados ou máxima verossimilhança são, emessência. técnicas de busca local guiada por gradiente enecessitam de um espaço de busca regular ou um índice dedesempenho diferenciável. Estes métodos convencionaispodem facilmente falhar na obtenção de um 6timo global se oespaço de busca do modelo é não-diferenciável ou o índice dedesempenho não é "bem comportado" . Adicionalmente. osmétodos convencionais de identificação sofrem de algumasdesvantagens, tais como: (i) alguma informação inicial dosparâmetros do sistema é necessária a priori para convergênciado método; (ii) os parâmetros estimados podem sertendenciosos se o ruído é correlacionado; (iii) há dificuldade naidentificação do atraso de transporte; (iv) os métodosconvencionais não podem ser facilmente aplicados em sistemasnão-lineares.

Os algoritmos evolutivos (AEs) - ou paradigmas da área decomputação evolutiva - podem ser utilizados em identificaçãode processos. Os AEs formam uma classe de técnicas deotimização motivada pela observação dos sistemas biológicoslevando ao desenvolvimento de modelos computacionais para

Page 2: ABORDAGEM EVOLUTIVA E MÚLTIPLOS OBJETIVOS EM … · ser categorizado em problemas diferenciáveis não-onde X=[XI> X2,. , x o], 11 éonúmero de parâmetros a serem otímízados,.Q

40. SBAI - Simpósio Brasileiro de Automação Inteligente, São Paulo, SP, 08-10 de Setembro de 1999

processos evolutivos. Os AEs têm mostrado adequação erobustez quando empregada nos mais diversos problemas deotimização, e permite implementações com processamentoparalelo e distribuído. Os principais AEs incluem algoritmosgenéticos (AGs) , estratégias evolutivas (EEs), programaçãoevolutiva e programação genética (Bãck et .alii, 1997; Coelho& Coelho, 1999; Michalewicz, 1992).

diferenciáveis. A primeira classe utiliza informação dogradiente, por exemplo, em métodos de gradiente descendentee programação quadrática seqüêncial, A classe de problemasnão-diferenciáveis é frequentemente tratada por AGs, simulatedannealing e outros métodos de otimização (Hwang & Masud,1979; Camponogara & Talukdar, 1997) .

2.1 Revisão de AEs em OM

2.2 Forma de ranking utilizada na OMExistem diversas formas ranking em OM propostas naliteratura" entre as quais: soma dos objetivos ponderados,ranking máximo ponderado, ranking médio ponderado, somada proporção ponderada, soluções não dominantes (conjunto dePareto). Neste artigo adota-se a soma de proporção ponderadaglobal (Hwang & Masud, 1979; Bentley & Wakefield, 1998).Este método é uma variação da soma das proporçõesponderada. Os valores de aptidão (fitnessv de cada objetivo sãoconvertidos em proporções, propfitness, a cada geração. Maisespecificamente:

(2)

O desenvolvimento de AEs para OM tem recebido grandeinteresse de pesquisadores com diferenciados enfoques,contudo usualmente é utilizado o paradigma dos AGs. Horn etalii (1994) apresentam a aplicação de AGs em três problemasde OM. Fonseca & Fleming (1995) apresentam um abrangenteover,liew da utilização de AGs em OM. Kim et alii (1996)utilizam AGs em problema de OM em linhas de montagemenvolvendo várias tarefas distribuídas entre estações detrabalho. Camponogara & Talukdar (1997) propõem umesquema simples de AGs não baseado em métodos depenalização aplicado a OM. Bentley & Wakefield (1998)apresenta um overview e descreve a aplicação de seis técnicasde OM em quatro funções não-lineares de teste .

As EEs podem ser utilizadas para automatizar o procedimentode gerar um modelo e testá-lo para a identificação de processose, simultaneamente, ser estendido para incluir variáveisvinculadas a complexidade e estrutura do modelo. A novaabordagem de EE adotada tem um algoritmo reformulado paracombinar .a utilização de parâmetros reais e inteiros. Ametodologia objetiva a identificação com um procedimento demúltiplos objetivos, utilizando-se um critério que agregadiversos objetivos referentes a seleção, adequação ecomplexidade do modelo matemático estimado do processo.

O artigo é organizado da seguinte maneira. Na seção 2 sãoapresentadas as noções de otimização de múltiplos objetivos. Anova abordagem de identificação por EEs é tratad a na seção 3.Na seção 4 é descrito o processo experimental monovariáveldenominado fan-and-plate e os resultados experimentais emidentificação com múltiplos objetivos. A conclusão eperspectivas de trabalhos futuros são tratados na seção 5,respectivamente.

Recentemente, na literatura têm sido propostas alguns AEs emaplicações na identificação de processos monovariáveis.Kristinsson & Dumont (1992) propõem a utilização de AGs emestimação de pólos e zeros e em projeto de controle poralocação de pólos em processo monovariável simulado. Li &Jeon (1993) tratam a utilização de AGs para identificação dosregressores de sistemas NARX e efetuam uma comparação como algoritmo dos mínimos quadrados ortogonal. Kim et alii(1996) aplicam programação evolutiva em identificação econtrole de uma mesa posicionadora.

2 OTIMIZAÇÃO COM MÚlTIPLOSOBJETIVOS

A utilização de otimização com múltiplos objetivos (OM)admite que muitos problemas práticos requerem um certonúmero de critérios de projeto, quer podem ser conflitantes masnecessitam ser obtidos simultaneamente, isto é:

Convencionalmente, membros de um conjunto de soluçõesótimas de Pareto são obtidas através da solução de umproblema de programação não-linear formuladoapropriadamente. Um problema de programação não-linearpode ser categorizado em problemas diferenciáveis e não-

onde X=[XI> X2, . .. , xo] , 11 é o número de parâmetros a seremotímízados, .Q define o conjunto de variáveis livres, x, sujeito aalgumas restrições e fi(x) são objetivos de projeto a seremminimizados. Claramente, para este conjunto de funções podeser visto que não existe uma solução "ótima" ideal, mas sim umconjunto de soluções 6timas de Pareto em que o aprimoramentode um dos objetivos de projeto conduz a degradação de um oumais objetivos restantes. Tais soluções são conhecidas comosoluções não-inferiores ou soluções não-dominantes para oproblema de OM.

3 CONFIGURAÇÃO DE UMA EE EM OM

onde j={1, nobj}, nobj é número de objetivos definidos peloprojetista, max e min são os valores máximo e mínimo deaptid ão flx), respectivamente.

As EEs foram desenvolvidas para a resolução de problemastécnicos de otimização em engenharia. Atualmente, constituem-se de importantes algoritmos computacionais em problemas deotimização de parâmetros. Os pesquisadores I. Rechenberg eH.-P. Schwefel, na década de 60, no Hermann Fõttingerlnstitute for Hydrodynamics da Technical University ofBerlin,em experimentos realizados em um processo túnel de ventodesenvolveram a teoria da velocidade de convergência daprimeira EE 'desenvolvida. A EE-(1+1) trabalhava com umsimples mecanismo de seleção e mutação, onde uma soluçãoancestral (jL;=1) gera ' uma solução descendente (À.=I) porgeração (Bãck & Schwefel, 1993).

Nas EEs, os componentes de uma solução são vistos comoresultado de tratamento comportamental de um indivíduo,composto de variável objeto (vetores de solução) e parâmetrosde estratégia, ao contrário dos AGs canônicos, onde umasolução é composta de genes em um cromossomo. As

(1)F, = min f;( x)XE.Q

644

Page 3: ABORDAGEM EVOLUTIVA E MÚLTIPLOS OBJETIVOS EM … · ser categorizado em problemas diferenciáveis não-onde X=[XI> X2,. , x o], 11 éonúmero de parâmetros a serem otímízados,.Q

40. SBAI- Simpósio Brasileiro de Automação Inteligente, São Paulo, SP, 08-10 de Setembro de 1999

transformações genéticas, quando ocorrem, seguem umadistribuição Gaussiana com média zero e com desvio padrão.

A EE-(I+I), vem sendo progressivamente aprimorada porvariantes no número de ancestrais (pais), J1>1, e número dedescendentes (filhos), íl>1, por geração. Assim, as alteraçõesgenéticas podem afetar muitas características fenotípicasdevido a efeitos de pleiotropia (um gene afeta múltiplascaracterísticas fenotípicas) e poligenia (uma característicafenotípica é afetada por múltiplos genes).

·As EEs com múltiplos membros são divididas de acordo com omecanismo de seleção, em: (i) plus strategy ou EE-(j.L+À)sugerem a Jl ancestrais produzir À descendentes, após os Jlancestrais e os À descendentes competem pela sobrevivência e,(ii) comma strategy ou EE-{J1,À), onde os À descendentescompetem para sobreviver e os ancestrais são completamentesubstituídos a cada geração.

Os operadores de recombinação são similares aosimplementados em representação real nos AGs, propostos porMichalewicz (1992). Entre as opções têm-se a recombinaçãodiscreta, a intermediária (local e global) ou mesmo a nãorealização da operação de recombinação (Bãck & .Schwefel,1993).

O desempenho das EEs, comparadas com outras técnicas deotimização, depende da configuração adequada dos parâmetrosinternos de controle do algoritmo. As EEs apresentamfacilidades no ajuste de tais parâmetros através da utilização deauto-adaptação, enquanto nos AGs os parâmetros de controlesão ajustados por métodos heurísticos como de tentativa e erro(Coelho & Coelho, 1999).

3.1 EE com mecanismos de auto-adaptação e mutações correlaclcnadas

Neste artigo uma derandomized EE com mutaçõescorrelacionadas e tamanho de passo modificado - EEMA(Ostermeier et alii, 1995) - é adotada para otimização deparâmetros reais. A EEMA implementada tenta ajustar oprocedimento de adaptação pela exploração da informaçãoacumulada em gerações (iterações) precedentes. Esta forma deadaptação usualmente utiliza pontos selecionados (maisespecificamente: passos de mutação selecionados) no espaço deparâmetros objeto para ajuste dos parâmetros da estratégia.Este procedimento é relacionado a métodos determinísticos dotipo Quase-Newton, onde a matriz Hessiana é iterativamente. aproximada por certas regras de atualização (Bãck et alii,1997).

As mutações Gaussianas em cada dimensão geram contornosprovavelmente elípticos. Se as mutações são independentesatravés de cada dimensão, estas elipses estão alinhadas com oseixos coordenados. Se as mutações são correlacionadas, entãoas elipses podem realizar rotações arbitrárias (Rudolph, ·1992;Bãck & Schwefel, 1993).

3.2 Operadores da EE

3.2.1 Operador de seleçãoO operador de seleção (adaptação) é determinístico e objetivaselecionar os indivíduos Jlmais aptos da população, podendo-

645

se adotar Neste artigo, os Jl indivíduos mais aptos serãoancestrais na próxima geração (plus strategy), isto é,

(3)

onde KJ1( t) é o vetor parâmetro da geração t , sel é aquantidade de descendentes selecionados da geração t.

3.2.2 Operador de mutaçãoO operador de mutação é o operador principal e introduzmodificações aleatórias na população. Os operadores demutação diferem na otimização dos parâmetros reais eparâmetros inteiros, pois o mecanismo de utilizar EEembutindo o espaço de busca Z' em 9t" através da truncamentode parâmetros reais apresenta deficiências. Como as EEsusualmente operam em espaço de parâmetros reais, elasincluem características para a localização de pontos ótimoscom precisão arbitrária. Em espaço de busca no Z ' estascaracterísticas não são necessárias por causa da menor distânciaem norma l i entre pontos diferentes é 1. Por conseguinte, a EEpara o tratamento de parâmetros inteiros deve operardiretamente em espaços inteiros, senão a busca ficará estagnada(Rudolph,1994).

3.2.2.1 Operador de mutação para parâmetros reaisA EEMA implementada realiza mutações elipsóides na direçãodos descendentes selecionados. A criação do descendente À édada por:

(4)

onde i=[I ,À] ; 0scadtJ são fatores de escala da geração t; çj é ofator de mudançade passo média 1 e variância0,1 normalmentedistribuído, ou seja, (1; 0,1); Ôiso(t) é o tamanho de passo dasmutações isotrópicas da geração t; Z, é o vetor aleatório comcomponentes (O;I)-normalmente distribuídas, lfIj é (0;1)-normalmente distribuído; Ôani ( t) é tamanho de passo dasmutaçõesanisotrópicas (correlacionadas) da geração t; Ao( t) é aorientaçãoao longodo eixo da elipse de mutação na geração t.

A EEMA apresenta a desvantagem de possuir base matemáticacomplexa, pois o operador de mutação atua em planoshiperelipsoidais. A equação (3) rege a principal equação destatécnica, todavia a equação depende de outras equaçõessecundárias para ajuste das variáveis que não são tratadas aqui.Detalhes sobre a operador de mutação com mutaçõescorrelacionadas são descritas na literatura em Rudolph (1992),Bãck& Schwefel (1993) e Ostermeier et alii (1995).

3.2.2.1 Operador de mutação para parâmetros inteirosO operador de mutação aplicado a valores inteiros(presença/ausência de parâmetrono modelomatemáticoestimadodo processo) aplica o princípio da máxima entropia (Rudolph,1992), ou seja, a configuração de uma distribuição que estende-se tão uniformementequanto possível.

Neste caso, uma definição faz-se necessária. Considerando-sePk, com ke No, denota-se a densidade de uma variável aleatóriadiscreta. Logo,

Page 4: ABORDAGEM EVOLUTIVA E MÚLTIPLOS OBJETIVOS EM … · ser categorizado em problemas diferenciáveis não-onde X=[XI> X2,. , x o], 11 éonúmero de parâmetros a serem otímízados,.Q

40. SBAI:- Simpósio Brasileiro de Automação Inteligente, São Paulo, SP, 08-10 de Setembro de W99

é denominada de entropia da distribuição, supondo-se que asérie da equação (5) converge. Existem diversas distribuiçõesque obedecem ao princípio da máxima entropia, por exemplo,Poisson, séries logarítmicas e geométricas.

O operador de mutação adotado para a otimização deparâmetros inteiros, foi proposto por (Rudolph, 1994).Contudo, este operador não utiliza os mecanismos de mutaçõescorrelacionadas e modifica o tamanho de passo, s, e a variávelobjeto, K, de acordo com as seguintes equações:

H( p) = - L Pk log( Pk)k=O

(5)(i) FtJCx) composto por ISE (Integral Squared Error), variânciado erro de estimação e o número de parâmetros inteiros, tio,presentes no modelo estimado; .(ii) Fa/x) composto por [R2r l (inverso do coeficiente decorrelação múltipla), FPE (Final Prediction Error) e o númerode parâmetros inteiros, tio, presentes no modelo estimado.

De acordo com a equação (2), os objetivos são agrupados emapenas um índice de desempenho tanto parafl(x) quanto paraf2(x) eh(x). As equações que regem os índices de desempenhoe os seus respectivos objetivos são dados por:

Caso 1:

s'= S· exp( 'roNCO,!)) (6) 3fi, = L(prop_fitness)j

i=1(9)

onde 'ro é o desvio padrão do tamanho do passo, G;(p')denota a realização de uma variável aleatória unidimensionalcom função densidade de probabilidade. A realização deGi ( p') pode ser gerada com a diferença de duas variáveisindependentes aleatórias distribuídas geometricamente (ambascom parâmetro p '), A variável aleatória geométrica, G, obtidade uma variável aleatória uniforme U sobre [0,1) c 9l deacordo com a transformação

(10)

(11)

(12)

(13)

N

NftC x)=ISE = L[Y(i)- .YCiJf

i=1

NL ([y(i )-j( i )]-eY

h(x)=(J2 _

5Ft2'= L( prop _ fitness )j

i=3

h(x)=tio

Caso 2:

(7)

(8)

KJt+l)=KJt)+GJ p' )

P(G; =k )=2 p' J1- p' l'-p

4 APLICAÇÃO DO PROCEDIMENTODEOMVIAEE

o procedimento de OM por EE segue os passos sintetizados aseguir:

(i) armazenamento dos dados de entrada e saída do processo;

1 [ y(i)]2 ]_1f4(X)=-2 = l-=N'------

R L[Y(i)-yfi=1

(14)

A OM trata, neste artigo, a identificação de modelos ARMAX eNARMAX. Os modelos NARMAX são caracterizados porequação a diferenças não-lineares estruturadas por parâmetroslineares. Estes modelos são função da entradas e 'saídaspassadas e apresentam termos não-lineares, conforme a equação:

onde az é a variância do erro de estimação, eé a média do errode estimação entre a saída real e a saída estimada do processo,y é a média das N amostras de dados da saída real doprocesso. Além disso, R2 de valor 1,0 indica um modelo exatopara os dados medidos, onde R2 entre 0,9 e 1,0 pode serconsiderado suficiente para muitas aplicações em identificaçãode sistemas.

(ii) determinação da configuração da EEMA. Adota-se:• J1 =5 ancestrais, Jt=25 descendentes;• gerações =300; experimentos =]O;• intervalo de busca dos parâmetros inteiros: [O; 1];• intervalo de busca dos parâmetros reais:A(Z·I),B(z·I), C(z·l) E [-1,0; 1,0]; d.], g E [-0,5; 0,5];

(iii) inicialização dos parâmetros da população comdistribuição;

(iv) avaliação da aptidão dos indivíduos da população baseadoemranking;

(v) aplicação do operador de seleção para escolha dos J1ancestrais para a nova geração;

(vi) aplicação dos operadores de mutação para parâmetros reaise inteiros e conseqüente geração de uma nova população de Jtdescendentes;

{tiO]h(x)=FPE=fdx I+Ji (15)

(vii) repetição dos passos (iv) a (vi) até que uma condição deparada seja satisfeita, neste caso, o número de geraçõesmáximo estipulado.

Foram realizados dois estudos de caso com a utilização' de trêsíndices de desempenho distintos, flx), h(x) e f3(X), a seremminimizados utilizando os objetivos:

646

Page 5: ABORDAGEM EVOLUTIVA E MÚLTIPLOS OBJETIVOS EM … · ser categorizado em problemas diferenciáveis não-onde X=[XI> X2,. , x o], 11 éonúmero de parâmetros a serem otímízados,.Q

40. SBAI- Simpósio Brasileiro de Automação Inteligente, São Paulo, SP, 08·10 de Setembro de 1999

200 400 eeo em lCQ)..-..

/lb na ncy(t)= Lbju(t - d 7"i+1)- LaiY( t - i)+ LCje(t - i)+

i=1 i=1 i=1lia nb pop-lpo.e.- I kL L L 2: dijla/lu(t-d-i+l) y( t - j f' +j=lj=1 k=1 m=1 (16)nb nb pop-A pop-A kLL L L fi"kmu(t-d-i+l) u(t-d-j+lf'+j=lj=1 k=1 m=1 Y

na na pop-Ip"1!.-1 kL L L 2: gijkmY( t - i) y( t - jJmi=lj=1 k=1 m=1

onde y(t), uit), e(t) e d são a saída, a entrada, o erro estimação,e o atraso de transporte (d=I), respectivamente. No modeloNARMAX utilizado na identificação do processo experimentalfan-and-plate é estipulado dois coeficientes para o polinômioB(i'), nb=2, dois coeficientes para o polinômio C(i'), nc=2, edois coeficientes para o polinômio A(z·J),na=2, e a potência deexpansão polinomial pep=2, e d=1. Assim totaliza-se 18 termosreais (tnn) mais 18 termos inteiros , estes correspondendo apresença ou não dos termos a serem estimados via EE. Osmodelos lineares ARMAX otimizados diferem do NARMAX,conforme apresentado na equação (16), pois não apresentam ostermos dos polinômios d,fe g.

4.1· Processo experimental fan-and-plateO sistema de controle do fan-and-plate é composto por umventilador acionado por um motor DC, um duto de ar de 50 emcom características de afunilamento e tem na extremidadeesquerda uma pequena placa retangular, conforme apresentadona figura 2. O problema de controle é regular a deflexãoangular da placa (variável controlada) atuando na tensão deentrada do motorDC (variável manipulada).

Figura 2. Configuração do processojan-and-piflte.

A entrada, composta de vários sinais degrau para diversas.referências, e a saída doprocesso fan-and-plate utilizados noprocedimento de identificação são apresentados na figura 3.

Figura 3. Sinais de entrada e saída em experimentação emmalha aberta da planta

4.2 Resultados experimentaisA tabela 1 apresenta os resultados obtidos em identificação doprocesso fan-and-plate, através de 10 experimentos com 300gerações realizados com OM via EE. Todas as configuraçõesem OM utilizadas foram adequadas. Contudo, a configuraçãoNARMAX com trm=36, apresentou o melhor resultado na fasede estimação. Na fase de validação (amostras 801 a 1000), estaconfiguração apresentou R2=0,927. Na figura 4 sãoapresentados os resultados da configuração NARMAX (caso 2,com 12 parâmetros inteiros presentes no modelo estimado parao processo) e a evolução dos parâmetros.

Tabela 1: Resultados em OM via EE na fase de estimação de parâmetros (amostras 1 a ·800)

configuração da OM melhor resultado dos experimentos pior resultado média dos desvio padrão dos tempoexperimentos expe rimentoscaso 1 trm* fitness tio** /SE R2 FPE d- /SE d- /SE d- /SE

, cnrO-ARMAXI 24 FI 6 40,046 0,950 0,051 0,050 62,040 0,077 45,624 0,057 8,341 0,012 39,7ARMAJ(l- . 12 F' I 4 39,882 0,950 0,050 0,051 44,990 0,056 41,536 0,052 2,285 0,003 40,8

36 F' I 14 37,802 0,952 0,049 0,047 40,117 0,050 38,598 0,048 · 0,982 0,001 47,7.caso 2 irm* fitness tio** /SE R< FPE d- R2 FPE R< FPE R< . FPE cnrARMAXI 24 Fa 4 42,459 0,947 0,054 0,053 0,913 0,089 0,931 0,069 0,015 0,015 42 ,3ARMAX 12 Fa 4 39,800 0,950 0,050 0,050 0,950 0,05 1 0,950 0,051 0,000 0,001 43,1

36 Fa 12 37,044 0,954 0,048 0,046 0,950 0,052 0,951 0,050 0,002 0,002 55,1

convenções

ARMAX1: na=4, nb=4, nc=4 ARMAX2:na=2,nb=2,nc=2* trm termos reais + tim termos inteiros (presença/não) presentes no modelo completo - total de termos = trm + tim** tio: termos inteiros obtidos via EE em OM, que compõem o modelo ARMAX ou NARMAX# tempo médio de CPU (em segundos), para cada experimento, em processador Intel Pentium de 200 MHz

647

Page 6: ABORDAGEM EVOLUTIVA E MÚLTIPLOS OBJETIVOS EM … · ser categorizado em problemas diferenciáveis não-onde X=[XI> X2,. , x o], 11 éonúmero de parâmetros a serem otímízados,.Q

40. SBAI- Simpósio Brasileiro de·Automação Inteligente , São Paulo, SP, 08-10 de Setembro de 1999

5 CONCLUSÃO E PERSPECTIVAS

Figura 4. Sinal de saída estimado e evolução da DM doprocesso fan-and-plate.

Haber, R. & H. Unbehauen (1990). Structure Identification ofNonlinear Dynamic Systems - A Survey onInputlOutput Approaches . Automatica, voI. 26, no. 4,pp. 651-677.

Hom, J., N. Nafpliotis & D.E. Goldberg (1994) . A NichedPareto Genetic Algorithm for MuItiobjectiveOptimization. Proc. of the 1st IEEE Conference onEvolutionary Computation, IEEE World Congress onComputational Intelligence, Orlando, FL, USA, voI. 1,pp .82-87.

Hwang, c.-L. & A.S.M. Masud (1979). Multiple ObjectiveDecision Making - Methods and Applications: A Stateof the Art Survey. Lecture Notes in Economics andMathematical Systems, voI. 164, Springer-VerIag, NewYork, USA.

Fonseca , C.M. & P.J. Fleming, (1995). An Overview ofEvolutionary Algorithrns . in MultiobjectiveOptimization. EvolutionaryComputation, voI. 3, no. I,pp.I-16.

250 300100 15) 200-""00 50

0.1

§"i:;03

100 15!J 200 250 300"",...

"t ISI"8"

Ili"

Lo 1ns L00 "'" 400 "" 800 . 000 'o 50 ' 00 ' 50 "'" "" JOO..,.,.." .......' 00 Iso80

lO....,.lO

lO

00 00

A EE implementada apresentou robustez e adequação emidentificação com procedimento de OM do processoexperimental fa n-and-plate. Contudo, existem questões emaberto sobre as EEs . Muitas questões relevantes quanto ascondições ótimas de auto-adaptação referentes são: (i) escolhado operador de seleção, (ii) função densidade de probabilidadeutilizada para modificações nos parâmetros da estratégia, (iii)teste de mecanismos de mutações correlacionadas que facilitemuma rápida adaptação (rápida velocidade de convergência) egrande diversidade (integridade adequada da convergência) aomesmo tempo.

Perspectivas de trabalhos futuros estão relacionadas aprocedimentos de análise de correlação e estudos comparativosde EEs com outros AEs em identificação com OM de processosnão-lineares multivariáveis.

Johansson , R. (1993). System Modeling Identification,Prentice-Hall, Englewood Cliffs, NJ ; USA.

Kím, J.-H, H.-K. Chae, J.-Y. Jeon & S.-W. Lee (1996).Identification and Control of Systems with FrictionUsing Accelerated Evolutionary Programming. IEEEControl Systems, voI. 16, no. 4, pp. 38-47 .

Kim, Y.K., Y.J. Kim & Y. Kim (1996) . Genetic Algorithmsfor Assembly Line Balancing with Various Objectives.Computers Industrial Engineering; vol. 30, no. 3, pp.397-409.

Kristinsson, K. & G.A. Dumont (1992). System Identificationand Control Using Genetic:AIgorithms. IEEE Trans. onSystems, Man, and Cybemetics, voI. 22, no. 5, pp. 1033-1046.

REFERÊNCIAS BIBLIOGRÁFICASBãck, T., D.B. Fogel & Z. Michalewicz (1997). Handbook of

Evolutionary Computation, Institute of PhysicsPublishing, Bris tol, Philadelphia and Oxford UniversityPress, New York, Oxford .

Bãck, T. & H.-P. Schwefel (1993) . .. An . Overview ofEvolutionary Algorithms for Parameter Optimization,Evolutionary Computation , voI. 1, no. 1, pp. 1-23.

BentIey, P.J. & J.P . Wakefield (1998) . Finding AcceptableSolutions in the Pareto-optimal Range UsingMultiobjective Genetic Algorithms. In: Soft Computingin Engineering Design and Manufacturing, P.K.Chawdhry, R. Roy &R.K. Pant (eds), Springer-VerIag,London, pp. 231-241.

Camponogara, E. & S.N. Talukdar (1997). A GeneticAlgorithm for Constraíned and MultiobjectiveOptimization. Proc. of the 3rd Nordic Workshop onGenetic Algori thms, Helsinki , Finland , pp. 49-61.

Coelho, L.S. & A.A.R. Coelho (1999). Algoritmos Evolutivosem Identificação e Controle de ProcessosrUrna VisãoIntegrada e Perspectivas. Revista SBA Controle &Automação, vol. 10, no. 1, pp. 13-30.

Li, C.J. & Y.C. Jeon (1993) . Genetic Algorithm in IdentifyingNon-linear Auto-regressive with Exogenous InputModels for Non-linear Systems. American ControlConference, San Francisco , CA, USA , pp. 2305-2309.

Michalewicz, Z. (1992). Genetic Algorithms + Data Structures =Evolution Programs. Sprínger-Verlag, Berlin, Germany.

Osternieier, A., A. Gawelczyk, & N. Hansen (1995). ADerandomized Approach to SeIf-Adaptation ofEvolution Strategies. Evolutionary Computation. ,voI. 2,no. 4, pp. 369-380.

Rudolph, G. (1992). On Correlated Mutations in EvolutionStrategies. Proc. of 2nd Int. Conf on Parallel ProblemSolving from Nature, R. Mãnner & B. Manderick (eds),Elsevier, Amsterdam, The Netherlands, pp. 105-114.

Rudolph, G. (1994) . An Evolutionary Algorithm for IntegerProgramming. Proc. of 3rd Int. Conf on Parallel 'Problem Solving from Nature , Y. Davidsor, H.-P.Schwefel & R. Mãnner (eds). Lecture Notes inComputer Science 866, Springer, Berlin, Gcrmany, pp.139-148.

648