Pe. Pedro M. Guimarães Ferreira S.J. Departamento de ... Lineares/Meu Curso de... · 4 H() (...
Transcript of Pe. Pedro M. Guimarães Ferreira S.J. Departamento de ... Lineares/Meu Curso de... · 4 H() (...
1
Curso de Sistemas Lineares ELE-2732 Pe. Pedro M. Guimarães Ferreira S.J. Departamento de Engenharia Elétrica, PUC-Rio http://www.fplf.org.br/pedro_varios/
2
3
Observações: 1. Outros textos mais modernos, com métodos de ataque do problema diversos, principalmente o segundo, mas não necessariamente melhores textos: M. Green and D. J. N. Limebeer, Linear Robust Control, Prentice Hall, 1995; J. Willem Polderman and Jan C. Willems, Introduction to Mathematical System Theory: a Behavioral Approach, Springer, 1998. 2. Relembrando a dedução da expressão da matriz de transferência: Sejam ˆ( )x s , ˆ( )u s e ˆ( )y s as transformadas de Laplace de x(t), u(t) e y(t), respectivamente. Então de (1a), temos
ˆ ˆ ˆ( ) (0) ( ) ( )sx s x Ax s Bu s− = + . Com condição inicial x(0) = 0, temos
1ˆ ˆ( ) ( ) ( )x s sI A Bu s−= − , e portanto, 1ˆ ˆ( ) ( ( ) ) ( )y s C sI A B D u s−= − + , donde
4
1( ) ( )H s C sI A B D−= − + , que é, por definição, a relação entre as transformadas de Laplace da resposta y(t) e da entrada u(t) do sistema com condições iniciais do estado nulas. Observação à página seguinte: Aparece um bloco de zeros em B se o sistema não for controlável. Com efeito, seja
cP a matriz de controlabilidade do sistema ( , ,A B C ,0). Então é fácil verificar que
cP = 1
1 1 1 1, ,....0,0,..............0
nB AB A B−⎡ ⎤⎢ ⎥⎣ ⎦
; donde que é claro que Posto( cP ) < n = dim( A ).
5
6
7
8
Seja o exemplo referente ao Lema acima:
9
1 20 2
A−⎡ ⎤
= ⎢ ⎥−⎣ ⎦,
11
B⎡ ⎤
= ⎢ ⎥⎣ ⎦
, [ ]0 1C = ; é claro que os auto-valores de A são -1 e -2.
Vejamos seus auto-vetores à esquerda associados a estes auto-valores. Com o auto-valor -1, temos: 1 1q A q= −
[ ] [ ]11 12 11 12
1 20 2
q q q q−⎡ ⎤
∴ = − −⎢ ⎥−⎣ ⎦[ ] [ ]11 11 12 11 12 12 112 2 2q q q q q q q∴ − − = − − ∴ = ,
ou seja, [ ]1 1 2q a= , sendo a um número real qualquer diferente de zero. Para o segundo auto - valor, temos o segundo auto - vetor satisfazendo a
2 22q A q= − [ ] [ ]21 22 21 22
1 22 2
0 2q q q q
−⎡ ⎤∴ = − −⎢ ⎥−⎣ ⎦
[ ] [ ]21 21 22 21 222 2 2 2q q q q q∴ − − = − − , o que implica que 21q = 0, 22q qualquer; ou
seja, [ ]2 0 1q b= , sendo b um número real qualquer diferente de zero. Vamos agora usar o primeiro teste PBH do auto-vetor; sem perda de generalidade , fazemos a = b = 1.
[ ]1
11 2 3 0
1q B
⎡ ⎤= = ≠⎢ ⎥
⎣ ⎦, [ ]2
10 1 1 0
1q B
⎡ ⎤= = ≠⎢ ⎥
⎣ ⎦. Portanto o sistema é controlável.
Vamos agora calcular os auto-vetores à direita para verificar a observablidade: 11 11
1 112 12
1 20 2
q qAq q
q q− ⎡ ⎤ ⎡ ⎤⎡ ⎤
= − ∴ = −⎢ ⎥ ⎢ ⎥⎢ ⎥−⎣ ⎦ ⎣ ⎦ ⎣ ⎦; da segunda equação, temos 12q = 0 e da
primeira, temos 11q qualquer. Ou seja, 1
10
q⎡ ⎤
= ⎢ ⎥⎣ ⎦
. Usando o segundo auto-valor,
temos
2 22Aq q= − ; obtem-se facilmente 2
21
q−⎡ ⎤
= ⎢ ⎥⎣ ⎦
. Ora, [ ]1
10 1
0Cq
⎡ ⎤= ⎢ ⎥
⎣ ⎦ = 0. Portanto o
sistema não é observável.
10
11
Seja de novo o mesmo exemplo da página 8 (numeração ao lado direito embaixo):
[ ] 1 2 10 2 1
ssI A B
s+ −⎡ ⎤
− = ⎢ ⎥+⎣ ⎦. É claro que o posto desta matriz é cheio para todo s
que não seja auto-valor da matriz A. Portanto, para aplicar o critério PBH do posto,
basta examinar o posto para s = -1 e s = -2. Para s = -1 temos 0 2 10 1 1
−⎡ ⎤⎢ ⎥⎣ ⎦
, cujo
posto é cheio. Para s = -2, temos 1 2 1
0 0 1− −⎡ ⎤
⎢ ⎥⎣ ⎦
, cujo posto também é cheio. Portanto
o sistema é controlável. Por outro lado, 1 2
0 20 1
ssI A
sC
+ −⎡ ⎤−⎡ ⎤ ⎢ ⎥= +⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎢ ⎥⎣ ⎦
. Para s = -1, temos
0 20 10 1
−⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦
, cujo posto é igual a 1 e portanto o sistemas não é observável.
******************* Problema dado em ano anterior: 1ª. Seja o sistema
0 1 2 1 0
( ) 1 1 3 ( ) 1 1 ( )1 0 1 0 1
x t x t u t⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥= − +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦
, 1 1 1 1 1
( ) ( ) ( )0 1 1 2 1
y t x t u t− −⎡ ⎤ ⎡ ⎤
= +⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦
.
Este sistema é controlável? É observável? ********************** Segue fato importante, dado usualmente nos bons cursos de graduação em sistemas lineares: Teorema do posicionamento arbitrário dos auto-valores através de realimentação do estado: Seja ( ) ( ) ( )x t Ax t Bu t= + , u(t) = -Kx(t) ( ) ( ) ( )x t A BK x t∴ = − . Então é possível posicionar arbitrariamente os auto-valores de A BK− através de K apropriado se só se o sistema (A, B) for controlável. (Observe-se que os auto-valores complexos têm que existir em pares conjugados).
Seja 2
2
1( )2 1
sH ss s
−=
− +. Ora, esta fatoração não é irredutível porque
2
2 2
1 ( 1)( 1) 12 1 ( 1) 1
s s s ss s s s
− − + += =
− + − −. Esta última fatoração, por sua vez, é claramente
irredutível, porque não é possível cancelamento ulterior entre fatores do numerador e do denominador, pois eles são coprimos.
12
13
Sejam 3 5 1
( )2 1 1s s
N ss s+ −⎡ ⎤
= ⎢ ⎥− −⎣ ⎦,
2 2
2 2
2 2 1 2 1( )
2 6 4 2s s s s
D ss s s s
⎡ ⎤+ − − += ⎢ ⎥+ + + −⎣ ⎦
. Estas matrizes
admitem um d.c.d., a saber, 1 1
( )2 0
s sW s
s+ −⎡ ⎤
= ⎢ ⎥+⎣ ⎦. Com efeito, com
1 21 1
N⎡ ⎤
= ⎢ ⎥−⎣ ⎦,
1( )
2 1s s
D ss s
+⎡ ⎤= ⎢ ⎥+ +⎣ ⎦
, obtém-se ( ) ( )N s NW s= e ( ) ( ) ( )D s D s W s=
14
15
16
Denominemos “Definição 1” de fatoração irredutível à da página 8 (numeração ao alto da página) e “Definição 2” à da página 10 (ao alto da página). Vamos provar que as duas definições são equivalentes:
17
Com efeito, suponha que a Definição 1 seja satisfeita e que a Definição 2 não seja satisfeita para um dado par de matrizes polinomiais N(s) e D(s) com o mesmo número de colunas. Se a Definição 2 não for satisfeita, então N(s) e D(s) não são c.d. e de acordo com a definição ao fim da página 9, existem ( )N s e ( )D s tais que
1 1( ) ( ) ( ) ( )N s D s N s D s− −= , com ( ) ( )( ) ( )gr D s gr D s< , contradizendo a hipótese que
a Definição 1 seja satisfeita. Suponha agora, ao revés, que a Definição 2 seja satisfeita e a outra, não. Se a Definição 1 não for satisfeita, então ( )( )gr D s não é mínimo. Extraiamos um m.d.c.d
de N(s) e D(s), obtendo 1 1( ) ( ) ( ) ( )N s D s N s D s− −= . Mas então, usando a Definição ao final da página 9, N(s) e D(s) não são c.d., contrariando a hipótese que a Definição 2 seja satisfeita. ******************** Omitindo o argumento s, seja uma fatoração 1D N− . Seja W1 um divisor comum à esquerda (d.c.e.) de D e N . Então existem matrizes polinomiais 1D e 1N tais que
1 1D W D= e N = 1 1W N . Então, 1D N− = 11 1( )W D −
1 1W N = 11 1D N− . Se W1 for um
m.d.c.e. de D e N , então 1D e 1N são c.e. Se W1 for d.c.e., mas não for m.d.c.e. de D e N e se W for um m.d.c.e. de D e N , então existe uma matriz polinomial R tal que W = W1R, ou seja, todo d.c.e. é um d.e. do m.d.c.e. Fato (dual do final da pág. 10 numerada em cima): Sejam as matrizes polinomiais D e N , sendo D quadrada. Seja W um m.d.c.e. de D e N . Seja U uma matriz unimodular com as dimensões de D . Então WU também é um m.d.c.e. de D e N . Prova: Por hipótese, existem matrizes polinomiais 1D e 1N tais que 1D WD= e
1N WN= , ou seja, 1W D− e 1W N− são matrizes polinomiais. Ora, então, 1 1 1( )WU D U W D− − −= é uma matriz polinomial, porque 1U − o é. E, pelo mesmo raciocínio, 1( )WU N− também é uma matriz polinomial. Consequentemente WU é um d.c.e. de D e N . Mas ( ) ( ) ( ) ( )gr WU gr W gr U gr W= + = , porque
U é unimodular. Donde se conclui que WU é um m.d.c.e. de D e N .
18
19
Prova do primeiro lema acima:
20
Efetivamente, se N NW= e D DW= , sendo W um m.d.c.d. de N e D, podemos escrever 1N NU UW−= e 1D DU UW−= , onde U é unimodular; donde se vê que UW é um d.c.d. de N e D. Mas como ( ) ( )gr UW gr W= , concluímos a prova. ********************** Corolário (dual do final da página 12, numerada em cima): D e N são c.e. se só se todo m.d.c.e. das duas for unimodular.
21
22
23
obtemos
24
2
1 2 1 11 2 1 2 0 1
s s ss s s s
⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥− + − +⎣ ⎦ ⎣ ⎦ ⎣ ⎦
25
Forma de Hermite Denotemos por ~(r) a equivalência entre duas matrizes no sentido de multiplicação por matriz unimodular à esquerda (ou seja, operação sobre linhas) e por ~(c) a equivalência que resulta da multiplicação à direita. Temos o seguinte exemplo do cálculo da forma de Hermite de uma matriz:
22 2 2
2
3 2 11 1 0~ ( ) ~ ( ) 21 2 1 2 3 1 2 3 1
s ss s s s s s s sr rs s s s s
⎡ ⎤− −⎡ ⎤ ⎡ ⎤− − + − − + − + +⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − + + − +⎣ ⎦ ⎣ ⎦ − +⎢ ⎥⎣ ⎦
=
22
22
3 11 1 3 11 0 10 22~ ( ) ~ ( ) ~ ( ) 223 1 1 0 12 3 1 1 0
2 2
ss ssr r r
s s ss
− −⎡ ⎤ ⎡ ⎤− − −⎡ ⎤− ⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥− − −⎢ ⎥ ⎢ ⎥ −− +⎢ ⎥ ⎣ ⎦⎣ ⎦ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦
.
26
27
28
29
30
31
32
Como se calculam X e Y em (1) da identidade de Bezout? Sendo N e D c.d. , existe matriz unimodular U tal que
33
DU I
N⎡ ⎤
=⎢ ⎥⎣ ⎦
, sendo claro que I é um m.d.c.d. de D e N. Ou seja, temos
11 12
21 22 0U U D IU U N
⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ ⎦ ⎣ ⎦⎣ ⎦∴ 11 12U D U N I+ = .Portanto a identidade de Bezout é satisfeita
com X = U12 e Y = U11. Quanto à identidade dual da página anterior, isto é, NX DY I+ = , o cálculo de X e Y é feito de maneira óbvia, análoga ao cálculo de X e Y explicado acima e na próxima página. Ou seja,
[ ]11 12
21 22
0V V
D N IV V
⎡ ⎤⎡ ⎤ =⎢ ⎥⎣ ⎦
⎣ ⎦; então X = 21V e Y = 11V . Portanto, analogamente ao
mostrado na próxima página, trabalha-se com 00
D NI
I
⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦
; opera-se sobre as colunas
desta matriz, obtendo-se 00
D NI
I
⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦
11 12
21 22
V VV V
⎡ ⎤⎢ ⎥⎣ ⎦
= 11 12
21 22
0IV VV V
⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦
.
34
Exemplo: Calcular o m.d.c.d. das matrizes D(s) e N(s) dadas abaixo i) Primeiro método: operando sempre sobre linhas, temos:
35
2 2 2
2 2
1 1 0 1 02 1 ~ ( ) 2 1 2 2 11 1 1 1 1 1
s s s s s sD
s s r s s s s sN
s s s
⎡ ⎤ ⎡ ⎤− − − + −⎡ ⎤⎡ ⎤ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥= + + + − + = − + +⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − −⎣ ⎦⎣ ⎦ ⎣ ⎦
2
1 1~ ( ) 2 2 1
1 0
sr s s
s
−⎡ ⎤⎢ ⎥− + +⎢ ⎥⎢ ⎥−⎣ ⎦
2 2
1 1 1 0~ ( ) 2 2 1 ~ ( ) 2 2 0
0 1 0 1
s sr s s r s s
− −⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥− + + − + +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥− −⎣ ⎦ ⎣ ⎦
1 0 1 0 0 0~ 2 0 ~ 3 0 ~ 1 0
0 1 0 1 0 1
s ss
− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥ ⎢ ⎥+⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦ ⎣ ⎦
, ou seja, o m.d.c.d. é unimodular e portanto N e
D são c.d.
ii) Segundo método: os menores de ordem máxima de DN
⎡ ⎤⎢ ⎥⎣ ⎦
são
23 2 2 3
11
1 2 3 1 : ( )2 1
s ss s s s s s s p s
s s−
= + − − − − = − − =+ +
,
22 2
21
1 1 : ( )1 1
s ss s s s p s
s−
= − − + = − =−
,
2 23
2 12 1 3 : ( )
1 1s s
s s s s p ss+ +
= + − + = − + + =−
.
Ora, a única raiz de p2(s) é 1. Mas p1(1) = -3 e p3(1) = 3. Portanto os 3 menores de
ordem máxima são coprimos e, conseqüentemente, DN
⎡ ⎤⎢ ⎥⎣ ⎦
tem posto cheio para todo s,
concluindo-se que N e D são c.d. ******************* Problema dado em ano anterior:
2ª. Seja o sistema dado pela sua matriz de transferência 1 1( )( 1)
T
H ss s s
⎡ ⎤= ⎢ ⎥+⎣ ⎦
.
a) Achar uma fatoração coprima à esquerda ( )H s = 1( ) ( )D s N s− ; b) Achar ( )X s e ( )Y s tais que ( ) ( ) ( ) ( )N s X s D s Y s I+ = Teorema (Identidade generalizada de Bezout):
36
Seja 1 1( ) ( ) ( ) ( ) ( ),H s N s D s D s N s− −= = onde ( )N s e ( )D s são c.d., enquanto que ( )D s e ( )N s são c.e. Então existem matrizes polinomiais ( ), ( ), ( )X s Y s X s e ( )Y s
tais que 0( ) ( )( ) ( )
0( ) ( )( ) ( )m
p
IN s Y sX s Y sID s X sD s N s
− ⎡ ⎤⎡ ⎤− ⎡ ⎤= ⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣ ⎦⎣ ⎦ ⎣ ⎦ (1)
0( ) ( ) ( ) ( )
0( ) ( ) ( ) ( )p
m
IN s Y s X s Y sID s X s D s N s
− ⎡ ⎤ ⎡ ⎤−⎡ ⎤=⎢ ⎥ ⎢ ⎥⎢ ⎥
⎣ ⎦ ⎣ ⎦⎣ ⎦ (2)
Prova: ver três páginas adiante.
Antes da prova, vejamos um exemplo: Seja 1 1( )1
H ss s
⎡ ⎤= ⎢ ⎥+⎣ ⎦. Calcular os elementos
das identidades generalizadas de Bezout: (1) e (2) (numeração acima).
Solução: 1 11s s
⎡ ⎤⎢ ⎥+⎣ ⎦
= [1 1]10
0 1s
s
−⎡ ⎤⎢ ⎥+⎣ ⎦
=: 1ND− . É fácil verificar que N e D são
c.d., satisfazendo ao critério que o posto de DN
⎡ ⎤⎢ ⎥⎣ ⎦
é máximo (igual a 2) para todo s
complexo.
Por outro lado, [ ]1( ) 1( 1)
H s s ss s
= ++
=: 1D N− . Aplicando-se o critério do posto,
verifica-se imediatamente que D e N são c.e. Vamos agora calcular X e Y ; observe-se que, como foi visto, se
1 2
3 4 0U U D IU U N
⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ ⎦ ⎣ ⎦⎣ ⎦, então, 1 2 1 2
3 4 3 4
000
U U I U UD IU U U UN I
⎡ ⎤ ⎡ ⎤⎡ ⎤=⎢ ⎥ ⎢ ⎥⎢ ⎥
⎣ ⎦⎣ ⎦ ⎣ ⎦; então vamos
aplicar operações elementares sobre as linhas de 0
0D IN I
⎡ ⎤⎢ ⎥⎣ ⎦
:
0 1 0 0 1 1 0 0 10 1 0 1 0 ~ ( ) 0 1 0 1 01 1 0 0 1 0 1 0 0
ss r s
s
⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥+ +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦
1 1 0 0 1~ ( ) 0 1 0 1 0
0 1 0r s
s s
⎡ ⎤⎢ ⎥+⎢ ⎥⎢ ⎥− −⎣ ⎦
~ ( )r
1 1 0 0 10 1 0 1 00 1 1 1
ss
⎡ ⎤⎢ ⎥+⎢ ⎥⎢ ⎥−⎣ ⎦
~(r) 1 1 0 0 10 1 1 10 1 0 1 0
ss
⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥+⎣ ⎦
~(r) 1 1 0 0 10 1 1 10 0 ( 1) ( 1)
ss s s s
⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥− + − +⎣ ⎦
~(r) 1 0 1 1 10 1 1 10 0 ( 1) ( 1)
ss
s s s s
− − +⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥− + − +⎣ ⎦
; donde se vê que 2
1sX U
s+⎡ ⎤
= = ⎢ ⎥−⎣ ⎦,
1
1 11 1
Y U− −⎡ ⎤
= = ⎢ ⎥⎣ ⎦
. É sempre bom conferir, porque são comuns os erros de distração
em operações elementares. Efetuando, obtém-se efetivamente: XN YD I+ = .
37
Agora vamos calcular X e Y tais que NX YD I+ = pelo mesmo método (mas dual): ( 1) 1 1 ( 1) 1 0
1 0 0 0 0 1 0 0 1~ ( ) ~ ( )
0 1 0 0 1 0 0 1 00 0 1 1 0 0 1 0 1
s s s s s s s s s s
c c
s
+ + + + +⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥− −⎣ ⎦ ⎣ ⎦ ⎣ ⎦
~(c)
1 0 1 00 0 1 0 0 1
~ ( )0 1 0 1 0 01 1 1 1 1 1
s s
c
s s
⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥− − − − − −⎣ ⎦ ⎣ ⎦
; donde se conclui que 11
X⎡ ⎤
= ⎢ ⎥−⎣ ⎦, Y = 0.
Ora, é fácil verificar, confirmando, que [ ]0 0ND DN− = ; por outro lado, temos:
01 1 1 0
11 1 0
1
sYX Y
sX
⎡ ⎤+ − −⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥⎡ ⎤ = =⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎢ ⎥−⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎢ ⎥−⎣ ⎦
; então, temos, concluindo: X X= eY Y= .
Ou seja, acabamos de calcular todas as variáveis que aparecem nas identidades generalizadas de Bezout, (1) e (2), duas páginas acima.
38
39
40
41
42
43
44
Dualmente, uma matriz polinomial pode ser escrita da seguinte maneira:
( ) ( ) ( )hrD s S s D L s= + ,
45
onde S(s) é uma matriz diagonal e Dhr , uma matriz de números reais, é formada com os coeficientes de mais alto grau de cada linha de S(s). Utilizando o mesmo exemplo da página 29 (numeração de cima), temos
3 3
2 2
2 1 0 20 0( )
1 1 1 0 1 10 0s s s ss s
D ss ss s
+ +⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤= + = +⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥+ +⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦
.
Temos o fato dual do da página anterior: Fato: Uma matriz polinomial quadrada e não singular é linha-reduzida se só se Dhr for não singular. E temos também o teorema dual do da página anterior: Teorema: Seja 1( ) ( ) ( )H s D s N s−= . Suponha que ( )D s seja linha-reduzida. Então ( )H s é própria (estritamente própria) se só se o grau de cada linha de ( )N s for igual ou menor (estritamente menor) do que o grau da respectiva linha de ( )D s .
46
47
48
49
50
51
52
53
Exemplo: Vamos calcular a forma de Smith executando operações elementares da seguinte matriz:
1 21 1
s s ss s
− −⎡ ⎤⎢ ⎥+⎣ ⎦
. Como convencionado, representaremos por ~(r) as operações
elementares sobre linhas e por ~(c) aquelas sobre colunas. Então, temos
~(r) 1 1
1 2s s
s s s+⎡ ⎤
⎢ ⎥− −⎣ ⎦ ~(r) 2 2
1 10 1 2
s ss s s s s
+⎡ ⎤⎢ ⎥− + − − +⎣ ⎦
=
2 2
1 10 1 2 2
s ss s s s
+⎡ ⎤⎢ ⎥− + + − + −⎣ ⎦
~(c) 2 2
1 0 00 1 2 2s s s s
⎡ ⎤⎢ ⎥− + + − + −⎣ ⎦
~(c)
2
1 0 00 1 3s s s
⎡ ⎤⎢ ⎥− + + −⎣ ⎦
~(c) 1 0 00 2 1 3s s
⎡ ⎤⎢ ⎥− + −⎣ ⎦
~(c) 1 0 00 5 3s
⎡ ⎤⎢ ⎥− −⎣ ⎦
~(c)
1 0 00 5 0
⎡ ⎤⎢ ⎥−⎣ ⎦
~ (c) 1 0 00 1 0
⎡ ⎤⎢ ⎥⎣ ⎦
54
55
Temos o dual do Corolário acima:
56
Corolário: Sejam D (s) e N (s) matrizes polinomiais com o mesmo número de linhas e suponha que ( ) ( )D s N s⎡ ⎤⎣ ⎦ tenha o posto normal cheio e igual ao número de
linhas. Então D (s) e N (s) são c.e. se só se a forma de Smith de ( ) ( )D s N s⎡ ⎤⎣ ⎦
for [ ]0I .
(Somente se): (Esta parte da prova foi apresentada por ex-aluno, Gustavo Ayres de Castro): Sejam U e V unimodulares e tais que 1 1P UQV Q U PV− −= ∴ = . Sejam PU e PV e tais que P P PS U PV= = forma de Smith de P. Ora, P P PS U PV= =
1 1P PU UU PV VV− − = P PU UQVV , o que mostra que PS é também a (única) forma de
Smith de Q. A seguir temos o seguinte: Fato: Sejam N(s) e D(s) matrizes polinomiais com o mesmo número de colunas, sendo D(s) quadrada e não singular. Então...(continua na página seguinte, isto é pg. 44 numeração superior)
57
58
Exemplo relativo ao teorema anterior:
59
Sejam 2( ) 1N s s s⎡ ⎤= +⎣ ⎦ e 1 1
( )0
sD s
s−⎡ ⎤
= ⎢ ⎥⎣ ⎦
. Calcular o “quociente” Q(s) e o
“resto” R(s) da divisão de ( )N s por ( )D s . Solução: em vista das dimensões de ( )N s e ( )D s , trata-se claramente de divisão à
direita. Ora, 1 11( )0 1s s
D ss
− −⎡ ⎤= ⎢ ⎥
⎣ ⎦1( ) ( ) ( )H s N s D s−∴ = = 3 3 21 1s s s s
s⎡ ⎤− + + +⎣ ⎦ =
[ ]2 2 1 0 1/s s s s⎡ ⎤− + + +⎣ ⎦ . Donde, Q(s) = 2 2 1s s s⎡ ⎤− + +⎣ ⎦ e
R(s) = [ ]0 1/ s1 10
ss−⎡ ⎤
⎢ ⎥⎣ ⎦
= [0 1].
É sempre bom conferir. Obtém-se de fato Q(s) ( )D s + R(s) = 2 1s s⎡ ⎤+⎣ ⎦ = ( )N s .
60
61
62
63
Dual do teorema da pg. 47 (numeração de cima):
64
Teorema: Seja H(s) uma matriz racional estritamente própria, com a fatoração à esquerda
1( ) ( ) ( )H s D s N s−= . Seja (A, B, C) uma realização de H(s), com ( )grau D s grau sI A= − . Então (A, B, C) é uma realização mínima se só se ( )D s e
( )N s forem c.e. (ou seja, 1( ) ( )D s N s− for fatoração irredutível).
65
66
Solução do exemplo acima:
67
2 2 21
2 22 2
( 1) ( 1) 1( ) : ( ) ( )( 1)1 ( 1)
s s s sH s N s d s
s ss s s−⎡ ⎤+ −
= =⎢ ⎥ −− −⎣ ⎦. Ora, o m.d.c. dos elementos de
( )N s é igual a 1, enquanto que o determinante de ( )N s é ( )2 3 2( 1) ( 1) 1s s s s s− + − +
= ( )2 4 3 2( 1) 1s s s s s− + − + . Donde que a forma de Mac Millan procurada é :
2 2
4 3 2
1 0( 1)
( )10
s sM s
s s ss
⎡ ⎤⎢ ⎥−⎢ ⎥=⎢ ⎥+ − +⎢ ⎥⎣ ⎦
.
68
69
70
Exemplo:
71
2 2 2
2
1 0 0 0( 1)
1( ) 0 0 0( 1)
( 1)0 0 0
s ssH s
s ss
s
⎡ ⎤⎢ ⎥+⎢ ⎥
−⎢ ⎥= ⎢ ⎥+⎢ ⎥⎢ ⎥−⎢ ⎥⎣ ⎦
. Esta matriz já está na forma de Mac
Millan, pois seus numeradores e denominadores satisfazem às propriedades de divisibilidade correspondentes. E temos as fatorações coprimas:
12 2
2
( 1) 0 0 01 0 0 0
0 ( 1) 0 0( ) 0 1 0 0
0 0 00 0 ( 1) 0
0 0 0 1
s ss s
H s ss
s
−⎡ ⎤+
⎡ ⎤ ⎢ ⎥+⎢ ⎥ ⎢ ⎥= −⎢ ⎥ ⎢ ⎥⎢ ⎥− ⎢ ⎥⎣ ⎦
⎢ ⎥⎣ ⎦
=: 1( )( ) Rs sε −Ψ
=
12 2
2
( 1) 0 0 1 0 0 00 ( 1) 0 0 1 0 00 0 0 0 ( 1) 0
s ss s s
s s
−⎡ ⎤+ ⎡ ⎤⎢ ⎥ ⎢ ⎥+ −⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥−⎣ ⎦⎣ ⎦
= : 1( )L s−Ψ ( )sε .
As listas de zeros e pólos são: {Zeros de H(s)} = {1, 1, 1}; {Pólos de H(s)} = {-1, -1, -1, 0, 0, 0, 0}.
72
73
74
Por outro lado a forma de Mac Millan de P(s) é
75
1 00 1
⎡ ⎤⎢ ⎥⎣ ⎦
, donde concluiríamos (erroneamente) que P(s) não tem zero ou pólo no
infinito.
76
77
78
Solução do exemplo acima:
79
21 01 1
2 1I A
λλ λ λ
λ−
− = = − ∴ = ±− +
e portanto o sistema é instável (um pólo no
semi-plano aberto da direita). Calculemos sua matriz de transferência: 1
1 1 1 1 0 0( ) ( )
1 2 2 1 1s
H s C SI A Bs
−− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤
= − = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− +⎣ ⎦ ⎣ ⎦ ⎣ ⎦2
1 1 1 0 011 2 2 1 11
sss
+⎡ ⎤ ⎡ ⎤ ⎡ ⎤= ⎢ ⎥ ⎢ ⎥ ⎢ ⎥−−⎣ ⎦ ⎣ ⎦ ⎣ ⎦
1
2 2 1
1 1 0 1 ( 1)1 11 2 1 2( 1)1 1 2( 1)
s ss ss s s
−
−
− ⎡ ⎤+⎡ ⎤ ⎡ ⎤ ⎡ ⎤= = = ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥− −− − +⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦
.
Para saber se o sistema é BIBO, temos que verificar os pólos de H(s). E para calcular estes pólos, vamos achar a forma de Smith - MacMillan de H(s). (No caso acima, é evidente que o único pólo é -1, portanto o sistema é BIBO, mas vamos calcular a forma de MacMillan):
11 11 1( ) ( ) 12 01 1 0
H s r ss s
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎢ ⎥= ≈ = +⎢ ⎥ ⎢ ⎥ ⎢ ⎥+ +⎣ ⎦ ⎣ ⎦ ⎣ ⎦
, confirmando o que foi dito acima. O sistema
é BIBO, mas não é AE. Portanto há cancelamento do auto-valor instável, ou seja, o sistema ou não é controlável, ou não é observável, ou não é nem uma coisa nem outra. No caso, o sistema não é controlável, como se pode ver pelo critério do posto:
[ ] 1 0 02 1 1
sPosto sI A B Posto
s−⎡ ⎤
− = ⎢ ⎥− +⎣ ⎦ = 1 para s = 1. (E é imediato verificar que
o sistema é observável, usando o mesmo critério).
80
81
82
Exemplo relativo a polinômio característico de matriz de transferência:
83
1 1
1 1
( 1) ( 1)( )
( 2)s s
H ss s
− −
− −
⎡ ⎤− += ⎢ ⎥+⎣ ⎦
. Vamos calcular seu polinômio característico pelos três
métodos indicados: 1. Forma de Smith – Mac Millan:
( 1)( 2) ( 1)( 2)1
( )( 1)( 1)( 2) ( 1)( 1)( 1)( 1)( 2)
s s s s s sH s
s s s s s ss s s s
+ + − +=
− + + − +− + +
⎡ ⎤⎢ ⎥⎣ ⎦
.
É fácil verificar que o m.d.c. mônico dos elementos da matriz polinomial acima é igual a 1. E o determinante da matriz é: 2 2 2 2( 1)( 1) ( 2) ( 1) ( 1)( 2)s s s s s s s s− + + − − + + = ( )( 1)( 1)( 2) ( 1) ( 1)( 2)s s s s s s s s− + + + − − + = ( 1)( 1)( 2)s s s s− + + , igual ao denominador acima de ( )H s . Então a forma de Mac Millan é
1 0( 1)( 1)( 2)( )
0 1s s s sM s
⎡ ⎤⎢ ⎥− + += ⎢ ⎥⎢ ⎥⎣ ⎦
. Portanto o polinômio característico de ( )H s é
( 1)( 1)( 2)s s s s− + + . 2. Pelo método das fatorações coprimas: Seja a fatoração à esquerda de ( )H s :
11( 1)( 1) 0 1 1
: ( ) ( )0 ( 2) 2
s s s sD s N s
s s s s
−−− + + −⎡ ⎤ ⎡ ⎤
=⎢ ⎥ ⎢ ⎥+ +⎣ ⎦ ⎣ ⎦. É imediato verificar, usando o
critério do posto, que ( )D s e ( )N s são coprimas à esquerda. Então o polinômio característico é o determinante de ( )D s , o qual é ( 1)( 1)( 2)s s s s− + + , conferindo com o primeiro método. 3. O m.m.c. dos denominadores dos elementos de ( )H s é ( 1)( 1)( 2)s s s s− + + , enquanto que o determinante de ( )H s (único menor de ordem 2) é:
1 1 ( 1) ( 1)( 2) 2( 1)( 2) ( 1) ( 1)( 1)( 2) ( 1)( 1)( 2)
s s s ss s s s s s s s s s s s
+ − − +− = =
− + + − + + − + +. E, portanto o
m.m.c. dos denominadores de todos os menores de ( )H s é, novamente, ( 1)( 1)( 2)s s s s− + + .
(Voltar ao final da pg. anterior)
84
85
86
87
Exemplo:
88
Seja 1( )( 1)
P ss
=−
e ( )C s K= , um número real. Existe K tal que o SMF seja
estável?
Solução: 1 1
1 1
(1 ) (1 )(1 ) 1 (1 )eu
PC PC PH
C PC C PC P
− −
− −
⎡ ⎤+ − += ⎢ ⎥+ − +⎣ ⎦
. Ora,
1(1 )PC −+ = 1 111
1
sK s K
s
−=
− ++−
; 1(1 )C PC −+ = ( 1)1
K ss K
−− +
; 1(1 )PC P−+ = 11s K− +
;
11 (1 )C PC P−− + = 1 - 1K
s K− += 1
1s
s K−
− +. Donde se vê que todas as 4 funções de
transferência serão BIBO (e portanto o SMF será estável) se só se K > 1.
89
90
91
92
Exemplo: Calcular o polinômio característico de um SMF padrão em que
93
1
1
( 1)( )
( 1)s
P ss
−
−
⎡ ⎤−= ⎢ ⎥+⎣ ⎦
e 1 1( ) ( 1)C s s s− −⎡ ⎤= +⎣ ⎦ .
Solução: Qual das fórmulas da re - definição acima escolheremos? É fácil verificar que a mais simples neste caso é 4 ( ) ( ) ( ) ( ) ( )C P C PD s D s D s N s N s= + . Efetivamente, é imediato verificar que ( ) ( 1)CD s s s= + e [ ]( ) 1CN s s s= + são c.e. pelo critério do
posto; 1
( )1P
sN s
s+⎡ ⎤
= ⎢ ⎥−⎣ ⎦ e ( ) ( 1)( 1)PD s s s= + − são c.d. pelo mesmo critério. Então
temos: [ ]24
1( ) ( ) ( ) ( ) ( ) ( 1) ( 1) 1
1C P C P
sD s D s D s N s N s s s s s s
s+⎡ ⎤
= + = + − + + ⎢ ⎥−⎣ ⎦ =
4 3 2 1s s s+ + + .
94
Exemplo: Seja o SMF padrão com
95
( )
1sP s
s=
+ e ( 3)( )
4sC s
s− +
=+
96
Solução: Aplicando o teorema que acaba de ser demonstrado, temos ( ) ( ) ( ) ( )C P C PD s D s N s N s+ = ( 1)( 4) ( 3) 2( 2)s s s s s+ + − + = + . Donde se conclui que o
SMF é estável, certo? Not quite!... Para aplicar o teorema, é preciso que a planta ou o compensador seja estritamente próprio, o que não é o caso neste exemplo. Efetivamente,
1 1
1( ) ( )e uH
P s C s= = ( 1)( 4)
2( 2)s s
s+ +
+, uma função imprópria, donde se conclui que o SMF
não é estável.
Exemplo: Seja o SMF padrão com 3 2
1( )2 1
sP ss s s
−=
+ + +, 2
2( )2 3
sC ss s
−=
+ +.
Solução: a planta sendo estritamente própria e o compensador próprio, podemos aplicar o teorema que acaba de ser demonstrado. Ora, efetuando, obtém-se:
( ) ( ) ( ) ( )C P C PD s D s N s N s+ = 5 4 3 23 7 9 5 5s s s s s+ + + + + . Temos que verificar se este polinômio é Hurwitz, isto é, se todas suas raízes estão no semi – plano aberto da esquerda. Armamos o tablóide: 3 9 5 0 01 7 5 0 00 3 9 5 00 1 7 5 00 0 3 9 5
De acordo com o critério de Hurwitz, os “menores principais” têm que ser todos positivos para que o polinômio seja Hurwitz .Ora, os ditos menores são: 3; 21 – 9 = 12;
3 9 51 7 50 3 9
= 189 + 15 – 45 – 81 > 0;
3 9 5 01 7 5 00 3 9 50 1 7 5
=
3 9 5 01 7 5 00 2 2 00 1 7 5
= 5(42+10-30-18) >
0. O “menor” de ordem 5 é igual ao anterior multiplicado por 5. Portanto o polinômio é Hurwitz e, conseqüentemente o SMF é estável.
97
98
Exemplo após o Corolário acima:
99
Verificar se o SMF padrão com 3 2
3( )1
sP ss s s
+=
+ − − e 1( )
4sC ss
−=
+ é estável.
Solução: Observa-se que: 2
3( )( 1)( 2 1)
sP ss s s
+=
− + + e portanto haverá cancelamento de
modo instável na malha, ou seja, o SMF não é estável.
100
101
102
103
104
105
106
107
1s λλ−
= , 11s
λ =+
. É fácil verificar que 1n λλ−⎛ ⎞
⎜ ⎟⎝ ⎠
e 1d λλ−⎛ ⎞
⎜ ⎟⎝ ⎠
são
necessariamente polinômios. Com efeito, suponha que o denominador da função racional seja um produto
1( 1)
nn
is
=+∏ . (Trataremos logo adiante do caso geral). Se a função racional é própria,
ela será produto de funções racionais do tipo 1
s as++
. Ora, substituindo-se s dado
acima, esta função se transforma em 1 1 ( 1)a aλλ λλ−⎛ ⎞+ = + −⎜ ⎟
⎝ ⎠, um polinômio. Por
outro lado, qualquer fator estritamente próprio de ( )n s é da forma 1
bs +
, que se
transforma em bλ .
Solução do exemplo da página anterior usando as transformações 1s λλ−
= e
11s
λ =+
:
2( )( 1)
sn ss
=+
, 1( )1
sd ss
−=
+. É imediato verificar que estas funções racionais são
coprimas, portanto existem ( )x s e ( )y s que resolvem a equação de Bezout. Ora,
21 1 (1 )n λ λλ λ λλ λ− −⎛ ⎞ ⎛ ⎞= = −⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠= 2λ λ− , 1 1 1 1 2d λ λλ λ
λ λ− −⎛ ⎞ ⎛ ⎞= − = −⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠. Para
achar ( )x s e ( )y s , aplicamos operações elementares em 1 1n dλ λλ λ
⎡ ⎤− −⎛ ⎞ ⎛ ⎞⎜ ⎟ ⎜ ⎟⎢ ⎥⎝ ⎠ ⎝ ⎠⎣ ⎦
, de
modo a transformá-la em forma de Smith, aplicando simultaneamente as mesmas operações na matriz identidade:
2 1 21 00 1
λ λ λ⎡ ⎤− −⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦
~(c)/ 2 1 21 0/ 2 1
λ λ
λ
−⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥−⎣ ⎦
~/ 2 1
( ) 1 4/ 2 1 2
cλ
λ λ
⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥− −⎣ ⎦
~2
0 1( ) 2 1 4
1 2c λ
λ λ λ
⎡ ⎤⎢ ⎥− +⎢ ⎥⎢ ⎥− −⎣ ⎦
~2
1 0( ) 4 2 1
1 2c λ
λ λ λ
⎡ ⎤⎢ ⎥− +⎢ ⎥⎢ ⎥− −⎣ ⎦
. Por simples inspeção, se conclui x = 4, y(λ) = 1- 2λ .
É sempre bom conferir nx + dy = 1, com os valores obtidos de x e y , pois facilmente se erra em operações elementares. Finalmente, temos que substituir λ em
função de s , obtendo x = 4 , y(s) = 211s
−+
11
ss
−=
+.
Que fazer quando ( )n s e / ou ( )d s têm fatores diferentes de 1s + no denominador?
108
Multiplicamos ( )n s e / ou ( )d s por “unidades” apropriadas, de modo que só apareçam fatores da forma 1s + no respectivo denominador, conforme o exemplo a seguir.
109
Solução do exemplo acima usando as transformações
110
1s λλ−
= e 11s
λ =+
.
Neste exemplo não aparece s + 1 no denominador. O que se faz nestes casos é definir funções unidades (“units”) u(s) e v(s) tais que ( ) ( ) ( )n s n s u s= e ( ) ( ) ( )d s d s v s= só tenham s + 1 como fatores nos respectivos denominadores, como mostrado na página anterior. A seguir calculam-se ( )x s e ( )y s tais que ( ) ( ) ( ) ( ) 1n s x s d s y s+ = ; ou seja, substituindo, ( ) ( ) ( )n s n s u s= e ( ) ( ) ( )d s d s v s= , obtemos
( ) ( ) ( ) ( ) ( ) ( ) 1n s u s x s d s v s y s+ = . E é claro que então, ( ) ( ) ( )x s u s x s= e ( ) ( ) ( )y s v s y s= resolvem o problema.
No exemplo em questão, temos: 1 2 1( )
2 1 1sn s
s s s+
= =+ + +
, ou seja, 2( )1
su ss+
=+
; 3( )3 1 1
s s sd ss s s
+= =
+ + +, ou seja,
3( )1
sv ss
+=
+. Donde 1n λ λ
λ−⎛ ⎞ =⎜ ⎟
⎝ ⎠, 1 1 1d λ λ λ λ
λ λ− −⎛ ⎞ ⎛ ⎞= = −⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠; omitindo o
argumento, devemos ter (1 ) 1x yλ λ+ − = ; a solução desta equação sai por simples inspeção: x = y = 1. E, conseqüentemente,
2( )1
sx ss+
=+
, 3( )1
sy ss
+=
+.
111
Sejam duas matrizes N(s) e D(s) , ambas com m colunas. Então elas são c.d. se só
112
se
Posto +e
( )C
( )D s
m sN s
⎡ ⎤= ∀ ∈⎢ ⎥
⎣ ⎦.
Se duas matrizes ( )D s e ( )N s tiverem o mesmo número p de linhas, elas serão c.e. se só se Posto +e( ) ( ) CD s N s p s⎡ ⎤ = ∀ ∈⎣ ⎦ . Como se calcula uma fatoração coprima sobre as matrizes racionais próprias e estáveis? Passa-se para o domínio polinomial. Assim, por exemplo, suponhamos que queiramos achar uma fatoração c.e. sobre as matrizes próprias e estáveis de
1 1( )1
H ss s
⎡ ⎤= ⎢ ⎥−⎣ ⎦.
Ora, [ ] 2 22
1 1( ) 1 ( 1)( 1) ( 1)( 1) ( 1)( 1)
H s s s s s s ss s s s s
− −−
⎡ ⎤= − = − + +⎣ ⎦− − +=:
1( ) ( )D s N s− . Temos que achar um m.d.c.e. de ( )D s e ( )N s . Para isto, fazemos aqui a transformação
s = 1 λλ− . Então, 21 1 1 1D λ λ λ λ
λ λ λ− − −⎛ ⎞ ⎛ ⎞= −⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠= (1 )(1 2 )λ λ− − , enquanto que
1N λλ−⎛ ⎞
⎜ ⎟⎝ ⎠
= 2 21 11λ λλ λλ λ
⎡ ⎤− −⎛ ⎞ ⎛ ⎞−⎜ ⎟ ⎜ ⎟⎢ ⎥⎝ ⎠ ⎝ ⎠⎣ ⎦= [ ](1 2 ) (1 )λ λ λ λ− − . Para calcular o
m.d.c.e de D e N , fazemos operações elementares sobre as colunas de D N⎡ ⎤⎣ ⎦ de
modo a obter sua forma de Smith: D N⎡ ⎤⎣ ⎦ = [ ](1 )(1 2 ) (1 2 ) (1 )λ λ λ λ λ λ− − − −
= 2 2 21 3 2 2λ λ λ λ λ λ⎡ ⎤− + − −⎣ ⎦ ~ 2( ) 1c λ λ λ λ⎡ ⎤− − −⎣ ⎦ ~ 2( ) 1c λ λ λ⎡ ⎤− −⎣ ⎦
~ [ ]( ) 1 0 0c . Então o m.d.c.e. de ( )D s e ( )N s é 1, ou seja, ( )D s e ( )N s são c.e..
Mas se o m.d.c.e. fosse um polinômio L(λ), teríamos que pré-multiplicar 1D λλ−⎛ ⎞
⎜ ⎟⎝ ⎠
e
1N λλ−⎛ ⎞
⎜ ⎟⎝ ⎠
por 1( )L λ− e depois voltar para o domínio dos s.
113
114
115
O determinante da matriz acima é: 2 2
4 2 2 6
( 1) ( 2) 2 2 ( 1) ( 2)( 1) ( 1) ( 1) ( 1)
s s s s s s s ss s s s
⎛ ⎞− − − − −− =⎜ ⎟+ + + +⎝ ⎠
, chegando-se à expressão dada
116
acima, eliminando-se o coeficiente 2, uma vez que queremos sempre nos numeradores das formas de Smith e McMillan polinômios mônicos.
117
118
119
120
121
122
123
124
125
126
127
Vamos demonstrar que os determinantes das 4 matrizes do Teorema (25) são equivalentes, isto é, são iguais, a menos de multiplicação por funções racionais que são unidades em S.
128
Na realidade esta demonstração já foi feita com matrizes polinomiais: ver pp. 68 ss (numeração de cima). A demonstração que se segue é formalmente igual e apresentada de forma mais compacta.
1 1
1 1
00
C P CP P P PC P
C P PC C C C
D N DI N D I D ND D
N D DN D I D N I
− −
− −= =
− − − (1)
11 1
1
00
P P P PPC P P C C P
C C C CC
D N D NDD D D D D D
N D N DD
−− −
−= =
− −~ P P
C C
D NN D−
,
porque PD ~ PD e CD ~ CD , onde ~ significa equivalência unimodular, isto é, as duas funções racionais são iguais a menos de multiplicação por unidades (“units”). Portanto acabamos de provar a equivalência entre iv) e v). Por outro lado a última expressão de (1) acima é igual a
1
1 10P P
C PC C P P
I D ND D
I D N D N
−
− −+ = 1 1
C C P P C PI D N D N D D− −+ =
1 1C C P P C PI D N N D D D− −+
= 1 1
C C P C P P C PD D D N N D D D− −+ ~ C P C PD D N N+ , provando a equivalência de
iii) e iv). Finalmente, da primeira igualdade de (1), vem
1
1P P
C C
I N DN D I
−
−− C PD D = 1 1 1
0
C C P P C C
IN D I N D N D− − −− + C PD D =
1 1P P C C C PI N D N D D D− −+ = 1 1
P P C C C PI D N N D D D− −+ = 1
PD−
P C P CD D N N+ 1CD −
C PD D ~ P C P CD D N N+ , provando a equivalência de ii) e iv).
129
130
131
132
133
134
135
136
137
138
Exemplo:
139
Seja 1( )1
P ss
=−
. Achar o conjunto de todos os compensadores que estabilizam o
SMF.
Solução: 1 11 1 21
P λ λλλ λ
λ
−⎛ ⎞ = =⎜ ⎟ − −⎝ ⎠ −=: P
P
ND
(omitindo o argumento). O conjunto de
todos os compensadores que estabilizam o SMF é dado por
: M(S)P
P
X RDC RY RN
⎧ ⎫+= ∈⎨ ⎬−⎩ ⎭
.
Cálculo de X e Y: 1 0 1 0 1 2 1 1 2 1
~ ( ) ~ ( ) ~ ( )1 2 0 1 1 2 1 1 0 0 1 2
r r rλ λ
λ λ λ λ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦
; donde se vê
que X = 2, Y = 1. E portanto, 22 1 ( )
2 (1 2 ) 2 2 ( 1) ( )111 1 ( )1 ( )
1
R sR s s R ssC
R s R sR ss
λλ
⎛ ⎞+ −⎜ ⎟+ − + + −+⎝ ⎠= = =− + −−
+
, onde M(S)R ∈ , de
resto qualquer. (Observe-se um pequeno abuso de notação: usamos o mesmo R com o argumento λ e com o argumento s). Com R = 0, por exemplo, temos C(s) = 2.
140
141
Definição: 0s +eC∈ é dito um zero de bloqueio de um sistema com matriz de transferência
( )P s se 0( ) 0P s = .
142
143
E o controlador PID? Sua função de transferência é imprópria. Ora, a maioria das plantas às quais se aplica a teoria de controles é estritamente própria e, como também é bem sabido, a maioria dos controladores industriais é PID!!! Vejamos este paradoxo com mais cuidado:
144
Um PID tem função de transferência 2
3 1 221 3( ) K s K s KKC s K K s
s s+ +
= + + = . Seja a
planta estritamente própria ( )( )( )
P
P
N sP sD s
= . Ora, do diagrama de blocos da página 90
(numeração de cima), a função de transferência entre o sinal que entra na planta, 2 ( )e s , e o sinal exógeno que afeta o compensador, 1( )u s , é
23 1 2
22 13 1 2
( )( )( ) ( )1 ( ) ( ) 1
( )P
P
e u
K s K s KC s sH s
K s K s K N sC s P ssD s
+ +
= =+ ++
+=
23 1 2
23 1 2
( ) ( )( ) ( ) ( )
P
P P
K s K s K D sK s K s K N s sD s
+ ++ + +
, que é uma função imprópria, ficando claro porque o
PID não estabiliza o SMF se a planta for estritamente própria. Mas volta a questão: como é que o PID é, de longe, o mais utilizado em aplicações industriais? Para responder a esta pergunta, observa-se que 1( )u s é, na maioria dos casos, uma função estritamente própria (um degrau, uma função senoidal, uma rampa...) e, também, com muita freqüência, o grau relativo da planta é 1, ou seja,
( ( )) ( ( ) 1gr D s gr N s− = . Nestes casos, 2 ( )e s será próprio, ou mesmo estritamente próprio (no caso de 1( )u s ser rampa, por exemplo). Outra razão é que, com freqüência, não é usado o PID propriamente dito, mas uma aproximação dele. Observe-se ainda que a função de transferência relevante do ponto de vista prático é aquela entre 2 ( )y s (a resposta da planta) e 1( )u s , a qual é fácil de calcular e igual a
23 1 2
22 13 1 2
( ) ( )( )( ) ( ) ( )
P
P Py u
K s K s K N sH sK s K s K N s sD s
+ +=
+ + +, a qual é sempre própria.
145
146
Antes da expressão (25) acima, temos:
147
1 ( )PP
P
adj DDD
− = ( )P P PD I adj D D∴ = = PD ( )Padj D
148
149
Exemplo:
150
1 11 1( )
101
s sP s
s
⎡ ⎤⎢ ⎥− += ⎢ ⎥⎢ ⎥⎢ ⎥+⎣ ⎦
. Achar o conjunto de todos os compensadores que têm zero de
bloqueio na origem (s = 0).
Solução: ( )P s =
11
1
1
( 1) ( 1)( 1)( 1)
0 ( 1)
s ss s
s
−−
−
−
⎡ ⎤++⎢ ⎥− +⎢ ⎥
⎢ ⎥+⎣ ⎦
= 11 1 1
1
( 1) ( 1) ( 1)( 1) 00 ( 1) 0 1
s s s ss
−− − −
−
⎡ ⎤ ⎡ ⎤+ + − +⎢ ⎥ ⎢ ⎥+⎣ ⎦ ⎣ ⎦
=: 1P PN D− (1)
= 11( 1)( 1) 0
0 1s s
−−⎡ ⎤− +⎢ ⎥⎣ ⎦
1 2
1
( 1) ( 1)( 1)0 ( 1)
s s ss
− −
−
⎡ ⎤+ − +⎢ ⎥+⎣ ⎦
=: 1PD−
PN . (2)
É fácil ver que as duas fatorações acima são coprimas. Ora, substituindo s em função
de λ, em (1), temos 11 2 01
0 0 1P
λ λ λλλλ
−−−=
⎡ ⎤ ⎡ ⎤⎛ ⎞⎜ ⎟ ⎢ ⎥ ⎢ ⎥⎝ ⎠ ⎣ ⎦ ⎣ ⎦
= 1P PN D− , abusando a notação (a
mesma de (1)). Para acharmos 0X e 0Y , apliquemos operações elementares sobre linhas:
1 0 0 00 0 0 1 0 0
0 1 2 0 0 0 1 00 1 0 0 0 1
P
P
N ID I
λ λλ
λ
⎡ ⎤⎢ ⎥⎡ ⎤ ⎢ ⎥=⎢ ⎥ ⎢ ⎥−⎣ ⎦⎢ ⎥⎣ ⎦
~(r)
0 1 0 00 0 0 1 0
1 2 0 0 0 1 00 1 0 0 0 1
λ λλ
λ
−⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥−⎢ ⎥⎣ ⎦
~(r)
0 1 0 00 0 0 1 01 0 2 0 1 20 1 0 0 0 1
λ λλλ
−⎡ ⎤⎢ ⎥−⎢ ⎥⎢ ⎥−⎢ ⎥⎣ ⎦
~(r)
20 0 1 2 0 20 0 0 1 01 0 2 0 1 20 1 0 0 0 1
λ λ λ λλλ
⎡ ⎤− − −⎢ ⎥−⎢ ⎥⎢ ⎥−⎢ ⎥⎢ ⎥⎣ ⎦
, e passando as
duas últimas linhas para cima: ~(r) 2
1 0 2 0 1 20 1 0 0 0 10 0 1 2 0 20 0 0 1 0
λ
λ λ λ λλ
−⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥− − −⎢ ⎥−⎣ ⎦
.
Das duas primeiras linhas desta matriz temos:
0
2 00 0
X⎡ ⎤
= ⎢ ⎥⎣ ⎦
, 0
1 20 1
Yλ−⎡ ⎤
= ⎢ ⎥⎣ ⎦
= 11 2( 1)
0 1s −⎡ ⎤− +
⎢ ⎥⎣ ⎦
. (3)
(É sempre bom conferir a equação a ser resolvida, que neste caso é 0X PN + 0Y PD = I ). Seguindo o algoritmo da página 115 (numeração de cima), temos:
1( 1) 1f s s λ−= + = − ; de (24d) da página 114, temos 0PA D Bf X− + = . (4)
151
Ora, de (2) acima, temos PD = 1( 1)( 1)s s −− + = 1 2λ− . Portanto a equação (4) acima é
2 0(1 2 ) (1 )
0 0A Bλ λ
⎡ ⎤− − + − = ⎢ ⎥
⎣ ⎦. Ora esta equação tem solução imediata:
2 00 0
A⎡ ⎤
= ⎢ ⎥⎣ ⎦
, 4 00 0
B⎡ ⎤
= ⎢ ⎥⎣ ⎦
. Seja 10 0 0C CC D N−= a solução particular correspondente, isto
é,
0 0C PN X A D= + = 2 0 2 0
(1 2 )0 0 0 0
λ⎡ ⎤ ⎡ ⎤
+ −⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦
= 14(1 ) 0 4 ( 1) 0
0 0 0 0s sλ −− ⎡ ⎤+⎡ ⎤
= ⎢ ⎥⎢ ⎥⎣ ⎦ ⎣ ⎦
. (5)
0 0 0C PD Y R N= − ; mas 0 1
2 0 1 0( )
0 0 0 ( 1)( 1)PR Aadj Ds s −
= =− +
⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦
e, portanto, usando
(3), temos 1 1 1
0 1 1
2 0 1 01 2( 1) ( 1) ( 1)( 1)0 0 0 ( 1)( 1)0 1 0 ( 1)C
s s s sD
s s s
− − −
− −
− + + − += −
− + +
⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦
; efetuando-
se, obtemos
0CD =1 1( 1)( 1) 2 ( 1)
0 1s s s s− −⎡ ⎤− + − +
⎢ ⎥⎣ ⎦
. (6)
E finalmente o conjunto de todos os compensadores com zero de bloqueio na origem é 1
0 0( ) ( )C P C PC D RN N RD−= − + , usando (5) e (6) acima e 1( 1)R s s R−= + , com M(S)R ∈ , de resto qualquer.
152
153
154
155
Exemplo: 1( )
( 2)( 3)sP s
s s−
=− −
.
156
Esta planta tem dois pólos entre dois zeros de bloqueio (1 e ∞), portanto é fortemente estabilizável. Vamos calcular um compensador estável que estabilize o SMF.
2
2
( )( 1)( 1)( ) :( 2)( 3)( 1) ( )
P
P
N ss sP ss s s D s
−
−
− += =
− − +, uma fatoração obviamente coprima.
1PN λ
λ−⎛ ⎞
⎜ ⎟⎝ ⎠
= 211 (1 2 )
λλ λ λ
λ−
= −⎛ ⎞−⎜ ⎟⎝ ⎠
;
21 1 12 3PD λ λ λ λλ λ λ− − −⎛ ⎞ ⎛ ⎞⎛ ⎞= − −⎜ ⎟ ⎜ ⎟⎜ ⎟
⎝ ⎠ ⎝ ⎠⎝ ⎠ = (4 1)(3 1)λ λ− − . Vamos calcular X e Y da
identidade de Bezout:
2
1 0 (1 2 ) 1 0 (1 2 ) 1 0~ ( )
0 1 12 7 1 0 1 1 6 1P
P
Nr
Dλ λ λ λ
λ λ λ− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤
=⎢ ⎥ ⎢ ⎥ ⎢ ⎥− + − +⎣ ⎦ ⎣ ⎦⎣ ⎦12 1 2
~ ( )1 6 1
rλ λ λ
λ− − + −⎡ ⎤
⎢ ⎥− +⎣ ⎦
12 1 2~ ( )
1 12 5 2 1r
λ λ λλ λ
− − + −⎡ ⎤⎢ ⎥+ +⎣ ⎦
2 20 12 7 1 2~ ( )
1 12 5 2 1r
λ λ λ λλ λ
⎡ ⎤− + −⎢ ⎥+ +⎣ ⎦
2 2
1 12 5 2 1~ ( )
0 12 7 1 2r
λ λλ λ λ λ
+ +⎡ ⎤⎢ ⎥− + −⎣ ⎦
.
Donde 12 5X λ= + = 5 171
ss
++
, 32 11
sYs
λ += + =
+.
P
P
X RDCY RN
+=
−; com R = 0, obtemos 5 17( )
3sC ss
+=
+, que é um compensador estável.
Calculando, obtemos o polinômio característico do SMF: 3( ) ( 1)p s s= +
157
158
159
160
161
Prova: Se 0 (S)P ∈M , então as equações de Bezout são satisfeitas com 0 0 0N N P= = ,
0D I= , 0D I= , 0 0X = , 0Y I= . Então, das expressões de A e B, temos:
162
1A D= , 0 1 1B P D N= − + . (3) Por outro lado, 1 1
1 0 1 1 0 1 0 1 1( )P P N D P N P D D− −− = − = − Comparando esta expressão com (3), a prova fica concluída em vista do teorema 2. Exemplo:
01( )
1P s
s=
−, 1
1( )2
P ss
=−
. Verificar se existe C(s) que estabilize as duas plantas.
Solução: 1
0 1
( 1)( )( 1)( 1)
sP ss s
−
−
+=
− +,
1
1 1
( 1)( )( 2)( 1)
sP ss s
−
−
+=
− +; donde 1
0 0 ( 1)N N s −= = + = λ
10 0 ( 1)( 1)D D s s −= = − + = 1 1 1 2λ λ λ
λ−⎛ ⎞− = −⎜ ⎟
⎝ ⎠, 1
1 ( 1)N s −= + , 11 ( 2)( 1)D s s −= − + .
Cálculo de 0X e 0Y
0
0
1 0 1 0 1 0 0 2 1~ ( ) ~ ( )
0 1 1 2 0 1 1 2 1 1 2 1N
r rD
λ λ λ λλ
− + −⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥−⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎦
1 2 1~ ( )
0 2 1r
λ λ⎡ ⎤⎢ ⎥− + −⎣ ⎦
. Donde 0X = 2 e 0Y = 1. E, portanto,
0 1 0 12 21 1 1
s sA Y D X Ns s s−
= + = + =+ + +
,
0 1 0 1 2
1 2 1 1 11 1 1 1 ( 1)
s sB N D D Ns s s s s
− −= − + = − + =
+ + + + + 1 1
( 1)BA
s s−∴ =
+, donde se vê
que 1BA− é fortemente estabilizável e, conseqüentemente, existe C(s) que estabiliza 0 ( )P s e 1( )P s . Calculemos um tal compensador:
B = 2λ , A = 1 – λ . Cálculo de ABX e ABY : 21 0 1 11 0
~ ( ) ~ ( )0 1 1 0 1 1 1 11 0 1
Br r
Aλ λ λ λλ
λ λλ⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
= ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥− +−⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎦20 1
~ ( )1 1 1
rλ λ
λ⎡ ⎤− −⎢ ⎥+⎣ ⎦
2
1 1 1~ ( )
0 1r
λλ λ
+⎡ ⎤⎢ ⎥− −⎣ ⎦
; donde ABX = 1, ABY = 1λ + = 21
ss++
;
e portanto, 1 12AB AB
sR Y Xs
− += =
+; finalmente, o compensador que estabiliza as duas
plantas é:
0 0
0 0
1 12 2 4 12 1 31 1 2 112 1
s sX RD s ss sC sY RN s
s s
+ −++ + + −+ += = = =
+− + −−+ +
.
Efetivamente, é fácil ver que o problema tem solução com qualquer C real maior que 2.
163
164
165
166
167
168
169
170
171
Quanto a 21W , que é a matriz mais importante quando se trata de rastreamento, dado
21W no SMF com compensador de um parâmetro, para obter o mesmo 21W com compensador de dois parâmetros, é só fazer 1c PN X RD= + . Mas dado 21W com
172
compensador de dois parâmetros teríamos que ter 1P P c PN RD N N X= − 1
1( )P c P PN R N N X D−∴ = − , uma equação que não tem necessariamente solução para R. Seja o exemplo:
1( )1
P ss
=−
, donde 1( 1)PN s −= + = λ, 1( 1)( 1)PD s s −= − + = 1 - 2λ ;
ora, 1P PXN YD+ = , ou seja, (1 2 ) 1X Yλ λ+ − = ; é imediato ver que esta equação tem solução com X = 2, Y =1.
Mas, 211 1( ) ( )( )( ) 2 ( )
1 1P PsW s N s X RD s R s
s s−⎛ ⎞= + = +⎜ ⎟+ +⎝ ⎠
. (1)
Queremos o mesmo valor com compensador de 2 graus de liberdade, ou seja,
21 11( ) ( )
1 cW s N ss
=+
. Igualando esta com (1) acima, temos
1( )cN s - 2 = 1 ( )1
s R ss
−+
. É claro que esta equação tem solução em 1( )cN s para todo
( ) SR s ∈ . Mas a recíproca não é verdadeira: assim, por exemplo, se 1( )cN s for um número real diferente de 2, não existe ( )R s ∈ S que resolva o problema com compensador de 1 grau de liberdade.
173
174
175
Observação: Como resolver a equação (7) acima? Ou seja, dados , , ,P P rN D D X , como achar R e V tais que (7) seja satisfeita? No caso escalar, supondo que P PN D e rD sejam coprimos, a solução é fácil. Com efeito, sejam A e B ∈ S tais que
176
A P PN D + B rD =1; (7a)
façamos R = ( )1 PN X− A, V = ( )1 PN X− B. Substituindo estes no lado esquerdo de
(7), temos ( )1 PN X− A P PN D + ( )1 PN X− B rD = A P PN D - PN X A P PN D + B rD -
PN X B rD = A P PN D + B rD - PN X ( A P PN D + B rD ) = 1 PN X− , em vista de (7a), a última expressão sendo o lado direito de (7).
177
Observação: Nos dois teoremas acima, se a planta for estritamente própria, o que é muito comum, a condição PY RN− é automaticamente satisfeita, como já vimos.
178
179
(Observe-se que não daremos neste curso a solução de (12a) no caso multivariável. Mas no caso escalar, sim, cai-se em equação que já sabemos resolver). No caso multivariável , observe-se que V tem o mesmo número de linhas de PN . Como rD
180
também tem o mesmo número de linhas de PN e sendo rD quadrada, conclui-se que V também é quadrada. Então se rD for diagonal, com todos seus elementos iguais (o que não é incomum), temos V rD = rD V e a equação (12a) passa a ser
1 rP cN N D V I+ = , que sabemos resolver e terá solução se só se PN e rD forem c.e. Exemplo:
1( )3
P ss
=−
, ( ) Ar ss
= , sendo A um número real. Calcular um compensador de dois
parâmetros que resolva o problema do rastreamento assintótico.
Solução: 1
1
( )( 1)( ) :( 3)( 1) ( )
P
P
N ssP ss s D s
−
−
+= =
− +,
1
1
( 1)( )( 1)
A sr ss s
−
−
+=
+; donde, abusando a
notação, temos PN = λ, PD = 1 3 1 3λ λ λλ−⎛ ⎞− = −⎜ ⎟
⎝ ⎠. Cálculo de X e Y :
1 0 1 0 0 1 4 1 4 1~ ( ) ~ ( ) ~ ( )
1 4 0 1 1 4 1 1 4 1 0 1 4r r r
λ λ λ λλ λ λ
− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦
; donde
X = 4, Y = 1. Passemos à solução da equação 1 rP cN N VD I+ = :
rD = 1( 1)s s −+ = 1 – λ. Donde, 1 0 1 0 0 1 1 1 1
~ ( ) ~ ( ) ~ ( )1 0 1 1 1 1 1 1 1 0 1
r r rλ λ λ λ
λ λ λ− −⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥− − −⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦, e portanto,
1cN = V = 1. E a classe de todos os compensadores com dois parâmetros que resolvem
o problema é: 11( ) c P
P
C s N X RDY RN
⎡ ⎤= +⎣ ⎦− = 1 31 4 ( )1 11 ( )
1
s R ssR s
s
−⎡ ⎤+⎢ ⎥+⎣ ⎦−+
,
com ( )R s ∈S, de resto qualquer.
181
182
183
184
185
186
Agora suporemos que a planta esteja sujeita a perturbações, isto é, PN → PN + N∆ ,
P P DD D→ + ∆ , P P NN N→ + ∆ , P P DD D→ + ∆ . Suporemos estas perturbações
187
suficientemente pequenas no sentido que se o SMF nominal for estável, ele continua estável com estas perturbações.
188
189
190
(Início da prova, em cima da página): Seja 1 1
1 1 1: ( ) ( ) :P D P NP P D N D N− −→ = + ∆ + ∆ = . Como por hipótese a perturbação da planta não destrói a estabilidade do SMF, 1D e 1N são c.e.
191
192
193
194
Observe-se que se P não for “chata” ou quadrada, o problema não tem solução. Com efeito, se P é “magra”, PN também o será (com as mesmas dimensões) e, portanto, o posto de [ ]P RN Iα não é cheio para os valores de s que anulam Rα I. Exemplo:
195
1 1
1
( 1) ( 2)( )
0 ( 1)s s
P ss
− −
−
⎡ ⎤+ += ⎢ ⎥+⎣ ⎦
, 2
1/( )
1/s
r ss
⎡ ⎤= ⎢ ⎥
⎣ ⎦. Achar um compensador que resolva
robustamente o problema do rastreamento assintótico de ( )r t (abusando a notação). Solução: Antes de mais nada, vamos ver se o problema tem solução. Como
( )P s ∈M(S), temos (omitindo o argumento s), P = PN = PN , P PD D I= = . (Observe-se que se P não fosse quadrada, PD e PD teriam dimensões diferentes). É claro que Rα = 2 2( 1)s s −+ , e portanto,
1 1 2 2
1 2 2
( 1) ( 2) ( 1) 00 ( 1) 0 ( 1)p R
s s s sN I
s s sα
− − −
− −
⎡ ⎤+ + +⎡ ⎤ = ⎢ ⎥⎣ ⎦ + +⎣ ⎦
;
É claro que o posto da matriz acima é cheio para todo s ∈ +eC . 2 2 2 1
12
( 1) ( 1) ( 2)0 ( 1)R
s s s s sP P
s sα
− − −−
−
⎡ ⎤+ + +′ = = ⎢ ⎥+⎣ ⎦
.
E abusando a notação, 2 2
2 2 2
2
2
1 1 11(1 ) (1 ) 2
10(1 )
P
λ λλλ λ λ λ
λλ
λ λ
⎡ ⎤⎢ ⎥−− − ⎛ ⎞⎢ ⎥+⎜ ⎟′ = ⎢ ⎥⎝ ⎠⎢ ⎥⎢ ⎥⎢ ⎥−⎣ ⎦
=2 2
2
(1 ) (1 ) (1 )
0(1 )
λ λλ λ λ
λλ
⎡ ⎤⎢ ⎥− − +⎢ ⎥⎢ ⎥⎢ ⎥−⎣ ⎦
. Portanto,
temos que achar um compensador que estabilize esta “planta” P′ . Seja 1C CN D− uma
fatoração c.d. deste compensador e seja uma fatoração de P′ , calculada tomando o
m.m.c. dos denominadores de cada linha: 2
2
( 1) ( 1) 00 ( 1)PD
λ λλ
⎡ ⎤− +′ = ⎢ ⎥−⎣ ⎦
,
( 1)0PN
λ λ λλ
+⎡ ⎤′ = ⎢ ⎥⎣ ⎦
. Fica claro que se trata de fatoração c.e. quando se verifica o
posto de P PD N⎡ ⎤′ ′⎣ ⎦ . Vamos calcular CN e CD . Ora,
CP P
C
DD N I
N⎡ ⎤
⎡ ⎤′ ′ =⎢ ⎥⎣ ⎦⎣ ⎦
. Então, temos 11
22
00
0
P PC
CC
C
D N ID U
I D UN U
I N U
⎡ ⎤′ ′ ⎡ ⎤⎡ ⎤⎢ ⎥ ⎢ ⎥=⎢ ⎥⎢ ⎥ ⎢ ⎥⎣ ⎦⎢ ⎥ ⎢ ⎥⎣ ⎦⎣ ⎦
Então, mãos à obra: 00
P PD NI
I
′ ′⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦
=
3 2 2
2
1 00 2 1 01 0 0 00 1 0 00 0 1 00 0 0 1
λ λ λ λ λ λλ λ λ
⎡ ⎤− − + +⎢ ⎥− +⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎣ ⎦
196
2
3 2 2
1 0 02 1
1 0 0 0~ ( )
0 1 0 00 0 1 00 0 1 1
c
λ λ λλ λ λ λ λ λ
λ
⎡ ⎤− − +⎢ ⎥− − + − −⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥
− −⎢ ⎥⎣ ⎦
3 2 2 2
1 0 02 1
1 0 0 0~ ( )
0 1 0 00 0 1 0
0 1 1
c
λ λλ λ λ λ λ λ λ
λ λ
− +⎡ ⎤⎢ ⎥− + − + − −⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥
− −⎣ ⎦
3 2 2 2
1 0 02 1
1 0 0 0~ ( )
0 1 0 00 0 1 0
1 0 1 1
c
λλ λ λ λ λ λ λ λ
λ λ
⎡ ⎤⎢ ⎥− + + − + − −⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥
+ − −⎣ ⎦
3 2 2 2 4 3 2
2
1 0 0 02 1
1 0 0~ ( )
0 1 0 00 0 1 0
1 0 1
c
λ λ λ λ λ λ λ λ λ λλ
λ λ λ λ
⎡ ⎤⎢ ⎥− + + − + − − − −⎢ ⎥⎢ ⎥−⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥
+ − − − −⎣ ⎦
3 2 2 3 2
2
3 2
1 0 0 03 1 2
1 0 0~ ( )
0 1 0 00 1 1
1 1 1 2
c
λ λ λ λ λ λ λ λλ
λλ λ λ λ λ λ
⎡ ⎤⎢ ⎥− + + − + − − − −⎢ ⎥⎢ ⎥−⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎥
+ − − − − − − −⎣ ⎦
3 2 2 2
2
3
1 0 0 03 1
1 0 0~ ( )
0 1 0 00 1 1 2
1 1 1
c
λ λ λ λ λ λ λλ
λ λλ λ λ λ λ
⎡ ⎤⎢ ⎥− + + − + − −⎢ ⎥⎢ ⎥−⎢ ⎥⎢ ⎥⎢ ⎥−⎢ ⎥
+ − − − − − −⎣ ⎦
197
3 2 2
2 2
3 3
1 0 0 03 1
1 0~
0 1 0 00 1 1 2
1 1 2 1
λ λ λ λ λ λλ λ
λ λ λ λλ λ λ λ λ λ
⎡ ⎤⎢ ⎥− + + − + −⎢ ⎥⎢ ⎥− −⎢ ⎥⎢ ⎥⎢ ⎥− + −⎢ ⎥
+ − − − − − − −⎣ ⎦
3 2
3 2
3 2 2 2
3 2 3 3
1 0 0 00 1 0 0
3 ( ) 31
( )( 3 3 2) 3 3 2( )(3 5 2) 1 3 5 2
x xx xx xx x
λ λ λ λ λλ λ λ
λ λ λ λ λ λ λλ λ λ λ λ λ λ λ
⎡ ⎤⎢ ⎥⎢ ⎥⎢ ⎥− − + +⎢ ⎥− −⎢ ⎥⎢ ⎥− − − + − − + −⎢ ⎥
− − + + + + + +⎣ ⎦
, onde não precisamos
calcular os elementos da matriz indicados com x. Da última matriz acima, temos imediatamente:
3 2
3 2
3 ( ) 31CD
λ λ λ λ λλ λ λ
⎡ ⎤− − + += ⎢ ⎥− −⎣ ⎦
,
3 2 2 2
3 2 3 3
( )( 3 3 2) 3 3 2( )(3 5 2) 1 3 5 2CN
λ λ λ λ λ λ λλ λ λ λ λ λ λ λ
⎡ ⎤− − − + − − + −= ⎢ ⎥− − + + + + + +⎣ ⎦
.
Donde CN 1CD− = .....(bastante trabalhoso). Depois temos que substituir λ por seu
valor em s. E finalmente, 1 1( ) ( )C C RC s N D sα− −=
198
199
200
201
202
203
204
Exemplo:
205
1( )1
P ss
=+
, 2( ) As Br ss+
= , com A e B reais e arbitrários. Queremos achar
compensadores com 1 e 2 graus de liberdade que resolvem o problema do rastreamento assintótico robusto. Solução:
1( 1)N s −= + , 1D = , 2 2( 1)RrD s sα −= = + . Ora,
[ ] 1 2 2( ) ( ) ( 1) ( 1)RN s s s s sα − −⎡ ⎤= + +⎣ ⎦ tem posto cheio para todo s no semi - plano fechado da direita estendido, portanto ambos os problemas (com 1 e 2 graus de liberdade) têm solução. i) Vejamos primeiramente a solução do problema com compensador de 1 grau de liberdade:
2 11
2 2 2
( 1) 1 ( 1) ( )( ) ( ) :1 ( 1) ( )R
s s N sP s P ss s s s D s
α−
−−
′+ +′ = = = =′+ +
. Donde, abusando a notação,
N λ′ = , 2
2 21 2 1D λ λ λ λλ−⎛ ⎞′ = = − +⎜ ⎟
⎝ ⎠. Calculemos X ′ e Y ′ :
2
1 0 1 0 1 0~ ( )
0 1 2 1 0 1 2 1 1N
rD
λ λλ λ λ λ
′⎡ ⎤ ⎡ ⎤ ⎡ ⎤=⎢ ⎥ ⎢ ⎥ ⎢ ⎥′ − + − + −⎣ ⎦ ⎣ ⎦ ⎣ ⎦
1 0~ ( )
1 2 1r
λλ
⎡ ⎤⎢ ⎥− +⎣ ⎦
20 2~ ( )
1 2 1r
λ λ λλ
⎡ ⎤− −⎢ ⎥− +⎣ ⎦
2
1 2 1~ ( )
0 2r
λλ λ λ− +⎡ ⎤
⎢ ⎥−⎣ ⎦. Donde se tem imediatamente
X ′ = -λ + 2 = 2 11
ss
++
, Y ′ = 1 1( ) 1 ( )1CD s R s
s∴ = −
+,
2
2
2 1( ) ( )1 ( 1)C
s sN s R ss s
+= +
+ +,
2
2
1( ) ( ) ( ) 1 ( )( 1) 1C R C
sD s s D s R ss s
α ⎛ ⎞= = −⎜ ⎟+ +⎝ ⎠. E
portanto,
2
2
2
2
2 1 ( )( ) 1 ( 1)( )
1( ) 1 ( )( 1) 1
C
C
s s R sN s s sC s
sD s R ss s
+ ++ += =
⎛ ⎞−⎜ ⎟+ +⎝ ⎠
, ( )R s ∈S , de resto qualquer. (16)
ii) Cálculo do compensador com 2 graus de liberdade: 2 ( )C s tem a mesma expressão dada em (16) acima.
Para o cálculo de 1( )CN s , usamos (13), que é no caso presente:
1 1C RN N Y Zα′ ′+ = .
Substituindo os valores acima, temos: 2
1 2
1 11 ( 1)C
sN Zs s
+ =+ +
. É imediato verificar
que obtemos Z = 1 e 12 1
1CsN
s+
=+
como solução da equação acima. Temos então o
compensador com 2 graus de liberdade:
206
2
2 2
2
1 2 1 2 1( ) ( )1 1 1 ( 1)1 ( )
( 1) 1
s s sC s R ss s s sR s
s s
⎡ ⎤+ += +⎢ ⎥+ + +⎛ ⎞ ⎣ ⎦−⎜ ⎟+ +⎝ ⎠
207
208
Final do curso de Sistemas Lineares I. PRELIMINARES O problema que nos ocupará agora é o da figura 1. A planta tem dois vetores de saída. Tipicamente, z(t) é a resposta que queremos controlar, isto é, queremos que rastreie r(t), enquanto que y(t) é a resposta que é medida através de sensor (embutido na matriz de transferência da planta). O que se segue em ingles está nos meus artigos [2] e [3]. In the figure z(s) and r(s) are q-valued vectors, u(s) is a m-valued vector and y(s) is a p-valued vector. P1 (s) P (s) = represents the given plant. P2 (s) C(s) = [ C1 (s) -C2 (s)] is the compensator to be designed. z(s) u(s) r(s)
[C1 (s), -C2 (s)] y(s) Fig. 1 All the left factors will be denoted with an “~”, e.g. D Omitting henceforth the argument (s) when convenient, we have: z = P1 u , y = P2 u , u = C1 r - C2 y . P1 , P2 , C1 and C2 are proper rational matrices and have the appropriate dimensions. P2 is assumed strictly proper for convenience in terms of well - posedness and because this is the case in most practical situations. This assumption might be dropped easily. The exogenous signal r is assumed proper. P1 and P2 are assumed to have full rank. All the factorizations in the paper are over S. P1 N1 Let P = = D -1 , a right coprime (r. c.) factorization. P2 N2 Let C = [C1 -C2 ] = D c
–1 [ N c1 , - N c2 ] , a left coprime (l. c.) factorization. We assume that the exogenous signal r has all its poles in the closed right complex plane; those are the relevant poles, since the modes corresponding to stable poles
P1 (s) P2 (s)
209
decay asymptotically to zero. This assumption is standard in the literature of the servo problem, but might be easily dropped. r = D r
–1 N r r0 , (0) where D r is a known matrix, N r need not be known, D r and N r are l. c. and r0 is an arbitrary vector of real numbers. α m will denote the largest invariant factor of D r . We use the standard definition of closed loop stability. It is known, [2], that if the closed loop is stable, D c , N c2 , D and N2 can be chosen, without loss of generality such that D c D + N c2 N2 = I , (1) where I is the identity matrix. Moreover, there exist N 2c , Dc , D and N 2 , corresponding to a r.c. of C2 and l.c. factorization of P2 , respectively, s.t. D - D 2 Dc N2 I 0 = . (1a) N c2 D c - Nc2 D 0 I Dc N 2 D - N 2 I 0 = . (1b) -N c2 D N c2 D c 0 I Let H be the transfer function matrix between z and r . Asymptotic tracking is said to take place if and only if the loop is stable and (I - H ) r ∈ M(S) (2) z u r + - Figure 2 Da fig. 2, temos: u = D c
-1 ( N c1 r - N c2 N2 D-1 u ), e portanto,
N1 D –1 D c–1 N c1
N2 N c2
210
(I + D c-1 N c2 N2 D -1) u = D c
-1 N c1 r , D c
-1 ( D c D + N c2 N2) D -1 u = D c-1 N c1 r .
E em vista de (1a), u = D N c1 r . E portanto, H = N1 N c1 . (3) Perturb the plant, P → P* . Let H* be the resulting transfer matrix between z and r . We say that C is a robust tracking compensator if and only if the perturbed closed loop is stable and ( I - H* ) r ∈ M(S) , (2*) whatever be the perturbation in a given set. Remark 1: Recall, [9], that if F ∞ < 1 , with F ∈ M(S), then I + F is unimodular. We have next a technical result: Lemma: Let ∆D , ∆N ∈ M(S) arbitrary but such that I + D c ∆D + N c2 ∆N is unimodular. Then there exist ε1 , ε2 ∈ R and Q1 , Q2 ∈ M(S) such that ( I + D c ∆D + N c2 ∆N )
1−
= I - ε1 D c Q1 - ε2 N c2 Q2 (4) Conversely, let ε1, ε2∈ R and Q1 , Q2 ∈ M(S) arbitrary but such that I - ε1 D c Q1 - ε2 N c2 Q2 is unimodular. Then there exist ∆D , ∆N ∈ M(S) such that (4) holds. Moreover, ∆D = ε1 Q1 (I - ε1 D c Q1 - ε2 N c2 Q2) –1 , (5a) ∆N = ε2 Q2 (I - ε1 D c Q1 - ε2 N c2 Q2) –1 (5b) ε1 Q1 = ∆D ( I + D c ∆D + N c2 ∆N ) –1 (5c) ε2 Q2 = ∆N ( I + D c ∆D + N c2 ∆N ) –1 (5d) Proof: From (5a) and (5b), we have: I + D c ∆D + N c2 ∆N = I + D c ε1 Q1 (I - ε1 D c Q1 - ε2 N c2 Q2) -1 + N c2 ε2 Q2 (I - ε1 D c Q1 - ε2 N c2 Q2) –1 = (I - ε1 D c Q1 - ε2 N c2 Q2 + ε1 D c Q1 + ε2 N c2 Q2) (I - ε1 D c Q1 - ε2 N c2 Q2) –1 = (I - ε1 D c Q1 - ε2 N c2 Q2) –1 , which is (4). By the same token,(4) is obtained from (5c) and (5d) also. II. PROBLEMA QUANDO N1 (s) E N2 (s) SÃO RELACIONADOS
211
In their elegant and important paper [7], Sugie and Vidyasagar assume that N1 and N2 are related by N1 (s) = L(s) N2 (s) , (6) where the zeros and poles of L are disjoint from the zeros of D r. Notice that L can be improper and unstable (but of course N1 is proper and stable, by definition). This relationship between N1 and N2 is a rather mild one. The authors call it “mode readability”, a weaker condition than “readability” , assumed by [1] and [5], in which L is constant. Sugie and Vidyasagar, allow perturbations of L even though not arbitrary. We omit here the class of allowed perturbations of L for the sake of brevity, remitting it to that paper. Sugie and Vidyasagar make the following conjecture: the relationship (6) is necessary for robust tracking. Then they prove that the compensator which solves the problem must be such that L Dc α m
–1 has its poles disjoint from those of r. So, it is generalized the idea that the compensator (with L) must incorporate a replicated – in the multivariable case – internal model of the signal to be tracked. É o seguinte o resultado de Sugie and Vidyasagar [7]: Theorem 1: With assumption (6), the asymptotic tracking problem has a robust solution if and only if the nominal closed loop is stable and i) ( I - L N2 N c1 ) D r
–1 ∈ M(S) (7) ii) The poles of L Dc α rm-1 are disjoint from the zeros of α m . (8) We show next that Sugie and Vidyasagar’s solution of the tracking problem with an L such that L Dc is unstable cannot be used if there is a disturbance v between the compensator’s output and the plant’s input. Lemma : With assumption (6), there is no asymptotic rejection of v if L Dc is unstable. Proof: Let v = D v
-1 N v v0, with D v and N v ∈ M(S), left coprime, v0 ∈ R, arbitrary. From the block diagram, with r = 0 we have
2 2 2 2 2 2 2 2 2 2( ) ( )u C P v u C P v C P u I C P u C P v= − + = − − ∴ + = − 12 2 2 2( )u I C P C P v−∴ = − +
∴u = - C 2 ( I + P2 C 2) -1 P2 v = - N c 2 ( D Dc + N 2 Nc 2 ) -1 2N v . (8a) Then, in view of (8a) and the first equation of (1a), we have: z = P1 ( v + u) = N1 D -1 ( I - Nc 2 N 2) v . Then in view of the equation (2,1) of (1b) and the equation (1,2) of (1b), we have: z = N1 D c v = L N2 D c v = L D c N 2 v = L D c N 2 D v
-1 N v v0 .
Hence asymptotic rejection of v implies L D c N 2 D v
-1 ∈ M(S) . (9)
212
On the other hand, asymptotic tracking implies (see (7)) that N2 is square or flat. Indeed, if N2 were to have more rows than columns, L N2 N c1 would not have full rank and (7) would be impossible. Now let L Dc =: B A -1 , a r.c. factorization. Then, L Dc N 2 D v
-1 = B A 1− N 2 D v -1 .
But since N 2 is square or flat, we may assume that A and N 2 are l.c. (If this were not the case, we might perturb P2 slightly, obtaining the coprimeness from the outset). Hence (9) is not obtained, proving the lemma. In view of this result, we will assume henceforth that P1 and P2 are related by N1 = L N2 , with L ∈ M(S). (10) Hence our hypothesis on the relationship between P1 and P2 is more general than the readability of Davison [1] and of Francis and Wonham [5] and less general than the mode readability of Sugie and Vidyasagar, but allows for simultaneous tracking and disturbance rejection of v, as shown in [3]. We are going to tackle the tracking problem: Teorema 2: Under (10) the robust asymptotic tracking is achieved if and only if the nominal loop is stable and i) ( I - L N2 N c 1) D r
-1 ∈ M(S), ii) L Dc α m
-1 ∈ M(S). Proof: The result has already been proved by Sugie and Vidyasagar [7] in a more general set-up, namely, with L being allowed improper and unstable. We present, for completeness, a proof which is different and more straightforward. (Necessity): z = P1 u = P1 ( I + C2 P2) -1 C1 r = N1 ( D c D + N c 2 N2 ) -1 N c1 r . (10a) In the nominal situation (no perturbation of the plant) we have, in view of (3): e := r - z = ( I - N1 N c1 ) D r
-1 N r r0 . Now, asymptotic tracking implies e ∈ M(S) ∀ r0 . Then, in view of the left coprimeness of D r and N r , we must have ( I - N 1 N c 1 ) D r
-1 ∈ M(S), (11) proving the necessity of i). Next perturb N2 → N2 + ∆ N , with ∆ N ∈ M(S) arbitrary but sufficiently small so that loop stability is not destroyed. Then, in view of lemma (4), with 2ε sufficiently small and Q2 ∈ M(S) arbitrary, we have: ( I + C2 P2) -1 = D ( I + N c 2 ∆ N ) –1 D c = D ( I - ε 2 N c 2 Q2) D c . Hence, z = L (N2 + ∆ N )( I - ε 2 N c 2 Q 2 ) N c 1 r = L N2 N c 1 r - ε 2 L N 2 N c 2 Q 2 N c 1 r + L ∆ N ( I - ε 2 N c 2 Q 2 ) N c 1 r. And in view of (5b),
213
e = r - z = ( I - L N2 N c 1) r + ε 2 L N 2 N c 2 Q 2 N c 1 r - ε 2 L Q2 N c 1 r . But in view of (11), we obtain e ∈ M(S) ⇒ L ( I - N 2 N c 2 ) Q 2 N c 1 D r
-1 ∈ M(S), ∀ Q 2 ∈ M(S). Now, from (11), there exist some ( )W M S∈ such that 1 1c rN N WD I+ = , (11a) hence N c1 and D r have to be r.c. Let A -1 B be a l.c. factorization of N c1 D r
–1 . Then, we must have in view of the equation (1,1) of (1b): L Dc D Q 2 A –1 ∈ M(S), ∀ Q 2 ∈ M(S). Now, it is clear that D r and A have the same non-unity invariant factors. Let SA be the Smith form of A and let U and V be unimodular matrices s.t. A = U SA V. Define Q 3 := Q 2 V -1 . Then, the last inclusion implies L Dc D Q3 1
AS − ∈ M(S), ∀ Q 3 ∈ M(S). (12) Let x ij be the (i,j-th) element of L Dc D . Choose Q 3 s.t. it has zeros in every entry, but an 1 in the j-th row of the last column. Recalling that α m is the largest invariant factor of D r (and hence of SA ), it is easy to see that (12) implies xij α m
-1 ∈ M(S) for every i. Varying j, we obtain L Dc D α m
-1 ∈ M(S). Now D and α m I can be assumed r.c. (If this were not the case, we would perturb slightly D at the outset, obtaining the said coprimeness). Hence, the necessity of ii). (Sufficiency): Let us perturb N2 and D arbitrarily (but “slightly”, not destroying loop stability). Define D → D + ∆D . Then, in view of (10a), z = L (N2 + ∆ N )( D + ∆D) 1− ( D + ∆D) ( I + D c ∆D + N c 2 ∆ N ) 1− D c D c
1− N c 1 r. In view of (4), z = L (N2 + ∆ N )( I - ε 1 D c Q1 - ε 2 N c 2 Q2 ) N c 1 r . (12a) Hence, e = r – z = [ I – L( N2 + ∆N ) ( I - ε1 D c Q1 - ε2 N c2 Q2 ) N c1 ] r = [I - L(N2 + ∆N - ε1 N2 D c Q1 - ε1 ∆N D c Q1 - ε2 N2 N c2 Q2 - ε2 ∆N N c 2 Q2 ) N c1] r = (I – L N2 N c1 ) r - L ∆N ( I - ε1 D c Q1 -ε2 N c2 Q2 ) N c1 r + L N2 (ε1 D c Q1 + ε2 N c 2 Q2 ) N c1 r . And in view of (3b), we have e = (I – L N2 N c1) r - ε2 L Q2 N c1 r + L N2 (ε1 D c Q1 + ε 2 N c2 Q2 ) N c1 r = (I – L N2 N c1 ) r - ε 2 L(I - N2 N c2 ) Q2 N c1 r + ε1 L N2 D c Q1 N c1 r. And in view of equations (1,1) and (1,2) of (1b), we have: e = (I – L N2 N c1 ) r - ε 2 L Dc D Q2 N c1 r + ε1 L Dc N c2 Q1 N c1 r , completing the proof. We have next the solvability condition: Teorema 3:
214
There exists a robust tracking compensator for the problem tackled in this section if and only if L N2 and α m I are l.c. Proof: This result was proved by Hara and Sugie [6] in a more general set-up. We prove it now in an independent way for completeness. (Only if): From equation (1,1) of (1b), L Dc D + L N2 N c2 = L. But L has full row rank, otherwise asymptotic tracking would be impossible. Let LR be a right inverse of L. Then, L Dc D LR + L N2 N c2 LR = I. Let 0s be a mode of r. Then, in view of ii) of theorem 2, L Dc ( 0s ) = 0 and hence from the identity above we see that L N2 (s0) must have full row rank, which is equivalent to the condition to be proved. (If): The condition of the lemma implies that N2 ( 0s ) must have full row rank for every 0s which is a mode of r. So we may choose Dc = α m X, with X ∈ M(S), then satisfying condition ii) of theorem 2, and (X, Nc2) such that the loop is stabilized. Moreover, the left coprimeness of L N2 and α m I implies the existence of Y , W ∈ M(S) such that L N2 Y + W α m = I. Now, it is clear that there exists V ∈ M(S) such that α m I = V D r. Substitute this in the previous identity to conclude that condition i) of theorem 2 is satisfied choosing N c1 = Y, completing the proof. III. PERTURBING N2 AND D AND FIXING N1 Theorem 4: Perturb D and N2 “arbitrarily” (in the sense defined above), while maintaining N1 fixed. Then the robust tracking problem has no solution. Proof: Perturb D → D + ∆D and fix N1 and N2. Then, it is easy to see in view of (10a) and (4) that: z = N1 (I + D c ∆D) –1 N c1 r = N1 (I - ε1 D c Q1 ) N c1 r . (12b) Hence, e = r - z = [I - N1 (I - ε1 D c Q1 ) N c1 ] r = (I - N1 N c1) r + N1 ε1 D c Q1 N c1 r . Now, in view of (2), (2*) and (3), asymptotic tracking implies N1 D c Q1 N c1 r ∈ M(S), ∀ Q1 ∈ M(S). And from the definition of r we get N1 D c Q1 N c1 D r
–1 ∈ M(S), ∀ Q1 ∈ M(S). (13) Now, in view of (11a), it is clear that N c1 and D r are r. c.
215
Let N c1 D r –1 =: A –1 B , a l. c. factorization, hence A and D r have the
same invariant factors. Then, in view of (7), we have N1 D c Q1 A –1 ∈ M(S), ∀ Q1 ∈ M(S). (14) Let SA be the Smith form of A and let U and V be unimodular matrices such that A = U SA V . Define Q11 = Q1 V –1 . Then from (14) N1 D c Q11 SA
–1 ∈ M(S), ∀ Q11 ∈ M(S). (15)
Choosing Q11 as in the proof of theorem 2, we have: N1 D c αm
–1 ∈ M(S) . (16) Now perturb N2 → N2 + ∆N , fixing D. Analogously as in (12b), we obtain z = N1 (I + N c2 ∆N ) –1 N c1 r = N1 (I - ε2 N c2 Q2) N c1 r, in view of (4). Hence, e = (I - N1 N c1) r + N1 ε2 N c2 Q2 N c1 r. So, robust tracking implies, in view of (2), (2*) and (3), N1 N c2 Q2 N c1 D r
–1 ∈ M(S) ∀ Q2 ∈ M(S). Defining matrices A, SA as above (after (14)) and choosing an appropriate matrix in the same way as Q11 , we obtain N1 N c2 α m
–1 ∈ M(S) . (17) From (16) and (17), we have α m
–1 N1 [ D c, N c2] ∈ M(S). But from (1) D c and N c2 are l.c. , hence the last implies α m
–1 N1 ∈ M(S). Hence there exists N11 ∈ M(S) such that N1 = α m N11 . But from (2) and (3), there should exist W ∈ M(S) such that N11 N c1 α m + W D r = I . And it is clear that there is no solution for this equation in N c1 and W , since α m I and D r are not r.c. , proving the theorem. Remark 2: A reviewer of a previous version of this paper remarks on the result above: “If P1 perturbs and y and z have no relation, then the robust tracking has no solution. This result seems to be obvious because we have no way to obtain any information on z in this case”. Example 1: We consider now the following simple scalar example, regarding theorem 4 and the previous remark, omitting the argument (s) for convenience: P1 = P2 = 1 / ( s - 1), r = A / s, A ∈ R , ∆D = δ1 (s + 1) –1 , ∆N = δ2 (s + 1) –1 , δ1 , δ2 ∈ R , arbitrary and sufficiently small. Then, 1
1 2 ( 1)N N s −= = + , 1( 1)( 1)D s s −= − + and 1 1( 1) / ( 1)r A s s s− −= + + . Let T1 denote the transfer matrix between the input to N1 and the output of Nc1 . In the nominal situation (no perturbation of N2 and D), we have T1 = 1, because z = N1 Nc1. Let the perturbed signals and parameters (as a result of perturbation of D and N2 ) be denoted with a (*), e.g. T1* , e*, etc. It is clear from (12a) that T1* = 1 / (1 + δ1 (s + 1) –1 Dc + δ2 (s + 1) –1 Nc2 ). Hence,
216
∆T1 := T1* - T1 = - (δ1 (s + 1) –1 Dc + δ2 (s + 1) –1 Nc2) / (1 + δ1 (s + 1) –1 Dc + δ2 (s + 1) –1 Nc2 ). Now, e* = (1 - N1 Nc1 ) r - N1 ∆T1 Nc1 r. So the contribution to the error due to the perturbation in D and N2 is ∆e := e* - e = - N1 ∆T1 Nc1 r = = - (s + 1) –3
Nc1 (δ1 Dc + δ2 Nc2 ) A / s 1( 1)s −+ (1 + δ1 (s + 1) –1 Dc + δ2 (s + 1) –1 Nc2 ).
In view of the fact that s (s + 1) –1 and Nc1 are coprime, while δ1 and δ2 are arbitrary, it is clear that ∆e ∉ S , because Dc and Nc2 are coprime. So the problem has no solution. IV. SOLUTION OF THE PROBLEM WITH P1 FIXED AND P2 PERTURBED Theorem 5: Perturb N2 and D “arbitrarily” (in the sense above) and fix P1. Then the asymptotic tracking problem has a solution only if P1 is stable. If this is the case, C is a robust tracking compensator if and only if it stabilizes the loop and a) ( I - P1 D N c1) D r
–1 ∈ M(S) b) P1 Nc2 α m
–1 ∈ M(S) . Proof: We prove firstly that P 1 has to be stable. Condition a) of the theorem is necessary for the nominal plant; indeed, it is the same as condition i) of theorem 2. Perturb D → D + ∆D. Then, e = [ I - P1 (D + ∆D) ( I + D c ∆D) –1 N c1] r = [ I - (P1 D + P1 ∆D) ( I - ε1 D c Q1) N c1] r = [ I - P1 D N c1 - ( - ε1 P1 D D c Q1 + P1 ∆D ( I - ε1 D c Q1) ) N c1] r = [ I - P1 D N c1 + (ε1 P1 D D c Q1 - ε1 P1 Q1) N c1] D r
–1 N r r0 . So asymptotic tracking implies in view of a) of the theorem P1 ( I - D D c) Q1 N c1 1
rD − ∈ M(S), ∀ Q1 ∈ M(S). And in view of (1b), we have P1 Nc2 N 2 Q1 N c1 D r
–1 ∈ M(S), ∀ Q1 ∈ M(S). Choosing appropriate Q1’s as in the previous proofs, the last implies P1 Nc2 N 2 αm
–1 ∈ M(S) . (18) Recall that 1
1 1P N D−= . It is clear then (see figure 2, replacing, as far the lop is concerned, 1
2c cD N− by 12c cN D− ) that stability of the loop implies the left coprimeness
of D and Nc2. Then perturb N 2 at the outset, if necessary, so that (18) is not satisfied unless P1 be stable. We proceed now to the proof of the necessity of condition b) of the theorem, recalling that condition a) is necessary for the nominal loop. Perturb N2. Then,
217
z = P1 D ( I + N c2 ∆N ) –1 N c1 r = P1 D ( I - ε2 N c2 Q2 ) N c1 r. Hence, asymptotic tracking implies [ I - P1 D ( I - ε2 N c2 Q2 ) N c1] D r
–1 ∈ M(S), ∀Q2 ∈ M(S). And this implies in view of a): P1 D N c2 Q2 N c1 D r
–1 ∈ M(S), ∀Q2 ∈ M(S). In view of (1b), we have P1 Nc2 D Q2 N c1 D r
–1 ∈ M(S), ∀ Q2 ∈ M(S). Choosing appropriate Q2’s , it can be shown, as in the proofs of the previous theorems, that the last implies P1 Nc2 D α m–1 ∈ M(S) . (19) From this and (18), P1 Nc2 [ D , N 2] αm
–1 ∈ M(S). And in view of the left coprimeness of D and N 2 , we have P1 Nc2 α m–1 ∈ M(S). (20) (Sufficiency): Perturbing D and N2 , we have z = P1 (D + ∆D) ( I + cD ∆D + 2cN ∆N ) –1 N c1 r , e = [I - P1 (D + ∆D) (I - ε1 cD Q1 - ε2 2cN Q2 ) N c1 ] r = (I – P1 D N c1) r - [P1 D (- ε1 cD Q1 - ε2 2cN Q2) + P1 ∆D (I - ε1 cD Q1 - ε2
2cN Q2)] N c1 r Call X the first term of the right hand side, which according to a), belongs to M(S). Then, in view of (5a), e = X - [P1 (- ε1 D cD Q1 - ε2 D 2cN Q 2 ) + P1 ε1 Q 1 ] N c1 r = X - P1 ε1 (I - D cD ) Q 1 N c1 r + P1 ε2 D 2cN Q2 N c1 r. So, in view of (1b), we have e = X - ε1 P1 Nc2 N 2 Q1 N c1 r + ε2 P1 Nc2 D Q2 N c1 r . The proof is complete in view of the fact that α m r ∈ M(S). Remark 3: The meaning of this result was given by the reviewer mentioned in the previous remark: “If P1 is fixed, the information on z can be obtained via u when P2 perturbs arbitrarily. This is the main reason why the tracking can be achieved when y contains no information on z. In this case, the feedforward control plays the essential role in tracking. Therefore the feedforward control should be designed in such a way that y does not affect u with respect to the modes of r (i.e., C2 must contain the blocking zeros with respect to the poles of r )”. Example 2: Let P1 = (s + 1) –1 , P2 , r , ∆D and ∆N as in the previous example, i.e., P2 = 1 / ( s - 1), r = A / s, A ∈ R , ∆D = δ1 (s + 1) –1 , ∆N = δ2 (s + 1) –1 , δ1 , δ2 ∈ R , arbitrary and sufficiently small. (We redraw below the block diagram). Let T2 be the transfer matrix between the input to P1 and the output of Nc1 . It is easy to see that T2 = D . Then, it is not difficult to see that: ∆T2 := T2* - T2 = (N2 Nc2 ∆D - D Nc2 ∆N ) / ( 1 + Dc ∆D + Nc2 ∆N )
218
= (s + 1) –2 Nc2 (δ1 - δ2 (s – 1)) / (1 + (s + 1) –1 (δ1 Dc + δ2 Nc2 )). z + r - Hence, the contribution to the error, due to the perturbations in the plant is ∆e = (s + 1) –3 (δ1 – δ2 (s –1)) Nc2 A / s (1 + δ1 (s + 1) –1 Dc + δ2 (s +1) –1 Nc2 ) . It is clear that the problem is solved if s (s + 1) –1 is a factor of Nc2 , as pointed out by Remark 3. The solvability condition for the problem handled in this section is given next: Theorem 6: Assume P1 fixed and stable. Then there exists a two-degree-of-freedom compensator which solves the robust asymptotic tracking problem if and only if P1 D and α m I are l.c. Proof: (Only if): Em vista de (a) do teorema anterior, temos para algum W ∈ M(S): P1 D N c1 + W D r = I. Mas isto implica que P1 D tem posto cheio para todo s ∈ C+e and this is equivalent to saying that P1 D and αm I are left coprime. (If): If P1 D and α m I are left coprime, then det (D (ξ)) ≠ 0 for every ξ s.t. αm(ξ) = 0. So, we may choose Nc2 = α m X, satisfying condition b) of theorem 2, with X and Dc s.t. the loop is stable. On the other hand, the left coprimeness of P1 D and α m I implies the existence of Y and W ∈ M(S), s.t. P1 D Y + W α m I = I . But α m I = V D r, for some V ∈ M(S). Hence, we have P1 D Y + W V D r = I . Condition a) of theorem 2 is satisfied choosing N c1 = Y , completing the proof. V. CONCLUDING REMARKS i) The problem handled in the last section has no solution with one-degree-of-freedom feedback compensator. Indeed, conditions a) and b) of theorem 5 contradict each other if N c1 = N c2. Indeed, condition a) implies that 1cN and rD are r.c., hence condition b) cannot be satisfied if N c1 = N c2
P1 Dc –1
D –1 N2 Nc2
Nc1
219
ii) The result presented in the last section (theorem 5) contrasts evidently with the so called internal model principle: see [5] and [1] and, more recently, [7]. According to the internal model principle, in order to obtain robust tracking, the compensator must incorporate a replicated – in the multivariable problem - internal model of the exogenous signal. Now, in condition b) of our theorem 5, we have an “inverse internal model” in the sense that the exogenous poles affect the numerator of the feedback channel of the compensator, not the denominator of it. See the Remark 3 above, explaining the apparent contradiction. Indeed, in our paper we assume that P1 is fixed, while in the three papers mentioned above a relationship is assumed between P1 and P2 , namely, P1 = L P2 . In the first two papers quoted above, L is a fixed matrix of real numbers and then it is said that z is “readable” from y . In the paper by Sugie and Vidyasagar, [7], L is a rational matrix, not necessarily proper or stable, and whose zeros and poles are disjoint from the exogenous modes; besides, L is perturbable in a restricted sense and the authors call z “mode readable” from y. It is clear that mode readability is a weaker condition than readability. Sugie and Vidyasagar believe that mode readability is a necessary condition for robust tracking. We assumed that P1 is fixed, while P2 is arbitrarily perturbed, so in our assumption there is no mode readability and a fortiori no readability. iii) A practical situation of theorem 5 might occur, say, when P1 would refer to the digital part of a plant, in most cases virtually unperturbable,. References [1] E. J. Davidson (1976). “The robust control of a servomechanism problem for linear time-invariant multivariable systems”. IEEE Trans. on Autom. Control, 21, pp. 25 - 34. [2] Pedro M. G. Ferreira (2000). “Robust tracking: relation between the numerators, mode readability and inverse internal model”. IEEE Trans. on Autorm. Control, 45, nº 7, pp. 1401-1405. [3] Pedro M. G. Ferreira (2000). “The robust and reliable servo system”, 3rd. IFAC Symposium on Robust Design, Praga, República Tcheca, junho de 2000 (em CD-ROM). [4] P. G. Ferreira (1976). “The servomechanism problem and the method of the state-space in the frequency domain”. Intern. Journ. of Control. 23, pp. 245 – 255. [5] B. A. Francis and W. M. Wonham (1975). “The internal model principle for linear multivariable regulators”. Appl. Math. Optimiz., 2, pp. 170 - 194. [6] S. Hara and T. Sugie (1988). “Indepenent parametrization of two-degree-of-freedom compensators in general robust tracking systems”. IEEE Trans. on Autorm. Control, 33, pp. 59-67 [7] T. Sugie and M. Vidyasagar (1989). “Further results on the robust tracking problem in two-degree-of-freedom control systems”. Systems & Control Letters, 13, pp. 101 - 108. [8] T. Sugie and T. Yoshikawa (1986). “General solutions of robust tracking problem in two-degree-of-freedom control systems”. IEEE Trans. on Autom. Control., AC-31, pp. 552-554.
220
[9] M. Vidyasagar (1985). Control System Synthesis: A Factorization Approach. MIT Press, Cambridge, MA.