Bonatti-Linearidade Sinais Sistemas
-
Upload
gaiolouvo-barbapapa -
Category
Documents
-
view
194 -
download
18
Transcript of Bonatti-Linearidade Sinais Sistemas
Linearidade em Sinais e Sistemas
Ivanil S. Bonatti
Amauri Lopes
Pedro L. D. Peres
Faculdade de Engenharia Eletrica e de Computacao,
Universidade Estadual de Campinas, UNICAMP, Brasil
Fevereiro de 2008
“Deve-se escrever da mesma maneira como as lavadeiras la de Alagoasfazem seu ofıcio. Elas comecam com uma primeira lavada, molham aroupa suja na beira da lagoa ou do riacho, torcem o pano, molham-nonovamente, voltam a torcer. Colocam o anil, ensaboam e torcem uma,duas vezes. Depois enxaguam, dao mais uma molhada, agora jogando aagua com a mao. Batem o pano na laje ou na pedra limpa, e dao maisuma torcida e mais outra, torcem ate nao pingar do pano uma so gota.Somente depois de feito tudo isso e que elas dependuram a roupa lavadana corda ou no varal, para secar. Pois quem se mete a escrever deviafazer a mesma coisa. A palavra nao foi feita para enfeitar, brilhar comoouro falso; a palavra foi feita para dizer.”
Graciliano Ramos, em entrevista concedida em 1948http://www.graciliano.com.br/
Sumario
I SISTEMAS DISCRETOS 1
1 Sinais Discretos e Convolucao 2
2 Transformada Z 14
3 Transformada Z Aplicada a Probabilidade 30
4 Serie de Fourier de Sinais Discretos 40
5 Equacoes a Diferencas 60
II SISTEMAS CONTINUOS 83
6 Sinais Contınuos e Convolucao 84
7 Serie de Fourier de Sinais Contınuos 104
8 Transformada de Fourier de Sinais Contınuos 126
9 Amostragem de Sinais Contınuos 146
10 Ortogonalizacao 156
11 Resposta em Frequencia 166
12 Transformada de Laplace 188
13 Resolucao de equacoes diferenciais por transformada de Laplace 199
14 Resolucao de Equacoes Diferenciais por Coeficientes a Determinar 212
15 Variaveis de Estado 224
16 Resolucao de Equacoes de Estado 245
17 Observabilidade e Controlabilidade SISO 269
18 Introducao a Realimentacao 286
19 Estabilidade 291
19.1 BIBO Estabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
19.2 Estabilidade do Estado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
i
ii SUMARIO
III Apendices 305
A Notacao 306
B Fundamentos 311
C Propriedades de Matrizes 315
Bibliografia 324
Bonatti, Lopes & Peres
Parte I
SISTEMAS DISCRETOS
1
Capıtulo 1
Sinais Discretos e Convolucao
Definicao: Sinais Discretos
Um sinal discreto, denotado x[n], e uma funcao (real ou complexa) cujo domınio e o conjunto dosinteiros Z = 0,±1,±2, . . ., como por exemplo o sinal x[n] = sen(n) mostrado na Figura 1.1. Si-nais discretos tambem podem ser interpretados como sequencias enumeraveis de escalares reais oucomplexos.
0 2 4 6 8 10 12 14 16 18 20
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
n
Figura 1.1: Sinal x[n] = sen(n) mostrado (comando stem do Matlab) no intervalo n ∈ [0, 20].
Definicao: Degrau Unitario
Considere n ∈ Z. O sinal discreto u[n] (degrau unitario) e definido como
u[n] =
0 para n = −∞, . . . ,−2,−11 para n = 0, 1, 2, . . . ,+∞
Para a ∈ R nao inteiro, u[a] = 0. Assim, x[n] = u[n/2], n ∈ Z, e a sequencia que vale 1 paran = 0, 2, 4, 6, . . . e zero para os demais inteiros (negativos e positivos ımpares).
Definicao: Impulso
Considere n ∈ Z. O sinal discreto δ[n] (impulso unitario) e definido como
2
3
δ[n] =
1 , n = 00 , n 6= 0
Note que δ[n + 3] = 1 para n = −3 e δ[n + 3] = 0 para n 6= −3. Para a ∈ R nao inteiro, δ[a] = 0.Assim, δ[2n+ 3] = 0 para todo n, pois nao existe n ∈ Z tal que 2n+ 3 = 0.
Exemplo 1.1O impulso unitario pode ser escrito em termos da diferenca de dois degraus
δ[n] = u[n]− u[n− 1]
e o degrau unitario pode ser escrito como uma soma infinita de impulsos
u[n] =
n∑
k=−∞
δ[k]
Exemplo 1.2Dado
x[n] = δ[n+ 2] + δ[n− 2]
tem-se
y[n] = x[2n] = δ[2n+ 2] + δ[2n− 2] = δ[n+ 1] + δ[n− 1]
Observe que trata-se de uma compressao.
Exemplo 1.3O sinal
x[n] = u[n− 1]− u[n] + (2− n)(
u[n− 1]− u[n− 2])
pode ser representado como uma soma de impulsos
x[n] = −δ[n] + δ[n− 1]
A partir de x[n], tem-se
x[n− 1] = −δ[n− 1] + δ[n− 2]
que e um deslocamento para a direita.
Note que
x[2n+ 1] = −δ[2n+ 1] + δ[2n] = δ[n]
Sistemas Discretos
Sao sistemas cujas entradas e saıdas sao sequencias enumeraveis de escalares reais ou complexos.
Notacao: y[n] = Gx[n], sendo x[n] a entrada e y[n] a saıda.
Bonatti, Lopes & Peres
4 Capıtulo 1. Sinais Discretos e Convolucao
Exemplo 1.4Filtro passa-alta
y[n] =x[n]− x[n− 1]
2, n ∈ Z
Para x[n] = (−1)n, a saıda e y[n] = (−1)n. Para x[n] = 1n, tem-se y[n] = 0.
Exemplo 1.5Filtro passa-baixa
y[n] =x[n] + x[n− 1]
2, n ∈ Z
Para x[n] = (−1)n, a saıda e y[n] = 0. Para x[n] = 1n, tem-se y[n] = 1n.
Exemplo 1.6A populacao anual de peixes em um lago (em termos percentuais) pode ser descrita de maneiraaproximada por
y[n+ 1]− ay[n](1− y[n]) = 0 , 0 ≤ y[0] ≤ 1
sendo a um parametro real que representa as condicoes ambientais do lago. Observe que um sistemapode ser descrito por uma equacao a diferencas sem envolver explicitamente a entrada x[n].
Sistemas Lineares
Um sistema e linear se satisfaz o princıpio da superposicao, isto e,
Ga1x1[n] + a2x2[n] = a1Gx1[n]+ a2Gx2[n]Observe que, para sistemas lineares, G0 = 0. Os exemplos 1.4 e 1.5 sao sistemas lineares e oExemplo 1.6 e um sistema nao-linear, que pode apresentar comportamento caotico para alguns valoresde a.
Definicao: Invariante no tempo
Um sistema e invariante no tempo se um deslocamento da entrada produzir igual deslocamento nasaıda, isto e,
y[n−m] = Gx[n−m]para qualquer m ∈ Z.
Os exemplos 1.4, 1.5 e 1.6 sao sistemas invariantes no tempo.
Exemplo 1.7
y[n] = sen(x[n])
e um sistema nao linear, pois
sen(x1[n] + x2[n]) 6= sen(x1[n]) + sen(x2[n])
Bonatti, Lopes & Peres
5
e e invariante no tempo, pois
y1[n] = sen(x1[n])
x2[n] = x1[n− k] ⇒ y2[n] = sen(x2[n]) = sen(x1[n− k]) = y1[n− k]
Exemplo 1.8
y[n] = nx[n]
e um sistema linear, pois
y1[n] = nx1[n] , y2[n] = nx2[n] ⇒ n(ax1[n] + bx2[n]) = ay1[n] + by2[n]
e nao e invariante no tempo, pois
x2[n] = x1[n− k] ⇒ y2[n] = nx2[n] = nx1[n− k] 6= y1[n− k] = (n− k)x1[n− k]
Definicao: Sistema sem Memoria
Um sistema e sem memoria se a saıda no instante n depende apenas do sinal de entrada no instante n.
Exemplo 1.9O somador (ou acumulador)
y[n] =
n∑
k=−∞
x[k]
e um sistema discreto com memoria, que pode ser descrito pela equacao a diferencas y[n]−y[n−1] =x[n].
Definicao: Sistema Causal
Um sistema e causal ou nao antecipativo quando a saıda nao depende de valores futuros da entrada.
Exemplo 1.10O sistema
y[n] =1
2M + 1
+M∑
k=−M
x[n− k] , M > 0
e nao causal.
O somador do Exemplo 1.9 e causal.
Bonatti, Lopes & Peres
6 Capıtulo 1. Sinais Discretos e Convolucao
Definicao: Sistema BIBO Estavel
Um sistema e BIBO estavel (Bounded-Input Bounded-Output) se a saıda e limitada para toda entradalimitada.
|x[n]| < b ⇒ |y[n]| < +∞
Exemplo 1.11
y[n] = nx[n]
e um sistema causal nao BIBO estavel.
y[n] = x[−n]
e um sistema nao causal e BIBO estavel.
Definicao: Resposta ao Impulso
Resposta ao impulso e a saıda do sistema quando a entrada e a funcao impulso e as condicoes iniciaissao nulas (sistema em repouso), isto e
h[n] = Gδ[n]
Exemplo 1.12A resposta ao impulso do filtro passa-alta do Exemplo 1.4 e dada por
h[n] =δ[n]− δ[n− 1]
2
e a resposta ao impulso do filtro passa-baixa do Exemplo 1.5 e dada por
h[n] =δ[n] + δ[n− 1]
2
Exemplo 1.13Somador
y[n] =
n∑
k=−∞
x[k]
A resposta ao impulso e
h[n] =
n∑
k=−∞
δ[k] = u[n]
Bonatti, Lopes & Peres
7
Definicao: Convolucao
Convolucao e a operacao
x[n] = x1[n] ∗ x2[n] =+∞∑
k=−∞
x1[k]x2[n− k]
Propriedade 1.1Se
x1[n] = x1[n]u[n] e x2[n] = x2[n]u[n]
entao
x1[n] ∗ x2[n] = u[n]
n∑
k=0
x1[k]x2[n− k]
⋄
Propriedade 1.2O impulso e o elemento neutro da convolucao, pois
x[n] =+∞∑
k=−∞
x[k]δ[n− k]
⋄
Propriedade 1.3A convolucao e comutativa, associativa e distributiva em relacao a soma.
⋄
Propriedade 1.4
x[n] ∗ δ[n− k] = x[n− k]pois
+∞∑
m=−∞
x[m]δ[n− k −m] = x[n− k]
⋄
Teorema 1.1A saıda de um sistema linear invariante no tempo e a convolucao da resposta ao impulso com a entrada,isto e
y[n] = Gx[n] = x[n] ∗ h[n] , h[n] = Gδ[n]pois
Gx[n] = G +∞∑
k=−∞
x[k]δ[n− k]
=+∞∑
k=−∞
x[k]Gδ[n− k]
=
+∞∑
k=−∞
x[k]h[n− k]
Bonatti, Lopes & Peres
8 Capıtulo 1. Sinais Discretos e Convolucao
Exemplo 1.14No Exemplo 1.13 (somador), a saıda e a convolucao da entrada com o degrau
y[n] =
n∑
k=−∞
x[k] = x[n] ∗ u[n]
pois
x[n] ∗ u[n] =
+∞∑
k=−∞
x[k]u[n− k] =
n∑
k=−∞
x[k]u[n− k]︸ ︷︷ ︸
=1
+
+∞∑
k=n+1
x[k]u[n− k]︸ ︷︷ ︸
=0
Propriedade 1.5Considere o sinal
x2[n] =∑
k∈I
akδ[n− bk] , I = conjunto finito de ındices
Entao,
x1[n] ∗ x2[n] =∑
k∈I
akx1[n− bk]
⋄
Exemplo 1.15Dados
x1[n] = δ[n] + δ[n− 1] + δ[n− 2] , x2[n] = −δ[n] + δ[n− 1]
tem-se
x1[n] ∗ x2[n] = −δ[n]− δ[n− 1]− δ[n− 2] + δ[n− 1] + δ[n− 2] + δ[n− 3] = −δ[n] + δ[n− 3]
Observe que a largura do sinal resultante e igual a soma das larguras dos sinais originais.
Propriedade 1.6Sistemas lineares invariantes no tempo sao causais se e somente se a resposta ao impulso e nula parainstantes negativos, ou seja
h[n] = 0 para n < 0 ⇔ sistema causal
pois
y[n] = x[n] ∗ h[n] =−1∑
k=−∞
x[n− k]h[k] ++∞∑
k=0
x[n− k]h[k]
e, se h[k] 6= 0 para k < 0, a saıda y[n] dependeria de valores futuros da entrada x[n].
⋄
Bonatti, Lopes & Peres
9
Exemplo 1.16Observe que os filtros passa-alta e passa-baixa, cujas respostas ao impulso foram calculadas noExemplo 1.12, sao sistemas causais.
O sistema linear invariante no tempo cuja resposta ao impulso e
h[n] = δ[n+ 1]
e nao causal, pois h[−1] = 1. Note que y[n] = x[n] ∗ h[n] = x[n+ 1].
Propriedade 1.7Sistemas lineares invariantes no tempo sao BIBO estaveis se e somente se a resposta impulso e abso-lutamente somavel, isto e
+∞∑
n=−∞
|h[n]| < +∞ ⇔ BIBO estavel
Prova:
Suficiencia: se
+∞∑
n=−∞
|h[n]| < +∞
entao
|y[n]| ≤+∞∑
k=−∞
|x[n− k]||h[k]| ≤ b+∞∑
k=−∞
|h[k]| < +∞
Necessidade: considere a entrada limitada
x[n] = sinal(h[−n])
sendo a funcao sinal definida como
sinal(v) =
1 , v > 0−1 , v < 0
A saıda y[n], para n = 0, e
y[0] =+∞∑
k=−∞
x[−k]h[k] =+∞∑
k=−∞
sinal(h[k])h[k] =+∞∑
k=−∞
|h[k]| < +∞
pois a saıda y[n] e limitada.
⋄
Definicao: Auto-funcao
Um sinal de entrada e denominado auto-funcao de um sistema se a saıda correspondente for igual aosinal de entrada multiplicado por uma constante (em geral complexa).
Bonatti, Lopes & Peres
10 Capıtulo 1. Sinais Discretos e Convolucao
Propriedade 1.8O sinal zn, z ∈ C, e uma auto-funcao para sistemas lineares discretos invariantes no tempo se asomatoria
H(z) =
+∞∑
k=−∞
h[k]z−k
for finita, ou seja, se z pertence ao domınio Ωh de H(z), pois
y[n] = zn ∗ h[n] =+∞∑
k=−∞
h[k]zn−k = H(z)zn
⋄
H(z) e denominada transformada Z da resposta ao impulso do sistema, ou funcao de transferencia.
A relacao (temporal) entre saıda e entrada em um sistema linear discreto invariante no tempo e dadopelo “ganho complexo” H(z) quando x[n] = zn.
Definicao: Resposta em frequencia
Se z = exp(jω) (cırculo unitario) pertence ao domınio da funcao de transferencia do sistema linearinvariante no tempo H(z), a resposta em frequencia do sistema e o valor de H(z) computado paraz = exp(jω).
A resposta em frequencia escreve-se como
M(ω) exp(jφ(ω)) = H(z)
∣∣∣∣∣z=exp(jω)
= H(exp(jω)
)
sendo M(ω) o modulo e φ(ω) a fase de H(z)∣∣∣z=exp(jω)
Em geral, e desenhada na forma de modulo e fase (diagrama de Bode1) ou na forma polar, paraω ∈ [−π,+π]. Representa a resposta em regime permanente de sistemas lineares invariantes no tempoestaveis para entradas senoidais.
Propriedade 1.9Se h[n] e real, entao H
(exp(jω)
)∗= H
(exp(−jω)
), isto e M(ω) e uma funcao par e φ(ω) e uma
funcao ımpar.
Prova:
H(exp(jω)
)∗=
+∞∑
k=−∞
h[k] exp(jωk) = H(exp(−jω)
)
H(exp(jω)
)= M(ω) exp(jφ(ω)) ⇒ H
(exp(jω)
)∗= M(ω) exp(−jφ(ω))
Como
H(exp(−jω)
)= M(−ω) exp(jφ(−ω))
entao M(ω) = M(−ω) (funcao par) e −φ(ω) = φ(−ω) (funcao ımpar).
⋄1Hendrik Wade Bode, engenheiro eletricista americano do seculo XX.
Bonatti, Lopes & Peres
11
Propriedade 1.10A resposta em regime de um sistema linear invariante no tempo com funcao de transferencia H(z),com h[n] real e z = exp(jω) ∈ Ωh, para a entrada x[n] = cos(ωn), e
y[n] = M(ω) cos(ωn+ φ(ω))
Prova:
y[n] = Gcos(ωn) =1
2Gexp(jωn)+
1
2Gexp(−jωn) =
=1
2H(exp(jω)
)exp(jωn) +
1
2H(exp(−jω)
)exp(−jωn) =
=1
2M(ω) exp(jωn+ jφ(ω)) +
1
2M(ω) exp(−jωn− jφ(ω)) = M(ω) cos(ωn+ φ(ω))
Para a entrada x[n] = sen(ωn), tem-se
y[n] = M(ω)sen(ωn+ φ(ω))
⋄
Exemplo 1.17Considere o Exemplo 1.4 (filtro passa-alta), dado por
y[n] =x[n]− x[n− 1]
2, n ∈ Z
Para x[n] = zn tem-se y[n] = H(z)zn, resultando na funcao de transferencia
H(z) =(1− z−1)
2
Portanto, a resposta em frequencia e
H(z)
∣∣∣∣∣z=exp(jω)
=1− exp(−jω)
2=
= j exp(−jω/2)(exp(jω/2)− exp(−jω/2)
2j
)
= j exp(−jω/2)sen(ω/2)
Portanto, tem-se
M(ω) = |sen(ω/2)|
φ(ω) =π
2sinal(ω)− ω
2
M(ω) e φ(ω) sao mostrados na Figura 1.2. Observe o crescimento de M(ω) para ω de 0 a +π (filtropassa-alta) e a entrada z = (1)n corresponde a frequencia ω = 0 e que z = (−1)n corresponde afrequencia ω = +π. Note tambem que, para ω > 0 ou para ω < 0, a fase varia linearmente com afrequencia.
Bonatti, Lopes & Peres
12 Capıtulo 1. Sinais Discretos e Convolucao
−4 −2 0 2 4−0.2
0
0.2
0.4
0.6
0.8
1
−4 −2 0 2 4−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
ωω
Figura 1.2: M(ω) (modulo) e φ(ω) (fase) do filtro passa-alta do Exemplo 1.17.
Exemplo 1.18No Exemplo 1.5 (filtro passa-baixa),
H(z) =(1 + z−1)
2; H(z)
∣∣∣z=exp(jω)
= exp(−jω/2) cos(ω/2)
implicando em
M(ω) = | cos(ω/2)| ; φ(ω) = −ω2
Neste caso, M(ω) decresce quando ω varia de 0 a +π (filtro passa-baixa), como mostrado naFigura 1.3, juntamente com a fase (que tambem varia linearmente com a frequencia).
−4 −2 0 2 4−0.2
0
0.2
0.4
0.6
0.8
1
−4 −2 0 2 4−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
ωω
Figura 1.3: M(ω) (modulo) e φ(ω) (fase) do filtro passa-baixa do Exemplo 1.18.
Bonatti, Lopes & Peres
13
Exemplo 1.19Considere o sistema descrito pela equacao a diferencas de primeira ordem
y[n+ 1] = ρy[n] + x[n+ 1] ⇒ (p− ρ)y[n] = px[n]
sendo p o operador deslocamento em n, ou seja, px[n] = x[n+ 1], . . . , pkx[n] = x[n+ k].
Para x[n] = zn, tem-se
(z − ρ)H(z) = z ⇒ H(z) =z
z − ρ =1
1− ρz−1
Supondo-se que z = exp(jω) ∈ Ωh, a resposta em frequencia pode ser computada
H(z)∣∣∣z=exp(jω)
=1
1− ρ exp(−jω)
Para 0 < ρ, trata-se de um filtro passa-baixa.
A equacao a diferencas
D(p)y[n] = N(p)x[n] , D(p) =m∑
k=0
αkpk ; N(p) =
ℓ∑
k=0
βkpk
com αm = 1, αk e βk coeficientes constantes e condicoes iniciais nulas descreve um sistema linearinvariante no tempo, cuja funcao de transferencia e
H(z) =N(z)
D(z)
pois
D(p)H(z)zn = N(p)zn ⇒ H(z)D(z) = N(z)
Exemplo 1.20O sistema
y[n+ 2] + 2αy[n+ 1] + ω20y[n] = ω2
0x[n]
pode ser escrito como
D(p)y[n] = N(p)x[n]
com
D(p) = p2 + 2αp+ ω20 , N(p) = ω2
0
que resulta na funcao de transferencia
H(z) =N(z)
D(z)=
ω20
z2 + 2αz + ω20
Bonatti, Lopes & Peres
Capıtulo 2
Transformada Z
Definicao: Transformada Z
A transformada Z da sequencia x[n] e dada por
X(z) = Zx[n] =+∞∑
k=−∞
x[k]z−k
para z ∈ Ωx, isto e, conjunto dos z ∈ C (complexos) para os quais a soma e finita.
Propriedade 2.1Transformada Z da funcao impulso
Zδ[n]
=
+∞∑
k=−∞
δ[k]z−k = 1 , Ωδ = C
⋄
Exemplo 2.1
Zδ[n−m]
=
+∞∑
k=−∞
δ[k −m]z−k = z−m , m ∈ Z+
sendo Z+ o conjunto dos numeros inteiros positivos. O domınio da transformada e o conjunto doscomplexos, com excecao de z = 0.
Exemplo 2.2
Zδ[n+m]
=
+∞∑
k=−∞
δ[k +m]z−k = zm , m ∈ Z+
e o domınio e o conjunto dos complexos, com excecao de |z| → +∞.
14
15
Propriedade 2.2Soma
Se o limite
limz→1Zx[n]
e finito e unico, entao
limz→1Zx[n] = lim
m→+∞
m∑
k=−∞
x[k]
Portanto, se
z = 1 ∈ Ωx
entao
Zx[n]∣∣∣z=1
=+∞∑
k=−∞
x[k]
⋄
Propriedade 2.3Soma Geometrica
m∑
k=0
ak =1− am+1
1− a , a ∈ C
pois
m∑
k=0
ak − am∑
k=0
ak = 1− am+1 ⇒m∑
k=0
ak =1− am+1
1− a
|a| < 1 ⇒+∞∑
k=0
ak =1
1− a
⋄
Propriedade 2.4Transformada Z de x[n] = anu[n]
X(z) = Zx[n] = Zanu[n] =1
1− az−1= (1− az−1)−1 =
z
z − a , Ωx = z ∈ C, |z| > |a|
Note que o domınio de existencia Ωx e o exterior do cırculo de raio |a| centrado na origem e, portanto,o polo (isto e, a raiz z = a do denominador) nao pertence ao domınio.
⋄
Bonatti, Lopes & Peres
16 Capıtulo 2. Transformada Z
Exemplo 2.3Transformada Z do degrau
Zu[n] =
+∞∑
n=−∞
z−nu[n] =1
1− z−1=
z
z − 1, Ωu = z ∈ C : |z| > 1
Exemplo 2.4
x[n] = exp(jβn)u[n] =(
exp(jβ))n
u[n] , β > 0
cuja transformada Z e dada por
X(z) =z
z − exp(jβ), Ωx = z ∈ C : |z| > 1
Exemplo 2.5
x[n] = exp(−jβn)u[n] =(
exp(−jβ))n
u[n] , β > 0
cuja transformada Z e dada por
X(z) =z
z − exp(−jβ), Ωx = z ∈ C : |z| > 1
Propriedade 2.5
Zx[n] = −anu[−n− 1] = −+∞∑
n=−∞
anz−nu[−n− 1] = −−1∑
n=−∞
(z/a)−n
= −+∞∑
n=1
(z/a)n =−(z/a)
1− (z/a)=
z
z − a
Ωx = z ∈ C : |z| < |a|
Observe que a expressao da transformada Z e a mesma da transformada apresentada na Proprie-dade 2.4, porem o domınio de convergencia e o interior do cırculo de raio |a| centrado na origem.
⋄
Exemplo 2.6
x[n] = an(
u[n]− u[n−m])
, m ∈ Z+
Zx[n] =
m−1∑
k=0
akz−k =1− (a/z)m
1− (a/z)=
1
zm−1
zm − am
z − a
Bonatti, Lopes & Peres
17
Observe (por exemplo, usando a regra de l’Hopital1) que a transformada e finita quando z → a,implicando que a nao e um polo de X(z). O domınio da transformada e o conjunto dos complexosexceto z = 0.
Exemplo 2.7
x[n] = a|n| = anu[n] + a−nu[−n− 1]
Zx[n] =−1∑
k=−∞
a−kz−k ++∞∑
k=0
akz−k
O segundo termo converge para
z
z − a , |z| > |a|
e o primeiro termo produz
(az)−1∑
k=−∞
a−k−1z−k−1 = (az)0∑
k=−∞
(az)−k = (az)+∞∑
k=0
(az)k =az
1− az , |z| < |1/a|
Para |a| > 1, nao ha intersecao entre as regioes e portanto a transformada Z nao existe. De fato, aserie a|n|, para |a| > 1, diverge para n→ −∞ e para n→ +∞.
O domınio da transformada para |a| < 1 e o anel centrado na origem dado por
|a| < |z| < 1
|a|
Propriedade 2.6Domınio da Transformada Z
• O que determina o domınio da transformada Z de uma funcao x[n] e a convergencia da soma quedefine a transformada Zx[n], isto e, o domınio e o conjunto de valores de z para os quais a soma efinita.
• Os polos (valores de z para os quais a funcao tende para infinito; em geral, sao as raızes do denomi-nador) nao pertencem ao domınio.
• O domınio nao pode ser obtido apenas a partir da expressao da transformada X(z). Por exemplo,a transformada Z do degrau e dada por
z
z − 1
e existe para todo z 6= 1. No entanto, o domınio e a regiao |z| > 1.
• O domınio e definido por restricoes sobre o modulo de z.
• Se x[n] tem duracao finita, o domınio Ωx e todo o plano complexo, exceto (possivelmente) z = 0e/ou |z| → +∞.
1Guillaume De l’Hopital, matematico frances do seculo XVII.
Bonatti, Lopes & Peres
18 Capıtulo 2. Transformada Z
• Se x[n] = 0 para n < m, m ∈ Z (sinal a direita), o domınio (se existir) e o exterior do menor cırculoque contem todos os polos.
• Se x[n] = 0 para n > m, m ∈ Z (sinal a esquerda), o domınio (se existir) e o interior do maior cırculoque nao contem nenhum polo.
⋄
Propriedade 2.7Transformada Z de x[n] = an
X(z) = Zx[n] =+∞∑
k=−∞
akz−k =+∞∑
k=0
(a/z)k +−1∑
k=−∞
(a/z)k
Para |z| ≤ |a|, o primeiro termo diverge e, para |z| ≥ |a|, o segundo termo diverge. Portanto, naoexiste a transformada Z de x[n] = an (a soma diverge em todo z ∈ C).
⋄
Propriedade 2.8
Zx[n] = ax1[n] + bx2[n] = aZx1[n]+ bZx2[n] , Ωx = Ωx1∩ Ωx2
ou seja, a transformada Z e linear e o domınio de convergencia e (no mınimo) a intersecao dos domınios.
⋄
Exemplo 2.8
x[n] = 2n+1 cos(3n)u[n] =(
2 exp(j3))n
u[n] +(
2 exp(−j3))n
u[n]
X(z) =z
z − 2 exp(j3)+
z
z − 2 exp(−j3), Ωx = z ∈ C : |z| > 2
Propriedade 2.9Teorema da ConvolucaoA transformada Z da convolucao de dois sinais e o produto das transformadas, ou seja,
Zx[n] = x1[n] ∗ x2[n]
= Zx1[n]Zx2[n] , Ωx = Ωx1
∩ Ωx2
Prova:
Zx1[n] ∗ x2[n]
=
+∞∑
k=−∞
(+∞∑
n=−∞
x1[n]x2[k − n]
)
z−k =+∞∑
k=−∞
+∞∑
n=−∞
x1[n]z−nx2[k − n]z−(k−n)
=+∞∑
n=−∞
x1[n]z−n+∞∑
k=−∞
x2[k − n]z−(k−n) =+∞∑
n=−∞
x1[n]z−n+∞∑
m=−∞
x2[m]z−m = X1(z)X2(z)
⋄
Bonatti, Lopes & Peres
19
Propriedade 2.10Operador Derivada
Zy[n] = nx[n] =
(
−z ddz
)
X(z) , Ωy = Ωx
pois
d
dzZx[n] =
d
dz
+∞∑
n=−∞
x[n]z−n
= −z−1+∞∑
n=−∞
nx[n]z−n ⇒ −z ddzZx[n] = Znx[n]
Zy[n] = n2x[n] =
(
−z ddz
)2
X(z) , Ωy = Ωx
pois
Zn2x[n] = Znv[n] =
(
−z ddz
)
V (z) =
(
−z ddz
)(
−z ddz
)
X(z)
Generalizando,
Zy[n] = nmx[n] =
(
−z ddz
)m
X(z) , Ωy = Ωx
⋄
Exemplo 2.9Considere a distribuicao de probabilidade x[n] = (1− ρ)ρnu[n], para 0 < ρ < 1.
Note que x[n] e sempre maior ou igual a zero e a soma de x[n] para todo n e igual a 1 (veja aPropriedade 2.3 da soma geometrica).
A media da variavel aleatoria X e
EX =+∞∑
n=−∞
nx[n] = Znx[n]∣∣∣z=1
sendo E o operador esperanca.
Como
X(z) = (1− ρ) z
z − ρ = (1− ρ)(1− ρz−1)−1 , |z| > ρ
tem-se
(
−z ddz
)
X(z) = Znx[n] = (1− ρ)ρz−1(1− ρz−1)−2
Em z = 1,
EX =+∞∑
n=−∞
nx[n] =ρ
1− ρ
O momento de segunda ordem da variavel aleatoria X e dado por
Bonatti, Lopes & Peres
20 Capıtulo 2. Transformada Z
EX2 =
+∞∑
n=−∞
n2x[n]
(
−z ddz
)2
X(z) = Zn2x[n] = (1− ρ)ρ(z−1(1− ρz−1)−2 + 2ρz−2(1− ρz−1)−3
)
Em z = 1,
EX2 =ρ+ ρ2
(1− ρ)2
A variancia de X e dada por
EX2 − EX2 =ρ
(1− ρ)2
Exemplo 2.10
Znanu[n] =
(
−z ddz
)
(1− az−1)−1 =az−1
(1− az−1)2=
az
(z − a)2 , |z| > |a|
Exemplo 2.11
Zn2anu[n] =
(
−z ddz
)
(az−1)(1− az−1)−2 =az−1
(1− az−1)2+
2a2z−2
(1− az−1)3=
=az−1
(1− az−1)2+
2a2z−2
(1− az−1)3=az2 + a2z
(z − a)3 , |z| > |a|
Propriedade 2.11Deslocamento a Direita (atraso)
Zy[n] = x[n−m]u[n−m] = z−mZx[n]u[n] , m ∈ Z+ , Ωy = Ωx
pois
Zx[n−m]u[n−m] =+∞∑
k=−∞
x[k −m]u[k −m]z−k =+∞∑
k=m
x[k −m]u[k −m]z−k =
=
+∞∑
k=−∞
x[k]u[k]z−(k+m) = z−mZx[n]u[n]
⋄
Bonatti, Lopes & Peres
21
Propriedade 2.12Deslocamento Unitario a Esquerda (avanco)
Zx[n+ 1]u[n] = z(
Zx[n]u[n] − x[0])
pois
Zx[n+ 1]u[n] =+∞∑
n=−∞
x[n+ 1]u[n]z−n = z+∞∑
n=−∞
x[n+ 1]u[n]z−(n+1)
= z+∞∑
n=−∞
x[n]u[n− 1]z−n = z( +∞∑
n=−∞
x[n]u[n]z−n − x[0])
Observe que, se x[0] = 0, multiplicar a transformada por z equivale a deslocar x[n] para x[n+ 1]⋄
Propriedade 2.13
Zx[n+ 2]u[n] = z2(
Zx[n]u[n] − x[0]− z−1x[1])
pois
y[n] = x[n+ 1]u[n] ⇒ y[0] = x[1] , y[n+ 1] = x[n+ 2]u[n+ 1]
Zx[n+ 2]u[n] = Zy[n+ 1]u[n] = z(
Zy[n]u[n] − y[0])
=
= z(
Zx[n+ 1]u[n] − x[1])
= z(
z(
Zx[n]u[n] − x[0])
− x[1])
Generalizando,
Zx[n+m]u[n] = zm(
Zx[n]u[n] −m−1∑
k=0
x[k]z−k)
, m ∈ Z+
⋄
Exemplo 2.12
Z(n+ 1)anu[n] = z(
Znan−1u[n]
− (nan−1)
∣∣∣n=0
)
pela Propriedade 2.12 (avanco).
Utilizando a Propriedade 2.10 (operador derivada), tem-se
Znan−1u[n] =
(
−z ddz
)
Zan−1u[n]
Como
Zan−1u[n] =1
a(1− az−1)−1
⇒ Z(n+ 1)anu[n] = Z(
n+ 11
)
anu[n]
= (1− az−1)−2 , |z| > |a|
Bonatti, Lopes & Peres
22 Capıtulo 2. Transformada Z
sendo a combinacao de n termos m a m dada por
(nm
)
=n!
m!(n−m)!, 0 ≤ m ≤ n , m, n ∈ N = 0, 1, 2, . . .
Exemplo 2.13
Z(
n+ 22
)
anu[n]
= Z (n+ 2)(n+ 1)
2anu[n]
= zZ (n+ 1)n
2an−1u[n]
=
= z
(
−z ddz
)
Z (n+ 1)
2an−1u[n]
=z
2a
(
−z ddz
)
(1− az−1)−2
pelo resultado do Exemplo 2.12. Portanto,
Z(
n+ 22
)
anu[n]
= (1− az−1)−3 , |z| > |a|
Propriedade 2.14Combinatoria
Generalizando os exemplos 2.12 e 2.13, tem-se
Z(
n+mm
)
anu[n]
= (1− az−1)−(m+1) , m ∈ N , |z| > |a|
⋄
Propriedade 2.15Combinatoria com Deslocamento
Z(
nm
)
an−mu[n−m]
=z
(z − a)m+1, |z| > |a| , m ∈ N
pois, aplicando a Propriedade 2.11 (atraso) na Propriedade 2.14 (combinatoria), tem-se
z−mZ(
n+mm
)
anu[n]
= Z(
nm
)
an−mu[n−m]
=z−m
(1− az−1)m+1=
z
(z − a)m+1
Observe que a combinacao de n elementos m a m nao estaria definida para n < m, mas, para n ≥ 0,tem-se
(nm
)
=1
m!(n−m+ 1) · · ·n
que e igual a zero para n < m. Assim,
Z(
nm
)
an−mu[n]
=z
(z − a)m+1, |z| > |a| , m ∈ N
⋄
Bonatti, Lopes & Peres
23
Propriedade 2.16Valor Inicial
Considere x[n] um sinal a direita de n = 0, isto e, x[n] = x[n]u[n] com x[0] finito, cuja transformadaX(z) possui domınio Ωx nao vazio. Entao,
x[0] = lim|z|→+∞
X(z)
Prova:
Como x[n] = 0 para n < 0, o domınio Ωx e o exterior de um cırculo de raio limitado (para X(z)racional, o domınio e o exterior do cırculo de menor raio que contem os polos), e portanto |z| → +∞pertence a Ωx.
X(z) =+∞∑
n=−∞
x[n]u[n]z−n = x[0] ++∞∑
n=1
x[n]z−n ⇒ lim|z|→+∞
X(z) = x[0]
Observe que se X(z) for racional (razao de dois polinomios em z), a ordem do numerador e necessa-riamente menor ou igual a do denominador para que o limite exista. Nesse caso, X(z) e denominadafuncao propria.
⋄
Propriedade 2.17Valor Final
Considere X(z) com domınio |z| > ρ, 0 < ρ ≤ 1.
Se o limite
limz→1
(z − 1)X(z)
e finito, entao
limm→+∞
x[m] = limz→1
(z − 1)X(z)
Prova:
Considere a sequencia a direita y[n] dada por
y[n] = x[n+ 1]u[n]− x[n]u[n] ⇒m∑
k=−∞
y[k] = x[m+ 1]− x[0] , m ≥ 0
Pela Propriedade 2.2 (soma), tem-se
limz→1
Y (z) = limm→+∞
m∑
k=−∞
y[k] = limm→+∞
x[m]− x[0]
Aplicando a transformada Z em y[n], tem-se
Y (z) = Zx[n+ 1]u[n] − Zx[n]u[n] = zX(z)− zx[0]−X(z) = (z − 1)X(z)− zx[0]
Bonatti, Lopes & Peres
24 Capıtulo 2. Transformada Z
Portanto,
limz→1
Y (z) = limz→1
(z − 1)X(z)− x[0] ⇒ limz→1
(z − 1)X(z) = limm→+∞
x[m]
Observe que, como (z−1)X(z) deve ser finito em z = 1, X(z) pode no maximo ter um polo em z = 1.
⋄
Exemplo 2.14Considere
X(z) =z + 1
z + 1/3, |z| > 1/3
Entao,
x[0] = lim|z|→+∞
X(z) = 1
+∞∑
k=−∞
x[k] = limz→1
X(z) = 3/2
limn→+∞
x[n] = limz→1
(z − 1)X(z) = limz→1
(z − 1)(z + 1)
z + 1/3= 0
Propriedade 2.18Transformada Inversa
• A transformada inversa da transformada Z de funcoes racionais pode ser computada pelo algoritmode Briot-Ruffini2 de divisao de polinomios.
• A transformada inversa da transformada Z cujo domınio e o exterior de um cırculo e uma sequenciaa direita.
• A transformada inversa da transformada Z cujo domınio e o interior de um cırculo e uma sequenciaa esquerda.
• A transformada inversa da transformada Z cujo domınio e um anel e uma sequencia que existe aesquerda e a direita do zero.
• A transformada inversa da transformada Z cujo domınio e todo o plano complexo, exceto possivel-mente ou z = 0, ou |z| → +∞ ou ambos, e dada por uma sequencia de duracao finita.
⋄
Exemplo 2.15Considere
X(z) =z
z − a , |z| > |a|
2Charles Auguste Briot, frances do seculo XIX e Paolo Ruffini, italiano do seculo XVIII.
Bonatti, Lopes & Peres
25
Entaoz ∠z − az − a 1 + az−1 + a2z−2 + · · ·
aa− a2z−1
a2z−1
X(z) =z
z − a = 1 + az−1 + a2z−2 + · · · ⇒ x[n] = anu[n]
pois, comparando X(z) com a definicao de transformada Z, obtem-se os termos x[n] (identidade depolinomios).
Note que a serie converge apenas para |z| > |a|.
Exemplo 2.16Considere
X(z) =z
z − a , |z| < |a|
Entaoz ∠− a+ zz − a−1z2 −a−1z − a−2z2 + · · ·
a−1z2
a−1z2 − a−2z3
a−2z3
X(z) =z
z − a = −a−1z(1 + a−1z + a−2z2 + · · ·
)= −a−1z
+∞∑
k=0
a−kzk
= −+∞∑
k=0
a−k−1zk+1 = −−1∑
n=−∞
anz−n = −+∞∑
n=−∞
anu[−n− 1]z−n
Comparando polinomios, trata-se da transformada Z de x[n] = −anu[−n − 1] (veja a Proprie-dade 2.5). Note que a serie converge apenas para
|za−1| < 1 ⇒ |z| < |a|
Exemplo 2.17Transformada inversa
X(z) =2z2 − 5z
(z − 2)(z − 3)=
z
z − 2+
z
z − 3, |z| > 3
Para o domınio em questao, tem-se
x[n] = (2n + 3n)u[n]
Bonatti, Lopes & Peres
26 Capıtulo 2. Transformada Z
Note que a Propriedade 2.2 (soma) nao se aplica, pois z = 1 nao pertence ao domınio. De fato,X(1) = −3/2 e a soma diverge.
A Propriedade 2.16 (valor inicial) e verificada, pois
X(+∞) = 2 e x[0] = 2
Neste caso, tambem nao se aplica a Propriedade 2.17 (valor final), pois o domınio nao verifica ahipotese |z| > ρ com ρ ≤ 1.
Exemplo 2.18Transformada inversa
X(z) =2z2 − 5z
(z − 2)(z − 3)=
z
z − 2+
z
z − 3, |z| < 2
Neste caso, e melhor escrever
X(z) = (−z2−1)1
1− 2−1z+ (−z3−1)
1
1− 3−1z⇒ x[n] = −(2n + 3n)u[−n− 1]
A Propriedade 2.2 (soma) e verificada, pois z = 1 pertence ao domınio
X(1) = −3/2 e
+∞∑
n=−∞
x[n] = −3/2
Nao se aplicam as propriedades 2.16 (valor inicial) e 2.17 (valor final), pois z → +∞ nao pertenceao domınio e o domınio e o interior de um cırculo (e, portanto, a funcao x[n] nao e a direita).
Exemplo 2.19Transformada inversa
X(z) =2z2 − 5z
(z − 2)(z − 3)=
z
z − 2+
z
z − 3, 2 < |z| < 3
X(z) =z
z − 2+ (−z3−1)
1
1− 3−1z⇒ x[n] = 2nu[n]− 3nu[−n− 1]
Nao se aplicam as propriedades 2.2 (soma), 2.16 (valor inicial) e 2.17 (valor final).
Bonatti, Lopes & Peres
27
Exemplo 2.20Transformada inversa
X(z) =1
z − a , |z| > |a|
e dada por (usando Briot-Ruffini)
X(z) =1
z − a = z−1 + az−2 + a2z−3 + · · · ⇒ x[n] = an−1u[n− 1]
Observe que
X(z) = z−1 z
z − a = z−1Zanu[n] ⇒ x[n] = an−1u[n− 1]
pela Propriedade 2.11 (atraso).
A transformada Z inversa de funcoes racionais proprias X(z) com domınio no exterior de um cırculo(series a direita) pode ser obtida pela Propriedade 2.15 (combinatoria com deslocamento) por meioda expansao em fracoes parciais de X(z)/z na variavel z.
Exemplo 2.21Polos distintos
Considere ρ 6= 1 e Y (z) dado por
Y (z) =z2
(z − ρ)(z − 1), |z| > max|ρ|, 1
Y (z)
z=
z
(z − ρ)(z − 1)=
a
z − ρ +b
z − 1
a = − ρ
1− ρ , b =1
1− ρ
Usando a Propriedade 2.15 (combinatoria com deslocamento), tem-se
y[n] = aρnu[n] + bu[n] =1− ρn+1
1− ρ u[n]
Exemplo 2.22Polos multiplos
Para a transformada X(z) dada por
X(z)
z=
z
(z − 1)3=
a1
z − 1+
a2
(z − 1)2+
a3
(z − 1)3, |z| > 1
tem-se a1 = 0, a2 = 1 e a3 = 1. Portanto,
x[n] =
(n1
)
u[n] +
(n2
)
u[n] =n(n+ 1)
2u[n]
Bonatti, Lopes & Peres
28 Capıtulo 2. Transformada Z
Exemplo 2.23Considere ρ 6= 1 e a transformada Y (z) dada por
Y (z) =ρz2
(z − 1)(z − ρ)2 , |z| > max|ρ|, 1
Y (z)
z=
ρz
(z − 1)(z − ρ)2 =a
z − 1+
b
z − ρ +c
(z − ρ)2
cujos coeficientes sao
a =ρ
(1− ρ)2 , b =−ρ
(1− ρ)2 , c =−ρ2
(1− ρ)
Portanto,
y[n] = au[n] + bρnu[n] + c
(n1
)
ρn−1u[n] =
=(a+ bρn + cnρn−1
)u[n] =
ρ
(1− ρ)2(1− (n+ 1)ρn + nρn+1
)u[n]
A transformada Z inversa de funcoes racionais proprias com domınio no exterior de um cırculo (seriesa direita) tambem pode ser obtida pela Propriedade 2.14 (combinatoria) por meio da expansao emfracoes parciais na variavel z−1.
Exemplo 2.24Retomando o Exemplo 2.21, com ρ 6= 1 e Y (z) dado por
Y (z) =z2
(z − ρ)(z − 1)=
1
(1− ρz−1)(1− z−1)=
a
1− ρz−1+
b
1− z−1, |z| > max|ρ|, 1
tem-se
a =1
1− z−1
∣∣∣1−ρz−1=0
= − ρ
1− ρ , b =1
1− ρz−1
∣∣∣1−z−1=0
=1
1− ρ
Usando a Propriedade 2.14 (combinatoria), obtem-se a sequencia
y[n] = aρnu[n] + bu[n] =1− ρn+1
1− ρ u[n]
Para ρ = 1, tem-se
Y (z) =1
(1− z−1)2, |z| > 1
y[n] = Z−1 1
(1− z−1)2
= (n+ 1)u[n] =
n∑
k=0
1
O mesmo resultado pode ser obtido aplicando a regra de l’Hopital3 na expressao de y[n]
y[n] = limρ→1
1− ρn+1
1− ρ = limρ→1
−(n+ 1)ρn
−1= n+ 1
3Guillaume De l’Hopital, matematico frances do seculo XVII.
Bonatti, Lopes & Peres
29
Exemplo 2.25Retomando o Exemplo 2.22, com a transformada Z
Y (z) =z2
(z − 1)3=
z−1
(1− z−1)3=
a
1− z−1+
b
(1− z−1)2+
c
(1− z−1)3, |z| > 1
Os coeficientes sao: a = 0, b = −1 e c = 1. Portanto,
y[n] =
(
(−1)
(n+ 1
1
)
+
(n+ 2
2
))
u[n] =n(n+ 1)
2u[n]
Exemplo 2.26O Exemplo 2.23, com ρ 6= 1 e a transformada Y (z) dada por
Y (z) =ρz2
(z − 1)(z − ρ)2 =ρz−1
(1− z−1)(1− ρz−1)2, |z| > max|ρ|, 1
Y (z) =a
1− z−1+
b
1− ρz−1+
c
(1− ρz−1)2
cujos coeficientes sao
a =ρ
(1− ρ)2 , b =−ρ2
(ρ− 1)2, c =
ρ
(ρ− 1)
produz
y[n] = (a+ bρn + c(n+ 1)ρn)u[n] =ρ
(1− ρ)2(1− (n+ 1)ρn + nρn+1
)u[n]
Exemplo 2.27Considere Y (z) dado por
Y (z) =z
z2 − z − 1, |z| > λ1
sendo λ1 =1 +√
5
2e λ2 =
1−√
5
2as raızes do denominador.
Y (z) =z
(z − λ1)(z − λ2)=
z−1
(1− λ1z−1)(1− λ2z−1)=
a1
1− λ1z−1+
a2
1− λ2z−1
cujos coeficientes sao
a1 =1
λ1 − λ2=
√5
5, a2 =
1
λ2 − λ1=−√
5
5
resultando em
y[n] = a1λn1 + a2λ
n2 ≈ a1λ
n1 para n grande, pois |λ2| < 1
Bonatti, Lopes & Peres
Capıtulo 3
Transformada Z Aplicada a
Probabilidade
A transformada Z e um operador matematico eficiente no tratamento de variaveis aleatorias discretas,como por exemplo nas distribuicoes de Bernoulli, Binomial, Geometrica, Poisson, Erlang, etc.
A Figura 3.1 ilustra a relacao entre algumas dessas distribuicoes.
30
31
Considere a sequencia enumeravel p[k] de escalares reais (positivos ou nulos) tal que
+∞∑
k=−∞
p[k] = 1
na qual, frequentemente, p[k] = 0 para k = −1,−2,−3, . . .
Definicao: Variavel Aleatoria Discreta
E uma funcao X a qual esta associada uma distribuicao de probabilidade
PrX = k = p[k] ≥ 0 ;
+∞∑
k=−∞
p[k] = 1
Definicao: Esperanca Matematica
Poisson
Axiomatico
Axiomatico
limite
BinomialBernoulli
transformada
Exponencial
Dual
PrX = 1 = p
(nk
)
pk(1− p)(n−k)ρk
k!exp(−ρ)
pT (t) = λ exp(−λt)
• Sem eventos simultaneos• Intervalos independentes
• Contınua• Sem memoria
Figura 3.1: Relacoes entre distribuicoes de probabilidades discretas.
Bonatti, Lopes & Peres
32 Capıtulo 3. Transformada Z Aplicada a Probabilidade
Ef(X) =∑
k
f(k)p[k]
Definicao: Momento de ordem m
EXm =∑
k
kmp[k] , m ∈ Z+
Definicao: Media
x = EX =∑
k
kp[k]
ou seja, a media e o momento de primeira ordem.
Definicao: Variancia
σ2X =
∑
k
(k − x)2p[k]
Propriedade 3.1A variancia da variavel aleatoria X e igual ao momento de segunda ordem menos o momento deprimeira ordem ao quadrado, ou seja,
σ2X = EX2 − EX2
pois
∑
k
(k − x)2p[k] =∑
k
k2p[k]− 2x∑
k
kp[k] + x2∑
k
p[k] = EX2 − 2x2 + x2
⋄Exemplo 3.1Considere a equacao a diferencas de primeira ordem com 0 < ρ < 1 que descreve a cadeia marko-viana da fila M/M/1, dada por
p[n+ 1] = ρp[n] , n ∈ N ; p[n] = 0 , n < 0 ,+∞∑
n=−∞
p[n] = 1
Por substituicao sistematica, tem-se
p[1] = ρp[0] ; p[2] = ρp[1] = ρ2p[0] ; p[3] = ρp[2] = ρ3p[0] ; . . . ; p[n] = ρnp[0]
Como+∞∑
k=0
ρk =1
1− ρ
tem-se
p[n] = (1− ρ)ρnu[n] (u[n] = funcao degrau)
que e a distribuicao geometrica.
Observe que p[0] = 1 − ρ e a probabilidade do sistema estar vazio (servidor desocupado na teoriade filas).
Bonatti, Lopes & Peres
33
Exemplo 3.2Bernoulli
PrX = 1 = p > 0 ; PrX = 0 = 1− p = q > 0
A variavel aleatoria de Bernoulli1 modela processos com duas possibilidades; por exemplo, proba-bilidade de um servidor estar livre ou ocupado.
EX =∑
k
kp[k] = 1p+ 0(1− p) = p ; EX2 =∑
k
k2p[k] = 1p+ 0(1− p) = p
σ2X
= EX2 − EX2 = p(1− p) = pq
Definicao: Independencia
Duas variaveis aleatorias discretas sao independentes se a probabilidade conjunta for igual ao produtodas probabilidades, isto e,
PrX = x,Y = y = PrX = xPrY = yPropriedade 3.2Independencia
PrX = x,Y = y = PrX = xPrY = y ⇒ Ef(X)g(Y) = Ef(X)Eg(Y)
pois
Ef(X)g(Y) =∑
k
∑
m
f(k)g(m) PrX = k,Y = m =
=∑
k
f(k) PrX = k∑
m
g(m) PrY = m
⋄
Definicao: Transformada Z
A transformada Z da serie p[n] e dada por2
GX(z) = Zp[n] =+∞∑
k=−∞
p[k]zk
Propriedade 3.3
Zp[n] = EzX
pois
f(X) = zX ⇒ Ef(X) =∑
k
f(k) PrX = k =∑
k
zkp[k] = Zp[n]
⋄1Jacob (Jacques) Bernoulli, matematico suico 1654–1705.2Note que a transformada Z e definida com zk (e nao z−k) para ficar de acordo com a maior parte dos livros de
probabilidade. Duas consequencias importantes disso sao: a regiao de convergencia para sequencias a direita e o interiorde um cırculo (e nao o exterior), e na Propriedade do Operador Derivada nao aparece o sinal negativo.
Bonatti, Lopes & Peres
34 Capıtulo 3. Transformada Z Aplicada a Probabilidade
Exemplo 3.3Seja X a variavel aleatoria que descreve o numero de elementos na fila M/M/1 do Exemplo 3.1. Adistribuicao de probabilidade e dada por
p[n] = (1− ρ)ρnu[n] , 0 < ρ < 1
A transformada Z de p[n] e dada por
GX(z) = (1− ρ)+∞∑
k=−∞
(ρz)ku[k] =1− ρ1− ρz , |z| < 1
ρ
Observe que a divisao dos polinomios da transformada Z produz a funcao inversa, isto e, a sequenciap[n].
GX(z) =1− ρ1− ρz = (1− ρ)(1 + ρz + ρ2z2 + · · · )
Propriedade 3.4Soma
Zp[n]∣∣∣z=1
= GX(1) =∑
k
p[k] = 1
Note que esta propriedade pode ser usada para testar eventuais erros nas expressoes das transformadasZ das distribuicoes de probabilidade.
⋄
Propriedade 3.5Operador Derivada
(zd
dz
)m
Zp[n] = Znmp[n] , m ∈ Z+
pois
zd
dzZp[n] = z
∑
k
kzk−1p[k] =∑
k
kp[k]zk = Znp[n]
e a aplicacao recorrente do operador
(zd
dz
)
prova a propriedade.
⋄
Propriedade 3.6Momentos
EXm =
(zd
dz
)m
Zp[n]∣∣∣z=1
= Znmp[n]∣∣∣z=1
, m ∈ Z+
Bonatti, Lopes & Peres
35
Esta propriedade pode ser usada para o calculo dos momentos de ordem m.
⋄
Propriedade 3.7Variancia
σ2X =
(zd
dz
)2
Zp[n]∣∣∣z=1−((
zd
dz
)
Zp[n]∣∣∣z=1
)2
⋄
Propriedade 3.8Serie de Taylor
Sequencias p[n] a direita do zero podem ser calculadas a partir da serie de Taylor3 de GX(z) em z = 0,pois
GX(z) =+∞∑
n=0
1
n!
dn
dznGX(z)
∣∣∣z=0
zn ⇒ p[n] =G
(n)X
(0)
n!
⋄
Exemplo 3.4Considere novamente a variavel aleatoria de Bernoulli do Exemplo 3.2, para a qual
PrX = 1 = p > 0 ; PrX = 0 = 1− p = q > 0 ⇒ p[n] = qδ[n] + pδ[n− 1]
No Exemplo 3.2, media e variancia foram obtidas pela definicao. Neste exemplo, a media e varianciasao determinadas pelas propriedades da transformada Z.
A transformada Z de p[n] e dada por
GX(z) =+∞∑
k=−∞
p[k]zk = (1− p) + zp = q + zp
O teste da soma e verificado, pois
GX(1) = q + p = 1
O momento de primeira ordem fornece
(zd
dz
)
GX(z) = zp ⇒ EX = p
e o momento de segunda ordem e dado por
3Brook Taylor, matematico ingles (1685–1731).
Bonatti, Lopes & Peres
36 Capıtulo 3. Transformada Z Aplicada a Probabilidade
(zd
dz
)2
GX(z) = zp =⇒ EX2 = p
A variancia e
σ2X
= p− p2 = pq
A expansao em serie de Taylor produz
GX(z) = q + zp ⇒ p0 = q , p1 = p
que confirma a expressao da transformada.
Propriedade 3.9Soma de Variaveis Aleatorias
Sejam X e Y variaveis aleatorias discretas e independentes. Entao
GX+Y(z) = GX(z)GY(z)
pois, definindo-se W = X + Y, tem-se
GW(z) = EzW = Ez(X+Y) = EzXEzY = GX(z)GY(z)
ou seja, a transformada Z da soma de variaveis aleatorias independentes e o produto das transformadasZ.
⋄
A Propriedade 3.9 e uma versao em termos de variaveis aleatorias da propriedade de que a transfor-mada Z da convolucao e o produto das transformadas Z individuais.
A propriedade seguinte mostra que a distribuicao de probabilidade associada ao produto de duastransformadas Z e a convolucao das distribuicoes individuais.
Propriedade 3.10Sejam
GX(z) =∑
k
x[k]zk , GY(z) =∑
k
y[k]zk
Entao,
GX(z)GY(z) =∑
k
p[k]zk ⇒ p[n] =∑
k
x[k]y[n− k] = x[n] ∗ y[n]
pois
GX(z)GY(z) =∑
k
x[k]zk∑
m
y[m]zm =∑
k
∑
m
x[k]y[m]zk+m =∑
n
∑
k
x[k]y[n− k]︸ ︷︷ ︸
p[n]
zn
⋄
Bonatti, Lopes & Peres
37
O resultado da Propriedade 3.9 permite uma abordagem alternativa (ao processo de contagem) paraa definicao da variavel aleatoria binomial.
Exemplo 3.5Variavel Aleatoria Binomial
Considere X1,X2, . . .Xn variaveis aleatorias de Bernoulli, independentes e com a mesma distribuicaode probabilidade
PrXi = 1 = p > 0 , PrXi = 0 = 1− p = q > 0 , i = 1, . . . , n
Seja
Y = X1 + X2 + · · ·+ Xn
Observe que PrY = k = p[k] e a probabilidade de ocorrerem k acertos em n testes.
Pela Propriedade 3.9, tem-se
GY(z) = GX1(z) · · ·GXn
(z) = (q + zp)n
Expandindo o binomio de Newton4, tem-se
GY(z) = (q + zp)n =
n∑
k=0
(nk
)
(zp)kq(n−k) =
n∑
k=0
zk n!
k!(n− k)!pkq(n−k)
︸ ︷︷ ︸
p[k]
Observe que a fracao na expressao indica o numero de possibilidades de ocorrer k acertos em ntestes, e o produto pkqn−k indica a probabilidade de haver k acertos e n− k erros.
A media e a variancia podem ser calculadas a partir da transformada Z
GY(z) = (q + zp)n
GY(1) = (q + p)n = 1
(zd
dz
)
GY(z) = zn (q + zp)(n−1)
p ⇒ y = EY = np
(zd
dz
)2
GY(z) = z(np (q + zp)
(n−1)+ npz(n− 1) (q + zp)
(n−2)p)
⇒ EY 2 = n2p2 + np(1− p)
σ2Y
= n2p2 + np(1− p)− n2p2 = npq
Este resultado confirma que a media da soma de variaveis aleatorias e a soma das medias e que,para variaveis aleatorias independentes, a variancia da soma e a soma das variancias.
4Sir Isaac Newton, ingles (1643–1727).
Bonatti, Lopes & Peres
38 Capıtulo 3. Transformada Z Aplicada a Probabilidade
A distribuicao binomial (n, p) tende para a distribuicao de Poisson5 quando n tende para infinitomantendo-se constante o valor valor medio ρ = np, isto e, considerando-se que p = ρ/n decresca demaneira apropriada.
Propriedade 3.11Poisson como limite da binomial
limn→+∞ , p=ρ/n
(q + zp)n = exp(
ρ(z − 1))
pois
GY(z) = limn→+∞ , p=ρ/n
(q + zp)n = limn→+∞
(
1 +ρ(z − 1)
n
)n
= exp(
ρ(z − 1))
pois
limn→+∞
(
1 +a
n
)n= exp(a)
Expandindo em serie de Taylor, tem-se
exp(−ρ)+∞∑
k=0
(zρ)k
k!⇒ p[k] = PrY = k =
ρk
k!exp(−ρ) , k ∈ N
Uma demonstracao alternativa pode ser feita diretamente da expressao da distribuicao da binomial.Assim,
p[k] = PrY = k =n!
k!(n− k)!pk(1− p)n−k =
n!
k!(n− k)!ρk
nk
(
1− ρ
n
)n−k
Portanto,
limn→+∞
n!
k!(n− k)!ρk
nk
(
1− ρ
n
)n−k=ρk
k!
(
limn→+∞
(
1− ρ
n
)n−k)
︸ ︷︷ ︸
exp(−ρ)
(
limn→+∞
n!
nk(n− k)!
)
︸ ︷︷ ︸
1
pois
limn→+∞
n!
(n− k)!1
nk= lim
n→+∞
n
n
(n− 1)
n· · · (n− k + 1)
n= 1
resultando em
p[k] = PrY = k =ρk
k!exp(−ρ) , k ∈ N
⋄
5Simeon Denis Poisson, matematico frances (1781-1840).
Bonatti, Lopes & Peres
39
Exemplo 3.6A media e a variancia da distribuicao de Poisson podem ser calculadas a partir da transformada Z.
Para uma variavel aleatoria de Poisson, tem-se
GY(z) = exp(−ρ) exp(ρz) ⇒ GY(1) = 1
(zd
dz
)
GY(z) = exp(−ρ)ρz exp(ρz) ⇒ y = EY = ρ
(zd
dz
)2
GY(z) = z exp(−ρ)(
ρ exp(ρz) + ρ2z exp(ρz))
⇒ EY2 = ρ+ ρ2
σ2Y
= ρ+ ρ2 − ρ2 = ρ
Note que a media de uma variavel aleatoria poissoniana e igual a variancia.
Propriedade 3.12A soma de variaveis aleatorias poissonianas independentes e poissoniana pois, para Y = Y1 + Y2
GY(z) = Ez(Y1+Y2) = EzY1 EzY2 = GY1(z) GY2
(z)
GY(z) = exp(
ρ1(z − 1))
exp(
ρ2(z − 1))
= exp(
(ρ1 + ρ2)(z − 1))
que trata-se de uma distribuicao poissoniana com media ρ1 + ρ2.
⋄
Bonatti, Lopes & Peres
Capıtulo 4
Serie de Fourier de Sinais Discretos
Definicao: Sinal Periodico
Um sinal x[n] e periodico se existe um inteiro positivo N tal que x[n] = x[n + N ] para ∀n ∈ Z.Nesse caso, N e um perıodo e, se for o menor inteiro que satisfaz a relacao, e chamado de perıodofundamental.
Sinais periodicos representam uma classe importante de sinais de potencia, que podem ser represen-tados por series de Fourier1.
Propriedade 4.1A funcao
x[n] = exp(jβn) , β ∈ R , n ∈ Z
e periodica se e somente se
β = 2πp
q, p, q ∈ Z
Se q = N e o menor inteiro positivo que satisfaz a relacao, entao N e o perıodo fundamental.
Prova:
Se
β = 2πp
q, p, q ∈ Z
entao
exp(jβ(n+ q)
)= exp(jβn) exp(jβq) = exp(j2πp) exp(jβn) = exp(jβn) ⇒ periodica
Por outro lado, se x[n] = exp(jβn) e periodica, ou seja, se
x[n] = x[n+ q] ⇒ exp(jβn) = exp(jβ(n+ q)
)
entao
exp(jβn) = exp(jβn) exp(jβq) ⇒ exp(jβq) = 1 ⇒ βq = 2πp , p, q ∈ Z
⋄1Jean Baptiste Joseph Fourier, matematico frances (1768–1830).
40
41
Exemplo 4.1Para que o sinal
x[n] = sen(an) =1
2jexp(jan)− 1
2jexp(−jan)
seja periodico, e necessario que
a = 2πp
q, p, q ∈ Z
Propriedade 4.2Se x1[n] e x2[n] sao periodicos, entao a soma
x[n] = c1x1[n] + c2x2[n]
e periodica e o perıodo fundamental e (em geral) multiplo dos perıodos individuais.⋄
Exemplo 4.2O perıodo fundamental (menor perıodo) do sinal
x[n] = exp(j3πn/5)− exp(jπn/2) = exp(j2π3
10n)− exp(j2π
1
4n)
e obtido a partir dos menores valores de m1 e m2 inteiros que verificam
N = 10m1 = 4m2 ⇒ m1 = 2,m2 = 5 ⇒ N = 20
sendo N1 = 10 e N2 = 4 os perıodos das componentes.
Definicao: Produto Escalar de Sinais Periodicos
O produto escalar dos sinais periodicos gk[n] e gℓ[n], de perıodo N , e dado por
< gk[n]g∗ℓ [n] >=∑
n∈N
gk[n]g∗ℓ [n]
sendo
N = 0, 1, 2, . . . , N − 1
ou qualquer conjunto de N inteiros consecutivos.
Definicao: Ortogonalidade de Sinais Periodicos
Os sinais periodicos gk[n], de perıodo N , sao ortogonais se
∑
n∈N
|gk[n]|2 > 0 e∑
n∈N
gk[n]g∗ℓ [n] = 0 , k 6= ℓ , k, ℓ ∈ Z
Bonatti, Lopes & Peres
42 Capıtulo 4. Serie de Fourier de Sinais Discretos
Exemplo 4.3Considere os sinais
p[n] = δ[n− 1] + δ[n+ 1] , q[n] = δ[n− 1]− δ[n+ 1]
e os sinais periodicos, de periodo N > 2, N ∈ Z+, dados por
x[n] =+∞∑
k=−∞
p[n− kN ] , y[n] =+∞∑
k=−∞
q[n− kN ]
O produto escalar e dado por
< x[n]y∗[n] >=< p[n]q∗[n] >=∑
k∈N
p[k]q[k] = 1 + 0− 1 = 0
implicando que os sinais x e y sao ortogonais.
As normas de x[n] e y[n] sao dadas por
‖x[n]‖ =√
< x[n]x∗[n] > =√
1 + 1 =√
2 , ‖y[n]‖ =√
< y[n]y∗[n] > =√
1 + 1 =√
2
Exemplo 4.4Considere o sinal
p[n] = δ[n− 1] + δ[n+ 1]
e os sinais periodicos
x[n] =
+∞∑
k=−∞
p[n− k6] , y[n] =
+∞∑
k=−∞
p[n− 3− k6]
Os sinais x[n] e y[n] sao ortogonais. Note que, embora os perıodos de x[n] e y[n] sejam ambosiguais a 6, a soma x[n] + y[n] possui perıodo fundamental igual a 3.
Exemplo 4.5Considere os N sinais periodicos
gk[n] = exp(
jk2π
Nn)
, n ∈ Z , N ∈ Z+ , k ∈ 0, 1, . . . , N − 1
O produto escalar αkℓ e dado por
αkℓ =∑
n∈N
gk[n]g∗ℓ [n] =∑
n∈N
exp[
j(k − ℓ)2π
Nn]
=∑
n∈N
zn = zn1
N−1∑
n=0
zn
com z = exp[j(k − ℓ)2π
N
]e n1 o menor inteiro pertencente ao conjunto N .
Bonatti, Lopes & Peres
43
Portanto,
αkℓ =
N, para k = ℓ
(zn1)1− zN
1− z = 0, para k 6= ℓ
implicando que os sinais gk[n] sao ortogonais e tem norma√N , ou seja,
‖gk[n]‖2 = ‖ exp(
jk2π
Nn)
‖2 = N , ∀k ∈ N
Definicao: Sinais Linearmente Independentes
Um conjunto de sinais gk[n], k = 1, . . . ,m e linearmente independente se e somente se
m∑
k=1
ckgk[n] = 0 , ∀n ∈ Z ⇒ ck = 0 , k = 1, . . . ,m
Definicao: Espaco Linear
A combinacao linear de um conjunto de m sinais gk[n], isto e,
g[n] =m∑
k=1
ckgk[n]
com escalares ck ∈ C gera um espaco linear, cuja dimensao e dada pelo numero r de sinais linearmenteindependentes do conjunto (r ≤ m). Qualquer conjunto de r sinais que gere o mesmo espaco e umabase para esse espaco.
Exemplo 4.6Os sinais
x1[n] = 1 , x2[n] = n , x3[n] = n2 , n ∈ Z
sao linearmente independentes, pois
c1x1[n] + c2x2[n] + c3x3[n] = 0 ⇒ c1 = c2 = c3 = 0, pois det
1 0 01 1 11 2 4
= 2 6= 0
Exemplo 4.7Os sinais
y1[n] = λn1 e y2[n] = λn
2 , λ1, λ2 ∈ C
sao linearmente independentes se e somente se λ1 6= λ2, pois a1λn1 + a2λ
n2 = 0 implica
a1 + a2 = 0a1λ1 + a2λ2 = 0
⇒ a1 = a2 = 0
Bonatti, Lopes & Peres
44 Capıtulo 4. Serie de Fourier de Sinais Discretos
Propriedade 4.3Sinais ortogonais sao linearmente independentes.
Prova:
∑
k
ckgk[n] = 0 ∀n ∈ Z ⇒∑
k
ckgk[n]g∗ℓ [n] = 0 ∀n ∈ Z
∑
n
∑
k
ckgk[n]g∗ℓ [n] = 0 ⇒∑
k
ck∑
n
gk[n]g∗ℓ [n] = 0
∑
k 6=ℓ
ck∑
n
gk[n]g∗ℓ [n]
︸ ︷︷ ︸
=0
+cℓ∑
n
gℓ[n]g∗ℓ [n]
︸ ︷︷ ︸
>0
= 0 ⇒ cℓ = 0 ∀ℓ
⋄
Propriedade 4.4Representacao do Sinal em uma Base
Considere o sinal periodico x[n], de perıodo N , e uma base de dimensao N de sinais periodicos gk[n]ortogonais com perıodo N .
A representacao do sinal x[n] na base gk[n] e dada por
x[n] =∑
k
ckgk[n] , n ∈ Z
sendo
ck =< x[n]g∗k[n] >
< gk[n]g∗k[n] >
pois
∑
n∈N
x[n]g∗k[n] =∑
ℓ
cℓ∑
n∈N
gℓ[n]g∗k[n] = ck∑
n∈N
|gk[n]|2 ⇒ ck =
∑
n∈N
x[n]g∗k[n]
∑
n∈N
|gk[n]|2
⋄
Propriedade 4.5Teorema de Parseval2
Considere o sinal periodico x[n], de perıodo N , e uma base de dimensao N de sinais periodicos gk[n]ortogonais com perıodo N , tais que
x[n] =∑
k
ckgk[n]
Entao,
2Marc-Antoine Parseval des Chenes, matematico frances (1755–1836).
Bonatti, Lopes & Peres
45
∑
n∈N
|x[n]|2 =∑
k
|ck|2∑
n∈N
|gk[n]|2
Prova:
∑
n∈N
|x[n]|2 =∑
n∈N
x[n]∑
k
c∗kg∗k[n] =
∑
k
c∗k∑
n∈N
x[n]g∗k[n] =∑
k
c∗kck∑
n∈N
|gk[n]|2
⋄
Propriedade 4.6Serie exponencial de Fourier para sinais discretos periodicos
x[n] =∑
k∈N
ck exp(
jk2π
Nn)
com
ck =1
N
∑
n∈N
x[n] exp(
− jk2π
Nn)
pois, como calculado no Exemplo 4.5,
‖ exp(
jk2π
Nn)
‖2 = N , ∀k ∈ N
exp(
jk2π
Nn)∗
= exp(
− jk2π
Nn)
com coeficientes periodicos, de perıodo (no maximo) igual a N
ck+N = ck = c[k]
Notacao:
FSx[n]N = ckN ⇔ x[n] =∑
k∈N
ck exp(
jk2π
Nn)
, ck =1
N
∑
n∈N
x[n] exp(
− jk2π
Nn)
⋄
Propriedade 4.7Linearidade
FSα1x1[n] + α2x2[n]N = α1FSx1[n]N + α2FSx2[n]N
⋄
Bonatti, Lopes & Peres
46 Capıtulo 4. Serie de Fourier de Sinais Discretos
Propriedade 4.8Soma
FSx[n]N = ckN ⇒ c0 =1
N
∑
n∈N
x[n] , x[0] =∑
k∈N
ck
⋄
Propriedade 4.9Teorema de Parseval para serie exponencial de Fourier
FSx[n]N = ckN ⇒ 1
N
∑
n∈N
|x[n]|2 =∑
k∈N
|ck|2 (potencia media)
⋄
Exemplo 4.8A serie exponencial de Fourier de x[n] dado por
x[n] = sen(2π
5n)
pode ser obtida a partir do Teorema de Euler
x[n] = sen(2π
5n) = − 1
2jexp(−j 2π
5n) +
1
2jexp(j
2π
5n)
N = 5 , c−1 = − 1
2j, c1 =
1
2j, c0 = c2 = c3 = 0
c4 = c−1 = − 1
2j⇒ x[n] =
1
2jexp(j
2π
5n)− 1
2jexp(j4
2π
5n)
A potencia media e 1/4 + 1/4 = 1/2.
Exemplo 4.9A serie exponencial de Fourier de x[n] dado por
x[n] = sen(2π
5n) + cos(
π
5n)
pode ser obtida a partir do Teorema de Euler
x[n] = − 1
2jexp(−j 2π
5n) +
1
2jexp(j
2π
5n) +
1
2exp(j
2π
10n) +
1
2exp(−j 2π
10n)
= − 1
2jexp(−j22π
10n) +
1
2jexp(j2
2π
10n) +
1
2exp(j
2π
10n) +
1
2exp(−j 2π
10n)
N = 10 , c−2 = − 1
2j, c−1 =
1
2, c1 =
1
2, c2 =
1
2j
c8 = c−2 = − 1
2j, c9 = c−1 =
1
2, ci = 0 , i ∈ 0, 3, 4, 5, 6, 7
Bonatti, Lopes & Peres
47
x[n] = − 1
2jexp(j8
2π
10n) +
1
2jexp(j2
2π
10n) +
1
2exp(j
2π
10n) +
1
2exp(j9
2π
10n)
A potencia media e 1.
Exemplo 4.10A serie exponencial de Fourier de x[n] dado por
x[n] = 2 cos(2π
5n+
π
4)
pode ser obtida a partir do Teorema de Euler. Note que o perıodo e N = 5 e os coeficientes daserie sao
c1 = exp(jπ/4) , c−1 = c4 = exp(−jπ/4) , c0 = c2 = c3 = 0
A potencia media de x[n] e dada por
|c1|2 + |c4|2 = 2
Exemplo 4.11Considere um sinal discreto x[n] periodico, de perıodo N = 5, cujos coeficientes da primeira eterceira harmonicas da serie exponencial de Fourier do sinal sao, respectivamente, 1 e 4. Os demaiscoeficientes sao nulos.
Portanto,
x[n] = c1 exp(j2π
5n) + c3 exp(j3
2π
5n) , c1 = 1 , c3 = 4
x[0] = x[5] = 5 periodico, de perıodo N = 5
x[1] ≈ −2.93− j1.40 , x[2] ≈ 0.43 + j4.39 , x[3] ≈ 0.43− j4.39 , x[4] ≈ −2.93 + j1.40
O Teorema de Parseval pode ser verificado numericamente, pois
12 + 42 = 17 =1
5
( 4∑
n=0
|x[n]|2)
Bonatti, Lopes & Peres
48 Capıtulo 4. Serie de Fourier de Sinais Discretos
Exemplo 4.12Trem de impulsos
A serie de Fourier do trem periodico de impulsos
δN [n] =
+∞∑
ℓ=−∞
δ[n− ℓN ]
e dada por
ck =1
N
∑
n∈N
+∞∑
ℓ=−∞
δ[n− ℓN ] exp(−jk 2π
Nn) =
1
N
∑
n∈N
δ[n] exp(−jk 2π
Nn) =
1
N, k ∈ N
Portanto,
FSδN [n]N = 1
N
N,
+∞∑
k=−∞
δ[n− kN ] =1
N
∑
k∈N
exp(jk2π
Nn)
Observe que os coeficientes da serie sao constantes (isto e, o perıodo e 1 qualquer que seja N).
Exemplo 4.13Considere o sinal periodico, de perıodo N = 10, dado por
x[n] =
+∞∑
k=−∞
p[n− kN ] , p[n] = δ[n+ 1] + δ[n] + δ[n− 1]
Os coeficientes da serie de Fourier sao dados por
ck =1
10
5∑
n=−4
(
δ[n+ 1] + δ[n] + δ[n− 1])
exp(−jk 2π
10n)
=1
10
(
1 + exp(−jk 2π
10) + exp(jk
2π
10))
=1
10
(
1 + 2 cos(kπ
5))
c0 =3
10(valor medio) =
1
10
5∑
n=−4
p[n]
ck,k=0,...,9 ≈[
0.30 0.26 0.16 0.04 −0.06 −0.10 −0.06 0.04 0.16 0.26]
Note que
9∑
k=0
ck = x[0] = 1 ,1
10
9∑
n=0
|x[n]|2 =9∑
k=0
|ck|2 = 0.3
Bonatti, Lopes & Peres
49
Propriedade 4.10Complexo conjugado
FSx[n]N = ckN e y[n] = x∗[n] ⇒ FSy[n]N = c∗−kNpois
y[n] = x∗[n] =∑
k∈N
c∗k exp(
− jk2π
Nn)
=∑
k∈N
c∗−k exp(
jk2π
Nn)
⋄
Definicao: Funcao Par e Funcao Impar
x[n] = x[−n] e par , x[n] = −x[−n] e ımpar
Propriedade 4.11Sinais Pares e Impares
• Combinacoes lineares de sinais pares produzem sinais pares;
• Combinacoes lineares de sinais ımpares produzem sinais ımpares;
• O produto de funcao par por funcao ımpar e ımpar;
• O produto de funcao par por funcao par e par;
• O produto de funcao ımpar por funcao ımpar e par;
• x[n] par ⇒+∞∑
n=−∞
x[n] = x[0] + 2
+∞∑
n=1
x[n]
• x[n] ımpar ⇒+∞∑
n=−∞
x[n] = 0 , x[0] = 0
• xp[n] =1
2
(
x[n] + x[−n])
e par
• xi[n] =1
2
(
x[n]− x[−n])
e ımpar
• x[n] = xp[n] + xi[n] xp[n] e a parte par e xi[n] e a parte ımpar de x[n]
⋄
Exemplo 4.14O sinal
x[n] = −δ[n+ 1] + 2δ[n− 1] + δ[n− 2]
pode ser escrito como
x[n] = xp[n] + xi[n]
Bonatti, Lopes & Peres
50 Capıtulo 4. Serie de Fourier de Sinais Discretos
com
2xp[n] = δ[n+2]+δ[n+1]+δ[n−1]+δ[n−2] , 2xi[n] = −δ[n+2]−3δ[n+1]+3δ[n−1]+δ[n−2]
Propriedade 4.12
FSx[n]N = ckN e x[n] e real ⇔ c∗k = c−k
Prova:
Se x[n] e real, entao
c∗k =1
N
∑
n∈N
x[n] exp(
jk2π
Nn)
= c−k
Se c∗k = c−k, entao
x∗[n] =∑
k∈N
c−k exp(
− jk2π
Nn)
=∑
k∈N
ck exp(
jk2π
Nn)
= x[n] ⇒ x[n] e real
c∗k = c−k ⇒ |ck| = |c−k| (par) , ∠c∗k = −∠c−k (ımpar)
⋄
Propriedade 4.13Serie trigonometrica de Fourier para sinais discretos periodicos
Considere
FSx[n]N = ckN , x[n] e real
Entao, para N ımpar, N > 1, tem-se
x[n] = a0 +
(N−1)/2∑
k=1
ak cos(
k2π
Nn)
+
(N−1)/2∑
k=1
bksen(
k2π
Nn)
com
a0 = c0 , ak = ck + c−k , bk = j(ck − c−k)
pois, pela Propriedade 4.12, c∗k = c−k e
ck exp(
jk2π
Nn)
+ c−k exp(
− jk2π
Nn)
= (ck + c−k)︸ ︷︷ ︸
ak
cos(
k2π
Nn)
+ j(ck − c−k)︸ ︷︷ ︸
bk
sen(
k2π
Nn)
Para N par, N > 1,
Bonatti, Lopes & Peres
51
x[n] = a0 + aN/2(−1)n +
N/2−1∑
k=1
ak cos(
k2π
Nn)
+
N/2−1∑
k=1
bksen(
k2π
Nn)
com
a0 = c0 , aN/2 = cN/2 , ak = ck + c−k , bk = j(ck − c−k)
pois, para k = 0, 1, . . . , N/2− 1, vale o argumento do caso N ımpar. O coeficiente cN/2 e real, pois otermo
cN/2 exp(
jN
2
2π
Nn)
︸ ︷︷ ︸
(−1)n
somado aos demais termos tem que reproduzir x[n] real.
⋄
Propriedade 4.14
FSx[n]N = ckN e x[n] e real e par ⇒ ck = c∗k = c−k (real e par)
Prova:Se x[n] e real e par, entao
c∗k =1
N
∑
n∈N
x[n] exp(
jk2π
Nn)
=1
N
∑
n∈N
x[−n] exp(
jk2π
Nn)
=
=1
N
∑
n∈N
x[n] exp(
− jk2π
Nn)
= ck
Pela Propriedade 4.12,
c∗k = c−k = ck
Note que, neste caso, a serie trigonometrica nao possui termos em seno (bk = 0).
⋄
Exemplo 4.15A serie exponencial de Fourier do sinal x[n], real e par, dado por
x[n] = 2 cos(π
2n) , N = 4
e dada por
c1 = 1 , c−1 = c3 = 1 , c0 = c2 = 0 coeficientes reais
Outro sinal real e par e o do Exemplo 4.13.
Bonatti, Lopes & Peres
52 Capıtulo 4. Serie de Fourier de Sinais Discretos
Propriedade 4.15
FSx[n]N = ckN e x[n] e real e ımpar ⇒ c∗k = −ck = c−k (imaginario puro e ımpar)
Prova:
Se x[n] e real e ımpar, entao
c∗k =1
N
∑
n∈N
x[n] exp(
jk2π
Nn)
=1
N
∑
n∈N
−x[−n] exp(
jk2π
Nn)
=
= − 1
N
∑
n∈N
x[n] exp(
− jk2π
Nn)
= −ck
Pela Propriedade 4.12,
c∗k = c−k = −ck
Note que, neste caso, a serie trigonometrica nao possui termos em cosseno (ak = 0) e a0 = 0.
⋄
Exemplo 4.16Considere o sinal periodico e ımpar, de perıodo N = 5, dado por
x[n] =+∞∑
k=−∞
p[n− kN ] , p[n] = −δ[n+ 1] + δ[n− 1]
Os coeficientes da serie de Fourier sao dados por
ck =1
5
2∑
n=−2
(
− δ[n+ 1] + δ[n− 1])
exp(−jk 2π
5n)
=1
5
(
− exp(jk2π
5) + exp(−jk 2π
5))
=−2j
5
(
sen(k2π
5))
c0 = 0 (valor medio) =1
5
2∑
n=−2
p[n]
ck,k=0,...,4 ≈[
0 −0.38j −0.24j 0.24j 0.38j]
Note que os coeficientes sao imaginarios puros (pois o sinal e real e ımpar), como no caso doExemplo 4.8, e tambem que
4∑
k=0
ck = x[0] = 0 ,1
5
4∑
n=0
|x[n]|2 =
4∑
k=0
|ck|2 = 0.4
Bonatti, Lopes & Peres
53
Propriedade 4.16Deslocamento no tempo
FSx[n]N = ckN , m ∈ Z ⇒ FSx[n−m] = ck exp(−jk2π
Nm)N
pois
x[n−m] =∑
k∈N
ck exp(−jk2π
Nm) exp(jk
2π
Nn)
O deslocamento no tempo altera a fase (e nao o modulo) dos coeficientes da serie de Fourier. Comoconsequencia, nao altera a potencia media do sinal.
⋄
Propriedade 4.17Diferenca de primeira ordem
FSx[n]N = ckN e y[n] = x[n]−x[n− 1] ⇒ FSx[n]−x[n− 1] =(
1− exp(− jk2π
N
))
ck
N
⋄
Propriedade 4.18Soma
FSx[n]N = ckN e c0 = 0 ⇒ FSn∑
k=−∞
x[k] = ck
1− exp(−jk 2πN )
, k 6= 0
N
Prova:
O sinal y[n] e periodico, com perıodo N , pois
y[n] =n∑
k=−∞
x[k] ⇒ y[n+N ] =n∑
k=−∞
x[k] +∑
k∈N
x[k] = y[n]
Para k 6= 0, tem-se
FSy[n]N = dkN , x[n] = y[n]− y[n− 1] ⇒ ck = dk
(
1− exp(− jk2π
N
))
⇒ dk =ck
1− exp(−jk 2πN )
Para k = 0,
d0 =1
N
∑
n∈N
y[n]
⋄
Bonatti, Lopes & Peres
54 Capıtulo 4. Serie de Fourier de Sinais Discretos
Exemplo 4.17A serie de Fourier dos sinais periodicos, de perıodo N = 10,
x[n] =+∞∑
k=−∞
p[n− kN ] , p[n] = −δ[n+ 2] + δ[n+ 1] + δ[n− 1]− δ[n− 2]
y[n] =+∞∑
k=−∞
q[n− kN ] , q[n] = −δ[n+ 2] + δ[n− 1]
FSx[n]N = ckN , ck =1
10
(
− exp(jk2π/5)− exp(−jk2π/5) + exp(jkπ/5) + exp(−jkπ/5))
⇒ ck =1
5
(
cos(kπ/5)− cos(k2π/5))
x[n] real e par, ck real e par
ck,k=0,...,9 ≈[
0 0.10 0.22 0.10 −0.22 −0.40 −0.22 0.10 0.22 0.10]
c0 = 0 ,
9∑
k=0
ck = x[0] = 0 ,1
10
9∑
n=0
|x[n]|2 =
9∑
k=0
|ck|2 = 0.4
FSy[n]N = dkN , dk =1
10
(
− exp(jk2π/5) + exp(−jkπ/5))
dk,k=0,...,9 ≈[
0 0.05− 0.15j 0.11− 0.15j 0.05− 0.04j −0.11 + 0.04j
−0.20 −0.11− 0.04j 0.05 + 0.04j 0.11 + 0.15j 0.05 + 0.15j]
d0 = 0 ,
9∑
k=0
dk = y[0] = 0 ,1
10
9∑
n=0
|y[n]|2 =
9∑
k=0
|dk|2 = 0.2
Observe que
y[n] =n∑
k=−∞
x[k] , q[n] =n∑
k=−∞
p[k]
e, pela Propriedade 4.18,
ck = dk
(
1− exp(−jk 2π
N))
Propriedade 4.19Inversao no tempo
FSx[n]N = ckN e y[n] = x[−n] ⇒ FSy[n]N = dkN = c−kNpois
dk =1
N
∑
n∈N
y[n] exp(
− jk2π
Nn)
=1
N
∑
n∈N
x[−n] exp(
− jk2π
Nn)
=
Bonatti, Lopes & Peres
55
=1
N
∑
n∈N
x[n] exp(
jk2π
Nn)
=1
N
∑
n∈N
x[n] exp(
− j(−k)2πNn)
= c−k
⋄
Propriedade 4.20Expansao no tempo
FSx[n]N = ckN , m ∈ Z+ e y[n] =
x[n/m] , n/m ∈ Z
0 , n/m 6∈ Z
Entao,
FSy[n]N = 1
mckmN
Prova:
O perıodo de y[n] e mN , pois, para n/m ∈ Z tem-se
y[n+mN ] = x[(n+mN)/m] = x[n/m+N ] = x[n/m] = y[n]
e, para n/m nao inteiro, y[n+mN ] = y[n] = 0.
Os coeficientes dk, para k ∈ mN da serie de Fourier de y[n] sao
dk =1
mN
∑
ℓ∈mN
y[ℓ] exp(
− jk 2π
mNℓ)
=1
mN
∑
n∈N
x[n] exp(
− jk2π
Nn)
=1
mck
pois y[ℓ] = 0 para( ℓ
m
)
6∈ Z e y[ℓ = nm] = x[n].
Observe que o perıodo dos mN coeficientes dk e N (igual ao perıodo do sinal x[n]), ou seja, oscoeficientes dk sao obtidos por m repeticoes dos N coeficientes ck.
⋄
Exemplo 4.18Considere o sinal periodico de perıodo N = 6, dado por
y[n] =
+∞∑
k=−∞
p[n− kN ] , p[n] = 6δ[n] + 6δ[n− 2]
Os coeficientes da serie de Fourier sao dados por
dk =1
6
5∑
n=0
(
6δ[n] + 6δ[n− 2])
exp(−jk 2π
6n) = 1 + exp(−jk 2π
3)
d0 = 2 (valor medio) =1
6
5∑
n=0
p[n]
Bonatti, Lopes & Peres
56 Capıtulo 4. Serie de Fourier de Sinais Discretos
dk,k=0,...,5 ≈[
2 0.50− j0.87 0.50 + j0.87 2 0.50− j0.87 0.50 + j0.87]
5∑
k=0
dk = y[0] = 6 ,1
6
5∑
n=0
|y[n]|2 =
5∑
k=0
|dk|2 = 12
Considere o sinal periodico de perıodo N = 3, dado por
x[n] =+∞∑
k=−∞
p[n− kN ] , p[n] = 6δ[n] + 6δ[n− 1]
Os coeficientes da serie de Fourier sao dados por
ck =1
3
2∑
n=0
(
6δ[n] + 6δ[n− 1])
exp(−jk 2π
3n) = 2 + 2 exp(−jk 2π
3)
c0 = 4 (valor medio) =1
3
2∑
n=0
p[n]
ck,k=0,...,2 ≈[
4 1.00− j1.73 1.00 + j1.73]
2∑
k=0
ck = x[0] = 6 ,1
3
2∑
n=0
|x[n]|2 =
2∑
k=0
|ck|2 = 24
Note que y[n] e a expansao do sinal x[n] para m = 2, sendo portanto o perıodo de y[n] o dobrodo perıodo de x[n]. Pela Propriedade 4.20, os coeficientes da serie de y[n] sao obtidos da repeticao(duas vezes) dos coeficientes da serie de x[n] divididos por 2.
Definicao: Convolucao Periodica
A convolucao periodica de x[n] e y[n] (sinais periodicos de perıodo N) e dada por
x[n] ⊛ y[n] =∑
k∈N
x[k]y[n− k]
Exemplo 4.19Considere os sinais periodicos, com perıodo N = 3
x[n] =
+∞∑
k=−∞
p[n− kN ] , p[n] = δ[n+ 1] + δ[n− 1]
y[n] =
+∞∑
k=−∞
q[n− kN ] , q[n] = −δ[n+ 1] + δ[n− 1]
FSx[n]N = ckN , ck =1
3
(
exp(jk2π/3) + exp(−jk2π/3))
=2
3cos(k2π/3)
Bonatti, Lopes & Peres
57
ck,k=0,1,2 =[
2/3 −1/3 −1/3]
c0 = 2/3 ,2∑
k=0
ck = x[0] = 0 ,1
3
2∑
n=0
|x[n]|2 =2∑
k=0
|ck|2 = 2/3
FSy[n]N = dkN , dk =1
3
(
− exp(jk2π/3) + exp(−jk2π/3))
=2
3jsen(k2π/3)
dk,k=0,1,2 =[
0 −j/√
3 j/√
3]
d0 = 0 ,
2∑
k=0
dk = y[0] = 0 ,1
3
2∑
n=0
|y[n]|2 =
2∑
k=0
|dk|2 = 2/3
A convolucao periodica v[n] = x[n] ⊛ y[n] produz
v[n] = x[n] ⊛ y[n] =
2∑
k=0
x[k]y[n− k] = x[0]y[n] + x[1]y[n− 1] + x[2]y[n− 2] = δ3[n+ 1]− δ3[n− 1]
cujos coeficientes sao dados por ek = −dk, pois v[n] = −y[n].
Propriedade 4.21Convolucao Periodica
• A convolucao periodica produz funcoes periodicas, pois para
f [n] = x[n] ⊛ y[n] ⇒ f [n+N ] =∑
k∈N
x[k]y[n+N − k] =∑
k∈N
x[k]y[n− k] = f [n]
• A convolucao periodica e comutativa, associativa e distributiva em relacao a soma;
• O elemento neutro da convolucao periodica de perıodo N e o trem periodico de impulsos, dado por
δN [n] =
+∞∑
k=−∞
δ[n− kN ]
Prova:
x[n] ⊛ δN [n] =∑
k∈N
x[k]δN [n− k] , δN [n− k] =+∞∑
ℓ=−∞
δ[n− k − ℓN ]
⇒∑
k∈N
+∞∑
ℓ=−∞
x[k]δ[n− k − ℓN ] = x[n]
pois
δ[n− k − ℓN ] = 1 com n, k ∈ 0, . . . , N − 1 ⇒ n = k , ℓ = 0
⋄
Bonatti, Lopes & Peres
58 Capıtulo 4. Serie de Fourier de Sinais Discretos
Propriedade 4.22Convolucao Periodica
FSx[n]N = ckN , FSy[n]N = dkNEntao,
FSx[n] ⊛ y[n]N = NckdkNpois
1
N
∑
n∈N
(x[n] ⊛ y[n]) exp(−jk2π
Nn) =
∑
ℓ∈N
x[ℓ]1
N
∑
n∈N
y[n− ℓ] exp(−jk2π
Nn) =
=∑
ℓ∈N
x[ℓ] exp(−jk2π
Nℓ)
1
N
∑
m∈N
y[m] exp(−jk2π
Nm)
︸ ︷︷ ︸
dk
= Nckdk
⋄
Exemplo 4.20Retomando o Exemplo 4.19, com os coeficientes
ck,k=0,1,2 =[
2/3 −1/3 −1/3]
, dk,k=0,1,2 =[
0 −j/√
3 j/√
3]
tem-se
ek = Nckdk = −dk =[
0 j/√
3 −j/√
3]
⇒ v[n] =−2√
3sen(2πn/3) = δ3[n+ 1]− δ3[n− 1]
Observe que
p[n] ∗ q[n] = −δ[n+ 2] + δ[n− 2] 6= x[n] ⊛ y[n]
Propriedade 4.23Multiplicacao no Tempo
FSx[n]N = ckN , FSy[n]N = dkNEntao,
FSx[n]y[n]N = ck ⊛ dkN
Prova:
Denominando ek os coeficientes da serie associada ao produto, tem-se
Bonatti, Lopes & Peres
59
ek =1
N
∑
n∈N
x[n]y[n] exp(−jk2π
Nn) =
1
N
∑
n∈N
x[n]∑
ℓ∈N
dℓ exp(jn2π
Nℓ) exp(−jk2π
Nn)
=∑
ℓ∈N
dℓ1
N
∑
n∈N
x[n] exp(−j(k − ℓ)2πNn)
︸ ︷︷ ︸
ck−ℓ
=∑
ℓ∈N
dℓck−ℓ = ck ⊛ dk
⋄
Exemplo 4.21Considere os sinais periodicos do Exemplo 4.19, com perıodo N = 3
x[n] =+∞∑
k=−∞
p[n− kN ] , p[n] = δ[n+ 1] + δ[n− 1]
y[n] =
+∞∑
k=−∞
q[n− kN ] , q[n] = −δ[n+ 1] + δ[n− 1]
FSx[n]N = ckN , ck =2
3cos(k2π/3) , ck,k=0,1,2 =
[2/3 −1/3 −1/3
]
FSy[n]N = dkN , dk =2
3jsen(k2π/3) , dk,k=0,1,2 =
[0 −j/
√3 j/
√3]
Seja
v[n] = x[n]y[n] = y[n] ⇒ FSv[n]N = ekN , ek =2
3jsen(k2π/3)
que e a convolucao periodica de c[k] ⊛ d[k].
Propriedade 4.24Deslocamento na Frequencia
FSx[n]N = ckN , m ∈ Z ⇒ FSy[n] = x[n] exp(jm2π
Nn) = ck−mN
pois
dk =1
N
∑
n∈N
y[n] exp(−jk2π
Nn) =
1
N
∑
n∈N
x[n] exp(jm2π
Nn) exp(−jk2π
Nn) = ck−m
O deslocamento na frequencia provoca um deslocamento cıclico nos coeficientes da serie, e portantonao altera a potencia media do sinal.
⋄
Bonatti, Lopes & Peres
Capıtulo 5
Equacoes a Diferencas
Definicao: Equacoes a Diferencas
Equacoes envolvendo sequencias enumeraveis e seus deslocamentos sao denominadas equacoes a dife-rencas.
Exemplo 5.1Filtro passa-alta
y[n] =x[n]− x[n− 1]
2, n ∈ Z
Para a entrada x[n] = (−1)n, a saıda e y[n] = (−1)n. Para x[n] = 1n, tem-se y[n] = 0.
Exemplo 5.2Filtro passa-baixa
y[n] =x[n] + x[n− 1]
2, n ∈ Z
Para x[n] = (−1)n, a saıda e y[n] = 0. Para x[n] = 1n, tem-se y[n] = 1n.
Exemplo 5.3Populacao anual de peixes em um lago (em termos percentuais)
y[n+ 1]− ay[n](1− y[n]) = x[n] , 0 ≤ y[0] ≤ 1
sendo a um parametro real que representa as condicoes ambientais do lago.
Equacoes a diferencas lineares descrevem sistemas lineares, isto e, sistemas para os quais vale oprincıpio da superposicao. Os sistemas descritos nos exemplos 5.1 e 5.2 sao lineares, enquanto que oExemplo 5.3 descreve um sistema nao-linear.
60
61
Equacoes a diferencas lineares com coeficientes constantes e condicoes iniciais nulas descrevem sistemaslineares invariantes no tempo.
Exemplo 5.4Somador
y[n] =n∑
k=−∞
x[k]
A resposta ao impulso e
h[n] =
n∑
k=−∞
δ[k] = u[n] =
1 , n ≥ 00 , n < 0
sendo u[n] a funcao degrau. Note que o somador pode ser descrito pela equacao a diferencas deprimeira ordem
y[n+ 1] = y[n] + x[n+ 1] , y[0] = y0 condicao inicial
Utilizando o operador de deslocamento p, tem-se
(p− 1)y[n] = px[n]
As equacoes a diferencas resultantes para x[n] = ρn, x[n] = n e x[n] = nρn sao tratadas nosexemplos 5.10, 5.11 e 5.12.
Equacoes a diferencas lineares a coeficientes constantes podem ser resolvidas por substituicao sis-tematica, por meio da transformada Z ou pelo metodo dos coeficientes a determinar.
Exemplo 5.5A equacao homogenea a diferencas de primeira ordem
y[n+ 1] = ρy[n] , y[0] = 1, ρ ∈ R
pode ser resolvida por substituicao sistematica, resultando em
y[n] = ρn
e vale para todo n, de −∞ a +∞. Observe que a sequencia y[n] nao possui transformada Z, pois
Zy[n] =
+∞∑
k=−∞
y[k]z−k =
+∞∑
k=−∞
(ρ/z)k
nao converge para nenhum z.
O artifıcio utilizado para resolver essa classe de equacoes a diferencas utilizando transformada Zconsiste em alterar o problema impondo que
y[n] = 0 para n < 0
Bonatti, Lopes & Peres
62 Capıtulo 5. Equacoes a Diferencas
e que y[n] satisfaz a equacao para n ≥ 0. Dessa forma, Zy[n]u[n] existe e e dada por
Zy[n]u[n] =
+∞∑
k=−∞
y[k]u[k]z−k =
+∞∑
k=0
(ρ/z)k =z
z − ρ , |z| > |ρ|
Resolucao de Equacoes a Diferencas por meio da Transformada Z
Tres propriedades da transformada Z sao relevantes para a resolucao das equacoes a diferencas linearesa coeficientes constantes.
Propriedade 5.1Deslocamento
Zx[n+m]u[n] = zmZx[n]u[n] −m−1∑
k=0
x[k]zm−k , m ∈ Z+
⋄
Exemplo 5.6Para y[n] = y[n]u[n] e x[n] = x[n]u[n], tem-se
y[n+ 2] + α1y[n+ 1] + α0y[n] = β1x[n+ 1] + β0x[n]
z2Y (z)− z2y[0]− zy[1] + α1(zY (z)− zy[0]) + α0Y (z) = β1(zX(z)− zx[0]) + β0X(z)
(z2 + α1z + α0)Y (z) = (β1z + β0)X(z) + (z2 + α1z)y[0] + zy[1]− β1zx[0]
A funcao de transferencia H(z) e dada por (y[0] = y[1] = 0 e x[0] = 0)
H(z) =Y (z)
X(z)=
β1z + β0
z2 + α1z + α0
Propriedade 5.2Combinatoria
Z(
n+mm
)
anu[n]
=z(m+1)
(z − a)(m+1), m ∈ N , |z| > |a|
⋄
Exemplo 5.7
Znanu[n]
=
z2
(z − a)2 −z
z − a =az
(z − a)2 , |z| > |a|
pois
Bonatti, Lopes & Peres
63
Z(
n0
)
anu[n]
= Z anu[n] =z
z − a
Z(
n+ 11
)
anu[n]
= Z (n+ 1)anu[n] =z2
(z − a)2
Exemplo 5.8
Zn2anu[n]
=az2 + a2z
(z − a)3 , |z| > |a|
pois
Z(
n+ 22
)
anu[n]
= Z
(n+ 2)(n+ 1)
2anu[n]
=z3
(z − a)3
Propriedade 5.3Combinatoria com Deslocamento
Z(
nm
)
an−mu[n]
=z
(z − a)m+1, m ∈ N , |z| > |a|
O resultado pode ser demonstrado pela aplicacao da propriedade de deslocamento de m a direita naPropriedade 5.2, que implica na multiplicacao por z−m. Observe que
(nm
)
u[n−m] =n(n− 1) · · · (n−m+ 1)
m!u[n−m] =
(nm
)
u[n]
A propriedade e utilizada no calculo de transformada Z inversa a partir de fracoes parciais.
⋄
Exemplo 5.9Progressao geometrica
y[n+ 1] = ρy[n] , y[0] = 1 , ρ > 0
Aplicando a transformada Z, tem-se
Zy[n+ 1]u[n] = ρZy[n]u[n] ⇒ Y (z) =z
z − ρ
O domınio e Ω = z ∈ C, |z| > ρ (serie a direita).
Fazendo a divisao de polinomios (algoritmo de Briot-Ruffini1), obtem-se a serie
1Charles Auguste Briot, frances do seculo XIX e Paolo Ruffini, italiano do seculo XVIII.
Bonatti, Lopes & Peres
64 Capıtulo 5. Equacoes a Diferencas
z
z − ρ = 1 + ρz−1 + ρ2z−2 + · · ·
Comparando-se com a definicao da transformada Z de ρnu[n], obtem-se a transformada inversa
y[n] = Z−1
z
z − ρ
= ρnu[n]
O mesmo resultado poderia ser obtido pela aplicacao da Propriedade 5.3 (combinatoria com deslo-camento) para m = 0.
Exemplo 5.10Soma geometrica
A soma geometrica
y[n] =n∑
k=0
ρk
pode ser obtida pela resolucao da equacao a diferencas
y[n+ 1]− y[n] = ρn+1 , y[0] = 1
zY (z)− zy[0]− Y (z) =ρz
z − ρ
Portanto, para ρ 6= 1, tem-se
Y (z) =z2
(z − ρ)(z − 1), |z| > max|ρ|, 1
Y (z)
z=
z
(z − ρ)(z − 1)=
a
z − ρ +b
z − 1
a = − ρ
1− ρ , b =1
1− ρ
Usando a Propriedade 5.3 (combinatoria com deslocamento), tem-se
y[n] = aρnu[n] + bu[n] =1− ρn+1
1− ρ u[n]
Esse resultado tambem pode ser obtido da definicao de y[n], observando-se que
y[n]− ρy[n] =
n∑
k=0
ρk − ρn∑
k=0
ρk = 1− ρn+1 ⇒ y[n] =1− ρn+1
1− ρ
Para ρ = 1, tem-se
Bonatti, Lopes & Peres
65
Y (z) =z2
(z − 1)2
Y (z)
z=
z
(z − 1)2=
a
(z − 1)+
b
(z − 1)2⇒ a = 1 , b = 1
y[n] = (1 + n)u[n] =
n∑
k=0
1
O mesmo resultado pode ser obtido aplicando a regra de l’Hopital2 na expressao de y[n]
y[n] = limρ→1
1− ρn+1
1− ρ = limρ→1
−(n+ 1)ρn
−1= n+ 1
Exemplo 5.11Soma aritmetica
A soma aritmetica
y[n] =n∑
k=0
k
pode ser obtida pela resolucao da equacao a diferencas
y[n+ 1]− y[n] = n+ 1 , y[0] = 0
Aplicando transformada Z e a Propriedade 5.2 com m = 1, tem-se
zY (z)− zy[0]− Y (z) = Z(n+ 1)u[n] =z2
(z − 1)2
Y (z)
z=
z
(z − 1)3=
a1
z − 1+
a2
(z − 1)2+
a3
(z − 1)3⇒ a1 = 0, a2 = 1, a3 = 1
E, pela Propriedade 5.3,
y[n] =
(n1
)
u[n] +
(n2
)
u[n] =n(n+ 1)
2u[n]
Observe que esse resultado pode ser obtido somando-se membro a membro a sequencia 0, 1, 2, . . . , nnos sentidos direto e reverso e constatando-se que a soma consiste de n+1 termos de valor constanten. Portanto a soma total produz 2y[n] = n(n+ 1).
2Guillaume De l’Hopital, matematico frances do seculo XVII.
Bonatti, Lopes & Peres
66 Capıtulo 5. Equacoes a Diferencas
Exemplo 5.12Soma aritmetica-geometrica
A soma aritmetica-geometrica
y[n] =
n∑
k=0
kρk
pode ser obtida pela resolucao da equacao a diferencas
y[n+ 1]− y[n] = (n+ 1)ρn+1 , y[0] = 0
zY (z)− zy[0]− Y (z) =ρz2
(z − ρ)2
Portanto, para ρ 6= 1, tem-se
Y (z) =ρz2
(z − 1)(z − ρ)2 , |z| > max|ρ|, 1
Y (z)
z=
ρz
(z − 1)(z − ρ)2 =a
z − 1+
b
z − ρ +c
(z − ρ)2
cujos coeficientes sao
a =ρ
(1− ρ)2 , b =−ρ
(1− ρ)2 , c =−ρ2
(1− ρ)
Portanto,
y[n] = au[n] + bρnu[n] + c
(n1
)
ρn−1u[n] =
=(a+ bρn + cnρn−1
)u[n] =
ρ
(1− ρ)2(1− (n+ 1)ρn + nρn+1
)u[n]
Para ρ = 1, o problema se reduz ao de soma aritmetica.
Exemplo 5.13Sequencia de Fibonacci
A sequencia de Fibonacci3 e uma sequencia de numeros inteiros em que cada elemento e obtido pelasoma dos dois anteriores. A equacao descreve uma populacao de casais de coelhos, composta decasais adultos e filhotes. Cada casal adulto gera um casal de filhotes todo mes, e o casal de filhotestorna-se fertil (adulto) com dois meses de vida. No mes n, a[n] e o numero de casais adultos e f [n]e o numero de casais de filhotes com um mes de vida. Supondo que nao ocorram mortes, tem-se
a[n+ 1] = a[n] + f [n] , f [n+ 1] = a[n]
Denominando y[n] qualquer uma das variaveis de estado, obtem-se a equacao a diferencas
3Leonardo Pisano Fibonacci, matematico italiano do seculo XII.
Bonatti, Lopes & Peres
67
y[n+ 2] = y[n+ 1] + y[n] , y[0] = 0, y[1] = 1
Usando o operador p, tem-se
D(p)y[n] = (p2 − p− 1)y[n] = 0
sendo D(p) o polinomio caracterıstico da equacao a diferencas. Aplicando a transformada Z, tem-se
z2(Y (z)− y[0]− y[1]z−1) = z(Y (z)− y[0]) + Y (z) ⇒ Y (z) =z
z2 − z − 1
As raızes do denominador (ou seja, raızes de D(p) = 0) sao
λ1 =1 +√
5
2≈ 1.618 , λ2 =
1−√
5
2≈ −0.618
Y (z)
z=
1
(z − λ1)(z − λ2)=
a1
z − λ1+
a2
z − λ2
cujos coeficientes sao
a1 =1
λ1 − λ2=
√5
5≈ 0.447 , a2 =
1
λ2 − λ1=−√
5
5
resultando em
y[n] =(a1λ
n1 + a2λ
n2
)u[n] ≈ a1λ
n1u[n] para n grande, pois |λ2| < 1
Curiosidades sobre a sequencia de Fibonacci
A raiz caracterıstica
ϕ =1 +√
5
2≈ 1.618
chamada na literatura de razao aurea, possui varias interpretacoes interessantes, algumas de valorestetico. A Figura 5.1, composta por retangulos, foi construıda a partir do retangulo do canto superioresquerdo, de base 1 e altura ϕ. Copiando, rodando de 90 graus a direita, colocando ao lado do primeiroe completando, tem-se um retangulo de base 1 + ϕ e altura ϕ. Observe que e preservada a relacao
ϕ
1=
1 + ϕ
ϕ⇒ ϕ2 = ϕ+ 1
ou seja, ϕ satisfaz a equacao caracterıstica de Fibonacci.
Essa mesma relacao aparece em varias construcoes arquitetonicas, como por exemplo na Grecia antiga.A Figura 5.1 mostra mais uma iteracao, resultando no retangulo de base 1 + ϕ e altura 1 + 2ϕ, quepreserva a relacao, pois
1 + 2ϕ
1 + ϕ=ϕ
1
O processo pode ser repetido indefinidamente.
Bonatti, Lopes & Peres
68 Capıtulo 5. Equacoes a Diferencas
1
ϕ
Figura 5.1: Relacoes aureas em retangulos.
Note que ϕ pode ser escrito nas formas
ϕ =
√
1 +
√
1 +
√
1 +√
1 + · · · = 1 +1
1 +1
1 +1
1 + · · ·pois
ϕ =√
1 + ϕ = 1 +1
ϕ
Exemplo 5.14Tabela Price
Determine o valor mensal da dıvida y[n] de um emprestimo inicial de valor M , com pagamentomensal constante igual a γ e juros mensais percentuais α para que a dıvida seja liquidada em mmeses. Esse problema e conhecido como calculo da tabela Price.4
y[n+ 1] = y[n](1 + α)− γ , y[0] = M
zY (z)− zM = Y (z)(1 + α)− γz
z − 1
Y (z)
z=
zM −M − γ(z − (1 + α))(z − 1)
=a1
z − (1 + α)+
a2
z − 1
cujos coeficientes sao
a1 =Mα− γ
α, a2 =
γ
α
Portanto,
4Richard Price, ingles do seculo XVIII.
Bonatti, Lopes & Peres
69
y[n] = (a1(1 + α)n + a2)u[n]
Observe que a dıvida permanece igual a M se apenas os juros forem pagos todo mes, ou seja,Mα = γ (situacao ideal para o credor). Obviamente, a situacao ideal para o devedor seria M = 0.
A solucao do problema, isto e, o valor de γ que produz y[m] = 0, e
γ =Mα(1 + α)m
(1 + α)m − 1
Para α = 0, por l’Hopital, obtem-se γ = M/m.
Exemplo 5.15Considere a equacao a diferencas
y[n+ 2]− 3y[n+ 1] + 2y[n] = 1 y[0] = 0, y[1] = 0
Y (z)
z=
1
(z − 1)2(z − 2)=
1
z − 2− 1
z − 1− 1
(z − 1)2
y[n] = (2n − 1− n)u[n]
Exemplo 5.16Fila M/M/1
Considere uma fila com buffer infinito, com chegadas poissonianas de taxa media λ e servidorexponencial de taxa µ, sendo y[n] a probabilidade de haver n elementos no sistema. O equilıbrioestatıstico impoe
λy[n] = µy[n+ 1] , n ∈ [0,+∞)
com a condicao de contorno
+∞∑
n=0
y[n] = 1.
Para resolver, supoe-se a condicao inicial y[0] conhecida e aplica-se a transformada Z.
Z
y[n+ 1]− ρy[n] = 0
, ρ = λ/µ ⇒ Y (z)(z − ρ) = zy[0] ⇒ Y (z) =z
z − ρy[0]
⇒ y[n] = y[0]ρnu[n]
Substituindo na condicao de contorno, obtem-se
y[0]+∞∑
n=0
ρn = 1
que so possui solucao se ρ < 1 (taxa de servico µ maior do que a taxa de chegada λ). Nesse caso,
Bonatti, Lopes & Peres
70 Capıtulo 5. Equacoes a Diferencas
+∞∑
n=0
ρn =1
1− ρ ⇒ y[0] = 1− ρ
e, portanto,
y[n] = (1− ρ)ρnu[n]
Observe que, como y[0] e a probabilidade do sistema estar vazio, ρ e a probabilidade do sistemaestar ocupado.
Observe ainda que
Y (z) =z
z − ρ (1− ρ) ⇒ Y (z)∣∣∣z=1
=+∞∑
k=0
y[k] = 1
o que ocorre sempre que y[n] representa uma distribucao de probabilidade.
O calculo do numero medio de elementos na fila pode ser feito por meio da transformada Z de y[n].
EY =
+∞∑
n=0
ny[n] =
(
−z ddz
)
Y (z)∣∣∣z=1
que resulta em
EY =ρ
1− ρ
indicando que o numero medio de elementos na fila tende para infinito quando ρ tende para 1.
Frequentemente, equacoes a diferencas de primeira ordem podem (e devem) ser resolvidas por substi-tuicao sistematica, como no caso dos exemplos 5.9 (progressao geometrica) e 5.16 (fila M/M/1).
Exemplo 5.17Fila com desestımulo (sistema variante no tempo)
Considere uma fila M/M/1, como no Exemplo 5.16, mas com taxa media de chegada que diminuicom o tamanho da fila. Em particular, considere a taxa de chegada λ/(n + 1). O equilıbrioestatıstico impoe
µy[n+ 1] =λ
n+ 1y[n] ⇒ (n+ 1)y[n+ 1] = ρy[n] , ρ =
λ
µ
com a condicao de contorno
+∞∑
n=0
y[n] = 1.
Observe que trata-se de uma equacao a diferencas com coeficientes que variam com n, e que portantonao pode ser resolvida atraves da transformada Z. No entanto, pode ser resolvida por substituicaosistematica.
y[1] = ρy[0] , y[2] =ρ
2y[1] =
ρ2
2!y[0] , . . . , y[n] =
ρn
n!y[0]
Portanto, da condicao de contorno
Bonatti, Lopes & Peres
71
y[0]
+∞∑
n=0
ρn
n!= y[0] exp(ρ) = 1 ⇒ y[0] = exp(−ρ)
Assim, a solucao e a distribuicao de Poisson5
y[n] =ρn
n!exp(−ρ)u[n]
Observe que a fila atinge o equilıbrio estatıstico mesmo para valores de ρ maiores do que um. Onumero medio de elementos na fila pode ser obtido pela transformada Z de y[n].
EY =
+∞∑
n=0
ny[n] =
(
−z ddz
)
Y (z)∣∣∣z=1
Y (z) =
+∞∑
n=0
ρn
n!exp(−ρ)z−n = exp
(ρ(z−1 − 1)
)⇒ EY = ρ
Observe que, diferentemente do Exemplo 5.16 (fila M/M/1), o numero medio de elementos na filae sempre finito e igual a ρ. Para valores pequenos de ρ, os numeros medios das duas filas saoproximos.
Exemplo 5.18Resposta ao impulso
A resposta ao impulso do sistema (pressupoe condicoes iniciais nulas)
y[n+ 1]− ρy[n] = δ[n] ⇒ (p− ρ)y[n] = δ[n] , y[0] = 0
pode ser obtida pela transformada Z, isto e,
Y (z) =1
z − ρ ⇒ Y (z)
z=
1
z(z − ρ) =−1/ρ
z+
1/ρ
z − ρe, portanto,
y[n] = (−1/ρ)δ[n] + (1/ρ)ρnu[n] = ρn−1u[n− 1]
Exemplo 5.19Resposta ao degrau
A resposta ao degrau do sistema, para ρ 6= 1, (pressupoe condicoes iniciais nulas)
y[n+ 1]− ρy[n] = u[n] ⇒ (p− ρ)y[n] = u[n] , y[0] = 0
pode ser obtida pela transformada Z, isto e,
Y (z) =z
(z − ρ)(z − 1)⇒ Y (z)
z=
1
(z − ρ)(z − 1)=
a
(z − ρ) +b
z − 1
5Simeon Denis Poisson, matematico frances do seculo XIX.
Bonatti, Lopes & Peres
72 Capıtulo 5. Equacoes a Diferencas
−a = b =1
1− ρ
e, portanto,
y[n] =1− ρn
1− ρ
Note que, como
u[n] =
n∑
k=−∞
δ[k]
tem-se que a solucao y[n] e a soma ate n da resposta ao impulso do Exercıcio 5.18, isto e,
y[n] =
(n∑
k=−∞
ρk−1u[k − 1]
)
u[n] =
(n−1∑
ℓ=0
ρℓ
)
=1− ρn
1− ρ
Alem disso, como
δ[n] = u[n]− u[n− 1]
tem-se que a solucao do Exercıcio 5.18 pode ser escrita como
y[n]− y[n− 1] = ρn−1u[n− 1]
Resolucao de Equacoes a Diferencas pelo Metodo dos Coeficientes a Determinar
Equacoes a diferencas lineares com coeficientes constantes podem ser resolvidas pelo metodo doscoeficientes a determinar.
Considere a equacao a diferencas homogenea
D(p)y[n] = 0 , D(p) =m∑
k=0
αkpk (5.1)
com αm = 1 e condicoes iniciais conhecidas, que descreve um sistema linear autonomo.
Observe que a equacao e uma restricao linear (combinacao linear das funcoes y[n], y[n + 1], . . . ,y[n+m]) e portanto a solucao y[n] deve necessariamente estar em um espaco de dimensao m.
Definicao: Independencia Linear
Um conjunto de sinais yk[n], k = 1, . . . ,m e linearmente independente se e somente se
m∑
k=1
ckyk[n] = 0 , ∀n ⇒ ck = 0 , k = 1, . . . ,m
Definicao: Base
Bonatti, Lopes & Peres
73
A combinacao linear de um conjunto de m sinais yk[n], isto e,
y[n] =m∑
k=1
ckyk[n]
com escalares ck ∈ C gera um espaco linear, cuja dimensao e dada pelo numero r ≤ m de sinaislinearmente independentes. Qualquer conjunto de r sinais que gere o mesmo espaco e uma base paraesse espaco.
Exemplo 5.20Os sinais
y1[n] = 1, y2[n] = n, y3[n] = n2
sao linearmente independentes.
c1y1[n] + c2y2[n] + c3y3[n] = 0 ⇒ c1 = c2 = c3 = 0, pois det
1 0 01 1 11 2 4
= 2 6= 0
Propriedade 5.4Independencia Linear
y1[n] = λn1 , y2[n] = λn
2
sao linearmente independentes se e somente se
λ1 6= λ2
pois a1λn1 + a2λ
n2 = 0 implica
a1 + a2 = 0a1λ1 + a2λ2 = 0
⇒ a1 = a2 = 0
⋄
Propriedade 5.5As funcoes
y1[n] = λn , y2[n] = y1[n+ k]
sao linearmente dependentes, pois
y2[n] = λkλn
⋄
Bonatti, Lopes & Peres
74 Capıtulo 5. Equacoes a Diferencas
Propriedade 5.6A sequencia y[n] = λn e solucao da equacao (5.1) se λ e raiz de D(λ) = 0 (equacao caracterıstica),pois
D(p)λn = D(λ)λn = 0
Observe que a solucao e valida para todo n ∈ Z.
⋄
Exemplo 5.21Para D(p) = p2 − p− 1, tem-se
D(p)λn = (p2 − p− 1)λn = λn+2 − λn+1 − λn = (λ2 − λ− 1)λn
Propriedade 5.7Se as m raızes λk de D(λ) = 0 forem distintas, entao
y[n] =m∑
k=1
akλnk
e solucao da equacao (5.1) pois λk satisfaz D(λk) = 0, k = 1, . . . ,m e os modos proprios λnk , k =
1, . . . ,m sao linearmente independentes.
⋄
Propriedade 5.8Raiz DuplaSe λ e raiz dupla da equacao caracterıstica D(λ) = 0, entao λn e nλn sao modos proprios da equacao(5.1).
Prova:
D(p)(nλn) =m∑
k=0
αkpk(nλn) =
m∑
k=0
αk(n+ k)λn+k =
= nλnm∑
k=0
αkλk + λn+1
m∑
k=0
αkkλk−1 = nλnD(λ) + λn+1 d
dpD(p)
∣∣∣p=λ
= 0
pois D(λ) = 0 ed
dpD(p)
∣∣∣p=λ
= 0 quando λ e raiz dupla de D(λ).
⋄
Exemplo 5.22Para D(p) = (p− λ)2, tem-se
(p− λ)2λn = 0
e, alem disso,
Bonatti, Lopes & Peres
75
(p− λ)2nλn = (p2 − 2λp+ λ2)nλn = (n+ 2)λn+2 − 2λ(n+ 1)λn+1 + λ2nλn =
=(λ2 − 2λ2 + λ2
)nλn + 2(λ− λ)λn+1 = 0
Propriedade 5.9Raiz Multipla
Se λ e raiz de multiplicidade r de D(λ), entao λn, nλn, . . . , nr−1λn sao modos proprios da equacao(5.1).
⋄
Propriedade 5.10A solucao da equacao homogenea (5.1) de ordem m e dada pela combinacao linear dos seus m modosproprios, considerando as eventuais multiplicidades das raızes caracterısticas.
⋄
Exemplo 5.23Considere a equacao a diferencas do Exemplo 5.9
D(p)y[n] = (p− ρ)y[n] = 0 , y[0] = 1
A raiz da equacao caracterıstica e λ = ρ, e portanto
y[n] = aρn
sendo a o coeficiente a determinar. Das condicoes iniciais, a = y[0] = 1.
Exemplo 5.24Considere a equacao a diferencas do Exemplo 5.13 (Fibonacci)
D(p)y[n] = (p2 − p− 1)y[n] = 0 = (p− λ1)(p− λ2)y[n] = 0 , y[0] = 0 , y[1] = 1
λ1 =1 +√
5
2, λ2 =
1−√
5
2
A equacao caracterıstica e D(λ) = (λ− λ1)(λ− λ2) = 0. A solucao e dada por
y[n] = a1λn1 + a2λ
n2
Das condicoes iniciais, a1 =
√5
5, a2 =
−√
5
5
Bonatti, Lopes & Peres
76 Capıtulo 5. Equacoes a Diferencas
Exemplo 5.25Considere a equacao a diferencas, com ρ 6= 1,
D(p)y[n] = (p− 1)(p− ρ)y[n] = 0 , y[0] = 1 , y[1] = 1 + ρ
A solucao e
y[n] = a1(1)n + a2ρn =
1− ρn+1
1− ρ
Exemplo 5.26Considere a equacao a diferencas
D(p)y[n] = (p− 1)3y[n] = 0 , y[0] = 0 , y[1] = 1 , y[2] = 3
com λ = 1 raiz tripla da equacao caracterıstica. A solucao e
y[n] = a1(1)n + a2n(1)n + a3n2(1)n =
n(n+ 1)
2
Exemplo 5.27Considere a equacao a diferencas, com ρ 6= 1,
D(p)y[n] = (p− 1)(p− ρ)2y[n] = 0 , y[0] = 0 , y[1] = ρ , y[2] = ρ+ 2ρ2
A solucao e
y[n] = a1(1)n + a2ρn + a3nρ
n =ρ
(1− ρ)2 (1− ρn)− ρ
1− ρnρn
Exemplo 5.28Considere a equacao a diferencas, com α 6= 0,
D(p)y[n] = (p− 1)(p− (1 + α))y[n] = 0 , y[0] = M , y[1] = M(1 + α)− γ
A solucao e
y[n] = a1(1)n + a2(1 + α)n =γ
α+(
M − γ
α
)
(1 + α)n
Bonatti, Lopes & Peres
77
Exemplo 5.29Considere o sistema modal descrito pelas equacoes a diferencas
v1[n+ 1] = αv1[n]− βv2[n] , v2[n+ 1] = αv2[n] + βv1[n] , α > 0 , β > 0
O polinomio caracterıstico de segunda ordem (associado a v1[n] ou a v2[n]) e
D(p) = p2 − 2αp+ α2 + β2 ⇒ λ∗2 = λ1 = ρ exp(jθ) = α+ jβ , ρ > 0
e a solucao e dada por
a1λn1 + a2λ
n2 , a∗2 = a1 =
A
2exp(jφ)
com a1, a2 (ou A e φ) determinados pela condicao iniciais.
Note que a solucao pode ser reescrita como
Aρn cos(θn+ φ)
e, portanto, diverge para ρ > 1 (comportamento instavel). Pode ser tambem observado que, mesmopara α < 1 (subsistemas desacoplados estaveis), o valor de β pode instabilizar o sistema.
Considere a equacao a diferencas nao homogenea
D(p)y[n] = N(p)x[n] , D(p) =m∑
k=0
αkpk , N(p) =
ℓ∑
k=0
βkpk (5.2)
com αm = 1 e condicoes iniciais conhecidas, que descreve um sistema linear nao autonomo.
A equacao (5.2) pode ser resolvida pelo metodo dos coeficientes a determinar sempre que x[n] forsolucao de uma equacao diferencial homogenea dada por
D(p)x[n] = 0
O polinomio D(p) define os modos do espaco que contem x[n]. Portanto, multiplicando a equacao (5.2)dos dois lados por D(p), tem-se a equacao homogenea
D(p)D(p)y[n] = N(p)D(p)x[n] = 0
que contem os modos proprios de D(p) e os modos forcados de D(p).
As condicoes iniciais que permitem a solucao desse sistema aumentado sao as originais acrescidas detantas quanto for o grau de D(p), obtidas por substituicao sistematica na equacao (5.2).
Exemplo 5.30Considere a equacao a diferencas tratada no Exemplo 5.10 (soma geometrica)
y[n+ 1]− y[n] = ρn+1 , y[0] = 1
Neste caso
Bonatti, Lopes & Peres
78 Capıtulo 5. Equacoes a Diferencas
D(p) = p− 1 e D(p) = p− ρ , y[0] = 1 , y[1] = 1 + ρ
pois a entrada x[n] = ρρn esta no espaco de dimensao 1 descrito por um modo proprio associado araiz ρ. A condicao y[1] = 1 + ρ foi obtida substituindo-se y[0] na equacao original.
A equacao homogenea resultante foi resolvida no Exemplo 5.25.
Exemplo 5.31Considere a equacao a diferencas tratada no Exemplo 5.11 (soma aritmetica)
y[n+ 1]− y[n] = n+ 1 , y[0] = 0
Neste caso
D(p) = (p− 1) e D(p) = (p− 1)2 , y[0] = 0 , y[1] = 1 , y[2] = 3
pois a entrada x[n] = n+ 1 esta no espaco de dimensao 2 descrito pelos modos proprios associadoa raiz 1 com multiplicidade 2. As condicoes iniciais y[1] e y[2] foram obtidas da equacao originalpor substituicao.
A equacao homogenea resultante foi resolvida no Exemplo 5.26.
Exemplo 5.32Considere a equacao a diferencas tratada no Exemplo 5.12 (soma aritmetica-geometrica)
y[n+ 1]− y[n] = (n+ 1)ρn+1 , y[0] = 0
Neste caso
D(p) = (p− 1) e D(p) = (p− ρ)2 , y[0] = 0 , y[1] = ρ , y[2] = ρ+ 2ρ2
pois a entrada x[n] = (n + 1)ρn+1 esta no espaco de dimensao 2 descrito pelos modos propriosassociado a raiz ρ com multiplicidade 2. As condicoes iniciais y[1] e y[2] foram obtidas da equacaooriginal por substituicao.
A equacao homogenea resultante foi resolvida no Exemplo 5.27.
Exemplo 5.33Considere a equacao a diferencas tratada no Exemplo 5.14 (tabela Price)
y[n+ 1]− (1 + α)y[n] = −γ , y[0] = M
Neste caso
D(p) = (p− (1 + α)) e D(p) = (p− 1) , y[0] = M , y[1] = M(1 + α)− γ
Bonatti, Lopes & Peres
79
pois a entrada x[n] = −γ esta no espaco de dimensao 1 descrito por um modo proprio associado araiz 1. A condicao inicial y[1] foi obtida da equacao original por substituicao.
A equacao homogenea resultante foi resolvida no Exemplo 5.28.
Propriedade 5.11Solucao forcada
O metodo dos coeficientes a determinar pode ser aplicado diretamente a equacao a diferencas naohomogenea (5.2). Para isso, identificam-se as parcelas homogenea e forcada (devido a entrada) dasolucao.
y[n] = yh[n] + yf [n] ⇒ D(p)(yh[n] + yf [n]
)= N(p)x[n]
D(p)yf [n] = N(p)x[n] (5.3)
pois
D(p)yh[n] = 0
As parcelas homogenea e forcada sao dadas por
yh(t) =m∑
k=1
akpk[n] , yf [n] =m∑
k=1
bkqk[n]
sendo pk[n] os m modos proprios associados a D(λ) = 0 e qk[n] os m modos forcados associados aD(γ) = 0, considerando-se as possıveis multiplicidades com as raızes λ.
Os coeficientes bk sao obtidos da equacao (5.3) e, em seguida, os coeficientes ak sao obtidos a partirdas condicoes iniciais.
⋄
Exemplo 5.34Considere o Exemplo 5.10 cuja equacao a diferencas e dada por
y[n+ 1]− y[n] = ρn+1 , y[0] = 1 ⇒ D(p) = p− 1 , D(p) = (p− ρ)
Para ρ 6= 1, tem-se λ = 1 e γ = ρ (raızes distintas). A solucao forcada e
yf [n] = bρn ⇒ (bρ− b)ρn = ρn+1 , b =ρ
ρ− 1
A solucao e
y[n] = bρn + a
Da condicao inicial y[0] = 1, tem
1 = b+ a ⇒ a =1
1− ρ
Para ρ = 1, ocorre o fenomeno conhecido como ressonancia (modo proprio excitado pelo modo daentrada). Neste caso, tem-se
Bonatti, Lopes & Peres
80 Capıtulo 5. Equacoes a Diferencas
λ = γ = 1 ⇒ yf [n] = bn1n , b = 1
A solucao e (usando-se a condicao inicial)
y[n] = bn+ a = n+ 1
Exemplo 5.35Soma aritmetica
A soma aritmetica, tratada no Exemplo 5.11, satisfaz a equacao a diferencas
y[n+ 1]− y[n] = n+ 1 , y[0] = 0 ⇒ D(p) = p− 1 , D(p) = (p− 1)2
Trata-se de uma ressonancia dupla, λ = γ1 = γ2 = 1. Portanto,
yf [n] = b1n2 + b2n ⇒ b1 = b2 = 0.5
A solucao e (usando-se a condicao inicial)
y[n] =n2
2+n
2+ a =
n(n+ 1)
2
Exemplo 5.36Soma aritmetica-geometrica
A soma aritmetica-geometrica, tratada no Exemplo 5.12, satisfaz a equacao a diferencas
y[n+ 1]− y[n] = (n+ 1)ρn+1 , y[0] = 0 ⇒ D(p) = p− 1 , D(p) = (p− ρ)2
Para ρ 6= 1, tem-se λ = 1 e γ1 = γ2 = ρ (raiz dupla). Portanto,
yf [n] = b1nρn + b2ρ
n ⇒ b1 =ρ
ρ− 1, b2 =
−ρ(ρ− 1)2
A solucao e (usando-se a condicao inicial)
y[n] = b1nρn + b2ρ
n + a ⇒ a =ρ
(ρ− 1)2
Bonatti, Lopes & Peres
81
Exemplo 5.37Considere a equacao a diferencas do Exemplo 5.15
y[n+ 2]− 3y[n+ 1] + 2y[n] = 1 y[0] = 0, y[1] = 0 ⇒ D(p) = (p− 1)(p− 2) , D(p) = p− 1
Note que λ1 = 1, λ2 = 2 e γ = 1 (ressonancia). A solucao forcada e
yf [n] = bn ⇒ b = −1
A solucao e (usando-se as condicoes iniciais)
y[n] = −n+ a1 + a22n ⇒ a1 = −1, a2 = 1
Propriedade 5.12Resposta ao impulso
D(p)y[n] = N(p)x[n] , x[n] = δ[n] (condicoes iniciais nulas)
A priori, o metodo dos coeficientes a determinar nao poderia ser utilizado para determinar y[n] poisnao existe equacao a diferencas linear com coeficientes constantes que produza como solucao a funcaoδ[n], isto e, δ[n+ k] e linearmente independente de δ[n] qualquer que seja k 6= 0.
Entretanto, a resposta ao impulso pode ser calculada pelo metodo dos coeficientes a determinar daseguinte forma. Primeiramente, resolva
D(p)f [n] = 1 , (condicoes iniciais nulas)
Por linearidade, tem-se
y[n] = N(p)(f [n]u[n]− f [n− 1]u[n− 1]
)
Note que a resposta ao degrau e dada por N(p)f [n]u[n]
⋄
Exemplo 5.38Retomando o Exemplo 5.19, ρ 6= 1, tem-se
(p− ρ)y[n] = u[n] , y[0] = 0 ⇒ (p− ρ)f [n] = 1 (λ = ρ, γ = 1)
f [n] = b1 + a1ρn , b1 − ρb1 = 1 ⇒ b1 =
1
1− ρ , a1 = −b1
y[n] =1− ρn
1− ρ u[n]
A resposta ao impulso e
Bonatti, Lopes & Peres
82 Capıtulo 5. Equacoes a Diferencas
y[n]− y[n− 1] = ρn−1u[n− 1]
Exemplo 5.39Considere
(p− 2)(p− 3)y[n] = px[n] , x[n] = δ[n] , (condicoes iniciais nulas)
(p− 2)(p− 3)f [n] = 1 ⇒ f [n] = b1 + a12n + a23
n , b1 = 0.5 , a1 = −1 , a2 = 0.5
A resposta ao degrau e dada por
pf [n]u[n] =(1
2− 2n+1 +
1
23n+1
)
u[n+ 1]
e a resposta ao impulso e
y[n] = pf [n]u[n]− pf [n− 1]u[n− 1] = f [n+ 1]u[n+ 1]− f [n]u[n] =
= (f [n+ 1]− f [n])u[n] = (−2n + 3n)u[n]
Note que as respostas ao degrau e ao impulso poderiam ser obtidas por transformada Z.
A resposta ao impulso e a transformada Z inversa de Y (z), ou seja
Y (z) =z
(z − 2)(z − 3)⇒ Y (z)
z=−1
z − 2+
1
z − 3, y[n] = (−2n + 3n)u[n]
e a resposta ao degrau
Y (z) =z
(z − 2)(z − 3)
z
(z − 1)⇒ Y (z)
z=−2
z − 2+
3/2
z − 3+
1/2
z − 1
y[n] =(
− 2(2n) +3
2(3n) +
1
2
)
u[n]
Bonatti, Lopes & Peres
Parte II
SISTEMAS CONTINUOS
83
Capıtulo 6
Sinais Contınuos e Convolucao
Definicao: Sinais Contınuos
Um sinal contınuo, denotado x(t), e uma funcao (real ou complexa) cujo domınio e o conjunto dosreais R.
Definicao: Degrau Unitario
u∆(t) =
0 , t ≤ 0
(1/∆)t , 0 < t ≤ ∆
1 , t > ∆
⇒ u(t) = lim∆→0+
u∆(t) =
u(t) = 0, t ≤ 0
u(t) = 1, t > 0
Note que
u(0) = 0 ; u(0+) = limt→0+
u(t) = 1
Definicao: Impulso Unitario
δ∆(t) =d
dtu∆(t) =
0 , t ≤ 0
1/∆ , 0 < t < ∆
0 , t > ∆
=⇒ δ(t) = lim∆→0+
δ∆(t) =⇒ δ(t) =d
dtu(t)
Como consequencia, tem-se
u(t) =
∫ t
−∞δ(β)dβ
Note que o impulso ocorre em 0+ e
δ(0) = 0
84
85
replacemen
t t
δ∆(t)u∆(t)
∆∆
1/∆
1
Figura 6.1: Sinais u∆(t) e δ∆(t).
Propriedade 6.1Integral com Impulso
∫ +∞
−∞f(t)δ(t)dt = f(0) , ∀ f(t) contınua em t = 0
Prova:
I =
∫ +∞
−∞f(t)δ(t)dt = lim
∆→0+
∫ +∞
−∞f(t)δ∆(t)dt = lim
∆→0+
∫ ∆
0
1
∆f(t)dt
Pelo teorema do valor medio, tem-se
∫ b
af(t)dt = f(c)(b− a) , c ∈ (a, b)
e, portanto,
I = lim∆→0+
1
∆f(y)(∆− 0) , y ∈ (0,∆)
I = lim∆→ 0+
y ∈ (0,∆)
f(y) = f(0)
⋄
A funcao impulso nao pode ser calculada pontualmente. Apenas integrais envolvendo δ(t) podem seravaliadas. Como consequencia
f(t)δ(t) = f(0)δ(t)
pois ambas tem o mesmo valor da integral.
Propriedade 6.2Integral com Impulso Deslocado
∫ +∞
−∞f(t)δ(t− a)dt = f(a) , f(t) contınua em t = a
⋄
Bonatti, Lopes & Peres
86 Capıtulo 6. Sinais Contınuos e Convolucao
Propriedade 6.3Integral com Impulso Escalonado
∫ +∞
−∞f(t)δ(at)dt =
1
|a|f(0) , a 6= 0, a ∈ R e f(t) contınua em t = 0
Note que o impulso pode ser considerado uma “funcao” par, ou seja, δ(−t) = δ(t).
⋄
Exemplo 6.1Usando as propriedades do impulso, tem-se:
•∫ +∞
−∞
(2t2 + 3)δ(t)dt = 3
•∫ +∞
−∞
(2t2 + 3)δ(−t)dt = 3
•∫ +∞
−∞
(2t+ 3)δ(t+ 1)dt = 1
•∫ +∞
−∞
δ(2t)dt =1
2
∫ +∞
−∞
δ(β)dβ =1
2
•∫ +∞
−∞
(2t2 + 3)δ(2t)dt =3
2
Exemplo 6.2A funcao u(t) (degrau unitario) pode ser usada na definicao de outras funcoes.
A funcao gate GT (t), T > 0, pode ser descrita como
GT (t) = u(t+ T/2)− u(t− T/2) =
+1 , | t |< T
2
0 , | t |> T
2
Note que u(t+ T/2) corresponde a deslocar para a esquerda a funcao u(t) de T/2.
Para esbocar x(at+ b), primeiro desloque para a direita se b < 0 (ou para a esquerda, se b > 0) x(t)de acordo com o valor de b, e depois faca o escalonamento no tempo de acordo com o valor de a. Se|a| > 1, trata-se de compressao, e se |a| < 1, de expansao. Ocorre uma reversao se a < 0.
Assim:
Bonatti, Lopes & Peres
87
• x(t− 1) e um deslocamento de 1 unidade para a direita;
• x(t+ 1) e um deslocamento de 1 unidade para a esquerda,
• x(−t) e uma reversao no tempo;
• x(2t) e uma contracao no tempo;
• x(t/2) e uma expansao no tempo;
Exemplo 6.3Os esbocos do sinal
x(t) = (t+ 1)(u(t+ 1)− u(t)
)+(u(t)− u(t− 1)
)
e de x(t) =d
dtx(t) sao mostrados na Figura 6.2.
x(t)
x(t)
t
t
1
1
1
1
−1
−1
−1
Figura 6.2: Sinais x(t) e derivada x(t).
A expressao de x(t) e
x(t) = u(t+ 1)− u(t) + (t+ 1)(δ(t+ 1)− δ(t)
)+ δ(t)− δ(t− 1) = u(t+ 1)− u(t)− δ(t− 1)
Para esbocar y(t) = x(1 − t), e conveniente primeiramente esbocar f(t) = x(t + 1) (deslocamentopara a esquerda) e depois esbocar y(t) = f(−t) (reversao), conforme ilustrado na Figura 6.3.
f(t) y(t)
tt
11
1−1 2−2
Figura 6.3: Sinais f(t) = x(t+ 1) e y(t) = x(1− t).
Bonatti, Lopes & Peres
88 Capıtulo 6. Sinais Contınuos e Convolucao
Definicao: Sistemas Contınuos
Sao sistemas cujas entradas e saıdas sao funcoes escalares (sinais reais ou complexos) contınuas notempo.
Notacao: y(t) = Gx(t), sendo x(t) a entrada e y(t) a saıda.
Exemplo 6.4Integrador
A relacao entre uma entrada x(t) e a saıda
y(t) =
∫ t
−∞
x(β)dβ
define um sistema contınuo (integrador), que pode tambem ser descrito pela equacao diferencial
y(t) = x(t)
A Figura 6.4 ilustra a relacao entre uma entrada x(t) e sua integral y(t).
x(t) y(t)
tt
1
1
1
1
−1−1
Figura 6.4: Sinal x(t) e sua integral y(t).
Exemplo 6.5Denotando a m-esima derivada de y(t) por y(m), a equacao diferencial
y(m) + αm−1y(m−1) + · · ·+ α1y + α0y = βℓx
(ℓ) + βℓ−1x(ℓ−1) + · · ·+ β1x+ β0x
descreve um sistema contınuo de ordem m.
Definindo o operador simbolico p
p =d
dt, p2 =
d2
dt2, . . .
tem-se
D(p)y(t) = N(p)x(t) , D(p) =
m∑
k=0
αkpk ; N(p) =
ℓ∑
k=0
βkpk
com αm = 1. Neste caso, D(p) e um polinomio monico.
Bonatti, Lopes & Peres
89
Definicao: Sistemas Lineares
Um sistema e linear se satisfaz o princıpio da superposicao, isto e,
Ga1x1(t) + a2x2(t) = a1Gx1(t)+ a2Gx2(t)
Note que G0 = 0.
Exemplo 6.6O integrador do Exemplo 6.4 e o sistema descrito pela equacao diferencial do Exemplo 6.5 saosistemas lineares, pois a integral da soma e a soma das integrais e a derivada da soma e a soma dasderivadas.
Exemplo 6.7Considere um pendulo composto por uma haste rıgida sem peso, de comprimento ℓ, oscilando emum plano vertical, sujeito ao atrito de friccao no engate e sustentando na extremidade livre umamassa m. Denotando por y o angulo com a vertical (em repouso, y = 0), tem-se a equacao domovimento angular
mℓy = −mgsen(y)−mby
sendo g a aceleracao da gravidade e b o coeficiente de atrito. A forca longitudinal na barra e dadapor mg cos(y).
Trata-se de um sistema nao-linear, pois o seno da soma nao e a soma dos senos.
Para pequenas variacoes em torno do ponto de equilıbrio y = 0, y = 0 tem-se sen(y) ≈ y, resultandona equacao diferencial linear
mℓy = −mgy −mby
Definicao: Invariante no Tempo
Um sistema e invariante no tempo se um deslocamento da entrada produzir igual deslocamento nasaıda, isto e,
y(t− a) = Gx(t− a)para qualquer a real.
Exemplo 6.8O integrador do Exemplo 6.4 e o sistema descrito pela equacao diferencial do Exemplo 6.5 comcoeficientes constantes sao sistemas lineares invariantes no tempo, pois
y(t) =
∫ t
−∞
x(β)dβ ⇒∫ t
−∞
x(β − a)dβ =
∫ t−a
−∞
x(β)dβ = y(t− a)
e
D(p)y(t) = N(p)x(t) ⇒ D(p)y(t− a) = N(p)x(t− a)
Bonatti, Lopes & Peres
90 Capıtulo 6. Sinais Contınuos e Convolucao
Exemplo 6.9O sistema
y(t) = Gx(t) = x(t2)
e linear, pois
Ga1x1(t) + a2x2(t) = a1x1(t2) + a2x2(t
2)
e e variante no tempo, pois
y1(t) = x1(t2) , y2(t) = x2(t
2)
x2(t) = x1(t− a) ⇒ y2(t) = x1(t2 − a) 6= y1(t− a) = x1
((t− a)2
)
Definicao: Sistema sem Memoria
Um sistema e sem memoria se a saıda no instante t depende apenas do sinal de entrada no instante t.
Exemplo 6.10O integrador do Exemplo 6.4 e o sistema do Exemplo 6.9 sao sistemas com memoria.
Definicao: Sistema Causal
Um sistema e causal ou nao antecipativo quando a saıda nao depende de valores futuros da entrada.
Exemplo 6.11O sistema descrito pela relacao
y(t) =
∫ t+1
t−1
x(β)dβ
e nao causal.
Definicao: Sistema BIBO Estavel
Um sistema e BIBO estavel (Bounded-Input Bounded-Output) se a saıda e limitada para toda entradalimitada.
|x(t)| < b ⇒ |y(t)| < +∞
Exemplo 6.12
y(t) = tx(t)
e um sistema linear, sem memoria, causal, variante no tempo e nao BIBO estavel.
y(t) = exp(x(t))
e um sistema nao linear, sem memoria, causal, invariante no tempo e BIBO estavel.
Bonatti, Lopes & Peres
91
y(t) = x(t) cos(t+ 1)
e um sistema linear, sem memoria, causal, variante no tempo e BIBO estavel.
y(t) = x2(t)
e um sistema nao-linear, sem memoria, causal, invariante no tempo e BIBO estavel.
y(t) = Gx(t) = x(t) + x∗(t)
e um sistema sem memoria, causal, invariante no tempo e BIBO estavel. E nao-linear, pois
Gjx(t) 6= jy(t)
Definicao: Resposta ao Impulso
Resposta ao impulso e a saıda do sistema quando a entrada e a funcao impulso e as condicoes iniciaissao nulas (sistema em repouso), isto e
h(t) = Gδ(t)
Exemplo 6.13A resposta ao impulso do integrador do Exemplo 6.4 e
y(t) = Gx(t) =
∫ t
−∞
x(β)dβ ⇒ h(t) = Gδ(t) =
∫ t
−∞
δ(β)dβ = u(t)
e a resposta ao impulso do sistema do Exemplo 6.11 e
y(t) =
∫ t+1
t−1
x(β)dβ ⇒ h(t) = u(t+ 1)− u(t− 1) = G2(t)
A resposta ao impulso do sistema
y(t) =
∫ t
t−T
x(β)dβ , T > 0
e dada por
h(t) = u(t)− u(t− T )
A resposta ao impulso do sistema
y(t) =
∫ t
−∞
x(β) exp(− (t− β)
)dβ
e dada por
h(t) = exp(−t)u(t)
Bonatti, Lopes & Peres
92 Capıtulo 6. Sinais Contınuos e Convolucao
Definicao: Convolucao
Convolucao e a operacao
x1(t) ∗ x2(t) =
∫ ∞
−∞x1(β)x2(t− β)dβ
Propriedade 6.4Se
x1(t) = x1(t)u(t) , x2(t) = x2(t)u(t)
entao
x1(t) ∗ x2(t) = u(t)
∫ t
0x1(β)x2(t− β)dβ
⋄
Propriedade 6.5O impulso e o elemento neutro da convolucao.
Prova:
x(t) ∗ δ(t) =
∫ ∞
−∞x(β)δ(t− β)dβ =
∫ ∞
−∞x(t− α)δ(α)dα = x(t)
⋄
Propriedade 6.6Comutativa
x1(t) ∗ x2(t) = x2(t) ∗ x1(t)
Prova:
x1(t) ∗ x2(t) =
∫ +∞
−∞x1(t− β)x2(β)dβ =
∫ +∞
−∞x1(α)x2(t− α)dα = x2(t) ∗ x1(t)
⋄
Propriedade 6.7Associativa
x1(t) ∗ (x2(t) ∗ x3(t)) = (x1(t) ∗ x2(t)) ∗ x3(t)
Prova:
x1(t) ∗ (x2(t) ∗ x3(t)) = x1(t) ∗(∫ +∞
−∞x2(t− β)x3(β)dβ
)
=
=
∫ +∞
−∞x1(t− α)
(∫ +∞
−∞x2(α− β)x3(β)dβ
)
dα
Bonatti, Lopes & Peres
93
integrando primeiro em α e depois em β, e trocando α− β por γ, tem-se
x1(t) ∗ (x2(t) ∗ x3(t)) =
∫ +∞
−∞x3(β)
(∫ +∞
−∞x1 ((t− β)− γ)x2(γ)dγ
)
︸ ︷︷ ︸
x1(t) ∗ x2(t)
∣∣∣∣∣t−β
dβ = x3(t) ∗ (x1(t) ∗ x2(t))
⋄
Propriedade 6.8Distributiva em relacao a soma
x1(t) ∗ (x2(t) + x3(t)) = x1(t) ∗ x2(t) + x1(t) ∗ x3(t)
Prova:
x1(t) ∗ (x2(t) + x3(t)) =
∫ +∞
−∞x1(t− β)(x2(β) + x3(β))dβ = x1(t) ∗ x2(t) + x1(t) ∗ x3(t)
⋄
Exemplo 6.14A convolucao
x(t) = x1(t) ∗ x2(t) , x1(t) = exp(a1t)u(t) ; x2(t) = exp(a2t)u(t) , a1 6= a2
calculada pela definicao produz
x(t) =
∫ t
0
exp(a1(t− β)
)exp(a2β)dβ =
exp(a1t)
(a2 − a1)
∫ (a2−a1)t
0
exp(β)dβ =exp(a2t)− exp(a1t)
(a2 − a1)u(t)
A Figura 6.5 mostra x(t) para os valores a1 = −1, a2 = −2, ou seja,
x(t) = (exp(−t)− exp(−2t))u(t)
Note que
a2 → 0+ ⇒ x2 → u(t) ⇒ x(t)→ 1
−a1(1− exp(a1t))u(t) = u(t)
∫ t
0
x1(β)dβ
Para analisar o caso a2 = a1 = a, pode-se fazer a1 = a, a2 = a + ∆ e ∆ → 0, resultando em (porL’Hopital)
x(t) = exp(at)exp(∆t)− 1
∆u(t) = t exp(at)u(t)
Bonatti, Lopes & Peres
94 Capıtulo 6. Sinais Contınuos e Convolucao
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 50
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
t (s)
x
x1
x2
Figura 6.5: x(t) =(exp(−t)− exp(−2t)
)u(t) obtido da convolucao de duas exponenciais x1(t) ∗x2(t).
Propriedade 6.9Deslocamento no tempo
x(t) ∗ δ(t− a) = x(t− a)
Prova:
∫ ∞
−∞x(β)δ(t− a− β)dβ = x(t− a)
⋄
Propriedade 6.10Convoluir com degrau e integrar
x(t) ∗ u(t) = Ix(t) =
∫ t
−∞x(β)dβ
Prova:
x(t) ∗ u(t) =
∫ +∞
−∞u(t− β)x(β)dβ =
∫ t
−∞u(t− β)x(β)dβ +
∫ +∞
tu(t− β)x(β)dβ
︸ ︷︷ ︸
= 0
=
∫ t
−∞x(β)dβ
⋄
Exemplo 6.15Esboce
Ix(t) =
∫ t
−∞
x(β)dβ
para os sinais:
a) x(t) = u(t)−u(t− 1); b) x(t) = −u(t)+2u(t− 1)−u(t− 2) c) x(t) = t(u(t)−u(t− 1))
Bonatti, Lopes & Peres
95
Propriedade 6.11
x(t) ∗∑
k
aku(t− bk) =∑
k
akIx(t− bk)
⋄
Exemplo 6.16Considere x1(t) = u(t)− u(t− 1) e x2(t) = u(t+ 1)− u(t− 1). A convolucao x1(t) ∗ x2(t) e dadapor
x1(t) ∗ x2(t) = Ix1(t+ 1)− Ix1
(t− 1) = Ix2(t)− Ix2
(t− 1)
Exemplo 6.17Determine as convolucoes para os sinais x1(t) = u(t)−u(t−1) , x2(t) = −u(t)+2u(t−1)−u(t−2)
a) x1(t) ∗ x1(t) b) x1(t) ∗ x2(t) c) x2(t) ∗ x2(t) d) x2(t) ∗ x1(t)
Determine as convolucoes entre x(t) = u(t)− u(t− 2) e:
a) x1(t) = t(u(t)− u(t− 1)) b) x1(t) = exp(−t)u(t)
Teorema 6.1A saıda de um sistema linear invariante no tempo e a convolucao da resposta ao impulso com a entrada,isto e
y(t) = Gx(t) = h(t) ∗ x(t)sendo h(t) = Gδ(t) a resposta ao impulso do sistema.
Prova:
Gx(t) = Gx(t) ∗ δ(t) = G∫ +∞
−∞x(β)δ(t− β)dβ
=
∫ +∞
−∞x(β)G δ(t− β)
︸ ︷︷ ︸
h(t− β)
dβ =
=
∫ +∞
−∞x(β)h(t− β)dβ = x(t) ∗ h(t)
Propriedade 6.12Sistemas lineares invariantes no tempo sao causais (ou nao antecipativos) se e somente se a respostaao impulso e nula para instantes negativos, ou seja
h(t) = 0 para t < 0
pois
y(t) =
∫ 0
−∞x(t− β)h(β)dβ
︸ ︷︷ ︸
futuro
+
∫ +∞
0x(t− β)h(β)dβ
⋄
Bonatti, Lopes & Peres
96 Capıtulo 6. Sinais Contınuos e Convolucao
Exemplo 6.18
y(t) = Gx(t) = x(t− a) , a > 0 ⇒ h(t) = δ(t− a) causal
y(t) =
∫ t+1
t−1
x(β)dβ ⇒ h(t) = G2(t) nao causal
Propriedade 6.13Um sistema linear invariante no tempo e BIBO estavel se e somente se a resposta ao impulso dosistema for absolutamente integravel.
Prova:
|y(t)| ≤∫ +∞
−∞|x(t− β)||h(β)|dβ ≤ B
∫ +∞
−∞|h(β)|dβ
Portanto, |h(β)| <∞ =⇒ |y(t)| <∞ (suficiencia).
Por outro lado,
y(0) =
∫ +∞
−∞x(−β)h(β)dβ
e, para x(−β) = sinal(h(β)), sendo
sinal(t) = u(t)− u(−t) = 2u(t)− 1
Portanto,
y(0) =
∫ +∞
−∞|h(β)|dβ
Como conclusao, y(t) e nao limitado se h(t) nao for absolutamente integravel (necessidade).
⋄
Exemplo 6.19O sistema descrito pela equacao
y(t) =
∫ t+2
−∞
x(β)dβ =
∫ +∞
−∞
x(β)u(t+ 2− β)dβ
tem resposta ao impulso dada por
h(t) = u(t+ 2)
Note que
h(t) ∗ x(t) = y(t)
e portanto trata-se de um sistema linear invariante no tempo.
Como h(t) 6= 0 para t < 0, o sistema e nao causal (e antecipativo). O sistema nao e BIBO estavel,pois a integral do valor absoluto de h(t) diverge.
Bonatti, Lopes & Peres
97
Exemplo 6.20O sistema descrito pela equacao
y(t) =
∫ +∞
−∞
1
πβx(t− β)dβ
tem resposta ao impulso dada por
h(t) =1
πt
Note que
h(t) ∗ x(t) = y(t)
e portanto trata-se de um sistema linear invariante no tempo.
Como h(t) 6= 0 para t < 0, o sistema e nao causal (e antecipativo). O sistema nao e BIBO estavel,pois a integral do valor absoluto de h(t) diverge.
Exemplo 6.21O sistema descrito pela equacao
y(t) = 2x(2t)
tem resposta ao impulso dada por
h(t) = 2δ(2t) = δ(t)
Note que
h(t) ∗ x(t) = x(t) 6= y(t)
e portanto esse sistema linear nao e invariante no tempo. Esse sistema e BIBO estavel e nao causalpois y(1) = 2x(2).
Propriedade 6.14
Ix∗y(t) = x(t) ∗ Iy(t) = Ix(t) ∗ y(t) = u(t) ∗ x(t) ∗ y(t)
pois
Ix(t) = x(t) ∗ u(t)
e a convolucao e associativa e comutativa.
⋄
Bonatti, Lopes & Peres
98 Capıtulo 6. Sinais Contınuos e Convolucao
Exemplo 6.22A convolucao x(t) ∗ y(t), com
x(t) = y(t) = u(t)− u(t− 1)
pode ser obtida a partir da derivada de y(t), dada por
v(t) = δ(t)− δ(t− 1) ⇒ y(t) = Iv(t)
Portanto
x(t) ∗ y(t) = x(t) ∗ Iv(t) = Ix∗v(t)
Como
x(t) ∗ v(t) = x(t)− x(t− 1) = u(t)− 2u(t− 1) + u(t− 2)
tem-se
x(t) ∗ y(t) = t(u(t)− u(t− 1)
)+ (2− t)
(u(t− 1)− u(t− 2)
)
Definicao: Auto-funcao
Um sinal de entrada e denominado auto-funcao de um sistema se a saıda correspondente for igual aosinal de entrada multiplicado por uma constante (em geral complexa).
Propriedade 6.15O sinal exp(st), s complexo pertencente ao domınio Ωh, e uma auto-funcao para sistemas linearescontınuos e invariantes no tempo.
Prova:
y(t) = exp(st) ∗ h(t) =
∫ +∞
−∞h(β) exp
(s(t− β)
)dβ = H(s) exp(st)
com
H(s) =
∫ +∞
−∞h(β) exp(−sβ)dβ
H(s) = Lh(t) e a transformada bilateral de Laplace da funcao h(t). O domınio Ωh e o conjunto dosvalores de s complexos para os quais a integral e finita.
⋄
Propriedade 6.16Deslocamento em t
Ly(t) = x(t− τ) = X(s) exp(−sτ) , Ωy = Ωx
Prova:
Lx(t− τ) =
∫ +∞
−∞x(t− τ) exp(−st)dt =
Bonatti, Lopes & Peres
99
=
∫ +∞
−∞x(β) exp
(− s(β + τ)
)dβ = exp(−sτ)
∫ +∞
−∞x(β) exp(−sβ)dβ = Lx(t) exp(−sτ)
⋄
Propriedade 6.17
Lx(t) = x1(t) ∗ x2(t) = Lx1(t)Lx2(t) , Ωx = Ωx1∩ Ωx2
Prova:
Lx1(t) ∗ x2(t) = L∫ +∞
−∞x1(t− β)x2(β)dβ
=
∫ +∞
−∞x2(β)
(∫ +∞
−∞x1(t− β) exp(−st)dt
)
︸ ︷︷ ︸
X1(s) exp(−sβ)
dβ
= X1(s)
∫ +∞
−∞x2(β) exp(−sβ)dβ = X1(s)X2(s)
⋄
Propriedade 6.18
Lexp(−at)u(t) =1
s+ a, s ∈
s ∈ C,Re(s+ a) > 0
pois
H(s) =
∫ +∞
−∞exp(−at)u(t) exp(−st)dt =
1
s+ a
∫ +∞
0exp
(− (s+ a)t
)(s+ a)dt =
=1
s+ apara Re(s+ a) > 0
⋄
Definicao: Funcao de Transferencia
A relacao (temporal) entre saıda e entrada em um sistema linear invariante no tempo e dada pelo“ganho complexo” H(s) quando x(t) = exp(st)
y(t) = h(t) ∗ x(t) ; H(s) =
∫ +∞
−∞h(t) exp(−st)dt s ∈ Ωh
H(s), tambem denominada funcao de transferencia do sistema, e a relacao entre as transformadas deLaplace da saıda Y (s) e da entrada X(s) para qualquer x(t)
Y (s) = H(s)X(s)
Bonatti, Lopes & Peres
100 Capıtulo 6. Sinais Contınuos e Convolucao
x(t)
R+
+
−− C y(t)
Figura 6.6: Circuito RC.
Exemplo 6.23Circuito RC
Considere o circuito RC descrito na Figura 6.6.
A entrada e a fonte de tensao x(t) e a saıda y(t) e a tensao no capacitor. O circuito e descrito pelaequacao
y +1
τy =
1
τx ; τ = RC
ou, usando o operador p =d
dt,
(
p+1
τ
)
y =1
τx
A funcao de transferencia e dada por
H(s) =1
τs+ 1=
1
τ
1
s+ 1/τ
Note que esta funcao de transferencia e a transformada de Laplace de
h(t) =1
τexp(−t/τ)u(t)
Exemplo 6.24Considere o circuito da Figura 6.7, com τ1 = R1C1 = 1 e τ2 = R2C2 = 0.01.
N
I
x(t)
R1 R2+
+
−− C1 C2
y(t)
Figura 6.7: Circuito RC em cascata.
A funcao de transferencia e dada por
H(s) =Y (s)
X(s)=
(1/τ1
s+ 1/τ1
)
︸ ︷︷ ︸
H1(s)
(1/τ2
s+ 1/τ2
)
︸ ︷︷ ︸
H2(s)
=100
s2 + 101s+ 100
Bonatti, Lopes & Peres
101
Exemplo 6.25Considere o circuito da Figura 6.8
PSfrag
x(t)
R1 R2+ +
+
− −− C1 C2 y(t)y1(t)
Figura 6.8: Circuito RC duplo.
x = R1(C1y1 + C2y) + y1 ; y1 = R2C2y + y
A funcao de transferencia e dada por
H(s) =Y (s)
X(s)=
1
R1C1R2C2s2 + (R1C1 +R2C2 +R1C2)s+ 1
Para R1 = C1 = 1, R2 = 1, C2 = 0.01, tem-se
H(s) =Y (s)
X(s)=
100
s2 + 102s+ 100
Definicao: Resposta em frequencia
Se s = jω pertence ao domınio da funcao de transferencia do sistema linear invariante no tempo H(s),a resposta em frequencia do sistema e o valor de H(s) computado para s = jω.
A resposta em frequencia escreve-se como
M(ω) exp(jφ(ω)) = H(jω)
sendo M(ω) o modulo e φ(ω) a fase de H(jω)
Em geral, e desenhada na forma de modulo e fase (diagrama de Bode1) ou na forma polar, paraω ∈ [0,+∞). Representa a resposta em regime permanente de sistemas lineares invariantes no tempoestaveis para entradas senoidais.
Propriedade 6.19Se h(t) e real, entao H∗(jω) = H(−jω), isto e M(ω) e uma funcao par e φ(ω) e uma funcao ımpar.
Prova:
H∗(jω) =
∫ +∞
−∞h(t) exp(jωt)dt = H(−jω)
H(jω) = M(ω) exp(jφ(ω)) ⇒ H∗(jω) = M(ω) exp(−jφ(ω))
1Hendrik Wade Bode, engenheiro eletricista americano do seculo XX.
Bonatti, Lopes & Peres
102 Capıtulo 6. Sinais Contınuos e Convolucao
H(−jω) = M(−ω) exp(jφ(−ω))
Portanto, M(ω) = M(−ω) e −φ(ω) = φ(−ω).
⋄
Propriedade 6.20A resposta em regime de um sistema linear invariante no tempo com funcao de transferencia H(s),com h(t) real e jω ∈ Ωh, para a entrada x(t) = cos(ωt), e
y(t) = M(ω) cos(ωt+ φ(ω))
Prova:
y(t) = Gcos(ωt) =1
2Gexp(jωt)+
1
2Gexp(−jωt) =
=1
2H(jω) exp(jωt) +
1
2H(−jω) exp(−jωt) =
=1
2M(ω) exp(jωt+ jφ(ω)) +
1
2M(ω) exp(−jωt− jφ(ω)) = M(ω) cos(ωt+ φ(ω))
⋄
Exemplo 6.26Considere a linha de transmissao bifilar sem perdas descrita por
y(t) = x(t− T )
tambem conhecida como linha de atraso. A funcao de transferencia e dada por
H(s) = exp(−sT )
O modulo da resposta em frequencia H(jω) e M(ω) = 1 e a fase e φ(ω) = −ωT .
Propriedade 6.21A equacao diferencial
D(p)y(t) = N(p)x(t) , D(p) =m∑
k=0
αkpk ; N(p) =
ℓ∑
k=0
βkpk
com αm = 1, αk e βk coeficientes constantes e condicoes iniciais nulas descreve um sistema linearinvariante no tempo, cuja funcao de transferencia e
H(s) =N(s)
D(s)
pois, para a entrada x(t) = exp(st) tem-se a saıda y(t) = H(s) exp(st), e portanto
D(p)H(s) exp(st) = N(p) exp(st) ⇒ H(s)D(s) = N(s)
Bonatti, Lopes & Peres
103
H(s) e uma funcao racional, ou seja, e dada pela razao de dois polinomios em s.
⋄
Definicao: zeros
Os zeros de uma funcao H(s), s complexo, sao os valores de s para os quais H(s) = 0. A multiplicidadeda raiz s e denominada de ordem do zero.
Definicao: polos
Os polos de uma funcao H(s), s complexo, sao os valores de s para os quais 1/H(s) = 0. A multipli-cidade da raiz e denominada de ordem do polo.
Em funcoes racionais, os polos sao as raızes do denominador e os zeros sao as raızes do numerador.
Exemplo 6.27Circuito RC
O circuito RC do Exemplo 6.23 e descrito pela funcao de transferencia
H(s) =1/τ
s+ 1/τ
A resposta em frequencia e dada por
M(ω) =1
√
1 + (τω)2; φ(ω) = − arctan(τω)
Note que trata-se de um filtro passa-baixas, com a fase variando de 0 a −90 graus quando afrequencia varia de zero a infinito e φ(1/τ) = −45 graus. O filtro RC possui um polo em s = −1/τ .
Exercıcio 6.1
A resposta ao impulso de um sistema linear invariante no tempo e dada por
h(t) =
t2 , |t| < 10 , |t| > 1
a) O sistema e causal?
b) O sistema e BIBO estavel?
Bonatti, Lopes & Peres
Capıtulo 7
Serie de Fourier de Sinais Contınuos
Definicao: Produto Escalar
O produto escalar dos sinais x(t) e y(t) e dado por
⟨x(t)y∗(t)
⟩=
∫ +∞
−∞x(t)y∗(t)dt
O intervalo de integracao pode ser distinto, definido no contexto da operacao, estando associado aodomınio das funcoes.
Definicao: Norma
‖x(t)‖ =√⟨x(t)x∗(t)
⟩⇒ ‖x(t)‖2 =
∫ +∞
−∞|x(t)|2dt
Exemplo 7.1Considere os sinais
x(t) = t(u(t)− u(t− 1)
)= tG1(t− 0.5) , g(t) = u(t)− u(t− 1) = G1(t− 0.5)
O valor de α para que αg(t) melhor aproxime x(t) pode ser obtido como solucao de um problemade otimizacao.
Usando-se a medida de distancia entre dois sinais, dada pela integral do quadrado da diferenca,tem-se
minα
⟨ǫ2(t)
⟩
sendo o erro
ǫ(t) = x(t)− αg(t)e
⟨ǫ2(t)
⟩=
∫ 1
0
ǫ2(t)dt
Portanto, a expressao do erro quadratico e
⟨ǫ2(t)
⟩=⟨g2(t)
⟩α2 − 2
⟨x(t)g(t)
⟩α+
⟨x2(t)
⟩
que e um polinomio de segundo grau em α, convexo, com mınimo global satisfazendo
104
105
d
dα
⟨ǫ2(t)
⟩= 0 =⇒ α =
⟨x(t)g(t)
⟩
⟨g2(t)
⟩ =1
2
Observe que⟨ǫ(t)g(t)
⟩= 0 e que esta condicao, imposta no problema, tambem permite a obtencao
do valor otimo de α.
Definicao: Sinais Ortogonais
Os sinais x(t) e y(t) nao nulos sao ortogonais se o produto escalar e nulo, isto e
⟨x(t)y∗(t)
⟩= 0
Propriedade 7.1Teorema de Pitagoras1
Se x(t) e y(t) sao ortogonais, entao
‖x(t) + y(t)‖2 = ‖x(t)‖2 + ‖y(t)‖2
pois
‖x(t) + y(t)‖2 =⟨(x(t) + y(t))(x∗(t) + y∗(t))
⟩= ‖x(t)‖2 + ‖y(t)‖2 +
⟨x(t)y∗(t)
⟩
︸ ︷︷ ︸
= 0
+⟨y(t)x∗(t)
⟩
︸ ︷︷ ︸
= 0
⋄
Propriedade 7.2Desigualdade de Cauchy-Schwarz2
⟨x(t)y∗(t) + y(t)x∗(t)
⟩≤ 2‖x(t)‖‖y(t)‖
pois, para α ∈ R qualquer,
‖x(t)− αy(t)‖2 ≥ minα‖x(t)− αy(t)‖2 ≥ 0
Portanto,
⟨(x(t)− αy(t))(x∗(t)− αy∗(t))
⟩= ‖x(t)‖2 + α2‖y(t)‖2 − α
⟨x(t)y∗(t) + y(t)x∗(t)
⟩≥ 0
e o resultado e obtido substituindo-se o valor de α que minimiza a norma, isto e,
α =
⟨x(t)y∗(t) + y(t)x∗(t)
⟩
2‖y(t)‖2
⋄1Pitagoras, nasceu em Samos (569 AC - 475 AC).2Augustin Louis Cauchy, matematico frances (1789-1857) e Hermann Amandus Schwarz, matematico alemao (1843-
1921).
Bonatti, Lopes & Peres
106 Capıtulo 7. Serie de Fourier de Sinais Contınuos
Definicao: Sinais Linearmente Independentes
Um conjunto de sinais gk(t), k = 1, . . . , n e linearmente independente se e somente se
n∑
k=1
ckgk(t) = 0 , ∀t =⇒ ck = 0 , k = 1, . . . , n
Definicao: Espaco Linear
A combinacao linear de um conjunto de n sinais gk(t), isto e,
g(t) =n∑
k=1
ckgk(t)
com escalares ck ∈ C gera um espaco linear, cuja dimensao e dada pelo numero r de sinais linearmenteindependentes do conjunto (r ≤ n). Qualquer conjunto de r sinais que gere o mesmo espaco e umabase para esse espaco.
Exemplo 7.2Mostre que os sinais sao linearmente independentes
x1(t) = 1 , x2(t) = t
Exemplo 7.3Mostre que os sinais
x1(t) = exp(λ1t) , x2(t) = exp(λ2t)
sao linearmente independentes se e somente se
λ1 6= λ2
Exemplo 7.4Os sinais
x1(t) = 1 , x2(t) = t , x3(t) = 3t− 5
sao linearmente dependentes, pois
x3(t) = 3x2(t)− 5x1(t)
Propriedade 7.3Sinais ortogonais sao linearmente independentes.
Prova:Supondo que x(t) e y(t) sao sinais ortogonais, tem-se
⟨x(t)y∗(t)
⟩= 0 e
⟨x(t)x∗(t)
⟩6= 0,
⟨y(t)y∗(t)
⟩6= 0
Se c1x(t) + c2y(t) = 0 para todo t, entao multiplicando por x∗(t) e integrando tem-se
c1⟨x(t)x∗(t)
⟩+ c2
⟨y(t)x∗(t)
⟩= c1
⟨x(t)x∗(t)
⟩= 0 =⇒ c1 = 0
Similarmente, multiplicando-se por y∗(t) mostra-se que c2 = 0.⋄
Bonatti, Lopes & Peres
107
Definicao: Projecao Ortogonal
Denomina-se projecao ortogonal a representacao do sinal x(t) no espaco gerado pela combinacao linearde uma base do espaco tal que o erro seja nulo ou ortogonal ao espaco, isto e,
x(t) =n∑
k=1
ckgk(t) + ǫ(t)
com
⟨ǫ(t)g∗k(t)
⟩= 0 , ∀k
sendo gk(t), k = 1, . . . , n um conjunto de sinais linearmente independentes (base de dimensao n).
Propriedade 7.4O erro da projecao ortogonal tem norma mınima.
Prova:Seja ǫ(t) o erro da projecao ortogonal e v(t) o erro de uma projecao qualquer. Entao,
x(t) =∑
k
ckgk(t) + ǫ(t) =∑
k
dkgk(t) + v(t) ⇒ v(t) = ǫ(t) +∑
k
(ck − dk)gk(t)
︸ ︷︷ ︸
r(t)
O sinal r(t) pertence ao espaco gerado pelas funcoes gk(t), e portanto e ortogonal a ǫ(t). Assim,
‖v(t)‖2 = ‖ǫ(t)‖2 + ‖r(t)‖2 ≥ ‖ǫ(t)‖2
⋄
Exemplo 7.5Considere os sinais ortogonais
x1(t) = G2(t) , x2(t) = tG2(t)
O sinal x(t) dado por
x(t) = t2G2(t)
pode ser aproximado por
x(t) ≈ a1x1(t) + a2x2(t) ⇒ ǫ(t) = x(t)− a1x1(t)− a2x2(t)
Portanto,
⟨ǫ2(t)
⟩=⟨x2(t)
⟩+ a2
1
⟨x2
1(t)⟩
+ a22
⟨x2
2(t)⟩− 2a1
⟨x1(t)x(t)
⟩− 2a2
⟨x2(t)x(t)
⟩+ 2a1a2
⟨x1(t)x2(t)
⟩
As condicoes
∂
∂a1
⟨ǫ2(t)
⟩= 0 ,
∂
∂a2
⟨ǫ2(t)
⟩= 0
implicam
Bonatti, Lopes & Peres
108 Capıtulo 7. Serie de Fourier de Sinais Contınuos
[ ⟨x2
1(t)⟩ ⟨
x1(t)x2(t)⟩
⟨x2(t)x1(t)
⟩ ⟨x2
2(t)⟩
] [a1
a2
]
=
[ ⟨x1(t)x(t)
⟩
⟨x2(t)x(t)
⟩
]
Como x1(t) e x2(t) sao ortogonais, tem-se
⟨x2
1(t)⟩
= 2 ,⟨x2
2(t)⟩
=2
3,⟨x1(t)x(t)
⟩=
2
3,⟨x2(t)x(t)
⟩= 0
a1 =
⟨x1(t)x(t)
⟩
⟨x2
1(t)⟩ =
1
3, a2 =
⟨x2(t)x(t)
⟩
⟨x2
2(t)⟩ = 0
ǫ(t) =(
t2 − 1
3
)
G2(t)
Note que o erro ǫ(t) e ortogonal a x1(t) e x2(t).
Exemplo 7.6Considere os sinais
x1(t) = G1(t− 0.5) , x2(t) = tG1(t− 0.5)
O sinal x(t) dado por
x(t) = t2G1(t− 0.5)
pode ser aproximado por
x(t) ≈ a1x1(t) + a2x2(t) ⇒ ǫ(t) = x(t)− a1x1(t)− a2x2(t)
As condicoes de mınimo implicam
[ ⟨x2
1(t)⟩ ⟨
x1(t)x2(t)⟩
⟨x2(t)x1(t)
⟩ ⟨x2
2(t)⟩
] [a1
a2
]
=
[1 0.5
0.5 1/3
] [a1
a2
]
=
[1/30.25
]
a1 = −1
6, a2 = 1
Note que, por x1(t) e x2(t) nao serem ortogonais, foi necessario resolver numericamente um sistemalinear de equacoes. O erro, ortogonal a x1(t) e x2(t), e dado por
ǫ(t) =(
t2 − t+1
6
)
G1(t− 0.5)
A Figura 7.1 mostra os sinais x(t), x1(t), x2(t) e o erro ǫ(t). Observe que, como x1(t) e constanteno intervalo, a media de ǫ(t) e nula.
Bonatti, Lopes & Peres
109
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1−0.2
0
0.2
0.4
0.6
0.8
1
1.2
x(t)
x1(t)
t
x2(t)
ǫ(t)
Figura 7.1: Sinais x(t), x1(t), x2(t) e ǫ(t).
Projecao de Sinais
Suponha que se deseja aproximar o sinal x(t) por uma combinacao linear de sinais ortogonais gk(t)
x(t) ≈∑
k
ckgk(t)
Definindo-se o erro ǫ(t)
ǫ(t) = x(t)−∑
k
ckgk(t)
uma forma apropriada de obtencao dos coeficientes ck’s e dada pela minimizacao do erro quadratico
minck
⟨ǫ(t)ǫ∗(t)
⟩
Impondo a condicao de ortogonalidade do erro em relacao ao espaco linear tem-se
⟨ǫ(t)g∗k(t)
⟩= 0, ∀k
⟨ǫ(t)g∗k(t)
⟩=⟨x(t)g∗k(t)
⟩−∑
ℓ
cℓ⟨gℓ(t)g
∗k(t)
⟩=⟨x(t)g∗k(t)
⟩− ck
⟨gk(t)g
∗k(t)
⟩= 0
=⇒ ck =
⟨x(t)g∗k(t)
⟩
⟨|gk(t)|2
⟩ , ∀k
Note que os coeficientes ck podem ser calculados de maneira desacoplada pelo fato de os sinais gk(t)serem ortogonais.
Teorema 7.1Teorema de Parseval
Considere uma base ortogonal gk(t) e x(t), um sinal pertencente ao espaco, descrito por
x(t) =∑
k
ckgk(t)
Entao,
Bonatti, Lopes & Peres
110 Capıtulo 7. Serie de Fourier de Sinais Contınuos
⟨x(t)x∗(t)
⟩=⟨|x(t)|2
⟩=∑
k
|ck|2⟨|gk(t)|2
⟩
Se as funcoes gk(t) tem norma unitaria, ou seja, se⟨|gk(t)|2
⟩= 1, tem-se
⟨|x(t)|2
⟩=∑
k
|ck|2.
Prova: Como
x∗(t) =∑
k
c∗kg∗k(t)
tem-se
⟨x(t)x∗(t)
⟩=⟨|x(t)|2
⟩=∑
k
|ck|2⟨|gk(t)|2
⟩
pois os gk(t)’s sao ortogonais.
Definicao: Sinal Periodico
Um sinal x(t) e periodico se existe um T > 0 tal que x(t) = x(t+T ) para ∀t ∈ R. Nesse caso, T e umperıodo e, se for o menor real que satisfaz a relacao, e chamado de perıodo fundamental.
Exemplo 7.7O perıodo T de
x(t) = sen(8t) + cos(12t) ⇒ T1 =π
4, T2 =
π
6
e dado por
T = pT1 = qT2 = p2π
8= q
2π
12⇒ p = 2, q = 3 e T =
π
2
Exemplo 7.8O perıodo T de
x(t) = sen(6πt) + cos(8πt) ⇒ T1 =1
3, T2 =
1
4
e dado por
T = pT1 = qT2 = p2π
6π= q
2π
8π⇒ p = 3, q = 4 e T = 1
Bonatti, Lopes & Peres
111
Propriedade 7.5A soma de sinais periodicos e periodica se e somente se a relacao entre os perıodos for racional, isto e,
x(t) = x(t+ T1) , y(t) = y(t+ T2)
x(t) + y(t) = x(t+ T ) + y(t+ T ) ⇔ T = pT1 = qT2 , p, q ∈ Z+
⋄
Exemplo 7.9O sinal
x(t) = sen(2πt) + cos(3t)
nao e periodico, pois nao existem p, q inteiros que satisfazem
T = p1 = q2π
3
Propriedade 7.6Os sinais periodicos
gk(t) = exp(jkω0t) , gℓ(t) = exp(jℓω0t) k 6= ℓ inteiros
sao ortogonais.Alem disso
⟨gk(t)g
∗k(t)
⟩=
∫
Tgk(t)g
∗k(t)dt = T
para T = 2π/ω0.
Prova: T e o perıodo fundamental de gk(t), ∀k 6= 0 e
⟨gk(t)g
∗ℓ (t)
⟩=
∫
Texp
(j(k − ℓ)ω0t
)dt = 0 , k 6= ℓ
pois a parte real e a parte imaginaria sao senoides que oscilam um numero inteiro de vezes dentro doperıodo T .
Para k = ℓ,⟨gk(t)g
∗k(t)
⟩=
∫
Tdt = T
⋄
Definicao: Serie Exponencial de Fourier
E a serie periodica de perıodo fundamental T = 2π/ω0 dada por
+∞∑
k=−∞
ck exp(jkω0t) ⇔ ck =
⟨x(t)g∗k(t)
⟩
⟨gk(t)g
∗k(t)
⟩ =1
T
∫
Tx(t) exp(−jkω0t)dt
Note que os coeficientes ck foram obtidos por projecao ortogonal e, portanto, minimizam o erroquadratico.
Bonatti, Lopes & Peres
112 Capıtulo 7. Serie de Fourier de Sinais Contınuos
Observacao: Para sinais contınuos, a minimizacao do erro quadratico nao implica que o erro e nulo,ou seja, a serie nao converge ponto a ponto para o sinal.
Mesmo para erro quadratico nulo (eventualmente com um numero infinito de coeficientes), nas des-continuidades do sinal ocorre uma distorcao (denominada fenomeno de Gibbs3)
Se o sinal x(t) for periodico de perıodo fundamental T , a serie representa o sinal para todo t.
Se o sinal x(t) nao for periodico, a serie representa o sinal no intervalo T considerado.
x(t)
Serie
−T2 T
2
t
t
TT TT
Se x(t) e periodica, e conveniente determinar os coeficientes da serie fixando-se um intervalo de tempode valor igual ao do perıodo. Dessa forma, a serie representa a funcao para todo t (e nao apenas parao intervalo de −T/2 a +T/2).
Propriedade 7.7Condicoes suficientes para convergencia da serie de Fourier
Considere o erro
ǫN (t) = x(t)− xN (t) = x(t)−+N∑
k=−N
ck exp(jkω0t)
Quando N → +∞, a serie converge quadraticamente se⟨|ǫN (t)|2
⟩→ 0, e converge pontualmente se
ǫN (t)→ 0 para todo t.
• Sinais quadraticamente integraveis (energia finita) no intervalo T , ou seja,
∫
T|x(t)|2dt < +∞
possuem serie de Fourier que converge quadraticamente, isto e, a energia do erro tende a zero.
3Willard Gibbs, matematico norte-americano (1839-1903).
Bonatti, Lopes & Peres
113
A convergencia nao e necessariamente pontual, como por exemplo em sinais com descontinuidades.Nesse caso,
xN (t0)→x(t0+)− x(t0−)
2
• Uma condicao alternativa a de energia finita e dada pelas condicoes de Dirichlet4, que devem sersimultaneamente satisfeitas:
Condicao 1: x(t) e absolutamente integravel, ou seja
∫
T|x(t)|dt < +∞
Por exemplo, o sinal periodico
x(t) =
+∞∑
k=−∞
p(t− kT ) , p(t) = 1/t , t ∈ (0, T ]
nao e absolutamente integravel e portanto nao possui serie de Fourier.
Condicao 2: x(t) possui um numero finito de maximos e mınimos no intervalo T .
Os sinais periodicos x1(t) e x2(t), de perıodo T = 1, definidos a partir dos pulsos
p1(t) = sen(2π/t) , t ∈ (0, 1]
p2(t) =
1 para t irracional−1 para t racional
, t ∈ (0, 1]
sao absolutamente integraveis, mas possuem um numero infinito de maximos e mınimos no intervalo(0, 1] e portanto nao tem serie de Fourier.
Condicao 3: x(t) possui um numero finito de descontinuidades finitas no intervalo.
Por exemplo, o sinal x2(t) tem um numero infinito de descontinuidades finitas no intervalo.
⋄
Notacao:
FSx(t)T = ckω0⇐⇒ x(t) =
+∞∑
k=−∞
ck exp(jkω0t) , ck =1
T
∫
Tx(t) exp(−jkω0t)dt , T =
2π
ω0
A notacao pressupoe que o sinal original x(t) foi descrito em um intervalo T , no qual sao computadosos coeficientes ck.
Por construcao, a serie de Fourier de x(t) e periodica, de perıodo T .
A partir deste ponto, considera-se que a convergencia da serie e pontual.
Escolhendo um intervalo T centrado em t = 0 e definindo
4Johann Peter Gustav Lejeune Dirichlet, matematico frances (1805-1859).
Bonatti, Lopes & Peres
114 Capıtulo 7. Serie de Fourier de Sinais Contınuos
p(t) = x(t)GT (t)
tem-se
x(t) =
+∞∑
k=−∞
p(t− kT )
Propriedade 7.8Linearidade
A serie de Fourier e linear, isto e,
FSα1x1(t) + α2x2(t)T = α1FSx1(t)T + α2FSx2(t)T
⋄
Exemplo 7.10
2 cos(t) + 2 cos(2t) = exp(jt) + exp(−jt) + exp(j2t) + exp(−j2t)
Portanto, a serie de Fourier e dada por
FS2 cos(t) + 2 cos(2t)T=2π = FS2 cos(t)T=2π + FS2 cos(2t)T=2π
c1 = c−1 = c2 = c−2 = 1 , w0 = 1
Exemplo 7.11A soma dos sinais periodicos
x(t) = 2 cos(t) + 2 cos(2πt) = exp(jt) + exp(−jt) + exp(j2πt) + exp(−j2πt)
nao e periodica, e portanto nao existe uma serie de Fourier para o sinal x(t).
Note entretanto que a serie de Fourier do sinal
y(t) = x(t)GT (t)
pode ser obtida, com T > 0 qualquer, para descrever o sinal periodico
+∞∑
k=−∞
y(t− kT )
que e igual a y(t) entre −T/2 e T/2.
Bonatti, Lopes & Peres
115
Exemplo 7.12Os coeficientes da serie de Fourier do sinal periodico impulsivo
x(t) =+∞∑
k=−∞
p(t− kT )
p(t) = δ(t+ T/4)− δ(t− T/4)
sao dados por
ck =1
T
∫
T
p(t) exp(−jkω0t)dt =1
T
(
exp(jkω0T/4)− exp(−jkω0T/4))
ck =1
T
(
exp(jkπ/2)− exp(−jkπ/2))
=1
T2jsen(kπ/2)
Note que p(t) e uma funcao ımpar e que os coeficientes sao imaginarios.
Exemplo 7.13Os coeficientes da serie de Fourier do sinal periodico impulsivo
x(t) =
+∞∑
k=−∞
p(t− kT )
p(t) = δ(t+ T/4) + δ(t− T/4)
sao dados por
ck =1
T
∫
T
p(t) exp(−jkω0t)dt =1
T
(
exp(jkω0T/4) + exp(−jkω0T/4))
ck =1
T
(
exp(jkπ/2) + exp(−jkπ/2))
=1
T2 cos(kπ/2)
Note que p(t) e uma funcao par e que os coeficientes sao reais.
Propriedade 7.9Trem de impulsos
FS
+∞∑
k=−∞
δ(t− kT )
T= 1
Tω0
⇒+∞∑
k=−∞
δ(t− kT ) =1
T
+∞∑
k=−∞
exp(jkω0t)
pois
ck =1
T
∫
T
+∞∑
k=−∞
δ(t− kT ) exp(−jkω0t)dt =1
T
∫
Tδ(t)dt =
1
T
para k 6= 0 os impulsos estao fora do intervalo de integracao.
⋄
Bonatti, Lopes & Peres
116 Capıtulo 7. Serie de Fourier de Sinais Contınuos
Propriedade 7.10Valor Medio
FSx(t)T = ckω0⇒ c0 =
1
T
∫
Tx(t)dt (valor medio) , x(0) =
+∞∑
k=−∞
ck
⋄
Propriedade 7.11Complexo conjugado
FSx(t)T = ckω0⇒ FSx∗(t)T = c∗−kω0
pois, denominando dk os coeficientes da serie associada a x∗(t), tem-se
dk =1
T
∫
Tx∗(t) exp(−jkω0t)dt =
(1
T
∫
Tx(t) exp(jkω0t)dt
)∗
= c∗−k
⋄
Propriedade 7.12
FSx(t)T = ckω0e x(t) e real ⇒ ck = c∗−k
pois, pela Propriedade 7.11,
x∗(t) = x(t) ⇒ ck = c∗−k
⋄
Teorema 7.2Teorema de Parseval para Serie Exponencial de Fourier
FSx(t)T = ckω0⇒ 1
T
∫
T|x(t)|2dt =
+∞∑
k=−∞
|ck|2 (potencia media)
pelo Teorema 7.1 e pela Propriedade 7.6.
Exemplo 7.14Determine a serie exponencial de Fourier e a potencia media para
a) sen(10t) b) cos(5t) c) sen2(10t) d) cos2(5t)
Bonatti, Lopes & Peres
117
Propriedade 7.13Deslocamento no Tempo
FSx(t)T = ckω0, a real ⇒ FSx(t− a)T = ck exp(−jkω0a)ω0
pois
x(t− a) =+∞∑
k=−∞
ck exp(−jkω0a) exp(jkω0t)
⋄
Exemplo 7.15Considere o sinal x(t) dado por
x(t) =
+∞∑
k=1
ak cos(kω0t) ; ak =4
kπsen(kπ/2)
Determine os coeficientes ck da serie exponencial de Fourier para
a) x(t) b) y(t) = x(t− π/(2ω0))
Propriedade 7.14Deslocamento na Frequencia
FSx(t)T = ckω0, m ∈ Z ⇒ FSx(t) exp(jmω0t)T = ck−mω0
⋄
Propriedade 7.15Inversao no Tempo
FSx(t)T = ckω0⇒ FSx(−t)T = c−kω0
⋄
Propriedade 7.16Escalonamento no Tempo
FSx(t)T = ckω0, α > 0, α ∈ R ⇒ FSx(αt)T/α = ckαω0
pois, como x(t) tem perıodo T = 2π/ω0, x(αt) tem perıodo T/α = 2π/(αω0) e
dk =α
T
∫
T/αx(αt) exp(−jkαω0t)dt =
1
T
∫
Tx(t) exp(−jkω0t)dt = ck
Note que os coeficientes sao os mesmos, porem as series sao diferentes (perıodos distintos).
⋄
Bonatti, Lopes & Peres
118 Capıtulo 7. Serie de Fourier de Sinais Contınuos
Propriedade 7.17Multiplicacao no tempo
FSx(t)y(t)T = FSx(t)T ∗ FSy(t)T = ck ∗ dkω0
pois, denominando ek os coeficientes da serie associada ao produto, tem-se
ek =1
T
∫
Tx(t)y(t) exp(−jkω0t)dt =
1
T
∫
T
+∞∑
m=−∞
cm exp(jmω0t)y(t) exp(jkω0t)dt =
=
+∞∑
m=−∞
cm1
T
∫
Ty(t) exp[−j(k −m)ω0t]dt
︸ ︷︷ ︸
dk−m
=
+∞∑
m=−∞
cmdk−m = ck ∗ dk
⋄
Definicao: Convolucao periodica
A convolucao periodica de x(t) e y(t), sinais periodicos de perıodo T , e definida por
x(t) ⊛ y(t) =
∫
Tx(β)y(t− β)dβ
Note que a convolucao periodica produz um sinal periodico.
Propriedade 7.18
FSx(t) ⊛ y(t)T = Tckdkω0
sendo
FSx(t)T = ckω0, FSy(t)T = dkω0
pois
1
T
∫
T(x(t) ⊛ y(t)) exp(−jkω0t)dt =
1
T
∫
Tx(β)
∫
Ty(t− β) exp(−jkω0t)dt dβ =
=
∫
Tx(β) exp(−jkω0β)
1
T
∫
Ty(α) exp(−jkω0α)dα
︸ ︷︷ ︸
dk
dβ = Tdk1
T
∫
Tx(β) exp(−jkω0β) = Tckdk
⋄
Propriedade 7.19Serie Trigonometrica de Fourier
Considere o sinal x(t) real e periodico, de perıodo T . Entao
x(t) = c0 ++∞∑
k=1
(ck exp(jkω0t) + c−k exp(−jkω0t)
)
que pode ser escrito como
Bonatti, Lopes & Peres
119
x(t) = a0 ++∞∑
k=1
(ak cos(kω0t) + bksen(kω0t)
)
com
a0 = c0 =1
T
∫
Tx(t)dt (valor medio)
ak = (ck + c−k) =2
T
∫
Tx(t) cos(kω0t)dt ; bk = j(ck − c−k) =
2
T
∫
Tx(t)sen(kω0t)dt
Os coeficientes ak e bk sao reais.
⋄
Exemplo 7.16A serie trigonometrica de Fourier para a funcao quadrada periodica da Figura 7.2 e
x(t) =4
π
(cos(ω0t)
1− cos(3ω0t)
3+
cos(5ω0t)
5− cos(7ω0t)
7· · ·)
; ω0 = 2π/T
x(t)
1
t
T
Figura 7.2: Onda quadrada de perıodo T .
Para o calculo dos coeficientes da serie, a0, ak e bk, define-se a funcao no intervalo (−T/2,+T/2):
x(t) =
−1 t ∈ (−T/2,−T/4)+1 t ∈ (−T/4,+T/4)−1 t ∈ (+T/4,+T/2)
a0 = 0 (valor medio nulo) ; ak =2
T
∫ +T/2
−T/2
x(t) cos(kω0t)dt
ak =2
T
(∫ −T/4
−T/2
(−1) cos(kω0t)dt+
∫ +T/4
−T/4
(1) cos(kω0t)dt +
∫ +T/2
+T/4
(−1) cos(kω0t)dt
)
ak =2
T
(
(−1)1
kω0sen(kω0t)
∣∣∣∣
−T/4
−T/2
+ (1)1
kω0sen(kω0t)
∣∣∣∣
+T/4
−T/4
+ (−1)1
kω0sen(kω0t)
∣∣∣∣
+T/2
+T/4
)
Bonatti, Lopes & Peres
120 Capıtulo 7. Serie de Fourier de Sinais Contınuos
Como ω0 = 2π/T , portanto kω0T/2 = kπ
ak =1
kπ
(
(−1)(sen(−kπ
2)− sen(−kπ)
)+ (1)
(sen(k
π
2)− sen(−kπ
2))
+ (−1)(sen(kπ)− sen(k
π
2)))
ak =4
kπsen(
kπ
2)
sen(kπ) = sen(−kπ) = 0 e sen(−kπ2
) = −sen(kπ
2) , k = 1, 2, . . .
sen(kπ
2) =
−1 , k = 3, 7, 11, . . .0 , k = 2, 4, 6, 8, . . .
+1 , k = 1, 5, 9, 13, . . .
bk =2
T
∫ +T/2
−T/2
x(t)sen(kω0t)dt = 0 (pois o sinal e par)
Comprovando
bk =2
T
(∫ −T/4
−T/2
(−1)sen(kω0t)dt+
∫ +T/4
−T/4
(1)sen(kω0t)dt +
∫ +T/2
+T/4
(−1)sen(kω0t)dt
)
bk =2
T
(
(+1)1
kω0cos(kω0t)
∣∣∣∣
−T/4
−T/2
+ (−1)1
kω0cos(kω0t)
∣∣∣∣
+T/4
−T/4
+ (1)1
kω0cos(kω0t)
∣∣∣∣
+T/2
+T/4
)
bk =1
kπ
(
(+1)(cos(−kπ
2)− cos(−kπ)
)+ (−1)
(cos(k
π
2)− cos(−kπ
2))
+(1)(cos(kπ)− cos(k
π
2)))
cos(−kπ) = cos(kπ) =
+1 k par−1 k ımpar
=⇒ bk =1
kπ
(
− cos(kπ) + cos(kπ))
= 0
A contribuicao das harmonicas da serie de Fourier e ilustrada na Figura 7.3. Observe que aserie passa pelos pontos intermediarios nas discontinuidades e tem picos proximos as transicoes(fenomeno de Gibbs).
A convergencia pontual, fora das discontinuidades, e relativamente lenta. No entanto, sistemaslineares sao em geral “passa-baixas”, isto e, a atenuacao cresce com a frequencia, de modo quea saıda pode ser bem aproximada por uma serie com um numero menor de componentes que osnecessarios para representar a entrada.
Exemplo 7.17Considere o circuito RC com RC = 1 e x(t) igual a onda quadrada com T = 2π, mostrados naFigura 7.4.
O sinal x(t) e periodico (existe para todo t), e portanto a solucao y(t) converge para a solucaoforcada.
Duas situacoes ocorrem, como ilustrado na Figura 7.5.
Bonatti, Lopes & Peres
121
-10 -5 0 5 10-2
-1
0
1
2
-10 -5 0 5 10-2
-1
0
1
2
Harmonica 1
Harmonicas 1 e 3
-10 -5 0 5 10-2
-1
0
1
2
-10 -5 0 5 10-2
-1
0
1
2
Harmonicas 1, 3 e 5
Harmonicas 1, 3, 5 e 7
Figura 7.3: Serie de Fourier para a onda quadrada.
+−
R
x(t) C+
y(t)−
x(t)
1
t
T
Figura 7.4: Circuito RC e onda quadrada.
sk
rk
sk+1
rk+1
Figura 7.5: Carga e descarga do capacitor do circuito RC.
Para x(t) = 1, tem-se
y(t) =(1− exp(−t/τ)
)+ y(0) exp(−t/τ)
e portanto
x(t) = 1 ⇒ rk+1 =(1− exp(−π)
)+ sk exp(−π)
x(t) = −1 ⇒ sk+1 = rk exp(−π)−(1− exp(−π)
)
Bonatti, Lopes & Peres
122 Capıtulo 7. Serie de Fourier de Sinais Contınuos
Os valores de sk e rk sao as condicoes iniciais para cada caso, e os pontos limites da recorrenciasao +0.9171 e −0.9171
O sinal y(t) tambem pode ser calculado aproximando-se x(t) pela serie de Fourier
x(t) ≈ 4
π
(
cos(t)− cos(3t)
3+
cos(5t)
5− cos(7t)
7+ · · ·
)
=
+∞∑
k=1
ımpar
1
2
4
kπ
(
exp(jkt) + exp(−jkt))
A equacao diferencial do circuito e dada por
RCy + y = x ⇒ H(s) =1
1 +RCs
e as componentes yk(t) sao dadas por
yk(t) =
(1
2
)4
kπ
(
H(jk) exp(jkt) +H(−jk) exp(−jkt))
As figuras 7.6 e 7.7 mostram a resposta do circuito obtida pela integracao da equacao diferenciale as aproximacoes pela serie de Fourier. Note que, para um mesmo numero de termos, a seriede Fourier aproxima melhor y(t) que x(t). Isto se deve ao fato que o circuito e “passa-baixas” eportanto atenua as altas frequencias.
-10 -5 0 5 10-2
-1
0
1
2
-10 -5 0 5 10-2
-1
0
1
2
Onda Quadrada e Resposta do RC
Resposta do RC e Harmonica 1
Figura 7.6: Resposta do circuito RC.
A Tabela 7.1 apresenta as contribuicoes de cada elemento da serie de Fourier. Observe que acontribuicao da setima harmonica na entrada e 14% da fundamental, enquanto que na saıda e 3%.
Bonatti, Lopes & Peres
123
-10 -5 0 5 10-2
-1
0
1
2
-10 -5 0 5 10-2
-1
0
1
2
Resposta do RC e Harmonicas 1 e 3
Resposta do RC e Harmonicas 1, 3 e 5
Figura 7.7: Resposta do circuito RC e serie de Fourier.
Entrada Saıda
k | H(jk) | 4/(kπ) | H(jk) | 4/(kπ)
1 0.707 1.273 0.900
3 0.316 0.424 0.134
5 0.196 0.255 0.047
7 0.141 0.182 0.026
Tabela 7.1: Modulo da funcao de transferencia e contribuicoes dos elementos das serie de Fourier daentrada e da saıda do circuito RC.
Propriedade 7.20Derivada
FSx(t)T = ckω0⇒ FS
d
dtx(t)
T= jkω0ckω0
Prova: usando a propriedade (integracao por partes)
∫
udv = uv −∫
vdu
tem-se que os coeficientes da serie de Fourier da derivada sao dados por
1
T
∫
T
( d
dtx(t)
)
exp(−jkω0t)dt =1
T
∫
Texp(−jkω0t)dx(t) =
=1
Tx(t) exp(−jkω0t)
∣∣∣
T
0− 1
T
∫
Tx(t)(−jkω0) exp(−jkω0t)dt = jkω0ck
⋄
Bonatti, Lopes & Peres
124 Capıtulo 7. Serie de Fourier de Sinais Contınuos
Propriedade 7.21Integral
FSx(t)T = ckω0e c0 = 0 ⇒ FS
∫ t
−∞x(β)dβ
T= 1
jkω0ck
ω0
pois
FS
x(t) =d
dty(t)
T= ckω0
= jkω0dkω0
⇒ FS
y(t) =
∫ t
−∞x(β)dβ
T= dkω0
= ckjkω0
ω0
Observe que, se o valor medio de x(t) for diferente de zero, y(t) diverge e nao e um sinal periodico.
⋄
Exemplo 7.18Os coeficientes da serie de Fourier da onda quadrada mostrada na Figura 7.2 foram calculados peladefinicao.
Alternativamente, a propriedade da integral pode ser utilizada para o calculo. Note que a onda porser descrita como
x(t) =
+∞∑
k=−∞
p(t− kT )
p(t) = −u(t+ T/2) + 2u(t+ T/4)− 2u(t− T/4) + u(t− T/2)
Derivando x(t), obtem-se um sinal periodico impulsivo, dado por
y(t) =
+∞∑
k=−∞
q(t− kT )
q(t) = −δ(t+ T/2) + 2δ(t+ T/4)− 2δ(t− T/4) + δ(t− T/2)
Os coeficentes da serie de Fourier de y(t) sao dados por
dk =1
T
∫
T
q(t) exp(−jkω0t)dt =1
T
(
− exp(jkω0T/2)
+2 exp(jkω0T/4)− 2 exp(−jkω0T/4) + exp(−jkω0T/2))
dk =1
T
(
− exp(jkπ) + 2 exp(jkπ/2)− 2 exp(−jkπ/2) + exp(−jkπ))
=1
T4jsen(kπ/2)
Portanto,
ck =dk
jkω0=
2
kπsen(kπ/2)
Bonatti, Lopes & Peres
125
Exemplo 7.19Considere os sinais
x(t) =
+∞∑
k=−∞
p(t− kT )
p(t) = −u(t+ T/2) + 2u(t+ T/4)− 2u(t− T/4) + u(t− T/2)
y(t) =
+∞∑
k=−∞
q(t− kT ) , q(t) = Ip(t) =
∫ t
−∞
p(β)dβ
a) Esboce os sinais p(t), x(t), q(t) e y(t);
b) Determine os coeficientes da serie exponencial de Fourier de y(t)
Resumo
• Sinais periodicos podem ser representados pela serie de Fourier
x(t) =+∞∑
k=−∞
ck exp(jkω0t) ⇔ ck =1
T
∫
Tx(t) exp(−jkω0t)dt
• Sistemas lineares invariantes no tempo sao caracterizados por sua resposta ao impulso h(t)
• Os sinais exp(st) sao auto-funcoes dos sistemas lineares invariantes no tempo.
• Portanto, a serie de Fourier da saıda de um sistema linear invariante no tempo e igual a
y(t) =
+∞∑
k=−∞
ck H(s)
∣∣∣∣∣s=jkω0
exp(jkω0t)
com
H(s) =
∫ +∞
−∞h(t) exp(−st)dt
igual a transformada de Laplace da resposta ao impulso do sistema.
Bonatti, Lopes & Peres
Capıtulo 8
Transformada de Fourier de Sinais
Contınuos
A serie de Fourier e adequada para a descricao de um sinal em um intervalo de tempo T , ou parasinais periodicos de perıodo T .
x(t) =
+∞∑
k=−∞
ck exp(jkω0t) , |t| < T
2e ω0 =
2π
T; ck =
1
T
∫ +T/2
−T/2x(t) exp(−jkω0t)dt
A transformada de Fourier descreve apropriadamente sinais periodicos ou nao periodicos (pulsos),como ilustrado na Figura 8.1.
x(t)
t
T
Figura 8.1: Sinal x(t) descrito em um intervalo (−T/2, T/2).
Retomando a expressao para a serie exponencial de Fourier, com ∆ω = 2π/T e Xk = Tck, tem-se
x(t) =1
T
+∞∑
k=−∞
Xk exp(jk∆ωt) ; | t |< T/2 , Xk =
∫ +T/2
−T/2x(t) exp(−jk∆ωt)dt
Definindo a funcao X(ω), tal que X(k∆ω) = Xk, tem-se
x(t) =1
2π
+∞∑
k=−∞
X(k∆ω) exp(jk∆ωt)∆ω , X(k∆ω) =
∫ +T/2
−T/2x(t) exp(−jk∆ωt)dt
Fazendo T → +∞ ⇒ ∆ω → 0, tem-se
126
127
x(t) =1
2π
∫ +∞
−∞X(ω) exp(jωt)dω , X(ω) =
∫ +∞
−∞x(t) exp(−jωt)dt
Definicao: Transformada de Fourier
X(ω) = Fx(t) =
∫ +∞
−∞x(t) exp(−jωt)dt
x(t) = F−1X(ω) =1
2π
∫ +∞
−∞X(ω) exp(jωt)dω
Propriedade 8.1Condicoes Suficientes para a Existencia da Transformada de Fourier
As condicoes suficientes sao as mesmas que as da serie de Fourier, estendidas para o intervalo infinitode integracao. Por exemplo, sinais de energia (isto e, sinais quadraticamente integraveis).
Entretanto, a transformada de Fourier sera tambem aplicada para sinais cujas integrais divergem deforma impulsiva, incluindo assim os sinais de potencia, como por exemplo sinais senoidais.
⋄
Propriedade 8.2A transformada de Fourier e linear, ou seja
Fa1x1(t) + a2x2(t) = a1Fx1(t)+ a2Fx2(t)
⋄
Propriedade 8.3Valor na origem
Fx(t) = X(ω) ⇒ X(0) =
∫ +∞
−∞x(t)dt , x(0) =
1
2π
∫ +∞
−∞X(ω)dω
Observacao: se as funcoes forem descontınuas em 0, as integrais produzem o valor medio.
⋄
Exemplo 8.1Exponencial Complexa
A transformada de Fourier de
x(t) = exp(−at)u(t) , Re(a) > 0
e dada por
Bonatti, Lopes & Peres
128 Capıtulo 8. Transformada de Fourier de Sinais Contınuos
F
exp(−at)u(t)
=1
jω + a
pois
X(ω) =
∫ +∞
−∞
exp(−at)u(t) exp(−jωt)dt =
∫ +∞
0
exp(− (jω + a)t
)dt =
=−1
jω + aexp
(− (jω + a)t
)∣∣∣∣
+∞
0
Note que
Lexp(−at)u(t) =1
s+ a, Re(s+ a) > 0
ou seja, a transformada de Fourier tem a mesma forma da transformada de Laplace, trocando-ses por jω. Note ainda que, se Re(a) < 0, a transformada de Fourier nao existe. Entretanto, atransformada de Laplace existe com um domınio que nao contem s = jω
Note que (Propriedade 8.3)
X(0) =
∫ +∞
−∞
x(t)dt =
∫ +∞
−∞
exp(−at)u(t)dt =−1
aexp(−at)
∣∣∣
+∞
0=
1
a
Propriedade 8.4Para x(t) real, o modulo de X(ω) e uma funcao par e a fase e ımpar, ou seja
| X(ω) |=| X(−ω) |
∠X(ω) = −∠X(−ω)
⇒ X(−ω) = X∗(ω)
Prova:
X(ω) =
∫ +∞
−∞x(t) exp(−jωt)dt = A(ω)− jB(ω)
com
A(ω) =
∫ +∞
−∞x(t) cos(ωt)dt (par) , B(ω) =
∫ +∞
−∞x(t)sen(ωt)dt (ımpar)
| X(−ω) |=√
A2(−ω) +B2(−ω) =√
A2(ω) +B2(ω) =| X(ω) | (par)
∠X(−ω) = arctan−B(−ω)
A(−ω)= arctan
B(ω)
A(ω)= − arctan
−B(ω)
A(ω)= −∠X(ω) (ımpar)
⋄
Bonatti, Lopes & Peres
129
Exemplo 8.2Exponencial Real
A transformada de Fourier de
x(t) = exp(−at)u(t) , a > 0 a real
e dada por
Fexp(−at)u(t) =1
jω + a=
1√
(ω2 + a2)exp
(− j arctan(ω/a)
)
confirmando a Propriedade 8.4 (sinais reais tem modulo par e fase ımpar).
Note que x(t) = exp(−at)u(t) e descontınua em t = 0 e o valor da transformada inversa em t = 0e x(0) = 0.5 (valor medio na descontinuidade), pois
2πx(0) =
∫ +∞
−∞
1
jω + adω =
∫ +∞
0
( 1
−jω + a+
1
jω + a
)
dω =
∫ +∞
0
2a
ω2 + a2dω =
=2
a
∫ +∞
0
1
(ω/a)2
+ 1dω = 2
∫ +∞
0
1
ω2 + 1dω = 2
∫ +π/2
0
dθ = π
ω = tan(θ) ⇔ d tan(θ)
tan2(θ) + 1= dθ
Teorema 8.1Parseval
Se x(t) e um sinal de energia, entao
∫ +∞
−∞| x(t)|2dt =
1
2π
∫ +∞
−∞| X(ω)|2dω Energia
Prova:
2π
∫ +∞
−∞| x(t)|2dt = 2π
∫ +∞
−∞x(t)x∗(t)dt =
∫ +∞
−∞x(t)
∫ +∞
−∞X∗(ω) exp(−jωt)dω
︸ ︷︷ ︸
2πx∗(t)
dt
=
∫ +∞
−∞X∗(ω)
∫ +∞
−∞x(t) exp(−jωt)dt
︸ ︷︷ ︸
X(ω)
dω =
∫ +∞
−∞X∗(ω)X(ω)dω =
∫ +∞
−∞| X(ω)|2dω
Definicao: Densidade Espectral de Energia
A densidade espectral de um sinal de energia x(t) cuja transformada e X(ω) = Fx(t) e dada por
1
2π| X(ω)|2
Bonatti, Lopes & Peres
130 Capıtulo 8. Transformada de Fourier de Sinais Contınuos
Exemplo 8.3Retomando o Exemplo 8.2, ilustrado na Figura 8.2 para a = 1, tem-se que x(t) e um sinal deenergia, pois
Energia =
∫ +∞
−∞
|x(t)|2dt =
∫ +∞
−∞
exp(−2at)u(t)dt = − 1
2aexp(−2at)
∣∣∣∣
∞
0
=1
2a
-4 -2 0 2 4-0.5
0
0.5
1
1.5
t
Figura 8.2: x(t) = exp(−t)u(t).
A densidade espectral de energia e dada por
1
2π| X(ω) |2 =
1
2π
(1
a2 + ω2
)
ilustrada na Figura 8.3 para a = 1.
-10 -5 0 5 100
0.2
0.4
0.6
0.8
1
1.2
ω
Figura 8.3: Densidade espectral de energia de x(t) = exp(−t)u(t).
O Teorema de Parseval e verificado, pois
Energia =1
2π
∫ +∞
−∞
(1
a2 + ω2
)
dω =1
2πaarctan
(ω
a
)∣∣∣
+∞
−∞=
1
2πa
(π
2−(
−π2
))
=1
2a
Bonatti, Lopes & Peres
131
Uma avaliacao da distribuicao da area sob a curva da Figura 8.3 pode ser obtida a partir do ındice
Ik =area de −k a +k
area total⇒ I5 = 0.87, I10 = 0.94, I40 = 0.98
Definicao: Correlacao
A funcao definida pela integral
rxy(τ) =
∫ +∞
−∞x(t)y∗(t− τ)dt =
∫ +∞
−∞x(t+ τ)y∗(t)dt , τ ∈ R
e chamada de correlacao cruzada entre os sinais x(t) e y(t), e a funcao rx(τ) = rxx(τ) e denominadade auto-correlacao de x(t).
Note que a correlacao rxy(0) e o numerador do coeficiente de projecao do sinal x(t) no sinal y(t) dadopor
< x(t)y∗(t) >
< |y(t)|2 >
Propriedade 8.5Correlacao
• rxy(τ) = x(τ) ∗ y∗(−τ)
• rxy(τ) = r∗yx(−τ)pois
ryx(−τ) =
∫ +∞
−∞y(t)x∗(t+ τ)dt =
∫ +∞
−∞y(t− τ)x∗(t)dt
Portanto, para x(t) real, a funcao de auto-correlacao e par
rx(τ) = rx(−τ)
• 2rx(0) > |rx(τ) + rx(−τ)| , τ 6= 0
pois
⟨(x(t)± x(t− τ)
)(x(t)± x(t− τ)
)∗⟩
≥ 0
2rx(0)±(rx(τ) + rx(−τ)
)> 0 ⇒ 2rx(0) > |rx(τ) + rx(−τ)|
Para sinais reais,
rx(0) > |rx(τ)| , τ 6= 0
Bonatti, Lopes & Peres
132 Capıtulo 8. Transformada de Fourier de Sinais Contınuos
• Frxy(τ) = Fx(τ) ∗ y∗(−τ) = X(ω)Y ∗(ω)
pois Fx∗(t) = X∗(−ω).
• A transformada de Fourier da auto-correlacao rx(τ) e igual a densidade espectral de x(t) (mul-tiplicada por 2π)
Frx(τ) = |X(ω)|2
⋄
Propriedade 8.6Reversao no Tempo
Fx(−t) = X(−ω)
pois
Fx(−t) =
∫ +∞
−∞x(−t) exp(−jωt)dt = −
∫ −∞
+∞x(β) exp(jωβ)dβ
=
∫ +∞
−∞x(β) exp
(− j(−ω)β
)dβ =
∫ +∞
−∞x(t) exp
(− j(−ω)t
)dt = X(−ω)
⋄
Exemplo 8.4
Fexp(−at)u(t) =1
jω + a; Re(a) > 0 ⇒ Fexp(at)u(−t) =
1
−jω + a; Re(a) > 0
A Figura 8.4 mostra o sinal x(t) = exp(t)u(−t).
A densidade espectral de energia e dada por
1
2π| X(ω) |2 =
1
2π
(1
a2 + ω2
)
que e tambem a densidade espectral de x(−t) = exp(−t)u(t), mostrada na Figura 8.3.
Propriedade 8.7x(t) real e par
A transformada de Fourier de um sinal real e par x(t) e um sinal X(ω) real e par, pois
∫ +∞
−∞x(t) exp(−jωt)dt =
∫ +∞
−∞x(t) cos(ωt)dt− j
∫ +∞
−∞x(t)sen(ωt)dt
︸ ︷︷ ︸
= 0
⋄
Bonatti, Lopes & Peres
133
-4 -2 0 2 4-0.5
0
0.5
1
1.5
t
Figura 8.4: x(t) = exp(t)u(−t).
Exemplo 8.5Considere o sinal x(t) dado por
x(t) = exp(−a | t |) = exp(−at)u(t) + exp(at)u(−t) , a > 0
mostrado na Figura 8.5 para a = 1, cuja transformada de Fourier e
X(ω) =1
jω + a+
1
−jω + a=
2a
ω2 + a2
-4 -2 0 2 4-0.5
0
0.5
1
1.5
t
Figura 8.5: x(t) = exp(− | t |).
Note que X(ω) e uma funcao real e par, pois x(t) e real e par.
A densidade espectral de energia, mostrada na Figura 8.6 para a = 1, e
1
2π| X(ω)|2 =
1
2π| 2a/(a2 + ω2)|2
Bonatti, Lopes & Peres
134 Capıtulo 8. Transformada de Fourier de Sinais Contınuos
-10 -5 0 5 10-1
0
1
2
3
4
5
ω
Figura 8.6: Espectro de energia do sinal x(t) = exp(− | t |).
Observe que a densidade espectral cai com ω4, enquanto que nos exemplos 8.2 e 8.4 o decaimentoocorre com ω2. Esse comportamento em frequencia esta relacionado a presenca ou nao de descon-tinuidades nos sinais.
O espalhamento em frequencia do espectro pode ser avaliado pelo ındice Ik definido no Exemplo 8.2,resultando neste caso em
I5 = 0.99 ; I10 = 1.00
confirmando que a energia esta mais concentrada do que nos caso dos sinais com descontinuidade.
A integral de x(t) e 2/a, o que e confirmado pelo valor de
X(0) =
∫ +∞
−∞
x(t)dt =2
a
e a integral de X(ω) e igual a 2π, o que e confirmado por
x(0) =1
2π
∫ +∞
−∞
X(ω)dω = 1
Propriedade 8.8Simetria
Fx(t) = X(ω) ⇔ FX(t) = 2πx(−ω)
pois
x(t) =1
2π
∫ +∞
−∞X(ω) exp(jωt)dω ⇒ 2πx(t) =
∫ +∞
−∞X(β) exp(jβt)dβ
2πx(−ω) =
∫ +∞
−∞X(β) exp(−jωβ)dβ ⇒ 2πx(−ω) =
∫ +∞
−∞X(t) exp(−jωt)dt = FX(t)
⋄
Bonatti, Lopes & Peres
135
Exemplo 8.6A transformada de Fourier de
x(t) =1
1 + t2
e dada por
X(ω) = π exp(−|ω|)
pois, pela Propriedade 8.8 (simetria), tem-se
F1
2exp(−|t|)
=1
1 + ω2⇔ F
1
1 + t2
= π exp(−|ω|)
Note que x(t) e X(ω) sao ambas funcoes reais e pares
Exemplo 8.7A transformada de Fourier da funcao gate
x(t) = GT (t) = u(t+ T/2)− u(t− T/2)
mostrada na Figura 8.7, e dada por
FGT (t) = TSa(ωT/2) , Sa(ωT/2) =sen(ωT/2)
ωT/2
GT (t)
−T2
T
2t
1
Figura 8.7: Funcao gate GT (t).
pois
FGT (t) =
∫ +∞
−∞
GT (t) exp(−jωt)dt =
∫ +T/2
−T/2
exp(−jωt)dt =
=−1
jωexp(−jωt)
∣∣∣∣
+T/2
−T/2
= T
(sen(ωT/2)
ωT/2
)
= TSa(ωT/2)
Note que o primeiro cruzamento de Sa(ω/2) com o eixo das abscissas ocorre em 2π/T . Portanto,quanto mais estreito for o pulso no tempo, mais espalhado sera seu espectro em ω e vice-versa.
A funcao Sa(ω/2) e mostrada na Figura 8.8, e a densidade espectral de energia (multiplicada por2π) e mostrada na Figura 8.9.
Bonatti, Lopes & Peres
136 Capıtulo 8. Transformada de Fourier de Sinais Contınuos
-30 -20 -10 0 10 20 30-0.5
0
0.5
1
1.5
ω
Figura 8.8: Funcao Sa(ω/2) (sampling).
-20 -15 -10 -5 0 5 10 15 20-0.2
0
0.2
0.4
0.6
0.8
1
1.2
ω
Figura 8.9: | X(ω)|2 = Sa2(ω/2).
Note que os ındices de espalhamento em frequencia do espectro, neste caso, dados por
I2π = 0.90 ; I4π = 0.95 ; I8π = 0.97
sao similares aos do sinal do Exemplo 8.2, que tambem possui descontinuidade.
Exemplo 8.8
FSa(ω0t/2) =2π
ω0Gω0
(ω)
pois
F 1
αGα(t)
= Sa(ωα/2)
Bonatti, Lopes & Peres
137
e, pela Propriedade 8.8 (simetria),
FSa(tα/2) =2π
αGα(−ω)
Note que a transformada de Fourier da funcao sampling, que nao e limitada no tempo, e uma funcaogate, ou seja, e limitada em frequencia.
Propriedade 8.9Transformada de Fourier da funcao impulso δ(t)
Fδ(t) =
∫ +∞
−∞δ(t) exp(−jωt)dt = 1
Observe que δ(t) nao e um sinal de energia e portanto o Teorema de Parseval nao se aplica.
Note tambem que a funcao impulso poderia ser calculada como a transformada inversa de 1, ou seja
δ(t) = F−11 =1
2π
∫ +∞
−∞exp(jωt)dω
⋄
Definicao: Sinais de Potencia
Um sinal x(t) e de potencia finita se
limT→+∞
1
T
∫ +T/2
−T/2|x(t)|2dt < +∞
Por exemplo, x1(t) = sen(t) e um sinal de potencia, e o sinal x(t) = G2(t) e um sinal de energia, pois
∫ +∞
−∞|x(t)|2dt =
∫ 1
−1dt = 2 < +∞
Exemplo 8.9A transformada de Fourier do sinal
x(t) = 1
e dada porF1 = 2πδ(−ω) = 2πδ(ω)
pela Propriedade 8.8 (simetria).
Exemplo 8.10A transformada de Fourier de
sinal(t) =
+1 , t > 0
−1 , t < 0
Bonatti, Lopes & Peres
138 Capıtulo 8. Transformada de Fourier de Sinais Contınuos
e dada por
Fsinal(t) =2
jω
pois, escrevendo a funcao sinal(t) na forma
sinal(t) = lima→0+
(exp(−at)u(t)− exp(at)u(−t)
)
tem-se
Fsinal(t) = lima→0+
( 1
a+ jω− 1
a− jω)
=2
jω
Note que a funcao sinal(t) possui a mesma potencia media que a funcao x(t) = 1, mas as transfor-madas de Fourier sao distintas, assim como os valores medios, 0 e 1, respectivamente.
A funcao sinal(t) pode ser interpretada como uma inversao de polaridade numa alimentacao emcorrente contınua (acionamento de uma chave).
A transformada de Fourier da funcao sinal(t) ilustra o ruıdo (clic) que se ouve nos radios a pilhaquando um interruptor da rede eletrica, proximo do radio, e acionado.
Exemplo 8.11A transformada de Fourier da funcao
x(t) = u(t)
e dada por
Fu(t) = F1
2+
1
2sinal(t)
= πδ(ω) +1
jω
Propriedade 8.10Deslocamento no Tempo
Fx(t− τ) = X(ω) exp(−jωτ)pois
Fx(t− τ) =
∫ +∞
−∞x(t− τ)exp(−jωt)dt
Fx(t− τ) =
∫ +∞
−∞x(β) exp(−jωβ) exp(−jωτ)dβ = exp(−jωτ)
∫ +∞
−∞x(β) exp(−jωβ)dβ
︸ ︷︷ ︸
X(ω)
⋄
Exemplo 8.12
Fδ(t− τ) = exp(−jωτ)
Bonatti, Lopes & Peres
139
Propriedade 8.11Deslocamento em Frequencia
Fx(t) exp(jω0t) = X(ω − ω0)
pois
Fx(t) exp(jω0t) =
∫ +∞
−∞x(t) exp(jω0t)exp(−jωt)dt =
=
∫ +∞
−∞x(t) exp
(− j(ω − ω0)t
)
dt = X(ω − ω0)
⋄
Exemplo 8.13
Fexp(jω0t) = 2πδ(ω − ω0)
pois, aplicando-se a Propriedade 8.11 (deslocamento em frequencia) para x(t) = 1, tem-se
F1 = 2πδ(ω) ⇒ Fexp(jω0t) = 2πδ(ω − ω0)
Exemplo 8.14
Fexp(−jω0t) = 2πδ(ω + ω0)
Exemplo 8.15
Fcos(ω0t) = F1
2exp(jω0t) +
1
2exp(−jω0t)
= πδ(ω − ω0) + πδ(ω + ω0)
Exemplo 8.16
Fsen(ω0t) = F 1
2jexp(jω0t)−
1
2jexp(−jω0t)
=π
jδ(ω − ω0)−
π
jδ(ω + ω0)
Propriedade 8.12Transformada de Fourier de Sinal Periodico
Considere o sinal periodico
Bonatti, Lopes & Peres
140 Capıtulo 8. Transformada de Fourier de Sinais Contınuos
x(t) =1
T
+∞∑
k=−∞
Xk exp(jkω0t) , Xk =
∫ +T/2
−T/2x(t) exp(−jkω0t)dt
A transformada de Fourier de x(t) e dada pelo trem de impulsos modulado
X(ω) = ω0
+∞∑
k=−∞
Xkδ(ω − kω0) , ω0 =2π
T
pois
X(ω) = Fx(t) =1
T
+∞∑
k=−∞
XkFexp(jkω0t) =2π
T
+∞∑
k=−∞
Xkδ(ω − kω0)
⋄
Exemplo 8.17
F +∞∑
k=−∞
δ(t− kT )
= ω0
+∞∑
k=−∞
δ(ω − kω0)
Propriedade 8.13Transformada de Fourier da Convolucao
Fx(t) ∗ y(t)
= F
x(t)
Fy(t)
= X(ω)Y (ω)
pois
Fx(t) ∗ y(t)
= F
∫ +∞
−∞x(t− β)y(β)dβ
=
∫ +∞
−∞y(β)
(∫ +∞
−∞x(t− β)exp(−jωt)dt
)
︸ ︷︷ ︸
X(ω) exp(−jωβ)
dβ
Fx(t) ∗ y(t)
= X(ω)
∫ +∞
−∞y(β) exp(−jωβ)dβ = X(ω)Y (ω)
⋄
Exemplo 8.18A transformada de Fourier do sinal
Tri2T (t) = (t/T + 1)GT (t+ T/2) + (1− t/T )GT (t− T/2) =1
TGT (t) ∗GT (t)
e dada por
FTri2T (t) =1
T
(
TSa(ωT
2
))2
= TSa2(ωT
2
)
Bonatti, Lopes & Peres
141
Exemplo 8.19A transformada de Fourier do sinal Sa2
(ω0t
2
)
e dada por (usando a Propriedade 8.8, de simetria)
F
Sa2(ω0t
2
)
=2π
ω0Tri2ω0
(−ω) =2π
ω0Tri2ω0
(ω)
Propriedade 8.14Transformada da Integral
F
Ix(t) =
∫ t
−∞x(β)dβ
= Fx(t) ∗ u(t) = X(ω)(
πδ(ω) +1
jω
)
Se X(0) = 0, isto e, se
∫ +∞
−∞x(t)dt = 0
entao
F
Ix(t) =
∫ t
−∞x(β)dβ
=1
jωX(ω)
⋄
Exemplo 8.20A transformada de Fourier do sinal x(t) = Tri2(t) mostrado na Figura 8.10 pode ser obtida a partirdas suas derivadas sucessivas.
1
1
−1
x(t)
t
Figura 8.10: Sinal x(t) = Tri2(t).
A Figura 8.11 mostra o sinal x(t) derivado duas vezes. Observe que as areas sob as funcoes x(t) ex(t) sao nulas.
A transformada de Fourier da derivada segunda e
Fd2x(t)
dt2
= Fδ(t+ 1)− 2δ(t) + δ(t− 1) = exp(+jω)− 2 + exp(−jω)
Fd2x(t)
dt2
= −2(1− cos(ω)
)= −4sen2
(ω
2
)
Bonatti, Lopes & Peres
142 Capıtulo 8. Transformada de Fourier de Sinais Contınuos
11
1
1
1
−1
−1
−1
dx
dt
t
t
−2
d2x
dt2
Figura 8.11: Derivadas do sinal x(t) = Tri2(t).
Como a derivada segunda de x(t) tem media nula, tem-se
F d
dtx(t)
=1
(jω)
(
− 4sen2(ω
2
))
Como a derivada primeira de x(t) tem media nula, tem-se
Fx(t) = X(ω) =−4
(jω)(jω)sen2
(ω
2
)
=sen2
(ω2
)
(ω2
)2 = Sa2(ω
2
)
Propriedade 8.15Transformada da Derivada
F d
dtx(t)
= (jω)X(ω)
pois
x(t) =1
2π
∫ +∞
−∞X(ω)exp(jωt)dω ⇒
d
dtx(t) =
1
2π
∫ +∞
−∞X(ω)
d
dtexp(jωt)dω =
1
2π
∫ +∞
−∞(jω)X(ω)exp(jωt)dω
⋄
Bonatti, Lopes & Peres
143
Propriedade 8.16Transformada de Fourier do Produto
Fx(t)y(t) =1
2πFx(t) ∗ Fy(t) =
1
2πX(ω) ∗ Y (ω)
pois
Fx(t)y(t) =
∫ +∞
−∞x(t)y(t)exp(−jωt)dt =
∫ +∞
−∞x(t)
( 1
2π
∫ +∞
−∞Y (β) exp(jβt)dβ
)
exp(−jωt)dt
=1
2π
∫ +∞
−∞Y (β)
(∫ +∞
−∞x(t) exp(−jt(ω − β)dt
)
︸ ︷︷ ︸
X(ω − β)
dβ =1
2π
∫ +∞
−∞Y (β)X(ω − β)dβ
⋄
Exemplo 8.21Modulacao
Fx(t) cos(ω0t) =1
2πX(ω) ∗
(
πδ(ω − ω0) + πδ(ω + ω0))
=1
2X(ω − ω0) +
1
2X(ω + ω0)
Exemplo 8.22Recuperacao de um sinal modulado
Considere o sinal
y(t) = x(t) cos(ω0t)
com X(ω) = 0 para |ω| > 2πB e 2πB < ω0, B real positivo.
O sinal resultante da passagem de 2y(t) cos(ω0t) por um filtro passa-baixas ideal de frequencia decorte B e x(t), pois
2x(t) cos(ω0t) cos(ω0t) = x(t)(1 + cos(2ω0t)
)
O filtro rejeita a parcela que esta centrada em 2ω0, ficando apenas o espectro de x(t).
Propriedade 8.17Serie de Fourier a partir da Transformada de Fourier
Considere o sinal periodico
x(t) =+∞∑
k=−∞
p(t− kT ) , p(t) = 0 para |t| > T/2
Bonatti, Lopes & Peres
144 Capıtulo 8. Transformada de Fourier de Sinais Contınuos
Usando-se serie exponencial de Fourier, x(t) pode ser escrito como
x(t) =+∞∑
k=−∞
ck exp(jkω0t) ; ck =1
T
∫ T/2
−T/2x(t) exp(−jkω0t)dt
Como x(t) = p(t) para |t| < T/2, tem-se
P (kω0) =
∫ +∞
−∞p(t) exp(−jkω0t)dt = Tck ; P (ω) = Fp(t)
Os coeficientes da serie trigonometrica podem ser obtidos a partir de ck = P (kω0)/T
x(t) = a0 ++∞∑
k=1
(ak cos(kω0t) + bksen(kω0t)
)
com valor medio dado por
a0 = c0 =1
T
∫ +T/2
−T/2x(t)dt =
1
TP (0)
Os coeficientes dos termos em cosseno sao dados por
ak =(ck + c−k
)=
2
T
∫ +T/2
−T/2x(t) cos(kω0t)dt
ak =1
T(P (kω0) + P (−kω0)) =
2
TRe P (kω0)
Os coeficientes dos termos em seno sao dados por
bk = j(ck − c−k
)=
2
T
∫ +T/2
−T/2x(t)sen(kω0t)dt
bk =j
T
(P (kω0)− P (−kω0)
)=−2
TIm P (kω0)
⋄
Exemplo 8.23Considere o sinal
x(t) =
+∞∑
k=−∞
p(t− kT ) , p(t) = TriT (t)
P (ω) = FTriT (t) = F 2
TGT/2(t) ∗GT/2(t)
=T
2Sa2(ωT
4
)
Para T = 2, tem-se
P (ω) = Sa2(ω
2
)
Bonatti, Lopes & Peres
145
P (kω0) = Sa2
(kπ
2
)
=
1 , k = 00 , k 6= 0 par
(2
kπ
)2
, k ımpar
a0 =1
TP (0) =
1
2; ak =
4
k2π2, k ımpar ; ak = 0 , k par ; bk = 0 pois P (ω) e real
Bonatti, Lopes & Peres
Capıtulo 9
Amostragem de Sinais Contınuos
Teorema 9.1Amostragem
Um sinal, limitado em frequencia, pode ser representado com erro nulo por amostras igualmenteespacadas de intervalo T < (2B)−1, sendo B a maxima frequencia da transformada de Fourier dosinal.
Antes da demonstracao do teorema, alguns resultados preliminares sao necessarios.
Propriedade 9.1As funcoes sampling sao ortogonais.
Prova:Considere as funcoes sampling ϕk(t) dadas por
ϕk(t) = Sa(ω0
2(t− kT )
)
, com ω0 =2π
Tmostradas na Figura 9.1.
Como as funcoes ϕk(t) sao reais, o produto escalar e dado por
Ikℓ =
∫ +∞
−∞ϕk(t)ϕℓ(t)dt , k e ℓ inteiros
Ikℓ = Fϕk(t)ϕℓ(t)∣∣∣ω = 0
=1
2πFϕk(t) ∗ Fϕℓ(t)
∣∣∣ω = 0
Note que
X(ω) ∗ Y (ω)∣∣∣ω = 0
=
∫ +∞
−∞X(ω)Y (−ω)dω , Φk(ω) = Fϕk(t) = TGω0
(ω) exp(−jωkT )
pois
F
Sa(ω0
2t)
=2π
ω0Gω0
(ω)
Portanto,
Ikℓ =1
2π
∫ +∞
−∞TGω0
(ω) exp(−jωkT )︸ ︷︷ ︸
Φk(ω)
TGω0(−ω) exp(jωℓT )
︸ ︷︷ ︸
Φℓ(−ω)
dω =
146
147
!l
-4 -2 0 2 4-0.5
0
0.5
1
1.5
t/T
k = −3 k = −1 k = 1 k = 3
Figura 9.1: Funcoes sampling Sa(ω0(t− kT )/2
)para k = −3,−1, 1, 3.
=1
2πT 2
∫ +ω0/2
−ω0/2exp
(− jω(k − ℓ)T
)dω
Ikℓ =
T ; k = ℓ0 ; k 6= ℓ
Observe que as funcoes ϕk(t) sao ortogonais e de mesma norma.
⋄
Teorema 9.2Amostragem
Se x(t) e tal que
Fx(t) = X(ω) , X(ω) = 0 , |ω| > 2πB e 0 < T <1
2B
entao
x(t) =+∞∑
k=−∞
x(kT )Sa(ω0
2(t− kT )
)
, ω0 =2π
T
Prova:
Considere a projecao de x(t) na base formada pelas funcoes sampling
x(t) =+∞∑
k=−∞
αkϕk(t) ; ϕk(t) = Sa(ω0
2(t− kT )
)
, com ω0 =2π
T
Como as funcoes ϕk(t) sao ortogonais, os coeficientes αk sao dados por
Bonatti, Lopes & Peres
148 Capıtulo 9. Amostragem de Sinais Contınuos
αk =< x(t)ϕk(t) >
< ϕ2k(t) >
=1
T
∫ +∞
−∞x(t)ϕk(t)dt
αk =1
T
1
2πX(ω) ∗ Fϕk(t)
∣∣∣ω = 0
=1
T
1
2π
∫ +∞
−∞X(β)TGω0
(−β) exp(jβkT )dβ
αk =1
2π
∫ +ω0/2
−ω0/2X(ω) exp(jωkT )dω
Note que se X(ω) = 0 para | ω | > 2πB (limitado em frequencia) e, supondo-se que o intervalo deamostras e tal que
2πB <ω0
2=π
T⇒ T <
1
2Bos limites de integracao podem ser estendidos para −∞ e +∞
αk =1
2π
∫ +∞
−∞X(ω) exp(jωkT )dω = x(kT )
e, portanto,
x(t) =+∞∑
k=−∞
x(kT )Sa(ω0
2(t− kT )
)
Observe que αk = x(kT ), ou seja, os coeficientes da expansao em serie sao os valores das amostras dex(t) nos instantes kT , desde que x(t) tenha transformada limitada em frequencia.
Exemplo 9.1Considere o sinal x(t) = 1, limitado em frequencia para qualquer B > 0.
Se o intervalo de amostragem for T = 1, ou seja, ω0 = 2π, as funcoes Sa(πt− k) formam uma basepara qualquer sinal de faixa B < 0.5.
A Figura 9.2 mostra a aproximacao de x(t) por um numero limitado de amostras, isto e, umae tres amostras, e a Figura 9.3 para cinco e sete amostras. Note que o intervalo de validade daaproximacao aumenta (e que o erro dentro desse intervalo diminui) com o numero de amostras.
Exemplo 9.2Considere o sinal
x(t) = sen(π
2t)
com frequencia ωmax = 2πB = 0.5π e portanto B = 0.25. Amostrando o sinal com intervalo deamostragem T = 1, tem-se as amostras
sen(kπ
2
), k = 0,±1,±2, . . .
A Figura 9.4 mostra a aproximacao de x(t) por duas e quatro amostras e a Figura 9.5 mostra osinal e a aproximacao com seis termos.
Bonatti, Lopes & Peres
149
-10 -5 0 5 10-0.5
0
0.5
1
1.5
-10 -5 0 5 10-0.5
0
0.5
1
1.5
Figura 9.2: Sinal x(t) = 1 aproximado por um (acima) e tres (abaixo) termos de Sa(π(t− kT )
).
-10 -5 0 5 10-0.5
0
0.5
1
1.5
-10 -5 0 5 10-0.5
0
0.5
1
1.5
Figura 9.3: Sinal x(t) = 1 aproximado por cinco (acima) e sete (abaixo) termos de Sa(π(t− kT )
).
Teorema 9.3Amostragem
Considere um sinal x(t) limitado em frequencia, isto e
Fx(t) = X(ω) , X(ω) = 0 , |ω| > 2πB e 0 < T <1
2B
Entao, x(t) pode ser recuperado a partir do sinal xa(t) dado por
xa(t) =+∞∑
k=−∞
x(kT )δ(t− kT )
por meio de um filtro linear passa-baixas ideal de faixa ω0 dado por
Bonatti, Lopes & Peres
150 Capıtulo 9. Amostragem de Sinais Contınuos
-4 -2 0 2 4
-1
0
1
-4 -2 0 2 4
-1
0
1
Figura 9.4: Sinal sen(0.5πt) aproximado por duas (acima) e quatro (abaixo) amostras.
-4 -2 0 2 4
-1
0
1
-4 -2 0 2 4
-1
0
1
Figura 9.5: Sinal sen(0.5πt) (abaixo) e sua aproximacao por seis amostras (acima).
H(jω) = TGω0(ω)
Prova:O sinal xa(t) pode ser escrito como
xa(t) = x(t)+∞∑
k=−∞
δ(t− kT )
chamado de amostragem ideal, resultando em Xa(ω) dado por
Xa(ω) = Fxa(t) =1
2πX(ω) ∗ F
+∞∑
k=−∞
δ(t− kT )
=
Bonatti, Lopes & Peres
151
=1
2πX(ω) ∗ 2π
T
+∞∑
k=−∞
δ(ω − kω0) =1
T
+∞∑
k=−∞
X(ω − kω0)
A funcao Xa(ω) e mostrada na Figura 9.6 para ω0/2 > 2πB (acima) e para ω0/2 < 2πB (abaixo).Note que se ω0/2 for menor do que a maxima frequencia angular 2πB da transformada de Fourier dosinal x(t), ha superposicao (aliasing) dos espectros em Xa(ω).
X(ω)
Xa(ω)
ω
ω
ω0
ω0
Figura 9.6: Funcao Xa(ω) para ω0/2 > 2πB (acima) e para ω0/2 < 2πB (abaixo).
Para X(ω) limitado em frequencia e ω0 adequado (ω0/2 > 2πB), o sinal x(t) pode ser recuperadopela filtragem de Xa(ω), isto e, multiplicando a expressao de Xa(ω) de ambos os lados por TGω0
(ω),tem-se
X(ω) = Xa(ω)TGω0(ω)
A correspondente expressao temporal e dada por
x(t) = xa(t) ∗ F−1TGω0(ω) =
x(t)+∞∑
k=−∞
δ(t− kT )
∗ Sa(ω0
2t)
resultando em
x(t) =+∞∑
k=−∞
x(kT )Sa(ω0
2(t− kT )
)
Observe que, calculando x(t) nos pontos t = mT , m ∈ Z, tem-se
x(mT ) =+∞∑
k=−∞
x(kT )Sa(ω0
2(m− k)T
)
; Sa(ω0
2(m− k)T
)
=
0 , m 6= k1 , m = k
e portanto a contribuicao das demais amostras no instante t = mT e sempre nula, pois trata-se deuma interpolacao.
Bonatti, Lopes & Peres
152 Capıtulo 9. Amostragem de Sinais Contınuos
Exemplo 9.3Interpolacao Linear
Considere um conjunto de pontos x(kT ) e a funcao sampling aproximada
Saa(ω0
2t) = Tri2T (t) , ω0 =
2π
T
mostrada na Figura 9.7, junto com a funcao sampling, para T = 1.
-4 -2 0 2 4-0.5
0
0.5
1
1.5
t
Figura 9.7: Sa(πt) (tracejada) e Tri2(t) (contınua).
A interpolacao
xTri(t) =∑
k
x(kT )Saa(ω0
2(t− kT )
)
resulta na soma de segmentos de retas e requer um calculo bem mais simples do que a interpolacaobaseada no Teorema da amostragem, dada por
xSa(t) =∑
k
x(kT )Sa(ω0
2(t− kT )
)
Observe que xTri(t) corresponde a uniao dos pontos x(kT ) por segmentos de reta (interpolacaolinear).
A Figura 9.8 mostra a interpolacao linear e a Figura 9.9 mostra a interpolacao construıda comfuncoes sampling a partir das amostras com T = 0.25 da funcao
x(t) = sen(t) + sen(πt) + sen(2πt)
cuja maxima frequencia e B = 1 Hz e, portanto, satisfazendo a condicao do teorema da amostragemT < (2B)−1. Na Figura 9.9, as maiores discrepancias ocorrem nas bordas, devido a nao utilizacaode amostras fora do intervalo mostrado.
Teorema 9.4Amostragem
Bonatti, Lopes & Peres
153
0 0.5 1 1.5 2 2.5 3-1
-0.5
0
0.5
1
1.5
2
2.5
3
t
Figura 9.8: sen(t) + sen(πt) + sen(2πt) (tracejada) e interpolacao linear (contınua).
0 0.5 1 1.5 2 2.5 3-1
-0.5
0
0.5
1
1.5
2
2.5
3
t
Figura 9.9: sen(t) + sen(πt) + sen(2πt) (tracejada) e interpolacao com a funcao sampling (contınua).
Bonatti, Lopes & Peres
154 Capıtulo 9. Amostragem de Sinais Contınuos
Considere um sinal x(t) limitado em frequencia, isto e
Fx(t) = X(ω) , X(ω) = 0 , |ω| > 2πB e 0 < T <1
2B
Entao, x(t) pode ser recuperado a partir do sinal xa(t) dado por
xa(t) =+∞∑
k=−∞
x(t)1
∆G∆(t− kT ) ; 0 < ∆ < T
por meio de um filtro linear passa-baixas ideal de faixa ω0 dado por
H(jω) = TGω0(ω)
Prova:
O sinal xa(t) pode ser escrito como
xa(t) = x(t)∑
k
1
∆G∆(t) ∗ δ(t− kT )
resultando em
Xa(ω) =1
2πX(ω) ∗ F
∑
k
1
∆G∆(t) ∗ δ(t− kT )
F∑
k
1
∆G∆(t) ∗ δ(t− kT )
= F 1
∆G∆(t) ∗
∑
k
δ(t− kT )
=
= Sa(∆
2ω)ω0
∑
k
δ(ω − kω0) = ω0
∑
k
Sa(∆
2kω0
)δ(ω − kω0)
Xa(ω) =1
2πX(ω) ∗ ω0
∑
k
Sa(∆
2kω0
)δ(ω − kω0) =
1
TX(ω) +
1
T
∑
k 6=0
Sa(∆
2kω0
)X(ω − kω0)
e portanto
X(ω) = TGω0(ω)Xa(ω)
Propriedade 9.2Amostragem por Pulsos
Considere um sinal x(t) limitado em frequencia, isto e
Fx(t) = X(ω) , X(ω) = 0 , |ω| > 2πB e 0 < T <1
2B
Entao, x(t) pode ser recuperado a partir do sinal xp(t) dado por
xp(t) =+∞∑
k=−∞
x(kT )p(t− kT )
Bonatti, Lopes & Peres
155
sendo p(t) um pulso com transformada de Fourier P (ω), por meio de um filtro linear passa-baixas defaixa ω0 dado por
H(jω) =TGω0
(ω)
P (ω)
Prova:O sinal xp(t) pode ser escrito como
xp(t) =
+∞∑
k=−∞
x(kT )p(t) ∗ δ(t− kT ) = p(t) ∗ xa(t)
com
xa(t) =+∞∑
k=−∞
x(kT )δ(t− kT )
resultando em
Xp(ω) = P (ω)Xa(ω) , Xa(ω) =1
T
+∞∑
k=−∞
X(ω − kω0)
Portanto,
X(ω) =TGω0
(ω)
P (ω)Xp(ω)
⋄
Bonatti, Lopes & Peres
Capıtulo 10
Ortogonalizacao
Suponha que se quer aproximar o sinal y(t) por uma combinacao linear de funcoes fk(t)
y(t) ≈n∑
k=1
αkfk(t)
A dimensao do espaco S gerado pela combinacao linear das funcoes fk(t) e n se as funcoes fk(t) foremlinearmente independentes entre si, isto e, a n funcoes fk(t) formam uma base de representacao doespaco S.
Assim, trata-se de encontrar os valores dos coeficientes αk que minimizem o erro
ǫ(t) = y(t)−n∑
k=1
αkfk(t) = y(t)− α′f(t)
sendo f(t) e o vetor coluna das funcoes do tempo fk(t) e α ∈ Rn o vetor coluna de coeficientes
O valor quadratico do erro pode ser calculado por
ǫ2(t) =(y(t)− α′f(t)
)(y(t)− α′f(t)
)= y2(t) + α′f(t)f(t)′α− 2α′
(f(t)y(t)
)
sendo f(t)f ′(t) uma matriz no Rn×n na qual cada componente e uma funcao do tempo resultante do
produto dois a dois das funcoes fk(t) e f(t)y(t) um vetor coluna no Rn no qual cada componente e o
produto fk(t)y(t).
Calculando-se a media temporal no intervalo no qual deseja-se a aproximacao de y(t) pela serie tem-poral, tem-se
⟨ǫ2(t)
⟩=⟨y2(t)
⟩+ α′
⟨f(t)f ′(t)
⟩α− 2α′
⟨f(t)y(t)
⟩
A matriz R =⟨f(t)f ′(t)
⟩∈ R
n×n de correlacao temporal das funcoes fk(t) e computada como R =[rkℓ
]sendo rkℓ o produto escalar das funcoes fk(t) e fℓ(t), isto e,
rkℓ =⟨fk(t)fℓ(t)
⟩=
∫ +∞
−∞fk(t)fℓ(t)dt , k, ℓ = 1, 2, . . . , n
Observe que R ≈ f∆f′∆∆, sendo f∆ a matriz de discretizacao das funcoes f(t) em um dado intervalo
(a, b) com incremento temporal ∆.
Propriedade 10.1Se as funcoes fk(t) forem linearmente independentes entre si, a matriz R sera, por construcao, umamatriz definida positiva. R e portanto nao-singular, isto e, pode ser invertida, pois
156
157
v′⟨f(t)f ′(t)
⟩v =
⟨v′f(t)f ′(t)v
⟩=⟨(f ′(t)v)′(f ′(t)v)
⟩=⟨β2(t)
⟩
com β(t) = f ′(t)v.
Como as funcoes fk(t) sao linearmente independentes, β(t) = 0 se e somente se v = 0. Portanto,
v′⟨f(t)f ′(t)
⟩v > 0 , ∀v 6= 0
⋄
O erro medio quadratico pode ser escrito
⟨ǫ2(t)
⟩=⟨y2(t)
⟩+ α′Rα− 2α′
⟨f(t)y(t)
⟩
cujo valor mınimo e obtido para α solucao de
d
dα
⟨ǫ2(t)
⟩= 0 ⇒ 2Rα− 2
⟨f(t)y(t)
⟩= 0 ⇒ α = R−1
⟨f(t)y(t)
⟩(10.1)
Exemplo 10.1Considere os sinais linearmente independentes f1(t) e f2(t) dados por
f1(t) = 2G1(t− 0.5) , f2(t) = (3t+ 1)G1(t− 0.5)
mostrados na Figura 10.1.
−1 −0.5 0 0.5 1 1.5 20
1
2
3
4
5
−1 −0.5 0 0.5 1 1.5 20
1
2
3
4
5
Figura 10.1: Funcoes f1(t) = 2G1(t− 0.5) (acima) e f2(t) = (3t+ 1)G1(t− 0.5) (abaixo).
A matriz de correlacao R e dada por
R =⟨f(t)f(t)′
⟩=
[4 55 7
]
⇒ R−1 =1
3
[7 −5−5 4
]
Os sinais f1(t) e f2(t) foram usados para aproximar as funcoes x1(t), x2(t) e x3(t) no intervalo[0, 1], resultando em
x1(t) = 2− t ≈[
1.1667 −0.3333]f(t)
Bonatti, Lopes & Peres
158 Capıtulo 10. Ortogonalizacao
x2(t) = sinh(t) ≈[−0.2102 0.3854
]f(t)
x3(t) = cosh(t) ≈[
0.3651 0.1781]f(t)
A Figura 10.2 mostra os sinais originais (pontilhados) e as aproximacoes. Observe que x1(t) elinearmente dependente de f1(t) e f2(t) e portanto o erro na aproximacao e nulo. Os sinais sinh(t)e cosh(t) nao sao linearmente dependentes das funcoes f1(t) e f2(t), mas puderam ser aproximadoscom erro pequeno no intervalo considerado.
−1 −0.5 0 0.5 1 1.5 20
1
2
3
−1 −0.5 0 0.5 1 1.5 2−0.5
0
0.5
1
1.5
−1 −0.5 0 0.5 1 1.5 20
0.5
1
1.5
2
x1(t)
x2(t)
x3(t)
Figura 10.2: Funcoes x1(t) = 2− t, x2(t) = sinh(t) e x3(t) = cosh(t).
Os coeficientes α, obtidos pela expressao (10.1), determinam a aproximacao com erro quadraticomınimo do sinal y(t) por uma combinacao linear das funcoes linearmente independentes fk(t).
Se as funcoes fk(t) forem ortogonais entre si, R sera uma matriz diagonal, resultando no calculodesacoplado dos coeficientes αk.
Analisa-se a seguir a projecao de sinais em uma base ortogonal com dois propositos: explicitar odesacoplamento no calculo dos coeficientes de projecao e apresentar o algoritmo de ortogonalizacao deGram-Schmidt.1
Suponha que se quer aproximar o sinal y(t) por uma combinacao linear de funcoes ortogonais gk(t).
y(t) ≈n∑
k=1
ckgk(t)
O sinal erro e dado por
ǫ(t) = y(t)−n∑
k=1
ckgk(t)
1Jorgen Pedersen Gram, dinamarques (1850-1916) e Erhard Schmidt, alemao (1876-1959).
Bonatti, Lopes & Peres
159
resultando em
⟨ǫ2(t)
⟩=⟨y2(t)
⟩+
n∑
k=1
c2k⟨g2k(t)
⟩− 2
n∑
k=1
ck⟨y(t)gk(t)
⟩+
n∑
k=1
n∑
l=1︸ ︷︷ ︸
k 6=l
ckcℓ⟨gk(t)gℓ(t)
⟩
︸ ︷︷ ︸
= 0, ortogonais
Note que⟨ǫ2(t)
⟩e uma funcao quadratica estritamente convexa nos coeficientes ck e, portanto, possui
um mınimo global.
∂
∂ck
⟨ǫ2(t)
⟩= 0 =⇒ ck =
⟨y(t)gk(t)
⟩
⟨g2k(t)
⟩ ; k = 1, 2, . . . , n
Observe que o calculo de cada coeficiente ck e desacoplado do calculo dos demais coeficientes, propri-edade que deriva diretamente da hipotese de ortogonalidade das funcoes gk(t) da base.
Um subproduto importante e que o erro ǫ(t) e ortogonal a todos os elementos da base.
⟨ǫ(t)gk(t)
⟩=⟨y(t)gk(t)
⟩−
n∑
ℓ=1
cℓ⟨gℓ(t)gk(t)
⟩=⟨y(t)gk(t)
⟩− ck
⟨g2k(t)
⟩= 0
Note que, impondo⟨ǫ(t)gk(t)
⟩= 0 a priori, obtem-se diretamente os coeficientes ck.
Discute-se, a seguir, os procedimentos para se conseguir uma base ortogonal a partir de um conjuntodado de sinais.
Propriedade 10.2Ortogonalizacao de Gram-Schmidt
Para se obter uma base ortogonal, gk(t), a partir de um conjunto de funcoes, fk(t), usa-se a propriedade:O erro de projecao e sempre ortogonal aos elementos da base.
g1(t) = f1(t) ; gk(t) = fk(t)−k−1∑
ℓ=1
⟨fk(t)gℓ(t)
⟩
⟨g2ℓ (t)
⟩ gℓ(t) , k = 2, . . . , n
Note que g2(t) e o erro da projecao de f2(t) sobre g1(t), g3(t) e o erro da projecao de f3(t) sobre g1(t)e g2(t) e assim por diante.
A dimensao da base sera igual ao numero de funcoes linearmente independentes do conjunto fk(t).
⋄
Exemplo 10.2Considere as funcoes f1(t), f2(t) e f3(t) mostradas na Figura 10.3. Observe que as funcoes saolinearmente independentes, mas nao sao ortogonais, pois
⟨f1(t)f2(t)
⟩6= 0 ,
⟨f2(t)f3(t)
⟩6= 0
Realizando-se a ortogonalizacao de Gram-Schmidt, tem-se
g1(t) = f1(t)
g2(t) = f2(t)−⟨f2(t)g1(t)
⟩
⟨g21(t)
⟩ g1(t) = f2(t)−1
2g1(t)
Bonatti, Lopes & Peres
160 Capıtulo 10. Ortogonalizacao
f1(t)
f2(t)
f3(t)
t
t
t1
1
2 3
Figura 10.3: Funcoes f1(t), f2(t) e f3(t).
g3(t) = f3(t)−⟨f3(t)g1(t)
⟩
⟨g21(t)
⟩ g1(t)−⟨f3(t)g2(t)
⟩
⟨g22(t)
⟩ g2(t) = f3 −1
2g1(t)−
1/2
1/2g2(t)
As funcoes g1(t), g2(t) e g3(t), ortogonais entre si, sao mostradas na Figura 10.4.
g1(t)
g2(t)
g3(t)
−1
2
1
2
t
t
t1
1
1
2 3
Figura 10.4: Funcoes ortogonais g1(t), g2(t) e g3(t).
Exemplo 10.3Considere o sinal x(t), cuja energia e igual a 3, mostrado na Figura 10.5. O sinal x(t) pode serescrito na base g1(t), g2(t) e g3(t), resultando nos coeficientes de projecao dados por
Bonatti, Lopes & Peres
161
⟨x(t)g1(t)
⟩= 2 ,
⟨x(t)g2(t)
⟩= 0 ,
⟨x(t)g3(t)
⟩= −1
x(t)
t
−1
1
1
2 3
Figura 10.5: Sinal x(t) (energia igual a 3).
Portanto,
x(t) =2
2g1(t) +
0
1/2g2(t) +
−1
1g3(t) ⇒ x(t) = g1(t)− g3(t)
Observe que o Teorema de Parseval e satisfeito, pois
⟨x2(t)
⟩=⟨g21(t)
⟩+⟨g23(t)
⟩= 2 + 1 = 3
Exemplo 10.4Considere o conjunto de quatro sinais linearmente independentes f1(t), f2(t), f3(t) e f4(t), nulosfora do intervalo [0, 1].
f1(t) = 2 , f2(t) = 3t+ 1 , f3(t) = sen(2πt) , f4(t) = cos(2πt)
Aplicando-se o algoritmo de Gram-Schmidt obtem-se os sinais g1(t), g2(t), g3(t) e g4(t), mostradosna Figura 10.6. Observe que, por construcao, g1(t) = f1(t), enquanto que g2(t) e alterado paraficar ortogonal a g1(t). O sinal f3(t), que da origem a g3(t), e alterado apenas por g2(t), pois ja eraortogonal a g1(t). O sinal g4(t) e igual a f4(t), pois ja era ortogonal aos tres anteriores.
A enumeracao das funcoes originais fk(t) tem um efeito significativo na forma das funcoes gk(t)resultante da aplicacao do algoritmo de Gram-Schmidt, como pode ser observado no Exemplo 10.4.
O algoritmo de Gram-Schmidt pode ser formulado como o resultado de um problema de triangula-rizacao da matriz R =
⟨f(t)f ′(t)
⟩de correlacao temporal das funcoes fk(t).
Um conjunto de funcoes fk(t) gera, por combinacao linear, um espaco S. Se as n funcoes fk(t)forem linearmente independentes, o espaco S tem dimensao n e f(t) constitui uma base para S (naonecessariamente ortogonal).
Bonatti, Lopes & Peres
162 Capıtulo 10. Ortogonalizacao
−1 −0.5 0 0.5 1 1.5 2
0
1
2
−1 −0.5 0 0.5 1 1.5 2−2
0
2
4
−1 −0.5 0 0.5 1 1.5 2
−1
0
1
−1 −0.5 0 0.5 1 1.5 2
−1
0
1
g1(t)
g2(t)
g3(t)
g4(t)
Figura 10.6: Sinais g1(t), g2(t), g3(t) e g4(t) resultantes da ortogonalizacao de Gram-Schmidt (sinaisoriginais em pontilhado).
Transformacoes lineares na forma
g(t) = Qf(t) , Q nao singular
preservam a representacao do espaco S, isto e, g(t) constitui uma nova base para S.
Assim, a ortogonalizacao pode ser definida em termos da escolha da matriz Q tal que
⟨g(t)g′(t)
⟩=⟨Qf(t)f ′(t)Q′
⟩= QRQ′ = I (10.2)
Note que⟨g(t)g′(t)
⟩= I impoe uma ortonormalizacao, que corresponde a um sistema quadratico de
equacoes com n2 variaveis e n(n+1)/2 restricoes, indicando que ha inumeras maneiras de ortonorma-lizar um conjunto de funcoes linearmente independentes.
A ortogonalizacao de Gram-Schmidt equivale a uma escolha apropriada de Q triangular inferior, poisg1(t) = f1(t), g2(t) = af1(t) + bf2(t), g3(t) = af1(t) + bf2(t) + cf3(t) e assim por diante.
A transformacao de Cholesky2 aplicada a matriz R, simetrica e definida positiva, produz L triangularinferior que satisfaz R = LL′. Assim,
QRQ′ = (QL)(QL)′ = I
Uma solucao trivial, induzida pela decomposicao de Cholesky, e dada por
Q = L−1
Observe que a inversa de uma matriz triangular inferior e, por construcao, uma matriz triangularinferior. Assim, a transformacao de Cholesky permite obter de forma matricial a ortonormalizacao deGram-Schimdt.
2Andre-Louis Cholesky, frances (1875-1918).
Bonatti, Lopes & Peres
163
Exemplo 10.5Considere os sinais gerados pelo deslocamento de um pulso triangular dados por
fk(t) = TriT (t− kT ) ; k = 1, 2, . . . , 5
Os pulsos fk(t) nao sao ortogonais, pois
rkℓ =
∫ +∞
−∞
TriT (t− kT )TriT (t− ℓT )dt ; k, ℓ = 1, 2, . . . , 5
rkℓ =
2T/3 ; k = ℓT/6 ; | k − ℓ |= 10 fora
⇒ R =T
6
4 1 0 0 01 4 1 0 00 1 4 1 00 0 1 4 10 0 0 1 4
Note que se as funcoes fk(t) fossem ortogonais entre si, a matriz R correspondente seria diagonal.
A aplicacao da decomposicao de Cholesky na matriz R para T = 1.5 dada por
R =
1 0.25 0 0 00.25 1 0.25 0 00 0.25 1 0.25 00 0 0.25 1 0.250 0 0 0.25 1
resulta na matriz Q
Q =
+1.000 0 0 0 0−0.258 +1.033 0 0 0+0.069 −0.276 +1.035 0 0−0.019 +0.074 −0.277 +1.035 0+0.005 −0.019 +0.074 −0.277 +1.035
A transformacao g = Qf produz os sinais mostrados na Figura 10.7. Note que o primeiro elementog1 preservou a forma de f1, e os demais elementos foram sendo progressivamente alterados.
Exemplo 10.6Uma permutacao na ordem das funcoes fk(t) do exemplo anterior produz resultados distintos(porem tambem ortogonais). Considere a seguinte ordem
f(t) =[f1(t) f3(t) f5(t) f2(t) f4(t)
]′
que resulta em
R =
1 0 0 0.25 00 1 0 0.25 0.250 0 1 0 0.25
0.25 0.25 0 1 00 0.25 0.25 0 1
Q =
+1.000 0 0 0 00 +1.000 0 0 00 0 +1.000 0 0
−0.267 −0.267 0 +1.069 0−0.019 −0.287 −0.268 +0.077 +1.072
Bonatti, Lopes & Peres
164 Capıtulo 10. Ortogonalizacao
0 1 2 3 4 5 6 7 8 9
0
0.5
1
0 1 2 3 4 5 6 7 8 9
0
0.5
1
0 1 2 3 4 5 6 7 8 9
0
0.5
1
0 1 2 3 4 5 6 7 8 9
0
0.5
1
0 1 2 3 4 5 6 7 8 9
0
0.5
1
Figura 10.7: Sinais ortogonalizados por Gram-Schmidt.
0 1 2 3 4 5 6 7 8 9
0
0.5
1
0 1 2 3 4 5 6 7 8 9
0
0.5
1
0 1 2 3 4 5 6 7 8 9
0
0.5
1
0 1 2 3 4 5 6 7 8 9
0
0.5
1
0 1 2 3 4 5 6 7 8 9
0
0.5
1
Figura 10.8: Sinais f1(t), f3(t), f5(t), f2(t), f4(t) ortogonalizados por Gram-Schmidt.
A transformacao g = Qf , com Q = L−1 e R = LL′, produz os sinais mostrados na Figura 10.8.
Observe que esse ordenamento implicou na alteracao da forma das funcoes f2(t) e f4(t) e napreservacao das funcoes f1(t), f3(t) e f5(t).
Bonatti, Lopes & Peres
165
Bonatti, Lopes & Peres
Capıtulo 11
Resposta em Frequencia
Sistemas contınuos relacionam entradas e saıdas que sao funcoes contınuas no tempo e, se satisfazemo princıpio da superposicao, sao sistemas lineares.
Notacao: y(t) = Gx(t), sendo x(t) a entrada e y(t) a saıda.
Um sistema linear invariante no tempo, isto e,
Gx(t− a) = y(t− a)
satisfaz o teorema da convolucao
y(t) = Gx(t) = h(t) ∗ x(t) , h(t) = Gδ(t)
e possui como auto-funcao a entrada
x(t) = exp(st) ⇒ y(t) = H(s) exp(st)
sendo H(s) a transformada bilateral de Laplace1 da funcao h(t), dada por
H(s) =
∫ +∞
−∞h(β) exp(−sβ)dβ = Lh(t)
O domınio Ωh e o conjunto dos valores de s complexos para os quais a integral e finita.
A funcao H(s) e tambem denominada funcao de transferencia do sistema, pois estabelece uma relacaoentre a transformada de Laplace da entrada e a da saıda
Y (s) = H(s)X(s)
Para H(s) racional, as raızes do denominador de H(s) sao denominadas polos e as raızes do numeradorsao denominadas zeros.
O computo de H(s) para s = jω denomina-se resposta em frequencia do sistema, escrita na forma
H(jω) = M(ω) exp(jφ(ω))
sendo M(ω) o modulo e φ(ω) a fase de H(jω)
1Pierre-Simon Laplace, matematico frances (1749–1827).
166
167
Exemplo 11.1Circuito RC
Considere o circuito RC descrito na Figura 11.1.
x(t)
R+
+
−− C y(t)
Figura 11.1: Circuito RC do Exemplo 11.1.
A entrada e a fonte de tensao x(t) e a saıda y(t) e a tensao no capacitor. O circuito e descrito pelaequacao
y +1
τy =
1
τx ; τ = RC
ou, usando o operador p =d
dt,
(
p+1
τ
)
y =1
τx
A funcao de transferencia e dada por
H(s) =1
τs+ 1=
1/τ
s+ 1/τ
Note que esta funcao de transferencia e a transformada de Laplace de
h(t) =1
τexp(−t/τ)u(t)
A resposta em frequencia e obtida fazendo-se s = jω, resultando em
H(jω) =1
1 + jωτ= M(ω) exp(jφ(ω))
M(ω) =1
√
1 + (τω)2; φ(ω) = − arctan(τω)
As figuras 11.2 e 11.3 mostram respectivamente o modulo e a fase da resposta em frequencia paraRC = 1.
Note que trata-se de um filtro passa-baixas, com a fase variando de 0 a −90 graus quando afrequencia varia de zero a infinito e φ(1/τ) = −45 graus. O filtro RC possui um polo em s = −1/τ .
O modulo varia de 1 (frequencia ω = 0) a 0 (para frequencia ω → +∞), passando por√
2/2 nafrequencia 1/τ .
Bonatti, Lopes & Peres
168 Capıtulo 11. Resposta em Frequencia
0 1 2 3 4 5 6 7 8 9 100
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
ω
M(ω
)
Figura 11.2: Modulo da resposta em frequencia do circuito RC do Exemplo 11.1 com RC = 1.
0 1 2 3 4 5 6 7 8 9 10−90
−80
−70
−60
−50
−40
−30
−20
−10
0
ω
φ(ω
)
Figura 11.3: Fase da resposta em frequencia do circuito RC do Exemplo 11.1 com RC = 1.
Diagramas assintoticos de Bode
Utilizando uma escala logarıtmica para a frequencia ω, os graficos de modulo (em logaritmo) e fase(em graus ou radianos) da resposta em frequencia de um sistema linear podem ser desenhados demaneira aproximada por retas (assıntotas).
Definicao: dB
MdB(ω) = 20 logM(ω)
sendo log o logaritmo na base 10.
A definicao de dB (decibeis) e, classicamente, 10 vezes o logaritmo da relacao. O fator 20 e devido ainterpretacao de que a potencia e proporcional ao quadrado da tensao.
As assıntotas sao definidas para baixa frequencia e para alta frequencia. A frequencia na qual ocorreo encontro das assıntotas e denominada frequencia de corte ωc.
Bonatti, Lopes & Peres
169
Exemplo 11.2Polo real negativo
Considere, com ωc > 0, a funcao de transferencia
H(s) =ωc
s+ ωc
A resposta em frequencia e dada por
H(jω) =1
1 + jω/ωc, M(ω) = (1 + (ω/ωc)
2)−0.5
MdB(ω) = 20 logM(ω) = −10 log(
1 + (ω/ωc)2)
Note que no Exemplo 15.4 (circuito RC), tem-se ωc = 1/τ .
As assıntotas sao definidas para ω ≪ ωc (baixa frequencia) e para ω ≫ ωc (alta frequencia).No exemplo, tem-se MdB ≈ 0 para baixas frequencias e MdB ≈ −20 logω + 20 logωc para altasfrequencias, correspondendo a uma queda de 20 dB por decada (aproximadamente 6 dB por oitava2).
O encontro das assıntotas ocorre em ωc (frequencia de corte). Na frequencia de corte tem-seMdB = −10 log 2 ≈ −3 dB.
A fase φ(ω) e dada por
φ(ω) = − arctan(ω/ωc)
que vai de 0 a −90 graus, com φ(ωc) = −45 graus. As assıntotas sao 0 para frequencias abaixo deuma decada da frequencia de corte ωc, −90 graus para frequencias acima de uma decada de ωc e areta unindo as duas assıntotas em 0.1ωc e 10ωc.
As figuras 11.4 e 11.5 mostram os diagramas de Bode do sistema.
10−2
10−1
100
101
102
−60
−50
−40
−30
−20
−10
0
10
20
ω
MdB
(ω)
Figura 11.4: Modulo (em dB) da resposta em frequencia (escala logarıtmica) do Exemplo 11.2 comωc = 1.
Medidas experimentais da resposta em frequencia permitem obter a frequencia de corte e com issoidentificar um modelo de primeira ordem para o sistema.
2O termo oitava, que corresponde ao dobro da frequencia, deriva do fato de que, nos pianos, a cada oito teclas dobra-sea frequencia.
Bonatti, Lopes & Peres
170 Capıtulo 11. Resposta em Frequencia
10−2
10−1
100
101
102
−120
−100
−80
−60
−40
−20
0
20
40
ω
φ(ω
)
Figura 11.5: Fase da resposta em frequencia (escala logarıtmica) do Exemplo 11.2 com ωc = 1.
Propriedade 11.1Considere
H(s) = H1(s)H2(s) ⇒ H(jω) = M1(ω)M2(ω) exp(
jφ1(ω) + jφ2(ω))
Entao,
MdB(ω) = M1dB(ω) +M2dB(ω) ; φ(ω) = φ1(ω) + φ2(ω)
pois o modulo do produto e o produto dos modulos (soma em logaritmo) e o produto de exponenciaise a exponencial da soma dos argumentos.
⋄
Exemplo 11.3Ganho constante positivo
Considere H(s) = k > 0 (constante).
Portanto,
MdB(ω) = 20 log k ; φ(ω) = 0
Exemplo 11.4Ganho constante negativo
Considere H(s) = −k, k > 0 constante.
Portanto,
H(s) = k exp(−jπ) ⇒ MdB(ω) = 20 log k ; φ(ω) = −180 graus
Bonatti, Lopes & Peres
171
Exemplo 11.5Zero na origem
Considere, para k > 0,
H(s) = ks
Portanto,
MdB(ω) = 20 logω + 20 log k ; φ(ω) = 90 graus
Observe que MdB(ω) e uma reta que cruza o ponto 0 dB em ω = 1/k.
Exemplo 11.6Polo na origem
Considere, para k > 0,
H(s) =k
s
Portanto,
MdB(ω) = −20 logω + 20 log k ; φ(ω) = −90 graus
Observe que MdB(ω) e uma reta que cruza o ponto 0 dB em ω = k.
Exemplo 11.7Zero de ordem m na origem
Considere H(s) = sm, com m > 0 inteiro.
Portanto,
MdB(ω) = 20m logω ; φ(ω) = m90 graus
Exemplo 11.8Polo de ordem m na origem
Considere H(s) =1
sm, com m > 0 inteiro.
Portanto,
MdB(ω) = −20m logω ; φ(ω) = −m90 graus
Bonatti, Lopes & Peres
172 Capıtulo 11. Resposta em Frequencia
Exemplo 11.9Zero real negativo
Considere, com ωc > 0, a funcao de transferencia
H(s) = 1 +s
ωc
Portanto,
M(ω) =√
1 + (ω/ωc)2 ; φ(ω) = arctan(ω/ωc) graus
As assıntotas do modulo sao MdB ≈ 0 para baixas frequencias e MdB ≈ 20 logω − 20 logωc paraaltas frequencias. Na frequencia de corte ωc, tem-se MdB = 10 log 2 ≈ 3 dB.
As assıntotas da fase sao 0 para frequencias abaixo de uma decada da frequencia de corte ωc, 90graus para frequencias acima de uma decada de ωc e a reta unindo as duas assıntotas em 0.1ωc e10ωc.
Exemplo 11.10Zero real positivo
Considere, com ωc > 0, a funcao de transferencia
H(s) =s
ωc− 1
A resposta em frequencia e dada por
M(ω) =√
1 + (ω/ωc)2 ; φ(ω) = 180− arctan(ω/ωc) graus
As assıntotas do modulo sao MdB ≈ 0 para baixas frequencias e MdB ≈ 20 logω − 20 logωc paraaltas frequencias. Na frequencia de corte ωc, tem-se MdB = 10 log 2 ≈ 3 dB.
As assıntotas da fase sao 180 para frequencias abaixo de uma decada da frequencia de corte ωc, 90graus para frequencias acima de uma decada de ωc e a reta de inclinacao negativa unindo as duasassıntotas em 0.1ωc e 10ωc.
Observe que a resposta em frequencia do sistema com zero real positivo distingue-se da resposta dosistema com zero real negativo apenas pela fase.
Definicao: Sistemas de fase mınima
Sao sistemas que possuem polos e zeros com parte real negativa.
O sistema do Exemplo 11.10 e de fase nao mınima.
Exemplo 11.11Considere a funcao de transferencia
Bonatti, Lopes & Peres
173
H(s) =N(s)
D(s)=
ℓ∑
k=0
βksk
m∑
k=0
αksk
com αm = 1, α0 6= 0 e m > ℓ.
A assıntota de baixa frequencia (s = jω, ω → 0), e
MdB ≈ 20 logβ0
α0
e a assıntota de alta frequencia (ω → +∞) e
MdB ≈ 20 log βℓω(ℓ−m) = −20(m− ℓ) logω + 20 log βℓ
Portanto, a frequencia de corte e dada por
βℓω(ℓ−m)c =
β0
α0⇒ ωc =
(α0βℓ
β0
)1/(m−ℓ)
No exemplo do circuito RC, tem-se m = 1, ℓ = 0, β0 = βℓ = 1/τ e α0 = 1/τ , resultando emωc = 1/τ .
As assıntotas de fase de baixas e altas frequencias sao, respectivamente,
φ(ω) ≈ 0 ; φ(ω) ≈ −(m− ℓ)90 graus
Entre 0.1ωc e 10ωc, as assıntotas sao unidas por uma reta.
Exemplo 11.12Circuito RC em cascata
Considere o circuito da Figura 11.6, com τ1 = R1C1 = 1 e τ2 = R2C2 = 0.01.
N
I
x(t)
R1 R2+
+
−− C1 C2
y(t)
Figura 11.6: Circuito RC em cascata do Exemplo 11.12.
A funcao de transferencia e dada por
H(s) =Y (s)
X(s)= H1(s)H2(s) =
(1/τ1
s+ 1/τ1
)(1/τ2
s+ 1/τ2
)
=100
s2 + 101s+ 100
Bonatti, Lopes & Peres
174 Capıtulo 11. Resposta em Frequencia
e, portanto, ℓ = 0, β0 = βℓ = 100, m = 2 e α0 = 100, resultando em ωc = 10.
As assıntotas de baixas e altas frequencias sao, respectivamente,
MdB ≈ 0 ; MdB ≈ 20 log100
ω2= −40 logω + 40
A aproximacao por assıntotas pode ser melhorada considerando H(s) = H1(s)H2(s) com
H(s) =100
s2 + 101s+ 100=
(1
s+ 1
)(100
s+ 100
)
e somando as assıntotas. A Figura 11.7 mostra as assıntotas do modulo dos dois sistemas de primeiraordem, a soma, as assıntotas do sistema de segunda ordem e M(ω) (em dB) versus ω ∈ [10−2, 104](em escala logarıtmica).
10−2
10−1
100
101
102
103
104
−120
−100
−80
−60
−40
−20
0
20
ω
MdB
(ω)
Figura 11.7: Modulo da resposta em frequencia do circuito do Exemplo 11.12.
A primeira aproximacao para a fase e dada pelas assıntotas
φ(ω) ≈ 0 ; φ(ω) ≈ −180 graus
ligadas de 0.1ωc = 1 a 10ωc = 100 por uma reta.
Considerando dois sistemas de primeira ordem em cascata, tem-se as assıntotas
φ1(ω) ≈ 0 ; φ1(ω) ≈ −90 graus
ligadas de 0.1 a 10 por uma reta somadas com
φ2(ω) ≈ 0 ; φ2(ω) ≈ −90 graus
ligadas de 10 a 1000 por uma reta. As aproximacoes e o computo feito usando Matlab para a fasesao mostrados na Figura 11.8.
Sistemas lineares com polos e zeros reais podem ser tratados como um conjunto de sistemas de primeiraordem em cascata.
Bonatti, Lopes & Peres
175
10−2
10−1
100
101
102
103
104
−200
−180
−160
−140
−120
−100
−80
−60
−40
−20
0
20
ω
φ(ω
)
Figura 11.8: Fase da resposta em frequencia do circuito do Exemplo 11.12.
Exemplo 11.13Circuito passa-alta
Considere o circuito RC do Exemplo 15.4 com a saıda y(t) igual a tensao no resistor, cuja equacaodiferencial e
(τp+ 1)y(t) = τpx(t) ⇒ H(s) = τs1/τ
s+ 1/τ
As assıntotas de modulo sao mostradas na Figura 11.9 e as de fase na Figura 11.10 para τ = 0.1.
10−1
100
101
102
103
−50
−40
−30
−20
−10
0
10
ω
MdB
(ω)
Figura 11.9: Modulo da resposta em frequencia do circuito RC passa-alta do Exemplo 11.13.
Exemplo 11.14Polos e zeros reais
Considere o sistema descrito pela funcao de transferencia
H(s) =10(s+ 100)
(s+ 1)(s+ 1000)=( 1
s+ 1
)( s
100+ 1)( 1
s/1000 + 1
)
Bonatti, Lopes & Peres
176 Capıtulo 11. Resposta em Frequencia
10−1
100
101
102
103
−100
−80
−60
−40
−20
0
20
40
60
80
100
ω
φ(ω
)
Figura 11.10: Fase da resposta em frequencia do circuito RC passa-alta do Exemplo 11.13.
As assıntotas do modulo e M(ω) sao mostrados na Figura 11.11, e as assıntotas da fase e φ(ω) naFigura 11.12.
10−2
10−1
100
101
102
103
104
105
−100
−80
−60
−40
−20
0
20
40
ω
MdB
(ω)
Figura 11.11: Modulo da resposta em frequencia do Exemplo 11.14.
Em sistemas lineares, polos e zeros complexos aparecem sempre em pares conjugados, justificando otratamento de modulos de sistemas de segunda ordem com raızes complexas conjugadas.
Exemplo 11.15Polos complexos
Considere a funcao de transferencia de segunda ordem com raızes complexas λ1 e λ2 = λ∗1 dadapor
H(s) =λ1λ2
(s− λ1)(s− λ2)=
ω2n
s2 + 2ξωns+ ω2n
com
Bonatti, Lopes & Peres
177
10−2
10−1
100
101
102
103
104
105
−100
−80
−60
−40
−20
0
20
40
60
80
100
ω
φ(ω
)
Figura 11.12: Fase da resposta em frequencia do Exemplo 11.14.
ω2n = λ1λ2 ; 2ξωn = −(λ1 + λ2)
As assıntotas de modulo de baixas e altas frequencias sao, respectivamente,
MdB(ω) ≈ 0 ; MdB(ω) ≈ −40 logω + 40 logωn
e, portanto, a frequencia de corte e ωc = ωn.
As assıntotas de fase de baixas e altas frequencias sao, respectivamente,
φ(ω) ≈ 0 ; φ(ω) ≈ −180 graus
As figuras 11.13 e 11.14 mostram o diagrama de Bode para ξ = 0.1 e ξ = 0.9.
10−1
100
101
−40
−30
−20
−10
0
10
20
ξ = 0.1
ξ = 0.9
ω/ωn
MdB
(ω)
Figura 11.13: Modulo da resposta em frequencia do Exemplo 11.15 para ξ = 0.1 e ξ = 0.9.
Note que a influencia do ξ e determinante na transicao de uma assıntota a outra. As raızes,computadas em funcao de ξ e ωn, sao dadas por
Bonatti, Lopes & Peres
178 Capıtulo 11. Resposta em Frequencia
10−1
100
101
−200
−180
−160
−140
−120
−100
−80
−60
−40
−20
0
20
ξ = 0.1
ξ = 0.9
ω/ωn
φ(ω
)
Figura 11.14: Fase da resposta em frequencia do Exemplo 11.15 para ξ = 0.1 e ξ = 0.9.
λ∗2 = λ1 = −ξωn + jωn
√
1− ξ2
As raızes sao complexas conjugadas com parte real negativa para 0 < ξ < 1. Para ξ → 1, asassıntotas de fase poderiam ser unidas por uma reta passando pelos pontos 0.1ωn e 10ωn. Aaproximacao mais utilizada considera a transicao abrupta de 0 a −180 graus na frequencia de corteωc = ωn. Note que, para ω = ωn, a fase e igual a −90 graus.
A ocorrencia ou nao do pico de M(ω) depende do parametro ξ.
H(jω) =ω2
n
ω2n − ω2 + j2ξωnω
⇒ M2(ω) =ω4
n
(ω2n − ω2)2 + 4ξ2ω2
nω2
O maximo de M(ω) ocorre na frequencia ωr na qual o denominador passa por um mınimo. Deri-vando e igualando a zero, tem-se
ωr = ωn
√
1− 2ξ2 ; M(ωr) =1
2ξ√
1− ξ2
Note que o pico existe apenas para ξ < 1/√
2 ≈ 0.707 e, neste caso, o sistema e denominadosub-amortecido. Para valores de ξ tendendo a zero, M(ωr) tende a infinito.
Por meio de medidas experimentais de resposta em frequencia e possıvel determinar os valores deωr e M(ωr) e com isso identificar os parametros ξ e ωn do sistema de segunda ordem. Observeainda que, neste caso, M(0) = 1 (0 dB).
Exemplo 11.16Medidas experimentais
Considere as medidas experimentais da resposta em frequencia de um sistema suposto de segundaordem, mostradas nas figuras 11.15 e 11.16.
Por inspecao do modulo, observa-se que o sistema e sub-amortecido. Observe tambem que aassıntota de alta frequencia diminui 40 dB por decada, confirmando as caracterısticas de um sistemade segunda ordem com um par de polos complexos conjugados e nenhum zero. Essa caracterısticae confirmada pela resposta de fase, que vai de 0 a −180 graus.
Bonatti, Lopes & Peres
179
100
101
102
−40
−30
−20
−10
0
10
20
ω
MdB
(ω)
Figura 11.15: Modulo da resposta em frequencia do Exemplo 11.16.
100
101
102
−180
−160
−140
−120
−100
−80
−60
−40
−20
0
ω
φ(ω
)
Figura 11.16: Fase da resposta em frequencia do Exemplo 11.16.
Do diagrama de modulo, obtem-se o ganho DC (ganho para baixas frequencias) de 6 dB (aproxi-madamente igual a 2). O pico atinge 12 dB, implicando em um ganho de 6 dB em relacao ao ganhoDC, isto e, duas vezes o ganho DC.
Da equacao
M(ωr) =1
2ξ√
1− ξ2
obtem-se ξ ≈ 0.26.
Do diagrama de fase, obtem-se o valor ωn = 8, frequencia na qual a fase e −90 graus.
A funcao de transferencia do sistema e dada por
H(s) = 264
s2 + 4.16s+ 64
Bonatti, Lopes & Peres
180 Capıtulo 11. Resposta em Frequencia
Exemplo 11.17Considere
H(s) =s2 + 10s+ 100
(s+ 1)(s+ 100)=s2 + 2ξωns+ ω2
n
(s+ 1)(s+ 100), ξ = 0.5, ωn = 10
10−2
10−1
100
101
102
103
104
−40
−30
−20
−10
0
10
20
30
40
ω
MdB
(ω)
Figura 11.17: Modulo da resposta em frequencia do Exemplo 11.17.
10−2
10−1
100
101
102
103
104
−200
−150
−100
−50
0
50
100
150
200
ω
φ(ω
)
Figura 11.18: Fase da resposta em frequencia do Exemplo 11.17.
Exemplo 11.18Compensador avanco (lead)
Considere o diagrama assintotico de modulo de um sistema de fase mınima mostrado na Fi-gura 11.19.
A funcao de transferencia H(s) pode ser obtida notando-se que o sistema possui ganho DC igual a−20 dB (0.1), um zero em ω = 1 e um polo em ω = 10, resultando em
H(s) =s+ 1
s+ 10=
1
10
(s+ 1
1
)(10
s+ 10
)
Bonatti, Lopes & Peres
181
10−2
10−1
100
101
102
103
−30
−25
−20
−15
−10
−5
0
5
10
ω
M(ω
)
Figura 11.19: Diagrama de modulo do Exemplo 11.18.
O diagrama assintotico de fase e mostrado na Figura 11.20. Esse sistema, denominado compensadoravanco, e utilizado em cascata com uma planta para aumentar a fase do conjunto em uma faixa defrequencia.
10−2
10−1
100
101
102
103
−100
−80
−60
−40
−20
0
20
40
60
80
100
ω
φ(ω
)
Figura 11.20: Diagrama de fase do Exemplo 11.18.
Exemplo 11.19Compensador atraso (lag)
Considere o diagrama assintotico de fase de um sistema mostrado na Figura 11.21, cujo ganho DCe 0 dB (1).
O diagrama de modulo pode ser obtido notando-se que o sistema possui um polo em ω = 1 e umzero em ω = 10, resultando em
H(s) = 0.1s+ 10
s+ 1=
(1
s+ 1
)(s+ 10
10
)
Bonatti, Lopes & Peres
182 Capıtulo 11. Resposta em Frequencia
10−2
10−1
100
101
102
103
−100
−80
−60
−40
−20
0
20
40
60
80
100
ω
φ(ω
)
Figura 11.21: Diagrama de fase do Exemplo 11.19.
O diagrama assintotico de modulo e mostrado na Figura 11.22. Esse sistema, denominado com-pensador atraso, e utilizado em cascata com uma planta para diminuir a fase do conjunto em umafaixa de frequencia.
10−2
10−1
100
101
102
103
−30
−25
−20
−15
−10
−5
0
5
10
ω
M(ω
)
Figura 11.22: Diagrama de modulo do Exemplo 11.19.
Exemplo 11.20A relacao sinal-ruıdo e definida como
(S
N
)
dB= 20 log |a/b|
sendo a a amplitude do sinal e b a amplitude do ruıdo.
Aplicando o sinal x(t) = 100sen(t) contaminado pelo ruıdo aditivo w(t) = sen(10t) aos sistemas dosexemplos 11.18 e 11.19, as relacoes sinal-ruıdo nas saıdas dos sistemas (baseadas nas assıntotas)sao 20 dB e 60 dB, respectivamente.
Bonatti, Lopes & Peres
183
Graficos polares
A resposta em frequencia H(jω) de sistemas lineares pode ser representada no plano complexo porcoordenadas polares, isto e, modulo e fase parametrizados na frequencia ω. Angulos positivos saorepresentados no sentido anti-horario.
Frequentemente, e mais conveniente determinar as expressoes da parte real e da parte imaginaria dafuncao de transferencia para obter o lugar geometrico (grafico polar) no plano complexo.
Graficos polares do sistema em malha aberta podem ser utilizados para estudar a estabilidade dosistema em malha fechada (criterio de Nyquist3).
Exemplo 11.21Zero na origem
Para k > 0, tem-se
H(s) = ks∣∣∣s=jω
= kω exp(jπ/2)
que e o eixo imaginario positivo, isto e, para ω = 0 o modulo e zero, e para ω → +∞ o modulotende para infinito, sempre com fase igual a +90 graus.
Exemplo 11.22Polo na origem
Para k > 0, tem-se
H(s) =k
s
∣∣∣s=jω
=k
ωexp(−jπ/2)
que e o eixo imaginario negativo, isto e, para ω → 0 o modulo tende a infinito, e para ω → +∞ omodulo tende a zero, sempre com fase igual a −90 graus.
Propriedade 11.2Para sistemas lineares invariantes no tempo com resposta ao impulso, o lugar geometrico do diagramapolar de H(s), s = jω, ω ∈ (−∞,+∞) e simetrico em relacao ao eixo real, isto e,
H(−jω) = H(jω)∗ = M(ω) exp(− jφ(ω)
)
⋄
A Figura 11.23 mostra os lugares geometricos do zero e do polo na origem para ω ∈ (−∞,+∞).
3Harry Nyquist, engenheiro sueco naturalizado americano (1889-1976).
Bonatti, Lopes & Peres
184 Capıtulo 11. Resposta em Frequencia
ImIm
ReRe
ω ≥ 0
ω ≥ 0 ω ≤ 0
ω ≤ 0
Figura 11.23: Grafico polar para zero e polo na origem.
Exemplo 11.23Zero real negativo
H(s) = 1 +s
ωc
∣∣∣s=jω
= 1 + jω
ωc
O lugar geometrico e uma reta de inclinacao igual a 90 graus partindo do ponto 1 + j0.
Exemplo 11.24Polo real negativo
H(s) =ωc
s+ ωc
∣∣∣s=jω
=1
1 + jω/ωc= M(ω) exp
(jφ(ω)
)
Para ω = 0, o modulo vale 1 e a fase 0. Para ω → +∞, o modulo tende a 0 e a fase a −90 graus.Em ω = ωc, tem=se
1
1 + j=
1√2
exp(−jπ/4) =1
2− j 1
2
O lugar geometrico e uma semi-circunferencia de raio igual a 1/2, pois
(X(ω)− 1
2)2 + Y (ω)2 = (
1
2)2
com
X(ω) = Re(H(jω)
)=
1
1 + (ω/ωc)2, Y (ω) = Im
(H(jω)
)=
−ω/ωc
1 + (ω/ωc)2
comecando em 1 + j0 e terminando na origem, quando ω ∈ [0,+∞). De maneira complementar,para ω de −∞ ate zero, tem-se uma semi-circunferencia positiva de raio 1/2 indo de zero ate oponto 1 + j0.
Assim, para k > 0, o grafico polar de
H(s) = kωc
s+ ωc
e uma circunferencia de raio k/2 centrada em k/2 + j0.
Bonatti, Lopes & Peres
185
Exemplo 11.25Polos complexos
Considerando 0 < ξ < 1 (polos complexos), tem-se
H(s) =ω2
n
s2 + 2ξωns+ ω2n
H(j0) = 1 , H(+j∞) = 0∠− π , H(jωn) =1
j2ξ=
1
2ξ∠− π/2
A Figura 11.24 mostra o grafico polar do Exemplo 11.25 para ξ = 0.1 e ξ = 0.9. Observe que ocruzamento com o eixo imaginario ocorre em 1/(2ξ). Para sistemas sub-amortecidos ξ <
√2/2, o
maior valor de M(ω) ocorre em ωr (veja Exemplo 11.15), com
ωr = ωn
√
1− 2ξ2 ; M(ωr) =1
2ξ√
1− ξ2∣∣∣ξ=0.1
≈ 5
−3 −2 −1 0 1 2 3−6
−4
−2
0
2
4
6
Re
Im
ξ = 0.1
ξ = 0.9
Figura 11.24: Grafico polar do Exemplo 11.25 para ξ = 0.1 e ξ = 0.9.
Exemplo 11.26Considere o sistema do tipo 1, isto e, um polo em 0
H(s) =a
s(s+ a), a > 0 ⇒ H(jω) =
−aa2 + ω2
− j a2
ω(a2 + ω2)
Fazendo a analise para ω → 0, tem-se
ω ≪ a ⇒ H(jω) ≈ −1
a− j 1
ω
que define uma assıntota paralela ao eixo imaginario cruzando o eixo real em −1/a.
Para ω → +∞, H(jω)→ 0.
No ponto ω = a, tem-se
Bonatti, Lopes & Peres
186 Capıtulo 11. Resposta em Frequencia
H(ja) = − 1
2a− j 1
2a=
√2
2a∠− 135 graus
O diagrama polar poderia ser obtido a partir do diagrama de Bode, fazendo-se primeiro o diagramade fase e depois calculando os modulos para valores relevantes de fase.
No exemplo, H(s) possui um polo em 0 e um polo em a, indicando que a fase parte de −90 grause vai ate −180 graus, passando em −135 graus na frequencia ω = a. Os modulos correspondentessao +∞, 0 e
√2/2a. A Figura 11.25 mostra o diagrama polar para a = 1/2.
−4 −3 −2 −1 0 1 2−5
−4
−3
−2
−1
0
1
2
3
4
5
Re
Im
ω → +∞
ω → 0
Figura 11.25: Grafico polar do Exemplo 11.26 para a = 1/2.
Bonatti, Lopes & Peres
187
Exemplo 11.27Considere o sistema
H(s) = k
(a
s+ a
)(b
s+ b
)(c
s+ c
)
, k, a, b, c positivos
O diagrama polar comeca (para ω = 0) no ponto (k, 0) e termina na origem, com fase −270 graus.A Figura 11.26 mostra o diagrama polar para k = 1, a = 1, b = 2 e c = 3. Observe que o ganho eaproximadamente 0.1 na fase −180 graus e 0.6 na fase −90 graus.
−0.5 0 0.5 1 1.5−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Re
Im
Figura 11.26: Grafico polar do Exemplo 11.27 para k = 1, a = 1, b = 2 e c = 3.
Bonatti, Lopes & Peres
Capıtulo 12
Transformada de Laplace
Transformada bilateral de Laplace
A transformada bilateral de Laplace da funcao x(t) e dada por
X(s) = Lx(t) =
∫ +∞
−∞x(t) exp(−st)dt , s ∈ Ωx
Propriedade 12.1Area de uma funcao
A area sob a curva da funcao x(t) pode ser computada por meio da transformada de Laplace X(s) ses = 0 ∈ Ωx.
∫ +∞
−∞x(t)dt = X(s)
∣∣∣s=0
⋄
Propriedade 12.2Transformada do impulso
Lδ(t) = 1 , s ∈ C
pois
Lδ(t) =
∫ +∞
−∞δ(t) exp(−st)dt = 1
⋄
Propriedade 12.3Transformada do degrau
Lu(t) =1
s, s ∈ Ωu =
s ∈ C,Re(s) > 0
pois
188
189
Lu(t) =
∫ +∞
−∞u(t) exp(−st)dt =
∫ +∞
0exp(−st)dt = −1
sexp(−st)
∣∣∣
t=+∞
t=0=
1
s, Re(s) > 0
⋄
Propriedade 12.4Transformada da exponencial
Lexp(λt)u(t) =1
s− λ , s ∈s ∈ C,Re(s− λ) > 0
pois
Lexp(λt)u(t) =
∫ +∞
−∞u(t) exp
((λ− s)t
)dt =
∫ +∞
0exp
((λ− s)t
)dt =
=1
λ− s exp((λ− s)t
)∣∣∣
t=+∞
t=0=
1
s− λ , Re(s− λ) > 0
⋄
Exemplo 12.1Para β > 0, tem-se
Lexp(jβt)u(t) =1
s− jβ , Re(s) > 0
Lexp(−jβt)u(t) =1
s+ jβ, Re(s) > 0
Exemplo 12.2Para β > 0, tem-se
Lcos(βt)u(t) =1
2Lexp(jβt)u(t)+
1
2Lexp(−jβt)u(t) =
=1
2
(1
s− jβ +1
s+ jβ
)
=s
s2 + β2, Re(s) > 0
Exemplo 12.3Para β > 0, tem-se
Lsen(βt)u(t) =1
2jLexp(jβt)u(t) − 1
2jLexp(−jβt)u(t) =
=1
2j
(1
s− jβ −1
s+ jβ
)
=β
s2 + β2, Re(s) > 0
Bonatti, Lopes & Peres
190 Capıtulo 12. Transformada de Laplace
Propriedade 12.5Transformada da integral
L
y(t) =
∫ t
−∞x(β)u(β)dβ = x(t) ∗ u(t)
=1
sLx(t) ,
Ωy contem Ωx ∩ s ∈ C : Re(s) > 0
⋄
Exemplo 12.4A transformada de Laplace de
y(t) =
∫ t
−∞
x(β)dβ , X(s) =s
s+ 1, Re(s) > −1
e dada por
Y (s) =1
s
(s
s+ 1
)
=1
s+ 1, Ωy contem Re(s) > 0
De fato,
X(s) =s
s+ 1= 1− 1
s+ 1⇒ x(t) = δ(t)− exp(−t)u(t)
y(t) =
∫ t
−∞
x(β)dβ = u(t)−(1− exp(−t)
)u(t) = exp(−t)u(t)
⇒ Y (s) =1
s+ 1,Re(s) > −1
Note que o domınio Ωy resultante e maior do que a intersecao Ωx ∩ Re(s) > 0. Observe tambemque a area de x(t) e X(0) = 0 e a area de y(t) e Y (0) = 1.
Exemplo 12.5
x(t) = 2δ(t)− exp(−t)u(t) ⇒ y(t) =
∫ t
−∞
x(β)dβ =(1 + exp(−t)
)u(t)
X(s) = 2− 1
s+ 1=
2s+ 1
s+ 1, Re(s) > −1
Y (s) =1
s+
1
s+ 1=
1
s
(2s+ 1
s+ 1
)
=1
sX(s) , Re(s) > 0
Note que Ωy e igual a intersecao de Ωx com Re(s) > 0. Note ainda que a area de x(t) e igual aX(0) = 1, y(t) tem area nao finita e s = 0 6∈ Ωy.
Bonatti, Lopes & Peres
191
Exemplo 12.6
Lδ(t) = 1 , s ∈ C
Lu(t) =1
s, Re(s) > 0 pois u(t) = Iδ(t) =
∫ t
−∞
δ(β)dβ
Ltu(t) =1
s2, Re(s) > 0 pois tu(t) = Iu(t)
L t2
2u(t)
=1
s3, Re(s) > 0
L tm
m!u(t)
=1
sm+1, Re(s) > 0 , m ∈ N
Propriedade 12.6Reversao no tempo
Lx(−t) = X(−s) , −s ∈ Ωx
pois
Lx(−t) =
∫ +∞
−∞x(−t) exp(−st)dt = −
∫ −∞
+∞x(t) exp(st)dt =
=
∫ +∞
−∞x(t) exp
(− (−s)t
)dt = X(−s)
⋄
Exemplo 12.7
Lu(−t) =1
−s , −s ∈ Re(s) > 0 ≡ Re(s) < 0
Exemplo 12.8
Lexp(t)u(−t) =1
−s+ 1, −s ∈ Re(s+ 1) > 0 ≡ Re(s) < 1
De fato,
Lexp(t)u(−t) =
∫ 0
−∞
exp(t) exp(−st)dt =1
s− 1exp
((s− 1)t
)∣∣∣
+∞
0
que e finita se Re(s− 1) < 0, resultando em
Lexp(t)u(−t) =1
−s+ 1, Re(s) < 1
Bonatti, Lopes & Peres
192 Capıtulo 12. Transformada de Laplace
Exemplo 12.9
Lx(t) = exp(|t|) =1
s+ 1+
1
−s+ 1=
2
1− s2 ,
Ωx = Re(s) < 1 ∩ Re(s) > −1 ≡ −1 < Re(s) < 1
Note que a area de x(t) e X(0) = 2, pois s = 0 ∈ Ωx. Note tambem que
Fx(t) = Lx(t)∣∣∣s=jω
=2
1 + ω2
pois jω ∈ Ωx.
Propriedade 12.7Deslocamento em s
Ly(t) = exp(−at)x(t) = X(s+ a) ; Ωy = Ωx deslocado para a esquerda de Re(a)
pois
Lexp(−at)x(t) =
∫ +∞
−∞exp(−at)x(t) exp(−st)dt =
∫ +∞
−∞x(t) exp
(− (s+ a)t
)dt
⋄
Exemplo 12.10
L tm
m!exp(−at)u(t)
=1
(s+ a)m+1, Re(s+ a) > 0 , m ∈ N
Exemplo 12.11
Lcos(βt) exp(−at)u(t) =s+ a
(s+ a)2 + β2, Re(s+ a) > 0
Exemplo 12.12
Lsen(βt) exp(−at)u(t) =β
(s+ a)2 + β2, Re(s+ a) > 0
Bonatti, Lopes & Peres
193
Propriedade 12.8Derivada em s
Ly(t) = tmx(t) = (−1)mdmX(s)
dsm; Ωy = Ωx , m ∈ N
pois
X(s) = Lx(t) =
∫ +∞
−∞x(t) exp(−st)dt =⇒ dmX(s)
dsm= (−1)m
∫ +∞
−∞tmx(t) exp(−st)dt
⋄
Exemplo 12.13A integral da funcao x(t)
x(t) = t2 exp(−3t)u(t)
pode ser computada por meio da transformada de Laplace X(s) se s = 0 ∈ Ωx.
Usando a Propriedade 12.8 (derivada em s), tem-se
Lexp(−3t)u(t) =1
s+ 3⇒ Lt2 exp(−3t)u(t) =
d2
ds2(s+ 3)−1 = 2(s+ 3)−3
Portanto,
∫ +∞
−∞
t2 exp(−3t)u(t)dt = 2(s+ 3)−3∣∣∣s=0
=2
27
Note que esse mesmo resultado pode ser obtido de
Lt2u(t) =2
s3
∣∣∣s=3
=2
27
Exemplo 12.14Tempo de propagacao
Para o circuito RLC da Figura 12.1, com R = 2 Ω, L = 4 H, C = 1 F e funcao de transferencia
H(s) =1
4s2 + 2s+ 1
o tempo de propagacao e dado por
tp =
∫ +∞
−∞
th(t)dt
∫ +∞
−∞
h(t)dt
=− d
dsH(s)
∣∣∣s=0
H(0)= 2
Bonatti, Lopes & Peres
194 Capıtulo 12. Transformada de Laplace
R
++
−− C
L
x y
y1
Figura 12.1: Circuito RLC.
Exemplo 12.15Considere a equacao diferencial
y + y = 0 , y(0) = 1
Portanto
dy
y= −dt ⇒ y(t) = y(0) exp(−t) = exp(−t)
Note que a transformada de Laplace de y(t) nao e finita para nenhum s e, portanto, a transformadade Laplace nao seria um instrumento util para a resolucao de equacoes diferenciais, mesmo as muitosimples.
Essa dificuldade pode ser superada considerando-se que apenas os valores de y(t) para t ≥ 0 saode interesse, uma vez que a condicao inicial e conhecida.
A funcao
y(t) = exp(−t)u(t)
tem transformada de Laplace e coincide com a solucao para t ≥ 0.
Transformada unilateral de Laplace
Considere a classe de sinais a direita, isto e, x(t) tais que x(t) = 0, t < 0, podendo ou nao apresentardescontinuidade em t = 0.
Por exemplo, os sinais δ(t), u(t) e exp(−t)u(t) pertencem a esta classe de sinais, com δ(0−) = 0,u(0−) = 0 e exp(−0−)u(0−) = 0, sendo x(0−) o limite a esquerda de x(t) em t = 0. Por simplicidade,x(0−) sera denotado neste texto por x(0), e o limite a direita por x(0+).
Portanto, para funcoes contınuas tem-se x(0−) = x(0) = x(0+) e, para funcoes descontınuas, x(0−) =x(0) 6= x(0+).
Exemplo 12.16
x1(t) = exp(−t)u(t) , x1(0) = 0
Em t = 0, x1(t) tem descontinuidade finita, pois x1(0+) = 1.
A funcao
Bonatti, Lopes & Peres
195
y1(t) =
∫ t
−∞
x1(β)dβ =(1− exp(−t)
)u(t)
e contınua e pertence a classe de funcoes a direita.
y1(t) = exp(−t)u(t) +(1− exp(−t)
)δ(t) = exp(−t)u(t) = x1(t)
Exemplo 12.17
x2(t) = exp(−t)u(t) + 3δ(t) , x2(0) = 0
Em t = 0, x2(t) tem descontinuidade infinita.
A funcao
y2(t) =
∫ t
−∞
x2(β)dβ =(4− exp(−t)
)u(t)
nao e contınua, pois y2(0) = 0 e y2(0+) = 3 (descontinuidade finita). Tambem pertence a classe de
funcoes a direita.
y2(t) = exp(−t)u(t) +(4− exp(−t)
)δ(t) = exp(−t)u(t) + 3δ(t) = x2(t)
Para essa classe de funcoes, a transformada de Laplace e dada por
Lx(t) =
∫ +∞
−∞x(t) exp(−st)dt =
∫ +∞
0x(t) exp(−st)dt
e e denominada transformada unilateral de Laplace.
Note que
Luniδ(t) = Lbiδ(t) = 1
para as transformadas bilateral e unilateral, pois a integral que define a transformada unilateral deLaplace inicia-se em 0 = 0−.
Note ainda que
Luni1 = Lbiu(t) =1
s
No caso da transformada Z, nao foi necessaria a definicao de transformada unilateral, pois nao haambiguidade no calculo da transformada da funcao impulso, ou seja,
δ[n]u[n] = δ[n]
No caso contınuo, a funcao δ(t)u(t) nao esta definida (descontinuidade de u(t) em t = 0).
No texto a seguir, o sımbolo L e usado indistintamente para as transformadas unilateral e bilateral deLaplace.
Bonatti, Lopes & Peres
196 Capıtulo 12. Transformada de Laplace
Propriedade 12.9Transformada unilateral de Laplace da derivada
Lx(t) = sLx(t) − x(0) , s ∈ Ωx
Prova:
Lx(t) =
∫ +∞
0
dx
dtexp(−st)dt =
∫ +∞
0exp(−st)dx
Integrando por partes:
Ldx
dt
= x(t) exp(−st)∣∣∣
+∞
0−∫ +∞
0x(t)(−s) exp(−st)dt
Como Lx(t) e finita para s ∈ Ωx, tem-se limt→∞
x(t) exp(−st) = 0
Lx(t) = s
∫ +∞
0x(t) exp(−st)dt
︸ ︷︷ ︸
X(s)
−x(0) = sX(s)− x(0)
O domınio de Lx(t) e no mınimo igual a Ωx.
⋄
Exemplo 12.18
L d
dtu(t) = δ(t)
= 1
pois
sLu(t) − u(0) = s1
s− 0 = 1
Note que Ωu = Re(s) > 0 e Ωδ = C, isto e, o domınio da derivada contem o domınio da funcao.
Assim,
L
δ(t) =d
dtδ(t)
= s− δ(0) = s
pois
δ(0) = limǫ→0−
δ(ǫ) (limite a esquerda de 0)
Ldm
dtmδ(t)
= sm
Bonatti, Lopes & Peres
197
Propriedade 12.10Transformada unilateral de Laplace da derivada segunda
Lx(t) = s2Lx(t) − sx(0)− x(0)
pois
Lx(t) = Ly(t) = sLy(t) − y(0) = sLx(t) − x(0) = s2Lx(t) − sx(0)− x(0)
Genericamente:
L
x(m)(t) =dmx(t)
dtm
= smLx(t) −m−1∑
k=0
sm−k−1x(k)(0)
⋄
Propriedade 12.11Transformada inversa de Laplace
A transformada bilateral de Laplace e dada por
X(s) =
∫ +∞
−∞x(t) exp(−st)dt ; s ∈ Ωx
Para s = σ + jω, tem-se
X(s) =
∫ +∞
−∞
(x(t) exp(−σt)
)exp(−jωt)dt = Fx(t) exp(−σt)
sendo Fx(t) a transformada de Fourier de x(t). Portanto,
x(t) exp(−σt) =1
2π
∫ +∞
−∞X(s) exp(jωt)dω
x(t) =1
2πj
∫ +∞
−∞X(s) exp(st)jdω =
1
2πj
∫ σ+j∞
σ−j∞X(s) exp(st)ds
Para σ constante, ds = jdω. A integral em s e uma integral de contorno, definido pela reta que passaem σ, que contem o semiplano a direita de σ.
⋄
Exemplo 12.19A transformada inversa de Laplace de
X(s) =1
s+ a, Re(s) > −a , a ∈ R
pode ser computada por meio da transformada de Fourier associada, considerando-se s = σ + jωpara um σ conveniente. Como
X(s)∣∣∣s=σ+jω
= Fx(t) exp(−σt)
tem-se, pela transformada inversa de Fourier,
Bonatti, Lopes & Peres
198 Capıtulo 12. Transformada de Laplace
x(t) exp(−σt) =1
2π
∫ +∞
−∞
X(σ + jω) exp(jωt)dω
O lado direito da expressao produz
F−1X(σ + jω) = exp(− (σ + a)t
)u(t) , σ + a > 0
Portanto,
x(t) = exp(−at)u(t) , σ + a > 0 ≡ Re(s+ a) > 0
Propriedade 12.12Transformada inversa de Laplace (unilateral)
X(s) =
∫ +∞
0x(t) exp(−st)dt ; s ∈ Ωx
Se x(t) = 0, t < 0, a transformada unilateral de Laplace e igual a transformada bilateral de Laplacede x(t) e a transformada inversa e unica.
⋄
A transformada inversa de Laplace e uma integral complexa que pode ser calculada usando-se tecnicasde resıduo. Entretanto, no caso de funcoes X(s) racionais, o computo pode ser feito por decomposicaoem fracoes parciais.
Bonatti, Lopes & Peres
Capıtulo 13
Resolucao de equacoes diferenciais por
transformada de Laplace
Equacoes diferenciais lineares a coeficientes constantes podem ser resolvidas, para t ≥ 0, pela trans-formada de Laplace.
Duas propriedades de transformada de Laplace sao relevantes para a resolucao dessas equacoes.
Propriedade 13.1Transformada unilateral de Laplace da derivada
L
x(m)(t) =dmx(t)
dtm
= smLx(t) −m−1∑
k=0
sm−k−1x(k)(0) , m ∈ Z+
O domınio e no mınimo Ωx.
Para primeira ordem, tem-se
Lx(t) = sLx(t) − x(0)
e, para segunda ordem,
Lx(t) = s2Lx(t) − sx(0)− x(0)
⋄
A transformada inversa de Laplace e uma integral complexa que pode ser calculada usando-se tecnicasde resıduo. Entretanto, no caso de funcoes X(s) racionais, o computo pode ser feito por decomposicaoem fracoes parciais, usando a propriedade a seguir.
Propriedade 13.2
L tm
m!exp(−at)u(t)
=1
(s+ a)m+1, m ∈ N
Lcos(βt) exp(−at)u(t) =s+ a
(s+ a)2 + β2
199
200 Capıtulo 13. Resolucao de equacoes diferenciais por transformada de Laplace
Lsen(βt) exp(−at)u(t) =β
(s+ a)2 + β2
O domınio e dado por Re(s+ a) > 0.
⋄
Exemplo 13.1Sistema autonomo de primeira ordem
Considere a equacao diferencial
y + ay = 0 , y(0)
Aplicando Laplace, tem-se
sY (s)− y(0) + aY (s) = 0 ⇒ Y (s) =y(0)
s+ a
cuja transformada inversa e
y(t) = y(0) exp(−at)u(t)
Note que esse exemplo modela um circuito RC autonomo, sendo y(t) a tensao no capacitor ea = 1/(RC).
Exemplo 13.2Resposta ao impulso do circuito RC
Considere o circuito RC descrito na Figura 13.1, com τ = RC.
x(t)
R+
+
−− C y(t)
Figura 13.1: Circuito RC.
cuja equacao diferencial e dada por
RCy + y = x
A resposta ao impulso pressupoe condicoes iniciais nulas. Para x(t) = δ(t), tem-se X(s) = 1 e,nesse caso, a saıda Y (s) e igual a H(s) (funcao de transferencia do circuito).
A funcao de transferencia e a resposta ao impulso sao dados por
Bonatti, Lopes & Peres
201
H(s) =1/τ
s+ 1/τ⇒ h(t) =
1
τexp(−t/τ)u(t)
Note que, neste caso, a resposta ao impulso corresponde a solucao do circuito autonomo com acondicao inicial y(0) = 1/τ .
A funcao de transferencia da tensao medida no resistor e a correspondente resposta ao impulso saodadas por
HR(s) =s
s+ 1/τ= 1− 1/τ
s+ 1/τ⇒ h(t) = δ(t)− 1
τexp(−t/τ)u(t)
Observe que a resposta ao impulso pode conter impulsos, associados ao fato do grau do denominadorser igual ao grau do numerador na funcao de transferencia.
A transformada de Laplace tambem pode ser utilizada para fornecer valores iniciais e finais das solucoesde equacoes diferenciais, por meio das propriedades do valor inicial e do valor final.
Propriedade 13.3Valor inicial
Para X(s) tal que Ωx = s ∈ C : Re(s) > a com a real, e x(0+)− x(0) finito:
x(0+) = limt→0+
x(t) = lims→+∞
sX(s)
Obs.: s→ +∞ deve ser entendido como s = σ + jω, com ω qualquer e σ → +∞.
pois
sX(s)− x(0) = Ldx
dt
=
∫ +∞
0
dx
dtexp(−st)dt =
∫ 0+
0
dx
dtexp(−st)dt+
∫ +∞
0+
dx
dtexp(−st)dt
sX(s)− x(0) =
∫ 0+
0
dx
dtdt+
∫ +∞
0+
dx
dtexp(−st)dt = x(0+)− x(0) +
∫ +∞
0+
dx
dtexp(−st)dt
Para s → +∞, a integral
∫ +∞
0+
dx
dtexp(−st)dt vai a zero devido a existencia da transformada da
derivada. Portanto,
lims→+∞
sX(s)− x(0) = x(0+)− x(0) =⇒ lims→+∞
sX(s) = limt→0+
x(t)
⋄
Propriedade 13.4Valor final
Considere x(t) tal que limt→+∞ x(t) existe (ou seja, e finito), o que implica que X(s) possui no maximoum polo em s = 0 e todos os demais com parte real negativa. Entao
Bonatti, Lopes & Peres
202 Capıtulo 13. Resolucao de equacoes diferenciais por transformada de Laplace
limt→+∞
x(t) = lims→0
sX(s)
pois
sX(s)− x(0) = Ldx
dt
=
∫ +∞
0
dx
dtexp(−st)dt
⇒ lims→0
sX(s)− x(0) =
∫ +∞
0
dx
dtdt = lim
t→+∞x(t)− x(0)
⋄
Exemplo 13.3Resposta ao degrau1 do circuito RC
Considere o circuito RC descrito na Figura 13.1, com τ = RC e funcao de transferencia dada por
H(s) =1/τ
s+ 1/τ
Para a entrada x(t) = u(t),
Y (s) = H(s)1
s=
1/τ
s(s+ 1/τ)
Expandindo em fracoes parciais, tem-se
Y (s) =1/τ
s(s+ 1/τ)=
1
s− 1
s+ 1/τ
resultando na resposta ao degrau dada por
y(t) =(1− exp(−t/τ)
)u(t)
Observe que y(t) atinge aproximadamente 63% do valor final decorrido t = τ e 95% para t = 3τ ,sendo τ denominado constante de tempo do sistema.
Para t ∈ [0, τ ] tem-se
y(t) ≈ t
τ
e essa aproximacao e usada experimentalmente para a medida da constante de tempo de sistemasde primeira ordem.
A solucao de regime e dada por
limt→+∞
y(t) = 1
pois o ganho DC e unitario. Note que, pelo teorema do valor final (Propriedade 13.4), tem-se
limt→+∞
y(t) = lims→0
sY (s) = H(0) = 1
1Resposta ao degrau pressupoe condicoes iniciais nulas.
Bonatti, Lopes & Peres
203
A resposta ao degrau para a funcao de transferencia da tensao medida no resistor e dada por
YR(s) =1
s+ 1/τ⇒ yR(t) = exp(−t/τ)u(t)
e, em regime, yR(t)→ 0.
Resumindo, tem-se
sY (s) =1/τ
s+ 1/τ=
0 inicial s→ +∞1 final s→ 0
sYR(s) =s
s+ 1/τ=
1 inicial s→ +∞0 final s→ 0
Exemplo 13.4Circuito RC excitado por exponencial
Considere o circuito RC da Figura 13.1 com τ = RC, excitado pela entrada x(t) = exp(−t)u(t) econdicao inicial nula.
Para τ 6= 1, tem-se
Y (s) =
(1/τ
s+ 1/τ
)(1
s+ 1
)
=a
s+ 1/τ+
b
s+ 1
b = −a =1
1− τ
e, portanto,
y(t) =1
τ − 1
(
exp(−t/τ)− exp(−t))
u(t)
Para τ = 1, tem-se
Y (s) =
(1
s+ 1
)(1
s+ 1
)
=1
(s+ 1)2
y(t) = t exp(−t)u(t)
que poderia tambem ser obtido por l’Hopital
y(t) = limτ→1
exp(−t/τ)tτ−2
1u(t) = t exp(−t)u(t)
Bonatti, Lopes & Peres
204 Capıtulo 13. Resolucao de equacoes diferenciais por transformada de Laplace
Exemplo 13.5Resposta ao impulso (sistema instavel)
A transformada de Laplace da resposta ao impulso do sistema descrito pela equacao diferencial
y − y − 2y = −3x , (p+ 1)(p− 2)y = −3x
e dada por
H(s) =−3
(s+ 1)(s− 2)=
1
s+ 1− 1
s− 2
Portanto,
h(t) =(exp(−t)− exp(2t)
)u(t)
Note que lims→0 sH(s) = 0 nao corresponde ao valor h(+∞) pois uma das raızes da equacaocaracterıstica e positiva (sistema instavel). No entanto, o valor inicial h(0+) pode ser calculado porlims→+∞ sH(s) = 0.
Exemplo 13.6Resposta a rampa2 do circuito RC
Considere o circuito RC descrito na Figura 13.1, com τ = RC e funcao de transferencia dada por
H(s) =1/τ
s+ 1/τ
Para entrada a x(t) = tu(t),
Y (s) = H(s)1
s2=
1/τ
s2(s+ 1/τ)
Expandindo em fracoes parciais, tem-se
Y (s) =1/τ
s2(s+ 1/τ)=
1
s2− τ
s− τ
s+ 1/τ
resultando na resposta a rampa dada por
y(t) =(t− τ − τ exp(−t/τ)
)u(t)
Para t suficientemente grande (resposta em regime) tem-se
y(t) ≈ t− τ
indicando que o sistema de primeira ordem apresenta saıda em regime deslocada em relacao aentrada. Note que para sistemas com ganho DC diferente de 1, a inclinacao da rampa de saıda edistinta da inclinacao da rampa de entrada.
2Resposta a rampa pressupoe condicoes iniciais nulas.
Bonatti, Lopes & Peres
205
Exemplo 13.7Sistema autonomo de segunda ordem
Considere o sistema dado por
(p2 + 2ξωnp+ ω2n)y(t) = 0 , y(0) = a > 0 , y(0) = 0
com ωn > 0 e 0 < ξ < 1 (raızes complexas conjugadas). A transformada de Laplace Ly(t) = Y (s)e dada por
Y (s) =2aξωn + as
s2 + 2ξωns+ ω2n
Completando o quadrado e colocando na forma padrao para transformada inversa de seno e cosseno,tem-se
Y (s) = αs+ ξωn
(s+ ξωn)2 + ω2d
+ βωd
(s+ ξωn)2 + ω2d
com
α = a , β = aξ
√
1− ξ2, ωd = ωn
√
1− ξ2
resultando em
y(t) = a exp(−ξωnt)(
cos(ωdt) +ξ
√
1− ξ2sen(ωdt)
)
u(t)
Note que, para ξ = 0 (sistema sem amortecimento), a resposta e dada por y(t) = a cos(ωdt).Note tambem que a envoltoria da solucao comporta-se como um sistema de primeira ordem cujaconstante de tempo e
τ =1
ξωn
Exemplo 13.8Pendulo linearizado
A equacao diferencial linear que descreve o movimento do pendulo em torno de y(t) = 0 e dada por
mℓy = −mgseny −mby
Linearizando, tem-se
(
p2 +b
ℓp+
g
ℓ
)
y(t) = 0
Portanto,
ωn =
√g
ℓ, 2ξωn =
b
ℓ⇒ ξ =
b
2√ℓg
Observe que, se b = 0 (pendulo nao amortecido), o perıodo de oscilacao e dado por
Bonatti, Lopes & Peres
206 Capıtulo 13. Resolucao de equacoes diferenciais por transformada de Laplace
T = 2π
√
ℓ
g
Essa expressao foi obtida experimentalmente por Galileo Galilei3.
Exemplo 13.9Circuito RLC
Considere o circuito RLC da Figura 13.2 para x(t) = 0 (circuito autonomo). A equacao diferenciale dada por
(
p2 +1
RCp+
1
LC
)
y(t) = 0
Portanto,
ωn =1√LC
, 2ξωn =1
RC⇒ ξ =
1
2R
√
L
C
R
++
−− C
L
x y
y1
Figura 13.2: Circuito RLC.
Observe que, para R→∞ (circuito sem perdas), tem-se
T = 2π√LC
Note tambem que a constante de tempo da envoltoria e τ = 2RC.
Exemplo 13.10Resposta ao impulso de sistema de segunda ordem subamortecido
Considere o sistema dado por
H(s) =ω2
n
s2 + 2ξωns+ ω2n
com 0 < ξ < 1. Completando-se o quadrado no denominador, tem-se
H(s) =
(
ωn√
1− ξ2
)
ωd
(s+ ξωn)2 + ω2d
3Galileo Galilei, matematico italiano do seculo XVI.
Bonatti, Lopes & Peres
207
com a frequencia de oscilacao ωd dada por
ωd = ωn
√
1− ξ2
resultando em
h(t) =
(
ωn√
1− ξ2
)
exp(−ξωnt)sen(ωdt)u(t)
Esse resultado pode ser tambem obtido a partir da expansao em fracoes parciais de H(s), ou seja,
H(s) =a1
(s− λ1)+
a2
(s− λ2)
h(t) =(a1 exp(λ1t) + a2 exp(λ2t)
)u(t)
com
λ∗2 = λ1 = −ξωn + jωd , a∗2 = a1 = −j ω2n
2ωd
resultando em
h(t) =
(ω2
n
ωd
)
exp(−ξωnt)sen(ωdt)u(t)
A identificacao dos parametros de um sistema de segunda ordem subamortecido pode ser feita apartir da resposta ao impulso.
O perıodo T = 2π/ωd da senoide e obtido pelo computo do intervalo de tempo entre dois cruza-mentos consecutivos com zero.
O parametro ξ e obtido da relacao entre dois picos consecutivos da senoide, chamada de decrementologarıtmico, pois
exp(− ξωnkT
)
exp(− ξωn(k + 1)T
) = exp(ξωnT )
Observe que
ξωnT =2πξ
√
1− ξ2
Exemplo 13.11Resposta ao degrau de sistema de segunda ordem subamortecido
Considere o sistema dado por
H(s) =ω2
n
s2 + 2ξωns+ ω2n
com 0 < ξ < 1.
Bonatti, Lopes & Peres
208 Capıtulo 13. Resolucao de equacoes diferenciais por transformada de Laplace
Para x(t) = u(t), tem-se
Y (s) =( ω2
n
s2 + 2ξωns+ ω2n
)1
s=
1
s− s+ 2ξωn
s2 + 2ξωns+ ω2n
Completando-se os quadrados, tem-se
Y (s) =1
s− s+ ξωn
(s+ ξωn)2 + ω2d
− ξωn
ωd
ωd
(s+ ξωn)2 + ω2d
resultando em
y(t) =
(
1− exp(−ξωnt)(
cos(ωdt) +ξ
√
1− ξ2sen(ωdt)
))
u(t)
A resposta ao degrau passa por um primeiro pico (sobre-elevacao) que pode ser determinado daequacao y(t) = 0, resultando em
tpico = π/ωd , ypico = 1 + exp(−ξωnπ/ωd)
Esses parametros podem ser utilizados para a identificacao de sistemas de segunda ordem.
Note que o valor de regime (t → ∞) e igual ao valor da amplitude do degrau de entrada pois oganho DC do sistema e unitario (H(0) = 1).
Propriedade 13.5Resposta a entrada nula e resposta as condicoes iniciais nulas
A resposta de um sistema linear invariante no tempo pode ser decomposta em resposta a entrada nulae resposta as condicoes iniciais nulas, pois
D(p)y(t) = N(p)x(t) ; y(0), y(0), . . . , y(m−1)(0)
resulta em
Y (s) = H(s)X(s) + I(s)
sendo I(s) a parcela devida as condicoes iniciais.
⋄
Exemplo 13.12Considere o circuito RC da Figura 13.1 com τ = RC = 1, excitado pela entrada x(t) = cos(−t)u(t)e condicao inicial y(0).
Y (s) =1
s+ 1X(s) +
1
s+ 1y(0)
Portanto,
Y (s) =s
(s+ 1)(s2 + 1)+
y(0)
s+ 1=y(0)− 1/2
s+ 1+
1
2
s+ 1
s2 + 1
Bonatti, Lopes & Peres
209
y(t) =(
(y(0)− 1/2) exp(−t) +1
2cos(t) +
1
2sen(t)
)
u(t)
Note que a resposta y(t) contem termos transitorios devido a entrada e devido a condicao inicialy(0).
Note ainda que, no exemplo, a condicao inicial y(0) = 1/2 anula o transitorio.
Propriedade 13.6Resposta ao impulso de sistema estavel
A resposta ao impulso de um sistema linear invariante no tempo racional estritamente proprio (graudo numerador menor que o do denominador) com polos de parte real negativa e funcao de transferencia
H(s) =N(s)
D(s)
e transitoria, ou seja, esvanece com o tempo
limt→+∞
h(t) = 0
Como s = 0 pertence a Ωh (polos de parte real negativa), tem-se
limt→+∞
h(t) = lims→0
sH(s) = 0
o que qualifica o comportamento de h(t) como assintoticamente estavel.
⋄
Propriedade 13.7Resposta ao degrau de sistema estavelA resposta persistente (ou em regime) de um sistema linear invariante no tempo racional estritamenteproprio com polos de parte real negativa excitado por um degrau com funcao de transferencia
H(s) =N(s)
D(s)
e dada por
y(t) = H(0)u(t)︸ ︷︷ ︸
regime
+transitorio
pois
Y (s) =H(s)
s=a
s+N1(s)
D(s), a = H(0)
Note que a saıda em regime e tambem um degrau, com a mesma amplitude da entrada se H(0) = 1.
⋄
Bonatti, Lopes & Peres
210 Capıtulo 13. Resolucao de equacoes diferenciais por transformada de Laplace
Propriedade 13.8Resposta a rampa de sistema estavel
A resposta persistente (ou em regime) de um sistema linear invariante no tempo racional estritamenteproprio com polos de parte real negativa excitado por uma rampa com funcao de transferencia
H(s) =N(s)
D(s)
e dada por
y(t) = H(0)tu(t) + H(0)u(t)︸ ︷︷ ︸
regime
+transitorio
A propriedade pode ser verificada notando-se que
Y (s) =H(s)
s2=
a
s2+b
s+N1(s)
D(s)
com
a = H(0) , b =d
dsH(s)
∣∣∣s=0
resultando em
y(t) = H(0)tu(t) + H(0)u(t) + transitorio
Note que a saıda em regime e tambem uma rampa, com a mesma inclinacao se H(0) = 1 e, alem disso,de mesmo valor se H(0) = 0.
⋄
Exemplo 13.13Resposta ao degrau e a rampa
Um sistema de primeira ordem dado por
H(s) =a
s+ a
com a > 0 segue uma entrada em degrau. Note que esse sistema nao segue a entrada x(t) = tu(t)em regime com erro nulo, pois H(0) = 1 mas H(0) = −1/a 6= 0.
Um sistema de segunda ordem dado por
H(s) =as+ b
s2 + as+ b
com a > 0 e b > 0 segue as entradas degrau e rampa com erro de regime nulo.
Propriedade 13.9Resposta a parabola de sistema estavel
A resposta persistente (ou em regime) de um sistema linear invariante no tempo racional estritamenteproprio com polos de parte real negativa excitado por uma parabola com funcao de transferencia
Bonatti, Lopes & Peres
211
H(s) =N(s)
D(s), x(t) =
t2
2u(t) ⇒ X(s) =
1
s3
e dada por
y(t) = H(0)t2
2u(t) + H(0)tu(t) +
1
2H(0)u(t)
︸ ︷︷ ︸
regime
+transitorio
pois
Y (s) =H(s)
s3=
a
s3+
b
s2+c
s+N2(s)
D(s)
com
a = H(0) , b =d
dsH(s)
∣∣∣s=0
, c =1
2
d2
ds2H(s)
∣∣∣s=0
⋄
Exemplo 13.14Resposta a parabola
Um sistema de terceira ordem dado por
H(s) =as2 + bs+ c
s3 + as2 + bs+ c
com raızes estaveis segue as entradas degrau, rampa e parabola com erro de regime nulo.
Bonatti, Lopes & Peres
Capıtulo 14
Resolucao de Equacoes Diferenciais por
Coeficientes a Determinar
Equacoes diferenciais lineares com coeficientes constantes podem ser resolvidas pelo metodo dos coe-ficientes a determinar.
Considere a equacao diferencial homogenea
D(p)y(t) =m∑
k=0
αkpky(t) = 0 , p =
d
dt, pk =
dk
dtk(14.1)
com αm = 1 e condicoes iniciais conhecidas, que descreve um sistema linear autonomo.
Observe que a equacao e uma restricao linear (combinacao linear das funcoes y(t), y(t), . . . , y(m)(t))e portanto a solucao y(t) deve necessariamente estar em um espaco de dimensao m.
Definicao: Independencia Linear
Um conjunto de sinais yk(t), k = 1, . . . ,m e linearmente independente se e somente se
m∑
k=1
ckyk(t) = 0 , ∀t ⇒ ck = 0 , k = 1, . . . ,m
Exemplo 14.1Linearmente independentes
Os sinais y1(t) = 1, y2(t) = t e y3(t) = t2 sao linearmente independentes.
c1y1(t) + c2y2(t) + c3y3(t) = 0 ⇒ c1 = c2 = c3 = 0, pois det
1 0 01 1 11 2 4
= 2 6= 0
Definicao: Base
A combinacao linear de um conjunto de m sinais yk(t), isto e,
212
213
y(t) =m∑
k=1
ckyk(t)
com escalares ck ∈ C gera um espaco linear, cuja dimensao e dada pelo numero r ≤ m de sinaislinearmente independentes. Qualquer conjunto de r sinais que gere o mesmo espaco e uma base paraesse espaco.
Propriedade 14.1Independencia linear
y1(t) = exp(λ1t) e y2(t) = exp(λ2t) sao linearmente independentes se e somente se λ1 6= λ2
pois a1 exp(λ1t) + a2 exp(λ2t) = 0 implica
a1 + a2 = 0a1 exp(λ1) + a2 exp(λ2) = 0
⇒ a1 = a2 = 0
⋄
Propriedade 14.2Derivada de auto-funcao
As funcoes y1(t) = exp(λt) e y2(t) = pk exp(λt) sao linearmente dependentes, pois
y2(t) = λk exp(λt)
⋄
Propriedade 14.3Modo proprio
y(t) = exp(λt) e solucao da equacao (14.1) se λ e raiz de D(λ) = 0 (equacao caracterıstica), pois
D(p) exp(λt) = D(λ) exp(λt) = 0
⋄
Exemplo 14.2Raiz simples
Considere o circuito RC autonomo, com condicao inicial (tensao no capacitor) y(0) e RC = τ .
(τp+ 1)y = 0 , y(0)
cuja equacao caracterıstica e
τλ+ 1 = 0 ⇒ λ = −1
τ
Bonatti, Lopes & Peres
214 Capıtulo 14. Resolucao de Equacoes Diferenciais por Coeficientes a Determinar
A solucao e dada por
y(t) = a exp(λt)
sendo a o coeficiente a determinar. Usando a condicao inicial, tem-se
y(t) = y(0) exp(λt)
Propriedade 14.4Modos proprios
Se as m raızes λk de D(λ) = 0 forem distintas, entao
y(t) =m∑
k=1
ak exp(λkt)
e solucao da equacao (14.1) pois λk satisfaz D(λk) = 0, k = 1, . . . ,m e os modos proprios exp(λkt),k = 1, . . . ,m sao linearmente independentes.
⋄
Exemplo 14.3Duas raızes reais distintas
Considere o sistema descrito pela equacao diferencial
p(p+ 1/τ)y = 0 , y(0) = 0 , y(0) = 1/τ
cuja equacao caracterıstica e
λ(λ+ 1/τ) = 0 ⇒ λ1 = 0 , λ2 = −1/τ
A solucao e dada por
y(t) = a1 + a2 exp(−t/τ)
Das condicoes iniciais, tem-se
a1 = 1 , a2 = −1
Bonatti, Lopes & Peres
215
Exemplo 14.4Duas raızes complexas conjugadas
Considere o sistema descrito pela equacao diferencial
(p2 + 2√
3p+ 4)y = 0 , y(0) = 1 , y(0) = 0
cuja raızes da equacao caracterıstica sao
λ1 = −√
3 + j , λ2 = −√
3− j
A solucao e dada por
y(t) = a1 exp(λ1t) + a2 exp(λ2t)
Das condicoes iniciais, tem-se
a1 =1
2− j√
3
2, a2 =
1
2+ j
√3
2
De maneira equivalente, a combinacao linear de modos proprios complexos conjugados pode serescrita como
y(t) = a exp(−√
3t) cos(t+ θ) , θ = −π/3 , a = 2
Exemplo 14.5Tres raızes distintas
Considere o sistema descrito pela equacao diferencial
(p2 + 1)(p+ 1) = 0 , y(0) = y0 , y(0) = 1− y0 , y(0) = y0 − 1
λ1 = −1 , λ2 = j , λ3 = −j
A solucao e dada por
y(t) = a1 exp(−t) + a2 exp(jt) + a3 exp(−jt)
Das condicoes iniciais, tem-se
a1 = y0 − 1/2 , a2 = (1− j)/4 , (1 + j)/4
Portanto,
y(t) = (y0 − 1/2) exp(−t) +1
4(exp(jt) + exp(−jt)) +
1
4j(exp(jt)− exp(−jt))
= (y0 − 1/2) exp(−t) +1
2cos(t) +
1
2sen(t)
Bonatti, Lopes & Peres
216 Capıtulo 14. Resolucao de Equacoes Diferenciais por Coeficientes a Determinar
Propriedade 14.5Operador p do produto
Para n ≥ 0 inteiro, com p =d
dte p0f(t) = f(t), tem-se
pn(f(t)g(t)
)=
n∑
k=0
(nk
)
pkf(t)pn−kg(t)
pois
p(f(t)g(t)
)= f(t)pg(t) + g(t)pf(t)
p2(f(t)g(t)
)= g(t)p2f(t) + f(t)p2g(t) + 2pf(t)pg(t) , · · ·
⋄
Propriedade 14.6Operador p do produto t exp(λt)
D(p)(t exp(λt)
)= tD(λ) exp(λt) +
d
dλD(λ) exp(λt)
pois
D(p)(t exp(λt)
)= exp(λt)
m∑
k=0
αk
k∑
r=0
λk−r
(kr
)
prt =
= exp(λt)
(
tm∑
k=0
αkλk +
m∑
k=1
αkkλk−1
)
= exp(λt)
(
tD(λ) +d
dλD(λ)
)
⋄
Propriedade 14.7Raiz dupla
Se λ e raiz dupla da equacao caracterıstica D(λ) = 0, entao exp(λt) e t exp(λt) sao modos propriosda equacao (14.1).
D(p)(t exp(λt)) = exp(λt)
(
tD(λ) +d
dλD(λ)
)
= 0
pois D(λ) = 0 ed
dpD(p)
∣∣∣p=λ
= 0 quando λ e raiz dupla de D(λ).
⋄
Propriedade 14.8Raiz multipla
Se λ e raiz de multiplicidade r de D(λ), entao exp(λt), t exp(λt), . . . , tr−1 exp(λt) sao modos propriosda equacao (14.1).
⋄
Bonatti, Lopes & Peres
217
Propriedade 14.9Solucao da equacao homogenea
A solucao da equacao (14.1) e dada pela combinacao linear dos seus m modos proprios.⋄
Exemplo 14.6Duas raızes iguais
Considere o sistema descrito pela equacao diferencial
(p+ 1)2y = 0 , y(0) = 0 , y(0) = 1
λ1 = λ2 = −1
A solucao e dada por
y(t) = a1 exp(−t) + a2t exp(−t)
Das condicoes iniciais, tem-se
a1 = 0 , a2 = 1
Exemplo 14.7Duas raızes iguais e uma distinta
Considere o sistema descrito pela equacao diferencial
p2(p+ 1/τ)y = 0 , y(0) = 0 , y(0) = 0 , y(0) = 1/τ
λ1 = λ2 = 0 , λ3 = −1/τ
A solucao e dada por
y(t) = a1 + a2t+ a3 exp(−t/τ)
Das condicoes iniciais, tem-se
a1 = −τ , a2 = 1 , a3 = τ
Considere a equacao diferencial nao homogenea
D(p)y(t) = N(p)x(t) (14.2)
com αm = 1 e condicoes iniciais conhecidas, que descreve um sistema linear nao autonomo.
Bonatti, Lopes & Peres
218 Capıtulo 14. Resolucao de Equacoes Diferenciais por Coeficientes a Determinar
A equacao (14.2) pode ser resolvida pelo metodo dos coeficientes a determinar sempre que x(t) forsolucao de uma equacao diferencial homogenea dada por
D(p)x(t) = 0
O polinomio D(p) define os modos do espaco que contem x(t). Portanto, multiplicando a equacao(14.2) dos dois lados por D(p), tem-se a equacao homogenea
D(p)D(p)y(t) = N(p)D(p)x(t) = 0
que contem os modos proprios de D(p) e os modos forcados de D(p).
As condicoes iniciais que permitem a solucao desse sistema aumentado sao as originais acrescidas detantas quanto for o grau de D(p), obtidas por substituicao sistematica na equacao (14.2).
Exemplo 14.8Primeira ordem com entrada constante
Considere o sistema descrito pela equacao diferencial
(p+ 1/τ)y = 1/τ , y(0) = 0
Neste caso, D(p) = p, pois a entrada x(t) = 1/τ exp(0t) esta no espaco de dimensao 1 descrito pelomodo proprio associado a raiz 0, resultando na equacao homogenea (resolvida no Exemplo 14.3)
p(p+ 1/τ)y = 0 , y(0) = 0 , y(0) = 1/τ
A condicao y(0) foi obtida da equacao original.
Exemplo 14.9Primeira ordem com entrada senoidal
Considere o sistema descrito pela equacao diferencial
(p+ 1)y = cos(t) , y(0) = y0
Neste caso, D(p) = p2 + 1, pois a entrada x(t) = cos(t) esta no espaco de dimensao 2 descritopelos modos proprios associados as raızes j e −j, resultando na equacao homogenea (resolvida noExemplo 14.5)
(p2 + 1)(p+ 1) = 0 , y(0) = y0 , y(0) = 1− y0 , y(0) = y0 − 1
Exemplo 14.10Primeira ordem com entrada exponencial (ressonancia)
Considere o sistema descrito pela equacao diferencial
Bonatti, Lopes & Peres
219
(p+ 1)y = exp(−t) , y(0) = 0
Neste caso, D(p) = p+1, pois a entrada x(t) = exp(−t) esta no espaco de dimensao 1 descrito pelosmodo proprio associado a raiz −1, resultando na equacao homogenea (resolvida no Exemplo 14.6)
(p+ 1)2y = 0 , y(0) = 0 , y(0) = 1
Observe que a coincidencia do modo proprio da funcao excitadora com o modo proprio do sistemaproduz uma solucao equivalente a obtida para duas raızes iguais.
Propriedade 14.10Solucao forcada
O metodo dos coeficientes a determinar pode ser aplicado diretamente a equacao diferencial naohomogenea (14.2). Para isso, identificam-se as parcelas homogenea e forcada (devido a entrada) dasolucao.
y(t) = yh(t) + yf (t) ⇒ D(p)(yh(t) + yf (t)
)= N(p)x(t)
D(p)yf (t) = N(p)x(t) (14.3)
pois D(p)yh(t) = 0.
As parcelas homogenea e forcada sao dadas por
yh(t) =m∑
k=1
akpk(t) , yf (t) =m∑
k=1
bkqk(t)
sendo pk(t) os m modos proprios associados a D(λ) = 0 e qk os m modos forcados associados aD(γ) = 0, considerando-se as possıveis multiplicidades com as raızes λ.
Os coeficientes bk sao obtidos da equacao (14.3) e, em seguida, os coeficientes ak sao obtidos a partirdas condicoes iniciais aplicadas na solucao y(t).
⋄
Exemplo 14.11Solucao forcada a entrada senoidal
Considere o sistema descrito pela equacao diferencial
(p+ 1)y = 10 cos(2t) , y(0) = 0
A raiz de D(λ) = 0 e −1 e as raızes de D(γ) = 0 sao
γ1 = 2j , γ2 = −2j
e portanto nao ha coincidencia de raızes entre D(λ) = 0 e D(γ) = 0. Assim,
yf (t) = b1 exp(γ1t) + b2 exp(γ2t)
Bonatti, Lopes & Peres
220 Capıtulo 14. Resolucao de Equacoes Diferenciais por Coeficientes a Determinar
Substituindo na equacao, tem-se
γ1b1 exp(γ1t) + γ2b2 exp(γ2t) + b1 exp(γ1t) + b2 exp(γ2t) = 5 exp(γ1t) + 5 exp(γ2t)
resultando em
b1 =5
γ1 + 1= 1− j2 , b2 =
5
γ2 + 1= 1 + j2
Assim,
y(t) = a exp(−t) + (1− j2) exp(j2t) + (1 + j2) exp(−j2t)
Das condicoes iniciais, obtem-se a = −2.
Note que os modos forcados podem ser escritos em termos trigonometricos, ou seja,
yf (t) = bc cos(2t) + bssen(2t)
Derivando e substituindo na equacao, obtem-se
bc = 2 , bs = 4
Exemplo 14.12Solucao forcada a entrada exponencial
Considere o sistema dado por
(p+ 1)y = 10 exp(−t) , y(0) = 1
λ = −1 , γ = −1
Portanto, a parte forcada e dada por
yf (t) = bt exp(−t) ⇒ b = 10
A solucao e
y(t) = a exp(−t) + 10t exp(−t) ⇒ a = 1
Bonatti, Lopes & Peres
221
Exemplo 14.13Solucao forcada a entrada polinomial
Considere o sistema descrito pela equacao
(p2 + 2√
3p+ 4)y = 8t , y(0) = 1 , y(0) = 0
λ1 = −√
3 + j , λ2 = −√
3− j , γ1 = 0 , γ2 = 0
Portanto,
yf (t) = b1 + b2t ⇒ b1 = −√
3 , b2 = 2
y(t) = exp(−√
3t)(
a1 cos(t) + a2sen(t))
−√
3 + 2t ⇒ a1 = a2 = 1 +√
3
Propriedade 14.11Resposta ao impulso
D(p)y(t) = N(p)x(t) , x(t) = δ(t) (condicoes iniciais nulas)
A priori, o metodo dos coeficientes a determinar nao poderia ser utilizado para determinar y(t) poisnao existe equacao diferencial linear com coeficientes constantes que produza como solucao a funcaoδ(t).
Entretanto, a resposta ao impulso pode ser calculada pelo metodo dos coeficientes a determinar daseguinte forma. Primeiramente, resolva
D(p)f(t) = 1 , (condicoes iniciais nulas)
A resposta ao degrau e dada por N(p)(f(t)u(t)
), usando o operador p aplicado ao produto (Proprie-
dade 14.5).
Por linearidade, a resposta ao impulso e dada pela derivada da resposta ao degrau, isto e,
h(t) = pN(p)(f(t)u(t)
)
⋄
Exemplo 14.14Resposta ao impulso
Considere
(p+ 2)(p− 3)y(t) = px(t) , x(t) = δ(t) , (condicoes iniciais nulas)
Bonatti, Lopes & Peres
222 Capıtulo 14. Resolucao de Equacoes Diferenciais por Coeficientes a Determinar
(p+ 2)(p− 3)f(t) = 1 ⇒ f(t) = b+ a1 exp(−2t) + a2 exp(3t)
b =−1
6, f(0) = f(0) = 0 ⇒ a1 =
1
10, a2 =
1
15
A resposta ao degrau e dada por
yu(t) = p(f(t)u(t)
)=(pf(t)
)u(t) + f(t)
(pu(t)
)=(pf(t)
)u(t) + f(0)δ(t) = f(t)u(t)
⇒ yu(t) =(− 2a1 exp(−2t) + 3a2 exp(3t)
)u(t) =
1
5
(exp(3t)− exp(−2t)
)u(t)
e a resposta ao impulso e dada por h(t) = pyu(t)
h(t) = p(f(t)u(t)
)= f(t)u(t) + f(0)δ(t) = f(t)u(t) =
1
5
(3 exp(3t) + 2 exp(−2t)
)u(t)
Note que as respostas ao degrau e ao impulso poderiam ser obtidas por transformada de Laplace.A resposta ao impulso e a transformada inversa de H(s), ou seja
H(s) =s
(s+ 2)(s− 3)⇒ H(s) =
2/5
s+ 2+
3/5
s− 3, h(t) =
(2
5exp(−2t) +
3
5exp(3t)
)u(t)
Exercıcio 14.1
a) Determine a resposta ao degrau do sistema
(p+ 1)2y = x
Solucao: fazendo x = 1 e y(0) = y(0) = 0, tem-se
y = b+ a1 exp(−t) + a2t exp(−t) ⇒ b = 1
0 = b+ a1
0 = −a1 + a2⇒ a1 = −1 , a2 = −1
b) Determine a resposta do sistema para as condicoes y(0) = 0, y(1) = 0
(p+ 1)2y = 1
Solucao: denotando y(0) = a, tem-se
y = b+ a1 exp(−t) + a2t exp(−t) ⇒ b = 1
0 = b+ a1
a = −a1 + a2⇒ a1 = −1 , a2 = a− 1
Portanto,
y = 1− exp(−t) + (a− 1)t exp(−t)
Bonatti, Lopes & Peres
223
Com a condicao de contorno y(1) = 0, tem-se
a = 2− exp(1)
A Figura 14.1 mostra a evolucao temporal das duas solucoes. Observe que, no caso b), a imposicaode y(1) = 0 alterou de maneira significativa a derivada no instante t = 0.
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5−0.2
0
0.2
0.4
0.6
0.8
1
a)
b)
t
Figura 14.1: Respostas temporais do Exercıcio 14.1.
Bonatti, Lopes & Peres
Capıtulo 15
Variaveis de Estado
Sistemas dinamicos podem ser descritos por relacoes de entrada-saıda ou por variaveis internas deno-minadas variaveis de estado.
Definicao: representacao canonica por variaveis de estado
Sistemas contınuos no tempo com uma entrada escalar x(t) e uma saıda escalar y(t) sao chamados desistemas SISO (single-input single-output). Podem ser descritos por sistemas de equacoes de primeiraordem nas variaveis de estado. Assim,
v(t) = f(v(t), x(t), t) , y(t) = g(v(t), x(t), t) (15.1)
sendo v(t) ∈ Rm o vetor de variaveis de estado.
As trajetorias v(t), solucoes da equacao (15.1), sao univocamente determinadas a partir da condicaoinicial v(0) e da entrada x(t).
Exemplo 15.1Lorenz
Em 1963, Lorenz1 publicou o artigo “Deterministic nonperiodic flow”, no Journal of the Atmosphe-ric Sciences, mostrando que equacoes simples podem apresentar comportamentos imprevisıveis,denominados posteriormente de caoticos.
v1 = σ(v2 − v1)v2 = ρy1 − v2 − v1v3v3 = v1v2 − βv3
As equacoes representam comportamentos atmosfericos, sendo v1 ligado a velocidade das correntesde ar e v2, v3 associados as temperaturas. As contantes positivas sao o numero de Rayleigh2 ρ, onumero de Prandtl3 σ e uma razao β [2].
Definicao: pontos de equilıbrio
Os vetores v solucao do sistema de equacoes invariante no tempo
1Edward N. Lorenz, meteorologista do MIT (Massachusetts Institute of Technology).2John William Strutt, Lord Rayleigh, fısico ingles (1842–1919).3Ludwig Prandtl, engenheiro mecanico alemao (1875–1953).
224
225
f(v, x) = 0
para x(t) = x constante sao denominados pontos de equilıbrio.
Sistemas lineares invariantes no tempo podem ser representados por equacoes matriciais em termosdas variaveis de estado, das entradas e saıdas
v = Av +Bx (15.2)
y = Cv +Dx (15.3)
sendo v(t) ∈ Rm o vetor de variaveis de estado, x(t) o vetor de entradas e y(t) o vetor de saıdas. A
equacao (15.2) e chamada de equacao dinamica, sendo A a matriz dinamica do sistema e B a matrizde entradas, e a equacao (15.3) e chamada de equacao de saıda, sendo C a matriz de saıdas e D amatriz de transmissao direta.
Definicao: sistema linearizado
Uma aproximacao de primeira ordem pode representar o sistema em torno do ponto de equilıbro.Assim, utilizando o jacobiano4 tem-se
A =
[∂fi
∂vj
]∣∣∣∣v,x
, B =
[∂fi
∂xj
]∣∣∣∣v,x
C =
[∂gi
∂vj
]∣∣∣∣v,x
, D =
[∂gi
∂xj
]∣∣∣∣v,x
Neste texto, apenas entradas e saıdas escalares (sistemas SISO) sao consideradas, implicando queB = b (vetor coluna), C = c (vetor linha) e D = d (escalar).
Exemplo 15.2Lotka-Volterra
O modelo de Lotka-Volterra5 descreve, de maneira simplificada, a relacao entre quantidade depredadores v1 e de presas v2 num habitat com disponibilidade infinita de alimento para as presas.
v1 = f1(v1, v2) = −av1 + bv1v2 , v2 = f2(v1, v2) = cv2 − dv1v2
Os parametros a, b, c e d sao positivos e representam: a e a taxa de morte do predador, por fomee envelhecimento; b e o fator de ganho (para os predadores) quando do encontro com a presa; c ea taxa de expansao da populacao de presas (livres dos predadores); d e o fator de perda (para aspresas) quando do encontro com o predador.
Os pontos de equilıbrio sao (0, 0) (desaparecimento das populacoes) e (c/d, a/b).
O jacobiano do sistema e dado por
[∂fi
∂vj
]
=
[−a+ bv2 bv1−dv2 c− dv1
]
No ponto de equilıbrio (0, 0), tem-se a representacao linearizada do sistema
4Karl Gustav Jacob Jacobi, prussiano do seculo XIX.5Alfred James Lotka, austrıaco e Vito Volterra, italiano, ambos do final do seculo XIX.
Bonatti, Lopes & Peres
226 Capıtulo 15. Variaveis de Estado
[v1v2
]
=
[−a 00 c
] [v1v2
]
que corresponde a dois sistemas de primeira ordem desacoplados, um que cresce exponencialmentecom c (presa) e outro que decresce exponencialmente com a (predador).
No ponto de equilıbrio (c/d, a/b), tem-se a representacao linearizada do sistema
[v1v2
]
=
[0 bc/d
−ad/b 0
] [v1v2
]
na qual as variaveis representam os desvios em relacao ao ponto de equilıbrio. Escrevendo a equacaode segunda ordem em v1 (predador), tem-se
v1 + acv1 = 0
que produz solucoes puramente oscilatorias com frequencia√ac (em radianos), indicando que o
numero de predadores em torno de c/d alterna-se periodicamente com perıodo T = 2π/√ac.
A mesma equacao diferencial e obtida na variavel v2 (presa), indicando que o numero de presasalterna-se periodicamente em torno de a/b.
As Figuras 15.1 e 15.2 mostram a evolucao do sistema nao-linear (a = b = c = d = 1) para ascondicoes iniciais (0.1, 1), (0.9, 1.1) (esquerda) e (0.1, 0.1) (direita), respectivamente. As trajetoriasforam obtidas por simulacao numerica, algoritmo de Runge-Kutta.6 Note que o perıodo das os-cilacoes e aproximadamente igual a 8 na Figura 15.1 e 7 na Figura 15.1 (esquerda), enquanto queo perıodo do sistema linearizado e 2π. O menor desvio no segundo caso decorre da proximidade dacondicao inicial com o ponto de linearizacao.
0 2 4 6 8 10 12 14 16 18 200
0.5
1
1.5
2
2.5
3
3.5
4
t
Figura 15.1: Predadores (curva contınua) e presas (traco-e-ponto) para condicao inicial (0.1, 1).
Definicao: espaco de fases
E a representacao espacial das trajetorias de um sistema dinamico em coordenadas de variaveis deestado, tendo como variavel implıcita o tempo, chamada de plano de fase quando apenas duas dasvariaveis sao representadas.
6Carle David Tolme Runge (1856-1927) e Martin Wilhelm Kutta (1867-1944), matematicos alemaes.
Bonatti, Lopes & Peres
227
0 2 4 6 8 10 12 14 16 18 200
0.2
0.4
0.6
0.8
1
t0 2 4 6 8 10 12 14 16 18 20
0
1
2
3
4
5
6
t
Figura 15.2: Predadores (curva contınua) e presas (traco-e-ponto) para condicao inicial (0.9, 1.1)(esquerda) e (0.1, 0.1) (direita).
Propriedade 15.1Plano de Fase
Nao ha cruzamento de trajetorias no espaco de fases, pois o sistema nao pode evoluir diferentementea partir de um mesmo ponto.
⋄
Exemplo 15.3Os planos de fase do Exemplo 15.2 (Lotka-Volterra) sao mostrados na Figura 15.3.
0 1 2 3 4 5 60
1
2
3
4
5
6
v1
v 2
Figura 15.3: Planos de fase para as condicoes iniciais (0.1, 0.1) (curva pontilhada), (0.9, 1.1) (tracejada)e (0.1, 1) (contınua) do modelo de Volterra.
Exemplo 15.4Circuito RC
Considere o circuito RC descrito na Figura 15.4 com τ = RC.
Bonatti, Lopes & Peres
228 Capıtulo 15. Variaveis de Estado
x(t)
R+
+
−− C v(t)
Figura 15.4: Circuito RC.
Considerando como saıda a tensao y(t) no resistor, tem-se as equacoes de estado e de saıda
v = −1
τv +
1
τx , y = −v + x
Exemplo 15.5Circuito RLC
As equacoes de estado do circuito da Figura 15.5 sao
R
++
−− C
L
x v1
v2
Figura 15.5: Circuito RLC.
[v1v2
]
=
[−1/(RC) 1/C−1/L 0
] [v1v2
]
+
[0
1/L
]
x
y =[
1/R 0][v1v2
]
A equacao diferencial em y (corrente no resistor) e dada por
(
p2 +1
RCp+
1
LC
)
y =1
RLCx
Exemplo 15.6Circuito de terceira ordem
As equacoes de estado do circuito da Figura 15.6 sao
v(t) =
0 01
C1
0 − 1
R2C2− 1
C2
− 1
L
1
L−R1
L
v(t) v =
v1v2v3
Bonatti, Lopes & Peres
229
v3
y
v2
v1
R1
R2C2
C1
L
++
+
−−
−
Figura 15.6: Circuito de terceira ordem.
y =[
1 0 0]v
Esse circuito e usado para simular surtos de alta tensao (raios) em laboratorio. O capacitor C2,inicialmente carregado, transfere a energia para o capacitor C1 gerando um pulso cujo tempode subida e da ordem de 1µs e que cai a 50% de seu valor em cerca de 50µs. Valores tıpicos:C2 = 0.6µF , C1 = 0.001µF , R1 = 350Ω, R2 = 115Ω e L = 200µH (indutancia parasita).
A equacao diferencial homogenea de terceira ordem em y e
(
p3 +
(R1
L+
1
R2C2
)
p2 +
[1
LC1+
1
LC2
(
1 +R1
R2
)]
p+1
LC1R2C2
)
y = 0
Supondo todos os parametros iguais a 1, tem-se
v1 = v3 , v2 = −v2 − v3 , v3 = −v1 + v2 − v3 , y = v1
cuja implementacao usando integradores e mostrada na Figura 15.7.
+
+
+
∫∫∫
−1
−1
−1
−1
v3 v2 v1
y
Figura 15.7: Implementacao com integradores do circuito do Exemplo 15.5 (circuito de terceira ordem).
Muitos sistemas dinamicos sao descritos por equacoes diferenciais que nao estao na forma de variaveisde estado. Neste caso, e preciso definir variaveis de estado internas de maneira conveniente.
Bonatti, Lopes & Peres
230 Capıtulo 15. Variaveis de Estado
Exemplo 15.7Pendulo simples
O pendulo simples de comprimento ℓ, oscilando em um plano vertical, sujeito ao atrito de friccaono engate e sustentando na extremidade livre uma massa m e descrito pela equacao
mℓθ = −mgsen(θ)−mbθ
sendo θ o angulo com a vertical, g a aceleracao da gravidade e b o coeficiente de atrito.
Definindo-se
v1 = θ , v2 = θ
tem-se
v1 = v2 , v2 = −gℓsen(v1)−
b
ℓv2
Os pontos de equilıbrio sao (0, 0) e (π, 0).
O jacobiano e dado por[∂fi
∂vj
]
=
[0 1
−g/ℓ cos(v1) −b/ℓ
]
Linearizando o sistema em torno de (0, 0), tem-se
[v1v2
]
=
[0 1−g/ℓ −b/ℓ
] [v1v2
]
cuja equacao caracterıstica e
∆(λ) = λ2 +b
ℓλ+
g
ℓ= 0 ⇒ λ1,2 =
−b2ℓ± 1
2
√(b
ℓ
)2
− 4g
ℓ
implicando que as raızes da equacao tem parte real negativa (sistema estavel). Note que parab < 2
√gℓ, as raızes sao complexas conjugadas (oscilacao). Alem disso, se b = 0, a frequencia
angular da oscilacao e√
g/ℓ.
Linearizando o sistema em torno de (π, 0), tem-se
[v1v2
]
=
[0 1g/ℓ −b/ℓ
] [v1v2
]
cuja equacao caracterıstica e
∆(λ) = λ2 +b
ℓλ− g
ℓ= 0 ⇒ λ1,2 =
−b2ℓ± 1
2
√(b
ℓ
)2
+4g
ℓ
implicando que uma raiz da equacao tem parte real positiva (sistema instavel).
A Figura 15.8 mostra o plano de fase do modelo nao linear (contınuo) e do modelo linearizado(tracejado) em torno do ponto (0, 0), para condicao inicial (π/3, 0). Note que o nao linear tematenuacao maior do que o linear.
Bonatti, Lopes & Peres
231
−6
−4
−2
0
2
4
6
v1
v 2
π/3π/6−π/3 −π/6
Figura 15.8: Planos de fase do pendulo para a condicao inicial (π/3, 0).
Exemplo 15.8Van der Pol
Van der Pol7 estudou osciladores a valvula descritos pela seguinte equacao
y − 2µ(1− y2)y + y = 0 , µ > 0
Definindo
v1 = y , v2 = y
tem-se
v1 = v2 , v2 = −v1 + 2µ(1− v21)v2
O ponto de equilıbrio e (v1, v2) = (0, 0) e o jacobiano e dado por
[∂fi
∂vj
]
=
[0 1
−1− 4µv1v2 2µ(1− v21)
]
O sistema linearizado e dado por
[v1v2
]
=
[0 1−1 2µ
] [v1v2
]
resultando na equacao de segunda ordem em v2
(p2 − 2µp+ 1)v2 = 0
Para 0 < µ < 1, tem-se as raızes da equacao caracterıstica
λ1 = λ∗2 = µ+ j√
1− µ2
tratando-se, portanto, de um sistema instavel oscilatorio. A solucao v2(t) e dada por
v2(t) = a exp(µt) cos((√
1− µ2)t+ θ)
7Balthasar Van der Pol, engenheiro eletricista holandes (1889–1959).
Bonatti, Lopes & Peres
232 Capıtulo 15. Variaveis de Estado
com a e θ definidos pelas condicoes iniciais.
Os planos de fase para µ = 0.5 sao mostrados na Figura 15.9. Observe que o sistema nao-linearpossui um ciclo-limite estavel e que o modelo linearizado em torno do ponto de equilıbrio (0, 0)apresenta o carater oscilatorio instavel da solucao.
−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5−3
−2
−1
0
1
2
3
v1
v 2
Figura 15.9: Planos de fase para as condicoes iniciais (0.01, 0), (−2, 2) e (2,−2) do oscilador de Vander Pol.
Exemplo 15.9Considere a equacao diferencial
y + 2y + y = x
Usando diferenciadores, pode-se implementar a equacao como mostrado na Figura 15.10. Note quena entrada do diferenciador da esquerda, tem-se
y = x− 2y − y
De maneira similar, a Figura 15.11 mostra uma implementacao com integradores. Na entrada dointegrador da esquerda, tem-se
y = x− 2y − y
Apesar de ambas as implementacoes representarem a mesma equacao diferencial (mesma funcaode transferencia), e preferıvel usar integradores pois diferenciadores amplificam ruıdos de altafrequencia.
Supondo um sinal x(t) sujeito ao ruıdo aditivo de alta frequencia η(t), ambos senoidais, aplicadosna entrada de um diferenciador, tem-se
x(t) + η(t) = sen(ω0t) + sen(ωt) ⇒ y(t) = ω0 cos(ω0t) + ω cos(ωt)
cujas relacoes sinal-ruıdo sao
( S
N
)
in= 0 dB ;
( S
N
)
out= 20 logω0/ω
Bonatti, Lopes & Peres
233
+
+ d/dtd/dt
−1 2
y yx
y
Figura 15.10: Implementacao com diferenciadores de y + 2y + y = x.
+
+∫∫
2−1
x yy y
Figura 15.11: Implementacao com integradores de y + 2y + y = x.
implicando que a relacao sinal-ruıdo da saıda diminui com o aumento da frequencia do ruıdo.
Por outro lado, na saıda do integrador tem-se
y(t) = − 1
ω0cos(ω0t)−
1
ωcos(ωt) ⇒
( S
N
)
out= 20 logω/ω0
e portanto a relacao sinal-ruıdo aumenta com a frequencia.
Representacao em variaveis de estado a partir da equacao diferencial
Algumas representacoes em variaveis de estado, ditas canonicas, podem ser obtidas por inspecao diretada equacao diferencial.
Propriedade 15.2Caso N(p) = β0 (sem a derivada da entrada)
Considere a equacao diferencial
D(p)y(t) = β0x(t) , D(p) =m∑
k=0
αkpk
com αm = 1, αk e β0 coeficientes constantes.
Definindo as variaveis de estado v ∈ Rm
Bonatti, Lopes & Peres
234 Capıtulo 15. Variaveis de Estado
v1 = y , v2 = y , . . . , vm = y(m−1)
tem-se
vm = y(m) = −m−1∑
k=0
αkvk+1 + β0x
Em notacao matricial,
v = Av + bx , y = cv + dx
com
v =
0 1 0 · · · 00 0 1 · · · 0...
......
. . ....
0 0 0 · · · 1−α0 −α1 −α2 · · · −αm−1
v +
00...0β0
x
y =[
1 0 0 · · · 0]v +
[0]x
A matriz A acima esta na forma denominada companheira.
Note que, definindo-se novas variaveis de estado vk ← vk/β0, tem-se a representacao
v =
0 1 0 · · · 00 0 1 · · · 0...
......
. . ....
0 0 0 · · · 1−α0 −α1 −α2 · · · −αm−1
v +
00...01
x
y =[β0 0 0 · · · 0
]v +
[0]x
⋄
Exemplo 15.10O circuito de terceira ordem do Exemplo 15.6 descrito pela equacao diferencial
(
p3 +
(R1
L+
1
R2C2
)
p2 +
(1
LC1+
1
LC2
(
1 +R1
R2
))
p+1
LC1R2C2
)
y = 0
pode ser representado pela equacao de estado
v =
0 1 00 0 1−α0 −α1 −α2
v
α0 =1
LC1R2C2, α1 =
( 1
LC1+
1
LC2
(1 +
R1
R2
))
, α2 =(R1
L+
1
R2C2
)
y =[
1 0 0]v
sendo v1 = y, v2 = y e v3 = y. Note que essa escolha produz uma representacao por variaveis deestado sistematica e simples, diferente da obtida no Exemplo 15.6, e que ambas produzem a mesmaequacao diferencial em y. A Figura 15.12 mostra a implementacao com integradores.
Bonatti, Lopes & Peres
235
++
∫∫∫
−1
v3 v2 v1
α0α1α2
y
Figura 15.12: Implementacao com integradores do circuito do Exemplo 15.5 (circuito de terceiraordem).
Exemplo 15.11O circuito de segunda ordem do Exemplo 15.5 descrito pela equacao diferencial
(
p2 +1
RCp+
1
LC
)
y =1
RLCx
pode ser representado na forma de variaveis de estado por
v =
[0 1
− 1
LC− 1
RC
]
v +
[01
RLC
]
x
y =[
1 0]v
sendo v1 = y e v2 = y.
Propriedade 15.3Caso estritamente proprio — N(p) no vetor de saıda
A equacao diferencial (estritamente propria)
D(p)y(t) = N(p)x(t) , D(p) =
m∑
k=0
αkpk , N(p) =
m−1∑
k=0
βkpk
com αm = 1 e demais coeficientes constantes pode ser representada pelas equacoes de estado
v = Av + bx , y = cv + dx
Considere a escolha de variaveis de estado v ∈ Rm tal que
y =m−1∑
k=0
βkvk+1 ⇒ c =[β0 β1 β2 · · · βm−1
], d = 0
e
v1 = v2 , v2 = v3 , . . . , vm−1 = vm , vm = ξ
Portanto,
Bonatti, Lopes & Peres
236 Capıtulo 15. Variaveis de Estado
v1 = p−mξ , v2 = p−m+1ξ , . . . , vm = p−1ξ
Substituindo as variaveis v na expressao de y, tem-se
y =(m−1∑
k=0
βkpk−m
)
ξ
Da equacao D(p)y = N(p)x, tem-se
y =(m−1∑
k=0
βkpk−m
) xm∑
k=0
αkpk−m
Igualando as duas expressoes, tem-se
( m∑
k=0
αkpk−m
)
ξ = x ⇒ ξ = vm = −(m−1∑
k=0
αkvk+1
)
+ x
resultando em
v =
0 1 0 · · · 00 0 1 · · · 0...
......
. . ....
0 0 0 · · · 1−α0 −α1 −α2 · · · −αm−1
v +
00...01
x (15.4)
y =[β0 β1 β2 · · · βm−1
]v +
[0]x (15.5)
⋄
Exemplo 15.12Considere o sistema (estritamente proprio)
D(p)y = N(p)x ⇒ (p3 + 2p2 + 3p+ 4)y = (p2 + 2p− 1)x
Seja
y = β0v1 + β1v2 + β2v3 = −v1 + 2v2 + v3
e as variaveis de estado
v1 = v2 , v2 = v3 , v3 = ξ ⇒ v1 = p−3ξ , v2 = p−2ξ , v3 = p−1ξ
que resultam em
y = −v1 + 2v2 + v3 = −p−3ξ + 2p−2ξ + p−1ξ = (p−1 + 2p−2 − p−3)ξ
Da equacao D(p)y = N(p)x, tem-se
Bonatti, Lopes & Peres
237
y = (p−1 + 2p−2 − p−3)1
(1 + 2p−1 + 3p−2 + 4p−3)x
Portanto,
(1 + 2p−1 + 3p−2 + 4p−3)ξ = x ⇒ ξ = −2p−1ξ − 3p−2ξ − 4p−3ξ + x
ξ = v3 = −4v1 − 3v2 − 2v3 + x
resultando em (veja a representacao com integradores na Figura 15.13)
v =
0 1 00 0 1−4 −3 −2
v +
001
x
y =[−1 2 1
]v
++
+ +
+∫ ∫∫
x
y
v1v2v3
α0 = 4α1 = 3α2 = 2
β0 = −1β1 = 2β2 = 1
−1
Figura 15.13: Realizacao da equacao do Exemplo 15.12 com N(p) no vetor de saıda.
Propriedade 15.4Caso proprio — N(p) no vetor de saıda
No caso proprio (grau de D(p) igual ao grau de N(p)), dividindo-se N(p)/D(p) tem-se
N(p) = D(p)βm + N(p) ⇒ D(p)y = N(p)x = D(p)βmx+ N(p)x
Bonatti, Lopes & Peres
238 Capıtulo 15. Variaveis de Estado
com
N(p) =m−1∑
k=0
βkpk , βk = βk − βmαk
Definindo
y = y1 + βmx ⇒ D(p)y1 = N(p)x
tem-se um sistema estritamente proprio em y1. A matriz A e o vetor b sao portanto identicos ao casoestritamente proprio e o vetor c e d sao dados por
c =[β0 β1 β2 · · · βm−1
], d =
[βm
]
⋄
Exemplo 15.13Circuito RRLC
Considere o circuito descrito na Figura 15.14, cujas equacoes sao
L
R2ν2 + ν2 = Cν1 +
1
R1ν1 , x = Lν2 + ν1 , y =
L
R2ν2
R1
R2
++
−− C
L
x
y
ν1
ν2
Figura 15.14: Circuito RRLC.
A equacao diferencial em y e
D(p)y = N(p)x , D(p) = p2 +
(1
R1C+
1
R2C
)
p+1
LC, N(p) =
1
R2p
(
p+1
R1C
)
A divisao N(p)/D(p) resulta em β2 = 1/R2 e
N(p) = − 1
R22C
p− 1
R2LC
A representacao em equacoes de estado na forma companheira (note que as variaveis de estado v1e v2 nao mais correspondem a tensao no capacitor ν1 e a corrente no indutor ν2) e dada por
Bonatti, Lopes & Peres
239
v =
0 1
− 1
LC−(
1
R1C+
1
R2C
)
v +
[01
]
x
y =
[
− 1
R2LC− 1
R22C
]
v +
[1
R2
]
x
Observe que D(p) pode ser escrito como
D(p) =
(
p+1
R1C
)(
p+1
R2C
)
+
(1
LC− 1
R1R2C2
)
1
p+1
R1C
Se as constantes de tempo associadas as malhas do circuito forem iguais, isto e, se
L
R2= R1C
tem-se
D(p) =
(
p+1
R1C
)(
p+1
R2C
)
e a equacao diferencial em y (de primeira ordem) e dada por
(
p+1
R2C
)
y =1
R2px
Considerando R1 = R2 = C = L = 1, tem-se
v =
[0 1−1 −2
]
︸ ︷︷ ︸
−α0 −α1
v +
[01
]
x , y =[−1 −1
]
︸ ︷︷ ︸
−β0 −β1
v +[1]
︸︷︷︸
β2
x
e a equacao diferencial
(p2 + 2p+ 1)y =((p2 + 2p+ 1)1− (p+ 1)
)x = p(p+ 1)x
Exemplo 15.14Considere um sistema proprio descrito pela equacao diferencial
(p2 + 2p+ 1)y = (p2 + 1)x =((p2 + 2p+ 1)− 2p
)x
Portanto,
α0 = 1 , α1 = 2 , β0 = 0 , β1 = −2 , β2 = 1
resultando em
v =
[0 1−1 −2
]
v +
[01
]
x
y =[
0 −2]v +
[1]x
Bonatti, Lopes & Peres
240 Capıtulo 15. Variaveis de Estado
Propriedade 15.5Equacao diferencial a partir da representacao de estado (sistema SISO)
Utilizando o operador p, a saıda y do sistema SISO descrito na forma de representacao de estado
v = Av + bx
y = cv + dx
e dada por
y =(c(pI−A)−1b+ d
)x =
N(p)
D(p)x
Note que trata-se de uma equacao diferencial de ordem m, pois det(pI−A) e um polinomio de ordem mem p. Eventualmente, a equacao diferencial pode ter ordem menor do que m se houver cancelamentosentre zeros e polos.
O sistema e estritamente proprio se d = 0 e proprio para d 6= 0. Portanto, nao e possıvel descrever naforma de variaveis de estado sistemas com grau de N(p) maior do que o grau de D(p).
⋄
Exemplo 15.15Considere o sistema
v =
[0 1−1 −2
]
v +
[01
]
x
y =[
0 −2]v +
[1]x
(pI−A)−1 =
[p −11 p+ 2
]−1
=1
p(p+ 2) + 1
[p+ 2 1−1 p
]
e portanto
N(p)
D(p)= c(pI−A)−1b+ d =
[0 −2
] 1
p2 + 2p+ 1
[p+ 2 1−1 p
] [01
]
+ 1 =
=−2p
p2 + 2p+ 1+ 1 =
p2 + 1
p2 + 2p+ 1
Note que foi obtida a mesma equacao diferencial que a do Exemplo 15.14.
Exemplo 15.16Considere novamente o sistema do Exemplo 15.15
v =
[0 1−1 −2
]
v +
[01
]
x
y =[
0 −2]v +
[1]x
Utilizando o operador p, obtem-se um sistema linear de 3 equacoes a 3 incognitas v1, v2 e y:
Bonatti, Lopes & Peres
241
pv1 = v2
pv2 = −v1 − 2v2 + x
y = −2v2 + x
Eliminando v1, tem-se
(p2 + 2p+ 1)v2 = px
y = −2v2 + x
Eliminando v2, obtem-se
y = −2px
p2 + 2p+ 1+ x
que resulta na equacao diferencial
(p2 + 2p+ 1)y = (p2 + 1)x
Propriedade 15.6Caso estritamente proprio — N(p) no vetor de entrada
Outras representacoes matriciais podem ser obtidas com escolhas diferentes das variaveis de estado.
Considere a equacao diferencial
(p3 + α2p2 + α1p+ α0)y = (β2p
2 + β1p+ β0)x
Definindo as variaveis de estado
pv1 = −α0v3 + β0x
pv2 = v1 − α1v3 + β1x
pv3 = v2 − α2v3 + β2x
verifica-se que v3 satisfaz a equacao diferencial satisfeita por y, ou seja, v3 = y, pois
p2v3 = (v1 − α1v3 + β1x)− α2pv3 + β2px
p3v3 = (−α0v3 + β0x)− α1pv3 + β1px− α2p2v3 + β2p
2x
⇒ (p3 + α2p2 + α1p+ α0)v3 = (β2p
2 + β1p+ β0)x
Dessa forma, a representacao matricial (veja a implementacao na Figura 15.15) e dada por
v =
0 0 −α0
1 0 −α1
0 1 −α2
v +
β0
β1
β2
x
Bonatti, Lopes & Peres
242 Capıtulo 15. Variaveis de Estado
+ ++∫∫∫
x
yv1 v2 v3
α0 α1 α2
β0 β1 β2
−1
Figura 15.15: Realizacao com N(p) no vetor de entrada.
y =[
0 0 1]v
Generalizando, tem-se
v =
0 · · · 0 −α0
1 · · · 0 −α1...
. . ....
...0 · · · 1 −αm−1
v +
β0
β1...
βm−1
x (15.6)
y =[
0 · · · 1]v +
[0]x (15.7)
⋄
Propriedade 15.7Representacao dual
A representacao de estado (A, b, c, d) produz a mesma equacao diferencial que a representacao dual deestado (A′, c′, b′, d), pois
N(p)
D(p)=(c(pI−A)−1b+ d
)′=(b′(pI−A′)−1c′ + d
)
Note que a representacao (15.6)-(15.7) e dual da representacao (15.4)-(15.5).
⋄
Exemplo 15.17A representacao de estado
v =
[0 1−1 −2
]
v +
[01
]
x , y =[−1 −1
]v +
[1]x
e sua representacao dual
ν =
[0 −11 −2
]
ν +
[−1−1
]
x , y =[0 1
]ν +
[1]x
Bonatti, Lopes & Peres
243
resultam na mesma equacao diferencial
(p2 + 2p+ 1)y = p(p+ 1)x
Propriedade 15.8Invariancia com transformacoes lineares
Transformacoes lineares biunıvocas de variaveis de estado, na forma
v = Tv
com T nao singular, nao alteram a equacao diferencial do sistema, pois
v = T−1v ⇒ ˙v = TAT−1v + Tbx , y = cT−1v + d
cT−1(pI− TAT−1)−1Tb+ d = cT−1(pTT−1 − TAT−1)−1Tb+ d =
= cT−1(T (pI−A)T−1
)−1Tb+ d = cT−1T (pI−A)−1T−1Tb+ d = c(pI−A)−1b+ d =
N(p)
D(p)
⋄
Exercıcio 15.1
Obtenha as equacoes de estado para o circuito abaixo, na forma
v = Av +Bx ; y = cv + du ; v =
[v1v2
]
sendo v1 a tensao no capacitor e v2 a corrente no indutor. A saıda y e a corrente no resistor (comoindicado), x1(t) e uma fonte de corrente e x2(t) e uma fonte de tensao.
x1(t) x2(t)
R
R
++
− −C
L
yv1
v2
Exercıcio 15.2
Considere o sistema linear descrito pelas equacoes
v =
[0 1−6 −5
]
v +
[01
]
x
y =[
1 1]v
a) Obtenha a funcao de transferencia H(s) =Y (s)
X(s)do sistema
Bonatti, Lopes & Peres
244 Capıtulo 15. Variaveis de Estado
b) Determine a resposta a entrada nula yen(t) para v(0) =[
0 1]′
c) Determine a resposta ao impulso (condicoes iniciais nulas)
d) Determine y(t) para a entrada x(t) = exp(−2t), t > 0, com condicoes iniciais nulas
Bonatti, Lopes & Peres
Capıtulo 16
Resolucao de Equacoes de Estado
Solucao da equacao homogenea por transformacao de similaridade
Considere a equacao de estado
v = Av , v(0) = v0 ∈ Rn (16.1)
Definindo a mudanca de variaveis (Q nao singular)
v = Qv ⇒ Q ˙v = AQv ⇒ ˙v = Av ; A = Q−1AQ , A = QAQ−1
Note que a transformacao de similaridade preserva os autovalores, ou seja,
det(A− λI) = det(Q−1AQ− λQ−1Q) = det(A− λI)
Escolhas da transformacao Q podem levar a representacoes A diagonal ou triangular, dependendo daestrutura de autovalores e autovetores da matriz A.
Definicao: Equacao Caracterıstica da matriz A
A equacao polinomial de grau n
∆(λ) = det(λI−A) = 0
e denominada equacao caracterıstica associada a matriz A. As raızes λ da equacao caracterıstica saotambem autovalores da matriz A, ou seja,
Av = λv
sendo v 6= 0 autovetores da matriz A.
Propriedade 16.1Autovetores linearmente independentes
Os autovetores associados a autovalores distintos de uma matriz A sao linearmente independentes.
⋄
245
246 Capıtulo 16. Resolucao de Equacoes de Estado
Propriedade 16.2Matrizes diagonalizaveis
Se uma matriz A ∈ Rn×n possui n autovetores linearmente independentes, a transformacao Q cons-
truıda com os autovetores (colunas) resulta em
A = Q−1AQ = Λ = diag(λ1, . . . , λn)
A[q1 q2 · · · qn
]=[q1 q2 · · · qn
]
λ1 0 · · · 00 λ2 · · · 0...
.... . .
...0 0 · · · λn
Note que os autovalores nao precisam necessariamente ser distintos.
⋄
Exemplo 16.1Autovalores distintos
Considere a matriz
A =
[−1 42 1
]
Os autovalores sao obtidos da solucao da equacao caracterıstica
∆(λ) = det(λI−A) = det
[λ+ 1 −4−2 λ− 1
]
= (λ+ 1)(λ− 1)− 8 = 0 ⇒ λ1 = −3 , λ2 = 3
e os autovetores podem ser determinados pelas equacoes
[−2 −4−2 −4
] [q11q21
]
= 0 ⇒ q1 =
[q11q21
]
=
[2−1
]
[4 −4−2 2
] [q12q22
]
= 0 ⇒ q2 =
[q12q22
]
=
[11
]
Observe que os autovetores definem uma direcao no espaco (e nao um comprimento nem um sentido)e sao linearmente independentes.
A transformacao de similaridade resulta em uma matriz diagonal
A = Q−1AQ =1
3
[1 −11 2
] [−1 42 1
] [2 1−1 1
]
=
[−3 00 3
]
Considere a equacao de estado homogenea
v =
[−1 42 1
]
v , v(0) =
[30
]
A matriz A e diagonalizavel, com a transformacao v = Qv dada por
Bonatti, Lopes & Peres
247
˙v = Av , v(0) = Q−1v(0) =
[11
]
com
A = Q−1AQ =1
3
[1 −11 2
] [−1 42 1
] [2 1−1 1
]
=
[−3 00 3
]
Observe que a representacao na variavel v e um sistema desacoplado com duas equacoes de primeiraordem. Resolvendo, tem-se
v(t) =
[exp(−3t)exp(3t)
]
⇒ v(t) =
[2 1−1 1
]
v =
[2 exp(−3t) + exp(3t)− exp(−3t) + exp(3t)
]
O mesmo resultado poderia ser obtido a partir da equacao diferencial de segunda ordem em v1 (ouem v2)
(p2 − 9)v1 = 0 ; v1(0) = 3 , v1(0) = −3
Exemplo 16.2Autovalores iguais e autovetores linearmente independentes
Considere a matriz
A =
−1 0 10 −1 20 0 3
Os autovalores sao λ1 = λ2 = −1 e λ3 = 3. Note que nas matrizes triangulares, isto e, todos oselementos abaixo (ou acima) da diagonal principal sao nulos, os autovalores sao os elementos dadiagonal principal.
Para o autovalor igual a −1, tem-se a equacao que define os autovetores
(A− (−1)I
)q =
0 0 10 0 20 0 4
αβγ
⇒ γ = 0
Por exemplo, os autovetores associados a λ1 = λ2 = −1 sao
q1 =
100
, q2 =
010
O autovetor associado a λ3 = 3 e dado por
−4 0 10 −4 20 0 0
q13q23q33
⇒ q3 =
124
Bonatti, Lopes & Peres
248 Capıtulo 16. Resolucao de Equacoes de Estado
Observe que a Propriedade 16.1 apresenta uma condicao suficiente para a existencia de autovetoreslinearmente independentes. Neste exemplo, o autovalor −1 possui multiplicidade algebrica igual adois e foi possıvel determinar dois autovetores linearmente independentes associados. Portanto, amultiplicidade geometrica do autovalor tambem e igual a dois.
Note que a multiplicidade geometrica do autovalor −1 e definida pela dimensao do espaco nulo deA− (−1)I, neste exemplo igual a dois.
Portanto, por construcao,
A = Q−1AQ =
−1 0 00 −1 00 0 3
=1
4
4 0 −10 4 −20 0 1
−1 0 10 −1 20 0 3
1 0 10 1 20 0 4
Equacoes homogeneas com estrutura triangular podem ser resolvidas de forma recorrente, componentea componente.
Exemplo 16.3Sistema de segunda ordem em cascata
Considere a equacao diferencial
D(p) = p(p+ 1)y = 0 ; y(0) = 0 , y(0) = 1
A escolha das variaveis de estado v1 = y, v2 = y produz a representacao de estado na formamatricial
v =
[0 10 −1
]
v , v(0) =
[01
]
Note que trata-se de um sistema triangular, isto e, um sistema em cascata
v1 = v2 , v2 = −v2 ⇒ v1(0) = 0 , v2(0) = 1
cuja solucao e dada por
v2(t) = exp(−t) , pv1 = exp(−t) ⇒ v1(t) = − exp(−t) + a = 1− exp(−t)
Propriedade 16.3Bloco de Jordan1 de segunda ordem
Considere o sistema descrito pelo bloco de Jordan (λ1 = λ2 = σ)
v = J2(σ)v =
[σ 10 σ
]
v ; v(0) =
[v1(0)v2(0)
]
v2(t) = exp(σt)v2(0)
v1 = σv1 + exp(σt)v2(0) ⇒ v1f (t) = bt exp(σt) ⇒ b = v2(0)
1Marie Ennemond Camille Jordan, matematico frances (1838–1922).
Bonatti, Lopes & Peres
249
v1(t) = a exp(σt) + t exp(σt)v2(0) ⇒ a = v1(0)
Portanto,
v(t) = exp(σt)
[1 t0 1
] [v1(0)v2(0)
]
⋄
Propriedade 16.4Bloco de Jordan de terceira ordem
Considere o sistema descrito pelo bloco de Jordan (λ1 = λ2 = λ3 = σ)
v = J3(σ)v =
σ 1 00 σ 10 0 σ
v ; v(0) =
v1(0)v2(0)v3(0)
v3(t) = exp(σt)v3(0) , v2(t) = exp(σt)v2(0) + t exp(σt)v3(0)
v1 = σv1 + exp(σt)v2(0) + t exp(σt)v3(0)
⇒ v1(t) = exp(σt)v1(0) + t exp(σt)v2(0) +t2
2exp(σt)v3(0)
Portanto,
v(t) = exp(σt)
1 t t2
20 1 t0 0 1
v1(0)v2(0)v3(0)
⋄
Propriedade 16.5Bloco de Jordan de dimensao n
Considere o sistema descrito pelo bloco de Jordan com n autovalores iguais a σ, de multiplicidadegeometrica unitaria
v = Jn(σ)v =
σ 1 0 · · · 00 σ 1 · · · 0...
.... . .
...
0 0 0. . . 1
0 0 0 σ
v ; v(0) (16.2)
tem-se
v(t) = exp(σt)
1 t t2
2 · · · tn−1
(n−1)!
0 1 t · · · tn−2
(n−2)!...
......
0 0 0. . . t
0 0 0 · · · 1
v(0)
Bonatti, Lopes & Peres
250 Capıtulo 16. Resolucao de Equacoes de Estado
⋄
Propriedade 16.6Autovetores generalizados e blocos de Jordan
Se a matriz A ∈ R2×2, com autovalores λ1 = λ2 = σ e q1 e q2 nao nulos, e tal que
AQ = QJ2(σ) = A[q1 q2
]=[q1 q2
][σ 10 σ
]
⇒
Aq1 = σq1Aq2 = q1 + σq2
entao q1 e q2 sao linearmente independentes e a matriz A e triangularizavel. Note que
(A− σI)q1 = 0 , (A− σI)q2 = q1 ⇒ (A− σI)2q2 = 0
e portanto q1 e um autovetor associado ao autovalor σ e q2 e um autovetor generalizado de grau 2.
Determinando q1 e q2, a forma de Jordan pode ser obtida pela transformacao de similaridade
J2(σ) = Q−1AQ
Se A e uma matriz tal que (para qk’s nao nulos)
Aq1 = σq1 , Aq2 = q1 + σq2 , . . . , Aqn = qn−1 + σqn
entao q1, . . . , qn sao autovetores generalizados linearmente independentes e
Jn(σ) = Q−1AQ
⋄
Exemplo 16.4Sistema de segunda ordem nao diagonalizavel
Considere a matriz A e seus autovalores
A =
[−3 4−1 1
]
⇒ λ1 = λ2 = σ = −1
A matriz A tem apenas um autovetor associado ao autovalor −1, dado por
(A− λI)
[q11q21
]
=
[2 −41 −2
] [q11q21
]
= 0 ⇒ q11 = 2q21
q1 =
[2αα
]
, α 6= 0
Portanto, o autovalor −1 tem multiplicidade algebrica igual a dois e multiplicidade geometricaunitaria, indicando que a matriz A nao e diagonalizavel. Entretanto, e possıvel encontrar umatransformacao que leva a matriz a uma forma triangular quase diagonal A. Por construcao,
A[q1 q2
]=[q1 q2
]A ⇒
[−3 4−1 1
] [2α q12α q22
]
=
[2α q12α q22
] [−1 10 −1
]
Bonatti, Lopes & Peres
251
que implica
−q12 + 2q22 = α ⇒ q2 =
[q11q21
]
=
[2β − αβ
]
Note que os vetores
q1 =
[2αα
]
, q2 =
[2β − αβ
]
sao linearmente independentes pois
det
[2α 2β − αα β
]
= α2 6= 0
e o vetor q2 e um autovetor generalizado associado ao autovalor −1.
Propriedade 16.7Forma de Jordan
Uma matriz A ∈ Rn×n sempre pode ser colocada na forma de Jordan por meio de uma transformacao
de similaridade.
Se A possuir n autovetores linearmente independentes, a forma de Jordan e diagonal e a matriz detransformacao Q e composta pelos autovetores.
Se A possui r < n autovetores linearmente independentes, a matriz de transformacao e composta porautovetores e autovetores generalizados e produz uma forma triangular com r blocos de Jordan.
Em outras palavras, para A qualquer, existe Q nao singular tal que
A = Q−1AQ = diag(Jk1, Jk2
, . . . , Jkr)
com os blocos Jki, i = 1, . . . , r na forma de Jordan (nao necessariamente diagonais).
⋄
Exemplo 16.5Considere um sistema cuja matriz A e a do Exemplo 16.4 e a condicao inicial v(0) dados por
v = Av =
[−3 4−1 1
]
v , v(0) =
[−11
]
Aplicando a transformacao v = Qv, com α = 1 e β = 0, tem-se
Q =
[2 −11 0
]
; Q−1 =
[0 1−1 2
]
˙v = Q−1AQv =
[−1 10 −1
]
v , v(0) = Q−1v(0) =
[13
]
Utilizando o resultado da Propriedade 16.3, tem-se
Bonatti, Lopes & Peres
252 Capıtulo 16. Resolucao de Equacoes de Estado
v(t) = exp(−t)[
1 t0 1
] [13
]
= exp(−t)[
1 + 3t3
]
e portanto
v(t) = Qv(t) = exp(−t)[−1 + 6t1 + 3t
]
O sistema poderia ser resolvido a partir da equacao diferencial de segunda ordem em v1
(p+ 1)2v1 = 0 , v1(0) = −1 , v1(0) = 7
Solucao da equacao homogenea por exp(At)
Considere a equacao homogenea (16.1)
v = Av ; v(0) = v0
Supondo que a solucao v(t) possa ser escrita em serie de potencias, tem-se
v(t) =+∞∑
k=0
νktk ⇒ v =
+∞∑
k=0
kνktk−1 , ν0 = v0
sendo νk ∈ Rn os vetores da expansao em serie (a determinar).
Substituindo na equacao (16.1) e igualando os termos da serie de potencia, tem-se
ν1 = Aν0 , 2ν2 = Aν1 ⇒ ν2 =1
2A2ν0 , 3ν3 = Aν2 ⇒ ν3 =
1
3!A3ν0
kνk = Aνk−1 ⇒ νk =1
k!Akν0
e portanto
v(t) =
(+∞∑
k=0
Ak
k!tk
)
v0
sendo A0 = I (por construcao).
A somatoria acima, com infinitos termos, pode sempre ser computada com n termos (dimensao damatriz A), conforme sera mostrado a seguir.
Como a serie de Taylor2 da funcao exp(λt) e dada por
exp(λt) =+∞∑
k=0
λk
k!tk
define-se (por analogia)
exp(At) =+∞∑
k=0
Ak
k!tk ∈ R
n×n
2Brook Taylor, matematico ingles (1685–1731).
Bonatti, Lopes & Peres
253
Portanto, a solucao da equacao homogenea (16.1) e dada por
v(t) = exp(At)v0 (16.3)
Propriedade 16.8
d
dtexp(At) = A exp(At) = exp(At)A
pois
d
dt
(+∞∑
k=0
Ak
k!tk
)
=
(+∞∑
k=1
Ak
k!ktk−1
)
= A
(+∞∑
k=0
Ak
k!tk
)
⋄
Propriedade 16.9
exp(A(t1 + t2)
)= exp(At1) exp(At2) = exp(At2) exp(At1)
pois, por um lado
exp(A(t1 + t2)
)=
+∞∑
m=0
Am
m!(t1 + t2)
m =+∞∑
m=0
Am
m!
m∑
r=0
(mr
)
tr1tm−r2
e, por outro lado,
exp(At1) exp(At2) =
+∞∑
r=0
Ar
r!tr1
+∞∑
k=0
Ak
k!tk2 =
+∞∑
k=0
+∞∑
r=0
Ak+r tr1
r!
tk2k!
Agrupando os termos cujos expoentes somam k + r = m, com m = 0, 1, . . . ,∞ tem-se
exp(At1) exp(At2) =+∞∑
m=0
m∑
r=0
Am
m!
tr1r!
tm−r2
(m− r)!m!
e, portanto,
exp(At1) exp(At2) =+∞∑
m=0
Am
m!
m∑
r=0
(mr
)
tr1tm−r2
⋄
Propriedade 16.10
(exp(At))−1 = exp(−At)pois, fazendo-se t1 = t e t2 = −t, pela Propriedade 16.9 tem-se
exp(At) exp(−At) = exp(A0) = I
⋄
Bonatti, Lopes & Peres
254 Capıtulo 16. Resolucao de Equacoes de Estado
Propriedade 16.11
exp(At) exp(Bt) = exp(Bt) exp(At) = exp((A+B)t
)⇔ AB = BA
pois
(A+B)2 = (A+B)(A+B) = A2 +AB +BA+B2 =
= A2 + 2AB +B2 = A2 + 2BA+B2 ⇐⇒ AB = BA
A expansao binomial de Newton3 aplica-se a matrizes apenas quando o produto das matrizes comuta,o que normalmente nao ocorre.
AB = BA, por exemplo, quando B = exp(At) ou quando A e B sao diagonais.
⋄
Calculo de exp(At)
Propriedade 16.12Exponencial de matriz diagonal
Para uma matriz Λ = diag(λ1, . . . , λn) (diagonal), tem-se
exp(Λt) = diag(exp(λ1t), . . . , exp(λnt))
pois
v = Λv ⇒ vk(t) = exp(λkt)vk(0)
e
v(t) = diag(exp(λ1t), . . . , exp(λnt))v(0)
Como a solucao de v = Λv e dada por
v(t) = exp(Λt)v(0)
tem-se
v(t) = exp(Λt)v(0) = diag(exp(λ1t), . . . , exp(λnt))v(0) , ∀v(0)
⋄
Propriedade 16.13Exponencial de transformacao de similaridade
Para qualquer matriz quadrada Q nao singular, tem-se
A = QAQ−1 ⇒ exp(At) = Q exp(At)Q−1
Se A e diagonalizavel, entao
exp(At) = Qdiag(exp(λ1t), . . . , exp(λnt))Q−1
3Sir Isaac Newton, ingles (1643–1727).
Bonatti, Lopes & Peres
255
Se A estiver na forma de Jordan, tem-se
exp(At) = Qdiag(exp(Jk1t), exp(Jk2
t), . . . , exp(Jkrt))Q−1
com os blocos Jki, i = 1, . . . , r na forma de Jordan (nao necessariamente diagonais). As exponenciais
dos blocos de Jordan podem ser computadas como descrito na Propriedade 16.5.
Prova: a mudanca de variaveis v = Qv aplicada ao sistema v = Av, resulta em
v = Q ˙v = AQv ⇒ ˙v = Av ; A = Q−1AQ
v(t) = exp(At)v(0) = Qv = Q exp(At)Q−1v(0) , ∀v(0)
A transformacao A = Q−1AQ e chamada de transformacao de similaridade, pois preserva os autova-lores.
⋄
Exemplo 16.6Retomando o Exemplo 16.1, dado por
v =
[−1 42 1
]
v , v(0) =
[30
]
, Q =
[2 1−1 1
]
obtem-se
v(t) = exp(At)v(0) = Q exp(At)Q−1v(0) =
=
[2 1−1 1
] [exp(−3t) 0
0 exp(3t)
]1
3
[1 −11 2
] [30
]
=
1
3
[2 exp(−3t) + exp(3t) −2 exp(−3t) + 2 exp(3t)− exp(−3t) + exp(3t) exp(−3t) + 2 exp(3t)
] [30
]
=
[2 exp(−3t) + exp(3t)− exp(−3t) + exp(3t)
]
Exemplo 16.7Retomando o Exemplo 16.2, tem-se
A = QAQ−1 =
−1 0 10 −1 20 0 3
=
1 0 10 1 20 0 4
−1 0 00 −1 00 0 3
1
4
4 0 −10 4 −20 0 1
v(t) = exp(At)v(0) = Q exp(At)Q−1v(0) =
=
exp(−t) 0 −0.25 exp(−t) + 0.25 exp(3t)0 exp(−t) −0.5 exp(−t) + 0.5 exp(3t)0 0 exp(3t)
v(0)
Bonatti, Lopes & Peres
256 Capıtulo 16. Resolucao de Equacoes de Estado
Propriedade 16.14Se λ e raiz da equacao caracterıstica ∆(λ) = 0, entao
exp(λt) = r(λ, t) =
n−1∑
k=0
ρk(t)λk (16.4)
pois, para um polinomio ∆(λ) de grau n, tem-se
exp(λt) = q(λ, t)∆(λ) + r(λ, t)
com r(λ, t) (polinomio resto) dado por
r(λ, t) =
n−1∑
k=0
ρk(t)λk
Note que exp(λt) e polinomial, podendo ser obtida pela expansao em serie de Taylor.
Alem disso, para λ raiz da equacao caracterıstica ∆(λ) = 0, tem-se
exp(λt) = r(λ, t) =n−1∑
k=0
ρk(t)λk
As funcoes ρk(t) podem ser obtidas pela resolucao de um sistema linear de equacoes resultante daaplicacao da equacao (16.4) nas raızes distintas de ∆(λ) = 0 e, no caso de raızes com multiplicidademaior do que 1, utilizando-se tambem as derivadas (em relacao a λ) da equacao.
⋄
Propriedade 16.15Teorema de Cayley-Hamilton4
Toda matriz A satisfaz sua equacao caracterıstica, isto e,
det(λI−A) = ∆(λ) = 0 ⇒ ∆(A) = 0
Prova:Considere a matriz Adj (A−λI) (matriz adjunta formada pelos determinantes obtidos ao retirar-se de(A− λI) uma linha e uma coluna), com elementos cuja maior potencia em λ e λn−1. Assim, pode-seescrever
Adj (A− λI) = Bn−1λn−1 +Bn−2λ
n−2 + · · ·+B1λ+B0
sendo Bi, i = 1, . . . , n − 1 matrizes (n × n) constantes (isto e, independentes de λ) a determinar.Usando a identidade
(A− λI)Adj (A− λI) = det(A− λI)I
e substituindo o lado esquerdo, tem-se
(A− λI)(Bn−1λn−1 +Bn−2λ
n−2 + · · ·+B1λ+B0) = det(A− λI)I
−Bn−1λn + (ABn−1 −Bn−2)λ
n−1 + (ABn−2 −Bn−3)λn−2 + · · ·+ (AB1 −B0)λ+AB0 = det(A− λI)I
4Arthur Cayley, ingles (1821–1895) e Sir William Rowan Hamilton, irlandes (1805–1865).
Bonatti, Lopes & Peres
257
e usando a equacao caracterıstica do lado direito
−Bn−1λn + (ABn−1 −Bn−2)λ
n−1 + (ABn−2 −Bn−3)λn−2 + · · ·+ (AB1 −B0)λ+AB0 =
= λnI + αn−1λn−1I + · · ·+ α1λI + α0I
Igualando os coeficientes de mesma potencia em λ
−Bn−1 = IABn−1 −Bn−2 = αn−1IABn−2 −Bn−3 = αn−2I
......
AB1 −B0 = α1IAB0 = α0I
Multiplicando a primeira equacao por An, a segunda por An−1, e assim por diante, e somando, dolado direito tem-se ∆(A). Assim,
(−AnBn−1 +AnBn−1) + (−An−1Bn−2 +An−1Bn−2) + (−An−2Bn−3 +An−2Bn−3) + · · ·
+(−A2B1 +A2B1) + (−AB0 +AB0) = 0
Como conclusao, ∆(A) = 0.
⋄
Exemplo 16.8Considere a matriz
A =
[0 10 −1
]
cujo polinomio caracterıstico e dado por
∆(λ) = det(λI−A) = λ(λ+ 1)
Computando o polinomio (matricial)
∆(A) = A(A+ I) =
[0 10 −1
]([0 10 −1
]
+
[1 00 1
])
=
[0 00 0
]
observa-se que a matriz A satisfaz sua equacao caracterıstica.
Exemplo 16.9Considere a matriz
A =
[0 1−1 2.5
]
cuja equacao caracterıstica e
Bonatti, Lopes & Peres
258 Capıtulo 16. Resolucao de Equacoes de Estado
∆(λ) = λ2 − 2.5λ+ 1 = 0 ⇒ λ−1 = 2.5− λ
A matriz B dada por
B = 2.5I−A =
[2.5 −11 0
]
e igual a inversa de A, o que e uma consequencia de ∆(A) = 0.
Propriedade 16.16Funcao de matriz quadrada
Seja f(λ) uma funcao polinomial em λ. Entao,
f(λ) = Q(λ)∆(λ) +n−1∑
k=0
ρkλk
e, pelo Teorema de Cayley-Hamilton,
f(A) =n−1∑
k=0
ρkAk
Note que, para matrizes bloco-diagonais com submatrizes quadradas,
A = diag(A1, . . . , An) ⇒ f(A) = diag(f(A1), . . . , f(An))
⋄
Exemplo 16.10A funcao A10, para
A =
[1 20 1
]
⇒, λ1 = λ2 = 1
pode ser computada pela Propriedade 16.16 a partir do Teorema de Cayley-Hamilton.
∆(λ) = 0 ⇒ λ10 = ρ0 + ρ1λ , 10λ9 = ρ1
ρ0 = −9 , ρ1 = 10 ⇒ A10 = −9I + 10A =
[1 200 1
]
Bonatti, Lopes & Peres
259
Propriedade 16.17Considere a matriz A ∈ R
n×n e sua equacao caracterıstica ∆(A) = 0. Entao
exp(At) = q(A, t)∆(A) + r(A, t) = r(A, t) =n−1∑
k=0
ρk(t)Ak
pois, pelo Teorema de Cayley-Hamilton, ∆(A) = 0.
⋄
Exemplo 16.11Considere o Exemplo 16.3
v =
[0 10 −1
]
v , v(0) =
[01
]
Usando a Propriedade 16.14, tem-se
exp(λt) = ρ0(t) + ρ1(t)λ
para λ = 0 e λ = −1 (autovalores de A), resultando em
exp(0t) = 1 = ρ0(t) + ρ1(t)0 , exp(−t) = ρ0(t)− ρ1(t) ⇒ ρ0(t) = 1 , ρ1(t) = 1− exp(−t)
Do Teorema de Cayley-Hamilton e da Propriedade 16.17, obtem-se
exp(At) = ρ0(t)I + ρ1(t)A =
=
[1 00 1
]
+ (1− exp(−t))[
0 10 −1
]
=
[1 1− exp(−t)0 exp(−t)
]
Impondo a condicao inicial, tem-se
v(t) = exp(At)v(0) =
[1− exp(−t)
exp(−t)
]
Exemplo 16.12Considere o Exemplo 16.1
A =
[−1 42 1
]
, λ1 = −3 , λ2 = 3 , v(0) =
[30
]
Os coeficientes do polinomio r(λ, t) sao obtidos das condicoes
exp(−3t) = ρ0(t)− 3ρ1(t) , exp(3t) = ρ0(t) + 3ρ1(t)
resultando em
ρ0(t) =1
2(exp(3t) + exp(−3t)) , ρ1(t) =
1
6(exp(3t)− exp(−3t))
Portanto,
Bonatti, Lopes & Peres
260 Capıtulo 16. Resolucao de Equacoes de Estado
v(t) = exp(At)v(0) =(ρ0(t)I + ρ1(t)A
)v(0)
v(t) =1
3
[exp(3t) + 2 exp(−3t) 2 exp(3t)− 2 exp(−3t)exp(3t)− exp(−3t) 2 exp(3t) + exp(−3t)
] [30
]
=
=
[exp(3t) + 2 exp(−3t)exp(3t)− exp(−3t)
]
Exemplo 16.13O procedimento de calculo de exp(At) baseado no Teorema de Cayley-Hamilton pode ser aplicadoaos blocos de Jordan, como o da Propriedade 16.3.
A = J2(σ) =
[σ 10 σ
]
, λ1 = λ2 = σ
exp(λt) = ρ0(t) + λρ1(t) ⇒ exp(σt) = ρ0(t) + σρ1(t)
d
dλexp(λt)
∣∣∣λ=σ
= t exp(σt) = ρ1(t) ⇒ ρ0(t) = exp(σt)(1− σt)
exp(At) = ρ0(t)I + ρ1(t)A = exp(σt)
[1 t0 1
]
Propriedade 16.18Calculo de exp(At) para blocos de Jordan
Considere
A = J4(σ) =
σ 1 0 00 σ 1 00 0 σ 10 0 0 σ
Note que o polinomio caracterıstico da matriz A e dado por
∆(λ) = (λ− σ)4
e que σ tambem e raiz das derivadas (ate a terceira ordem) de ∆(λ).
Neste caso, e conveniente expressar o polinomio r(λ, t) na forma
r(λ, t) =
3∑
k=0
ξk(t)(λ− σ)k
que resulta em
ξk(t) =dk
dλkexp(λt)
∣∣∣λ=σ
=tk
k!exp(σt)
Bonatti, Lopes & Peres
261
Alem disso, utiliza-se o fato de que (A− σI)k e tal que
(A− σI) =
0 1 0 00 0 1 00 0 0 10 0 0 0
, (A− σI)2 =
0 0 1 00 0 0 10 0 0 00 0 0 0
, (A− σI)3 =
0 0 0 10 0 0 00 0 0 00 0 0 0
resultando em
exp(At) = exp(σt)
1 t t2
2t3
3!
0 1 t t2
2!0 0 1 t0 0 0 1
⋄
Solucao da equacao nao homogenea
Considere a equacao de estado do sistema SISO
v = Av + bx , v(0) = v0 (16.5)
Multiplicando ambos os lados por exp(−At) e reagrupando, tem-se
exp(−At)v − exp(−At)Av =d
dt
(exp(−At)v
)= exp(−At)bx
Integrando de 0 a t, tem-se
exp(−At)v(t)− v0 =
∫ t
0exp(−Aβ)bx(β)dβ =
∫ +∞
0exp(−Aβ)bx(β)u(t− β)dβ
Multiplicando por exp(At), tem-se
v(t) = exp(At)v0︸ ︷︷ ︸
ven(t)
+(exp(At)u(t)
)∗ (bx(t))
︸ ︷︷ ︸
vcin(t)
Observe as contribuicoes isoladas devido a entrada e devido a condicao inicial.
A equacao da saıda e
y = cv + dx ⇒ y(t) = c exp(At)v0 + c(exp(At)u(t)
)∗ (bx(t)) + dx(t)
Exemplo 16.14Considere o sistema
v =
[0 1−2 −3
]
v +
[01
]
x , v(0) = v0 =
[10
]
y =[
1 0]v
cujos autovalores sao −1 e −2. Computando exp(At) por Cayley-Hamilton, tem-se
exp(At) = ρ0(t)I + ρ1(t)A
Bonatti, Lopes & Peres
262 Capıtulo 16. Resolucao de Equacoes de Estado
com ρ0(t) e ρ1(t) obtidos das equacoes
exp(−t) = ρ0(t)− ρ1(t) , exp(−2t) = ρ0(t)− 2ρ1(t)
⇒ ρ0(t) = 2 exp(−t)− exp(−2t) , ρ1(t) = exp(−t)− exp(−2t)
exp(At) =
[2 exp(−t)− exp(−2t) exp(−t)− exp(−2t)−2 exp(−t) + 2 exp(−2t) − exp(−t) + 2 exp(−2t)
]
A resposta a entrada nula ven(t) e dada por
ven(t) = exp(At)v0 =
[2 exp(−t)− exp(−2t)−2 exp(−t) + 2 exp(−2t)
]
e a resposta a condicao inicial nula vcin(t) para x(t) = u(t) (degrau unitario) e
vcin(t) = (exp(At)u(t)) ∗ (bu(t)) = (exp(At)bu(t)) ∗ u(t) =
=
([exp(−t)− exp(−2t)− exp(−t) + 2 exp(−2t)
]
u(t)
)
∗ u(t) =
[12 − exp(−t) + 1
2 exp(−2t)exp(−t)− exp(−2t)
]
A solucao v(t) e dada por
v(t) = ven(t) + vcin(t) =
[12 + exp(−t)− 1
2 exp(−2t)− exp(−t) + exp(−2t)
]
u(t)
Em termos da saıda y(t), tem-se
y =(1
2+ exp(−t)− 1
2exp(−2t)
)u(t)
Solucao da equacao homogenea por Laplace5
Aplicando a transformada de Laplace a equacao homogenea (16.1), tem-se (a transformada de umamatriz e a transformada de cada um dos seus elementos)
v = Av , v(0) = v0 ∈ Rn ⇒ Lv = sLv − v0 = ALv
e, portanto,
V (s) = Lv = (sI−A)−1v0 ∈ Cn
Como a solucao v(t), para t ≥ 0, e dada por
v(t) = exp(At)v0u(t)
tem-se
Lexp(At)u(t) = (sI−A)−1
Portanto, exp(At)u(t) pode ser computada pela transformada inversa de Laplace de (sI−A)−1.
5Pierre-Simon Laplace, matematico frances (1749–1827).
Bonatti, Lopes & Peres
263
Propriedade 16.19
L−1(sI−A)−1 = exp(At)u(t)
pois, para a funcao escalar f(λ), tem-se
f(λ) = (s− λ)−1 =s−1
1− λs−1=
+∞∑
k=0
λks−(k+1)
Portanto,
(sI−A)−1 =+∞∑
k=0
Aks−(k+1)
Como
Ltk
k!u(t)
= s−(k+1)
tem-se
L−1(sI−A)−1
=
+∞∑
k=0
Ak tk
k!u(t) = exp(At)u(t)
⋄
Exemplo 16.15Retomando o Exemplo 16.3
v =
[0 10 −1
]
v , v(0) = v0 =
[01
]
tem-se
(sI−A)−1 =
[s −10 s+ 1
]−1
A inversa de uma matriz e igual a matriz adjunta (transposta da cofatora) dividida pelo determi-nante.
det(sI−A) = s(s+ 1) , Adj(sI−A) =
[s+ 1 0
1 s
]′
=
[s+ 1 1
0 s
]
(sI−A)−1 =1
s(s+ 1)
[s+ 1 1
0 s
]
Portanto,
exp(At)u(t) = L−1(sI−A)−1 =
[1 1− exp(−t)0 exp(−t)
]
u(t)
v(t) =
[v1(t)v2(t)
]
=
[1− exp(−t)
exp(−t)
]
u(t)
Bonatti, Lopes & Peres
264 Capıtulo 16. Resolucao de Equacoes de Estado
Exemplo 16.16Retomando o Exemplo 16.1
v =
[−1 42 1
]
v , v(0) =
[30
]
tem-se
(sI−A) =
[s+ 1 −4−2 s− 1
]
det(sI−A) = (s+ 3)(s− 3) , (sI−A)−1 =1
(s+ 3)(s− 3)
[s− 1 4
2 s+ 1
]
Usando a expansao (matricial) em fracoes parciais, tem-se
(sI−A)−1 =1
3
1
(s− 3)
[1 21 2
]
+1
3
1
(s+ 3)
[2 −2−1 1
]
Portanto,
v(t) =
[2 exp(−3t) + exp(3t)− exp(−3t) + exp(3t)
]
u(t)
Solucao da equacao nao homogenea por Laplace
Considere as equacoes de estado e de saıda do sistema SISO
v = Av + bx , v(0) = v0 ; y = cv + dx
Aplicando a transformada de Laplace, tem-se
sV (s)− v0 = AV (s) + bX(s) , Y (s) = cV (s) + dX(s)
sendo V (s) = Lv(t), X(s) = Lx(t) e Y (s) = Ly(t).
Portanto,
Y (s) = c(sI−A)−1v0 +(c(sI−A)−1b+ d
)X(s)
A funcao de transferencia e dada por (v0 = 0)
H(s) =Y (s)
X(s)= c(sI−A)−1b+ d
Exemplo 16.17Considere novamente o sistema do Exemplo 16.14, dado por
v =
[0 1−2 −3
]
v +
[01
]
x , v(0) = v0 =
[10
]
y =[
1 0]v
Computando (sI−A)−1 por Cayley-Hamilton, tem-se
Bonatti, Lopes & Peres
265
(sI−A)−1 = ρ0(s)I + ρ1(s)A
com ρ0(s) e ρ1(s) obtidos das equacoes
(s+ 1)−1 = ρ0(s)− ρ1(s) , (s+ 2)−1 = ρ0(s)− 2ρ1(s)
ρ0(s) =2
s+ 1− 1
s+ 2=
s+ 3
(s+ 1)(s+ 2), ρ1(s) =
1
s+ 1− 1
s+ 2=
1
(s+ 1)(s+ 2)
(sI−A)−1 =1
(s+ 1)(s+ 2)
[s+ 3 1−2 s
]
Para a entrada X(s) = 1/s (degrau unitario), tem-se
Y (s) = c(sI−A)−1 [v0 + bX(s)] =[
1 0](sI−A)−1
[1
1/s
]
=s2 + 3s+ 1
s(s+ 1)(s+ 2)
Y (s) =1/2
s+
1
s+ 1+−1/2
s+ 2
Exercıcio 16.1
Determine os autovetores (e eventuais autovetores generalizados) da matriz
A =
1 1 10 1 20 0 3
Solucao: por tratar-se de matriz triangular, os autovalores sao os elementos da diagonal
λ1 = λ2 = 1 , λ3 = 3
Da equacao Aq = λ1q, tem-se
(A− I)q1 =
0 1 10 0 20 0 2
q11q21q31
= 0 ⇒ q1 =
100
A dimensao de N (A− I) (espaco nulo de A− I) e 1, e portanto q1 e o unico autovetor associado aoautovalor 1. Um autovetor generalizado associado e obtido da equacao
Aq2 = q1 + λ2q2 , (A− I)q2 = q1 ⇒
0 1 10 0 20 0 2
q12q22q32
=
100
, q2 =
110
Finalmente, da equacao Aq = λ3q, tem-se
(A− 3I)q3 =
−2 1 10 −2 20 0 0
q13q23q33
= 0 ⇒ q3 =
111
Note que
Bonatti, Lopes & Peres
266 Capıtulo 16. Resolucao de Equacoes de Estado
A = Q−1AQ =
1 −1 00 1 −10 0 1
1 1 10 1 20 0 3
1 1 10 1 10 0 1
=
1 1 00 1 00 0 3
e uma matriz na forma de Jordan, com um bloco de dimensao 2 associado a λ1 = λ2 = 1 e umbloco de dimensao 1 associado a λ3 = 3.
Exercıcio 16.2
Determine exp(At) para
A =
1 1 10 1 20 0 3
Solucao:
A = QAQ−1 ⇒ exp(At) = Q exp(At)Q−1 , exp(At) =
exp(t) t exp(t) 00 exp(t) 00 0 exp(3t)
sendo a matriz Q determinada no Exercıcio 16.1.
Exercıcio 16.3
Determine cos(A) para
A =
[0 10 −π/2
]
, λ1 = 0 , λ2 = −π/2
Solucao: utilizando Cayley-Hamilton,
cos(λ) = ρ0 + ρ1λ ⇒ ρ0 = 1 , ρ1 = 2/π
cos(A) = I +2
πA =
[1 2/π0 0
]
A solucao tambem pode ser obtida a partir da diagonalizacao da matriz A:
A = QAQ−1 =
[2/π −2/π0 1
] [0 00 −π/2
] [π/2 10 1
]
Portanto,
cos(A) = Q cos(A)Q−1 =
[2/π −2/π0 1
] [1 00 0
] [π/2 10 1
]
=
[1 2/π0 0
]
Bonatti, Lopes & Peres
267
Exercıcio 16.4
Determine cos(A) para
A =
[1 10 1
]
π/4 , λ1 = λ2 = π/4
Solucao: neste caso, A nao e diagonalizavel. Por Cayley-Hamilton, tem-se
cos(λ) = ρ0 + ρ1λ , −sen(λ) = ρ1 ⇒ ρ1 = −√
2
2, ρ0 =
√2
2
(
1 +π
4
)
cos(A) = ρ0I + ρ1A =
[ρ0 + ρ1π/4 ρ1π/4
0 ρ0 + ρ1π/4
]
=
[1 −π/40 1
] √2
2
O resultado poderia tambem ser obtido por exponencial de matriz, usando o Teorema de Euler.
Exercıcio 16.5
Determine f(A) para f(λ) polinomial e
A =
[λ 10 λ
]
Solucao:
f
([λ 10 λ
])
=
[ρ0 + ρ1λ ρ1
0 ρ0 + ρ1λ
]
=
[f(λ) d
dλf(λ)0 f(λ)
]
Exercıcio 16.6
Determine a inversa da matriz A usando o teorema de Cayley-Hamilton.
1 1 10 1 10 0 1
Solucao:
λ−1 = ρ0 + ρ1λ+ ρ2λ2 ⇒ 1 = ρ0 + ρ1 + ρ2
−λ−2 = ρ1 + 2ρ2λ ⇒ −1 = ρ1 + 2ρ2
2λ−3 = 2ρ2 ⇒ 1 = ρ2 , ρ0 = 3 , ρ1 = −3
A−1 = ρ0I + ρ1A+ ρ2A2 =
1 −1 00 1 −10 0 1
Note que
Co(A) =
1 0 0−1 1 00 −1 1
Bonatti, Lopes & Peres
268 Capıtulo 16. Resolucao de Equacoes de Estado
A inversa poderia ser obtida diretamente da equacao caracterıstica
∆(λ) = λ3 − 3λ2 + 3λ− 1 = 0 λ−1 = λ2 − 3λ+ 3
Exercıcio 16.7
Determine ρ0 e ρ1 tais que
A0.5 = ρ0I + ρ1A , A = ρ
[cos(θ) −sen(θ)sen(θ) cos(θ)
]
, ρ > 0 , θ 6= 0
Solucao:
Os autovalores sao
ρ exp(jθ) , ρ exp(−jθ)
Portanto
ρ0.5 exp(jθ/2) = ρ0 + ρ1ρ exp(jθ) , ρ0.5 exp(−jθ/2) = ρ0 + ρ1ρ exp(−jθ)
que resultam em
ρ1 = ρ−0.5 sen(θ/2)
sen(θ), ρ0 = ρ0.5
(cos(θ/2)− sen(θ/2)
sen(θ)cos(θ)
)
Para ρ = 1 e θ = π/2, tem-se
A =
[0 −11 0
]
, autovalores j,−j ⇒ ρ0 = ρ1 =
√2
2
A0.5 =
√2
2
[1 −11 1
]
Note que a soma de 2π em θ nao altera os autovalores, porem produz como solucao outra raizquadrada
A0.5 = −√
2
2
[1 −11 1
]
Bonatti, Lopes & Peres
Capıtulo 17
Observabilidade e Controlabilidade
SISO
Definicao: observabilidade
Um sistema contınuo autonomo descrito por
v(t) = f(v(t), t) , y(t) = g(v(t), t)
e observavel em t0 se existir τ > 0 tal que o conhecimento da saıda y(t) para todo t ∈ [t0, t0 + τ ] esuficiente para determinar a condicao v(t0).
Para sistemas lineares invariantes no tempo com saıda escalar, descritos por
v(t) = Av(t) , v ∈ Rm ; y(t) = cv(t) ∈ R
o sistema e observavel se existir τ > 0 tal que o conhecimento da saıda y(t) para todo t ∈ [0, τ ] esuficiente para determinar a condicao inicial v(0).
Propriedade 17.1Matriz de observabilidade
O sistema linear invariante no tempo
v = Av , y = cv
com v ∈ Rm e observavel se e somente se o rank da matriz de observabilidade Obsv(A, c) for igual a
m
Obsv(A, c) =
ccAcA2
...cAm−1
∈ Rm×m
Ou seja, o sistema e observavel se e somente se det(Obsv(A, c)) 6= 0.
Prova:
y(t) = c exp(At)v(0)
Derivando m− 1 vezes y(t) e computando em t = 0, tem-se
269
270 Capıtulo 17. Observabilidade e Controlabilidade SISO
Obsv(A, c)v(0) =
ccAcA2
...cAm−1
v(0) =
y(0)y(0)y(0)
...
y(m−1)(0)
que tem solucao em v(0) sempre que o rank de Obsv(A, c) for igual a m. Note que e preciso conhecery(t) em uma vizinhanca do zero para se determinar os valores das derivadas em t = 0.
⋄
Exemplo 17.1Sistema nao observavel
O sistema
v =
[0 1−2 −3
]
v ; y =[
1 1]v
nao e observavel, pois a matriz de observabilidade dada por
Obsv(A, c) =
[ccA
]
=
[1 1−2 −2
]
tem determinante igual a zero. Note que, para uma condicao inicial v(0) = v0, tem-se
Y (s) = c(sI−A)−1v0 =s+ 1
(s+ 1)(s+ 2)
(v1(0) + v2(0)
)
⇒ y(t) =(v1(0) + v2(0)
)exp(−2t)u(t)
e, portanto, o conhecimento de y(t) nao permite determinar de maneira individual v1(0) e v2(0).
Exemplo 17.2Sistema observavel
O sistema
v =
[0 1−2 −3
]
v ; y =[
1 0]v
e observavel, pois a matriz de observabilidade dada por
Obsv(A, c) =
[ccA
]
=
[1 00 1
]
tem determinante diferente de zero. Para uma condicao inicial v(0) = v0, tem-se
Y (s) = c(sI−A)−1v0 =s+ 3
(s+ 1)(s+ 2)v1(0) +
1
(s+ 1)(s+ 2)v2(0)
Bonatti, Lopes & Peres
271
⇒ y(t) =(2 exp(−t)− exp(−2t)
)v1(0)u(t) +
(exp(−t)− exp(−2t)
)v2(0)u(t)
y(0) = v1(0) , y(0) = v2(0)
Neste caso, o conhecimento de y(t) permite determinar a condicao inicial.
Exemplo 17.3Considere o circuito da Figura 17.1 com σ > 0 e as variaveis de estado ν1 (tensao no capacitor) eν2 (corrente no indutor).
1
1
++
−− 1
1/σ
x
y
ν1
ν2
Figura 17.1: Circuito RLC com R = C = 1 e L = 1/σ.
ν2 +1
σν2 = ν1 + ν1 ; x =
1
σν2 + ν1 ; y =
1
σν2
Colocando na forma matricial, tem-se
ν = Aν + bx , y = cν + dx (17.1)
A =
[−2 1−σ 0
]
, b =
[1σ
]
, c =[−1 0
], d =
[1]
(17.2)
A matriz de observabilidade e dada por
Obsv(A, c) =
[−1 02 −1
]
cujo determinante e
det(Obsv(A, c)) = 1 6= 0
indicando que o sistema (17.1)-(17.2) e observavel independentemente de σ.
A equacao diferencial em y e
D(p)y = N(p)x , D(p) = p2 + 2p+ σ , N(p) = p(p+ 1)
Bonatti, Lopes & Peres
272 Capıtulo 17. Observabilidade e Controlabilidade SISO
Note que para σ = 1 (constantes de tempo das malhas indutiva e capacitiva identicas) ocorre umcancelamento entre zero e polo.
Exemplo 17.4Considere novamente o circuito descrito na Figura 17.1, com σ > 0, cuja equacao diferencial em ye
D(p)y = N(p)x , D(p) = p2 + 2p+ σ , N(p) = p(p+ 1)
N(p) = D(p) + N(p) ⇒ N(p) = −p− σ
A representacao em equacoes de estado na forma companheira (note que as variaveis de estado v1e v2 nao mais correspondem a tensao no capacitor ν1 e a corrente no indutor ν2) e dada por
v =
[0 1−σ −2
]
v +
[01
]
x (17.3)
y =[−σ −1
]v +
[1]x (17.4)
A matriz de observabilidade para o sistema (17.3)-(17.4) e dada por
Obsv(A, c) =
[ccA
]
=
[−σ −1σ 2− σ
]
cujo determinante e
det(Obsv(A, c)) = σ(σ − 1)
Portanto, a realizacao (17.3)-(17.4) do sistema (variaveis v1 e v2) nao e observavel se σ = 1.
Note, portanto, que a observabilidade depende da representacao interna do sistema, isto e, daescolha das variaveis de estado.
Exemplo 17.5Considere o circuito descrito na Figura 17.2, cujas equacoes de estado e de saıda sao
ν2 +Lν2R2
= Cν1 +ν1R1
; x = Lν2 + ν1
y =L
R2ν2
Colocando na forma matricial, tem-se
ν = Aν + bx , y = cν + dx (17.5)
Bonatti, Lopes & Peres
273
R1
R2
++
−− C
L
x
y
ν1
ν2
Figura 17.2: Circuito RLC.
A =
−(
1
R1C+
1
R2C
)1
C
− 1
L0
, b =
1
R2C
1
L
, c =
[
− 1
R20
]
, d =
[1
R2
]
(17.6)
A matriz de observabilidade e dada por
Obsv(A, c) =
− 1
R20
1
R2
(1
R1C+
1
R2C
)
− 1
R2C
cujo determinante e
det(Obsv(A, c)) =1
R22C6= 0
indicando que o sistema (17.5)-(17.6) e observavel.
A equacao diferencial em y e
D(p)y = N(p)x , D(p) = p2 +
(1
R1C+
1
R2C
)
p+1
LC, N(p) =
1
R2p
(
p+1
R1C
)
A divisao N(p)/D(p) resulta em β2 = 1/R2 e
N(p) = − 1
R22C
p− 1
R2LC
A representacao em equacoes de estado na forma companheira (note que as variaveis de estado v1e v2 nao mais correspondem a tensao no capacitor ν1 e a corrente no indutor ν2) e dada por
v = Av + bx , y = cv + dx (17.7)
A =
0 1
− 1
LC−(
1
R1C+
1
R2C
)
, b =
[01
]
, c =
[
− 1
R2LC− 1
R22C
]
, d =
[1
R2
]
Bonatti, Lopes & Peres
274 Capıtulo 17. Observabilidade e Controlabilidade SISO
A matriz de observabilidade para o sistema (17.7) e dada por
Obsv(A, c) =1
R2LC
−1 − L
R21
R2C
L
R2
(1
R1C+
1
R2C
)
− 1
det(Obsv(A, c)) =1
R22L
2C2
(
1− L
R1R2C
)
Portanto, o sistema (17.7) (variaveis v1 e v2) nao e observavel se as constantes de tempo das malhasLR2 e R1C forem identicas, isto e, se
L
R2= R1C
Propriedade 17.2Transformacoes de similaridade nao alteram a observabilidade de um sistema linear invariante notempo.
Prova:Os sistemas similares, com T nao singular, dados por
v = Av , v = Tv ⇒ ˙v = T v = TAv = TAT−1v ⇒ A = TAT−1
y = cv = cT−1v ⇒ c = cT−1
tem matrizes de observabilidade que verificam
rank
c
cA...
cAn−1
= rank
ccA...
cAn−1
T−1
= rank
ccA...
cAn−1
⋄
Exemplo 17.6Considere o sistema descrito por
v = Av , y = cv
A =
[−5 1−4 −1
]
, c =[
0 2]
O sistema e observavel, pois
Obsv(A, c) =
[0 2−8 −2
]
, det(Obsv(A, c)) = 16 6= 0
Escolhendo
Bonatti, Lopes & Peres
275
T =
[0 11 1
]
, T−1 =
[−1 11 0
]
e escrevendo as equacoes em termos de v = Tv, tem-se
A = TAT−1 =
[3 −49 −9
]
, c =[
2 0]
Obsv(A, c) =
[2 06 −8
]
, det(Obsv(A, c)) = −16 6= 0
Definicao: controlabilidade
Um sistema contınuo descrito por
v(t) = f(v(t), x(t), t)
e controlavel em t0 se existir τ > 0 finito e uma entrada x(t), t ∈ [t0, t0 + τ ] que leve o sistema de umestado inicial qualquer v(t0) para um estado arbitrario v(t0 + τ).
Para sistemas lineares invariantes no tempo com entrada escalar, descritos por
v(t) = Av(t) + bx(t) , v ∈ Rn ; x(t) ∈ R
o sistema e controlavel se para qualquer estado inicial v(0) e um estado v(τ) final arbitrario, existiruma entrada x(t), t ∈ [0, τ ] que leve o sistema de v(0) a v(τ) em tempo finito τ .
Propriedade 17.3Matriz de controlabilidade
O sistema linear invariante no tempo
v = Av + bx
com v ∈ Rn e controlavel se e somente se o rank da matriz de controlabilidade Ctrb(A, b) for igual a n
Ctrb(A, b) =[b Ab A2b · · · An−1b
]∈ R
n×n
Ou seja, o sistema e controlavel se e somente se det(Ctrb(A, b)) 6= 0.
Prova:A solucao v(t), com condicao inicial v(0) conhecida e uma entrada x(t), e dada por
v(t) = exp(At)v(0) +(exp(At)u(t)
)∗ bx(t)
Por Cayley-Hamilton, tem-se
exp(At) =
n−1∑
k=0
ρk(t)Ak
e portanto
ν(t) =(
n−1∑
k=0
ρk(t)Aku(t)
)∗ bx(t) =
n−1∑
k=0
Akb σk(t)
Bonatti, Lopes & Peres
276 Capıtulo 17. Observabilidade e Controlabilidade SISO
com
ν(t) = v(t)− exp(At)v(0) , σk(t) =(ρk(t)u(t)
)∗ x(t)
Para t = τ , tem-se
ν(τ) =[b Ab A2b · · · An−1b
]
σ0(τ)σ1(τ)
...σn−1(τ)
que possui solucao sempre que o rank de Ctrb(A, b) for igual a n.
⋄
Exemplo 17.7Sistema nao controlavel
Considere o sistema
v =
[0 1−2 −3
]
v +
[b1b2
]
x
Analisando a controlabilidade, tem-se
det(Ctrb(A, b)) = det[b Ab
]= det
[b1 b2b2 −2b1 − 3b2
]
= −(2b21 + 3b1b2 + b22)
e portanto para b2 = −b1 ou b2 = −2b1, o sistema e nao controlavel (determinante igual a zero).
Utilizando o operador p, tem-se
v = (pI−A)−1bx =1
D(p)
[p+ 3 1
2 p
] [b1b2
]
x , D(p) = (p+ 1)(p+ 2)
As duas situacoes de nao controlabilidade implicam
b1 = −b2 = β ⇒ v =β
p+ 1
[1−1
]
x , b2 = −2b1 = −2β ⇒ v =β
p+ 1
[1−2
]
x ,
Note que nao e possıvel controlar individualmente os dois estados e que, em cada uma das situacoes,um dos modos proprios nao aparece na equacao diferencial.
Exemplo 17.8Sistema controlavel
Considere o sistema
v =
[0 1−2 −3
]
v +
[11
]
x
Bonatti, Lopes & Peres
277
O sistema e controlavel, pois
det(Ctrb(A, b)) = det[b Ab
]= det
[1 11 −5
]
= −6
Aplicando a transformada de Laplace, tem-se
V (s) = (sI−A)−1bX(s) =1
(s+ 1)(s+ 2)
[s+ 3 1
2 s
] [11
]
X(s) =
=1
(s+ 1)(s+ 2)
[s+ 4s− 2
]
X(s)
Para X(s) igual a
X(s) = αs+ 1
s+ 4+ β
s+ 2
s− 2
tem-se
V (s) =
1
s+ 2
s+ 4
(s+ 1)(s− 2)
s− 2
(s+ 2)(s+ 4)
1
s+ 1
[αβ
]
e portanto
v(t) =
[exp(−2t) − exp(−t) + 2 exp(2t)
−2 exp(−2t) + 3 exp(−4t) exp(−t)
] [αβ
]
Note que o determinante da matriz que relaciona v(t) com os parametros α e β e
γ(t) = 4− 6 exp(−2t)− exp(−3t) + 3 exp(−5t) 6= 0 , ∀t 6= 0
e, portanto, para qualquer (t, v(t)) e possıvel encontrar α e β que levam o sistema de v(0) = 0 av(t) no intervalo [0, t], confirmando que o sistema e controlavel.
A solucao e dada por
[αβ
]
=1
γ(t)
[exp(−t) exp(−t)− 2 exp(2t)
2 exp(−2t)− 3 exp(−4t) exp(−2t)
]
Exemplo 17.9Considere novamente o circuito da Figura 17.1, com σ > 0, descrito pela equacao diferencial
D(p)y = N(p)x , D(p) = p2 + 2p+ σ , N(p) = p(p+ 1)
com a representacao de estado do Exemplo 17.4
v =
[0 1−σ −2
]
v +
[01
]
x , y =[−σ −1
]v +
[1]x
que nao e observavel para σ = 1. No entanto, e controlavel independentemente de σ, pois
Bonatti, Lopes & Peres
278 Capıtulo 17. Observabilidade e Controlabilidade SISO
det(Ctrb(A, b)) = det[b Ab
]= det
[0 11 −2
]
= −1
Por outro lado, a representacao em equacoes de estado na forma dual, dada por
A =
[0 −σ1 −2
]
, b =
[−σ−1
]
, c =[
0 1], d =
[1]
e observavel independentemente de σ e nao e controlavel para σ = 1, pois
det(Ctrb(A, b)) = det[b Ab
]= det
[−σ σ−1 2− σ
]
= σ(σ − 1)
det(Obsv(A, c)) = det
[ccA
]
= det
[0 11 −2
]
= −1
Propriedade 17.4Transformacoes de similaridade nao alteram a controlabilidade de um sistema linear invariante notempo.
Prova:
Os sistemas similares, com T nao singular, dados por
v = Av + bx , v = Tv ⇒ ˙v = T v = TAv + Tbx = TAT−1v + Tbx
⇒ A = TAT−1 , b = Tb
tem matrizes de controlabilidade que verificam
rank[
b Ab · · · An−1b]
= rank(T[b Ab · · · An−1b
])= rank
[b Ab · · · An−1b
]
⋄
Exemplo 17.10Considere o sistema descrito por
v = Av + bx
A =
[−5 −41 −1
]
, b =
[02
]
O sistema e controlavel, pois
Ctrb(A, b) =
[0 −82 −2
]
, det(Ctrb(A, b)) = 16 6= 0
Escolhendo
Bonatti, Lopes & Peres
279
T =
[−1 11 0
]
, T−1 =
[0 11 1
]
e escrevendo as equacoes em termos de v = Tv, tem-se
A =
[3 9−4 −9
]
, b =
[20
]
Ctrb(A, b) =
[2 60 −8
]
, det(Ctrb(A, b)) = −16 6= 0
Propriedade 17.5O sistema (A, b, c, d) e controlavel se e somente se o sistema dual (A′, c′, b′, d) e observavel, e vice-versa,isto e, o sistema (A, b, c, d) e observavel se e somente se o sistema dual (A′, c′, b′, d) e controlavel.
Prova:
Ctrb(A, b) =(Obsv(A′, b′)
)′, Obsv(A, c) =
(Ctrb(A′, c′)
)′
⋄
Propriedade 17.6Forma canonica controlavel
A representacao
v = Av + bx , v =
0 1 0 · · · 00 0 1 · · · 0...
......
. . ....
0 0 0 · · · 1−α0 −α1 −α2 · · · −αm−1
v +
00...01
x
e denominada de forma canonica controlavel, pois det(Ctrb(A, b)
)6= 0 para quaisquer valores de αk.
Prova: para n = 4, tem-se
Ctrb(A, b) =
0 0 0 10 0 1 −α3
0 1 −α3 −α2 + α23
1 −α3 −α2 + α23 −α1 + α2α3 − α3(α2 + α2
3)
cujo determinante e igual a 1. Para n qualquer, o determinante e 1 ou −1, pois
det(Ctrb(A, b)
)= (−1)f [n] , f [n] =
n+1∑
k=2
k =(n+ 3)n
2
Pode-se mostrar que inversa da matriz de controlabilidade e dada por
Bonatti, Lopes & Peres
280 Capıtulo 17. Observabilidade e Controlabilidade SISO
(Ctrb(A, b)
)−1=
α1 α2 α3 1α2 α3 1 0α3 1 0 01 0 0 0
⋄
Exemplo 17.11O sistema
v =
0 1 00 0 1−6 −11 −6
v +
001
x
esta na forma canonica controlavel, sendo
Ctrb(A, b) =
0 0 10 1 −61 −6 25
, det(Ctrb(A, b)) = −1
Propriedade 17.7Forma canonica observavel
A representacao de um sistema na forma
v = Av , y = cv , v =
0 · · · 0 −α0
1 · · · 0 −α1...
. . ....
...0 · · · 1 −αm−1
v , y =
[0 · · · 1
]v
e denominada de forma canonica observavel, pois det(Obsv(A, c)
)6= 0 para quaisquer valores de αk.
Por dualidade, essa propriedade e consequencia da Propriedade 17.5.
⋄
Propriedade 17.8A realizacao mostrada na Figura 17.3 e a forma canonica controlavel dada por (m = 3, αm = 1)
v = Av + bx , y = cv + dx
A =
0 1 00 0 1−α0 −α1 −α2
, b =
001
, c =[β0 β1 β2
], d =
[β3
]
associada aos polinomios
D(p) =m∑
k=0
αkpk , N(p) = β3D(p) + N(p) , N(p) =
m−1∑
k=0
βkpk
Bonatti, Lopes & Peres
281
++
+ + +
+∫ ∫∫
x
y
v1v2v3
α0α1α2
β0β1β2β3
−1
Figura 17.3: Realizacao na forma canonica controlavel.
Por construcao, a realizacao possui (A, b) controlavel. Se (A, c) for observavel, entao nao ha cancela-mentos entre polos e zeros.
Por outro lado, se nao houver cancelamento entre as raızes de N(p) e D(p) (isto e, entre polos e zeros),a realizacao e observavel. Portanto, essa realizacao e sempre controlavel e a observabilidade dependedos parametros αk, βk.
Note que cancelamentos entre polos e zeros tambem implicam em cancelamentos entre N(p) e D(p).
⋄
Exemplo 17.12Considere a realizacao mostrada na Figura 17.3 com
β3 = 0 , β2 = 1 , β1 = 3 , β0 = 2 , α2 = 8 , α1 = 21 , α0 = 18
implicando em
A =
0 1 00 0 1−18 −21 −8
, b =
001
, c =[
2 3 1], d =
[0]
A matriz de observabilidade e dada por
Obsv(A, c) =
2 3 1−18 −19 −590 87 21
, det(Obsv(A, c)
)= 0
De fato, os polinomios
Bonatti, Lopes & Peres
282 Capıtulo 17. Observabilidade e Controlabilidade SISO
N(p) = p2 + 3p+ 2 = (p+ 1)(p+ 2) , D(p) = p3 + 8p2 + 21p+ 18 = (p+ 3)2(p+ 2)
possuem a raiz −2 em comum.
Propriedade 17.9A realizacao mostrada na Figura 17.4 e a forma canonica observavel dada por (m = 3, αm = 1)
v = Av + bx , y = cv + dx
A =
0 0 −α0
1 0 −α1
0 1 −α2
, b =
β0
β1
β2
, c =[
0 0 1], d =
[β3
]
associada aos polinomios
D(p) =
m∑
k=0
αkpk , N(p) = β3D(p) + N(p) , N(p) =
m−1∑
k=0
βkpk
++ ++∫∫∫
x
yv1 v2 v3
α0 α1 α2
β0 β1 β2β3
−1
Figura 17.4: Realizacao na forma canonica observavel.
Por construcao, a realizacao possui (A, c) observavel. Se (A, b) for controlavel, entao nao ha cancela-mentos entre polos e zeros.
Por outro lado, se nao houver cancelamento entre as raızes de N(p) e D(p) (isto e, entre polos e zeros),a realizacao e controlavel. Portanto, essa realizacao e sempre observavel e a controlabilidade dependedos parametros αk, βk.
⋄
Exemplo 17.13Considere a realizacao mostrada na Figura 17.4 com
β3 = 1 , β2 = 1 , β1 = 3 , β0 = 2 , α2 = 3 , α1 = −1 , α0 = −3
Bonatti, Lopes & Peres
283
implicando em
A =
0 0 31 0 10 1 −3
, b =
231
, c =[
0 0 1], d =
[1]
A matriz de controlabilidade e dada por
Ctrb(A, b) =
2 3 03 3 31 0 3
, det(Ctrb(A, b)
)= 0
De fato, os polinomios
N(p) = p2 + 3p+ 2 = (p+ 1)(p+ 2) , D(p) = p3 + 3p2 − p− 3 = (p− 1)(p+ 1)(p+ 3)
possuem a raiz −1 em comum.
Exemplo 17.14Transformacao de similaridade que separa modos nao observaveis
Considere o sistema descrito por
v = Av , y = cv , A =
[−5 1−4 −1
]
, c =[
2 −1]
O sistema e nao observavel, pois
Obsv(A, c) =
[2 −1−6 3
]
, det(Obsv(A, c)) = 0
Para
T =
[2 −10 1
]
, T−1 =
[0.5 0.50 1
]
, A = TAT−1 =
[−3 0−2 −3
]
, c =[
1 0]
tem-se
Obsv(A, c) =
[1 0−3 0
]
, det(Obsv(A, c)) = 0
Note que apenas v1 aparece na saıda, e que v1 e desacoplado de v2. Portanto, o estado v1 eobservavel e v2 nao.
Bonatti, Lopes & Peres
284 Capıtulo 17. Observabilidade e Controlabilidade SISO
Exemplo 17.15Transformacao de similaridade que separa os modos nao controlaveis
Considere o sistema
v =
0 1 00 0 1−6 −11 −6
v +
1−39
x
cujo polinomio caracterıstico e
∆(p) = p3 + 6p2 + 11p+ 6 = (p+ 1)(p+ 2)(p+ 3)
O sistema nao e controlavel, pois
det(Ctrb(A, b)) = det[b Ab A2b
]= det
1 −3 9−3 9 −279 −27 81
= 0 , rank(Ctrb(A, b)) = 1
Utilizando o operador p, tem-se
v = (pI−A)−1bx =1
p+ 3
1−39
x
Note que nao e possıvel controlar individualmente os estados e que dois modos proprios nao apa-recem na equacao diferencial.
Definindo a transformacao
T−1 =
1 0 0−3 1 09 0 1
, T =
1 0 03 1 0−9 0 1
tem-se
A = TAT−1 =
−3 1 00 3 10 −20 −3
, b = Tb =
100
Note que, no sistema transformado, foram separadas as parcelas controlavel (v1) e nao controlavel(v2 e v3). Note tambem estados nao controlaveis formam um sistema autonomo independente, e avariavel v2 influencia na equacao de v1.
A matriz de controlabilidade do sistema transformado e
Ctrb(A, b) =
1 −3 90 0 00 0 0
, rank(Ctrb(A, b)) = 1
Bonatti, Lopes & Peres
285
Exercıcio 17.1
a) Determine c ∈ R1×2 nao nulo para que o sistema com os modos proprios
g1(t) = exp(−t) , g2(t) = exp(−2t)
e a representacao de estados
v =
[0 1−α0 −α1
]
v
nao seja observavel.
Solucao: a partir dos modos proprios, tem-se
D(p) = (p+ 1)(p+ 2) = p2 + 3p+ 2 ⇒ α0 = 2 , α1 = 3
Definindo c =[c1 c2
], tem-se
Obsv(A, c) =
[ccA
]
=
[c1 c2−2c2 c1 − 3c2
]
e, portanto,
det(Obsv(A, c)) = 0 ⇒ c1 = c2 , c1 = 2c2
b) Para a solucao do item a), determine y(t) em funcao de v(0) =[v1(0) v2(0)
]′
Solucao:
y(t) = c exp(At)v(0)
exp(At) = ρ0(t)I + ρ1(t)A , exp(−t) = ρ0(t)− ρ1(t) , exp(−2t) = ρ0(t)− 2ρ1(t)
Para c1 = c2 = β, tem-se
y(t) = β(ρ0(t)− 2ρ1(t)
)(v1(0) + v2(0)
)= β exp(−2t)
(v1(0) + v2(0)
)
Para c1 = 2c2 = 2β, tem-se
y(t) = 2β(ρ0(t)− ρ1(t)
)(v1(0) + v2(0)
)= β exp(−t)
(v1(0) + v2(0)
)
Note que a nao observabilidade nao permite determinar individualmente v1(0) e v2(0). Alem disso,implica no desaparecimento de um dos modos proprios na saıda.
Bonatti, Lopes & Peres
Capıtulo 18
Introducao a Realimentacao
A realimentacao pode ser usada para alterar o comportamento dinamico de sistemas.
Exemplo 18.1Estabilizacao
Considere o sistema descrito pela equacao diferencial
(p− 1)y = x ⇒ H(s) =1
s− 1
Trata-se de um sistema instavel, pois o polo tem parte real positiva. De fato, a solucao da equacaohomogenea diverge e e dada por
y(t) = y(0) exp(t)
O sistema pode ser estabilizado por meio da realimentacao do sinal de saıda, como mostrado naFigura 18.1.
X(s) Y (s)H(s)
−k
+
Figura 18.1: Realimentacao com ganho proporcional.
Definindo o sinal do erro (isto e, a diferenca entre a entrada e a saıda realimentada), tem-se
E(s) = X(s)− kY (s) , Y (s) = H(s)E(s) ⇒ Y (s) =H(s)
1 + kH(s)X(s)
A funcao de transferencia em malha fechada e
G(s) =H(s)
1 + kH(s)
286
287
que, neste caso, e dada por
G(s) =1
s− 1 + k
com polo 1− k. Portanto, para k > 1, o sistema em malha fechada e estavel.
A estrutura mostrada na Figura 18.2 (chamada de realimentacao unitaria), com um compensador namalha direta, possui funcao de transferencia em malha fechada e erro dados por
G(s) =Y (s)
X(s)=
C(s)H(s)
1 + C(s)H(s)
E(s) = X(s)− Y (s) =1
1 + C(s)H(s)X(s)
X(s) Y (s)H(s)C(s)
E(s)
−1
+
Figura 18.2: Realimentacao unitaria.
Se o sistema em malha fechada for estavel, o erro em regime para uma entrada degrau x(t) = u(t) edado por
lims→0
sE(s) = lims→0
s
(1
1 + C(s)H(s)
)1
s=
1
1 + kp, kp = lim
s→0C(s)H(s)
Portanto, o erro de regime para entrada degrau e nulo se kp tender a infinito, isto e, se a malha diretaC(s)H(s) possuir pelo menos um polo em s = 0. O parametro kp e chamado de constante de posicao,e uma funcao de transferencia com um polo na origem e chamada de funcao do tipo ‘1’.
Similarmente, o erro de regime para entrada rampa x(t) = tu(t) e dado por
lims→0
sE(s) = lims→0
s
(1
1 + C(s)H(s)
)1
s2= lim
s→0
1
s+ sC(s)H(s)=
1
kv, kv = lim
s→0sC(s)H(s)
sendo kv denominado constante de velocidade. Para que o erro de regime seja nulo, a funcao detransferencia de malha direta deve possuir pelo menos dois polos na origem, isto e, ser pelo menos dotipo ‘2’.
Finalmente, o erro de regime para entrada parabola x(t) = 0.5t2u(t) e
lims→0
sE(s) = lims→0
s
(1
1 + C(s)H(s)
)1
s3= lim
s→0
1
s2 + s2C(s)H(s)=
1
ka, ka = lim
s→0s2C(s)H(s)
e ka e a constante de aceleracao. Erros de regime nulos exigem pelo menos tres polos na origem, istoe, ser pelo menos do tipo ‘3’.
Bonatti, Lopes & Peres
288 Capıtulo 18. Introducao a Realimentacao
Exemplo 18.2Erro de regime
Considere o sistema
(p+ ρ)y = x , ρ > 0 ⇒ λ = −ρ sistema estavel
A solucao persistente para entrada constante x = 1 e
y(t) = H(0) =1
ρ
e, portanto, a saıda nao acompanha a entrada (erro de regime).
A estrutura mostrada na Figura 18.2 (chamada de realimentacao unitaria), com um integrador namalha direta, possui a funcao de transferencia em malha fechada
G(s) =H(s)
1
s
1 +H(s)1
s
, H(s) =1
s+ ρ⇒ G(s) =
1
s2 + ρs+ 1
cujos polos sao
λ1,2 =−ρ±
√
ρ2 − 4
2
Como ρ > 0, o sistema e estavel. Alem disso, G(0) = 1 e portanto o sistema nao apresenta erro deregime.
Definicao: sensibilidade
A sensibilidade de uma funcao f(x, y) em relacao a uma de suas variaveis (ou parametros) e definidapor
∂f
∂x
x
f=
∂f
f∂x
x
Note que a sensibilidade e uma medida de variacao percentual.
Exemplo 18.3Sensibilidade
Considere novamente o sistema do Exemplo 18.2, para o qual as funcoes de transferencia de malhaaberta e de malha fechada sao, respectivamente,
H(s) =1
s+ ρ, G(s) =
1
s2 + ρs+ 1
As sensibilidades de H(s) e de G(s) em relacao ao parametro ρ sao dadas por
Bonatti, Lopes & Peres
289
∂H(s)
∂ρ
ρ
H(s)=−ρs+ ρ
,∂G(s)
∂ρ
ρ
G(s)=
−ρss2 + ρs+ 1
Note que o ganho DC apresenta sensibilidade de 100% em malha aberta e de 0 em malha fechada,em relacao ao parametro ρ.
Exemplo 18.4Produto ganho-faixa
A Figura 18.3 mostra um modelo de primeira ordem para um amplificador operacional (seguidorde tensao de ganho k) realimentado. O ganho DC e dado por A e a frequencia de corte e 1/τ . Oproduto ganho-faixa BWG — Bandwidth gain, dado por BWG=A/τ , caracteriza o amplificadoroperacional. Por exemplo, o OpAmp 741 tem BWG=1 MHz.
X(s) Y (s)A
1 + τs
−1/k
+
Figura 18.3: Produto ganho-faixa.
A funcao de transferencia em malha fechada e dada por
G(s) =H(s)
1 +H(s)/k=
A
1 + τs+A/k
e, para A/k ≫ 1, tem-se
G(s) ≈ A
τs+A/k=
k
1 + kτ/As
com ganho DC igual a k e frequencia de corte A/(kτ). Portanto, o produto ganho-faixa permaneceinalterado BWG=A/τ . Note que k elevado implica em faixa pequena.
Exemplo 18.5Rejeicao de disturbio
Considere o sistema realimentado da Figura 18.4, na qual C(s) e o controlador eD(s) e uma entradade disturbios.
A saıda Y (s) pode ser modelada como a superposicao dos efeitos das duas entradas
Bonatti, Lopes & Peres
290 Capıtulo 18. Introducao a Realimentacao
X(s) Y (s)
H(s)
D(s)
C(s)
−1
++
Figura 18.4: Rejeicao de disturbios.
Y (s) =C(s)H(s)
1 + C(s)H(s)X(s)
︸ ︷︷ ︸
YX(s)
+H(s)
1 + C(s)H(s)D(s)
︸ ︷︷ ︸
YD(s)
O Exemplo 18.2 considerou uma estrutura semelhante com D(s) = 0 (sem disturbio) e, para
C(s) =1
s, H(s) =
1
s+ ρ, ρ > 0
o sistema realimentado e estavel e nao apresenta erro de regime. Alem disso, em regime, rejeitadisturbios na forma de degraus com amplitude desconhecida a, pois
limt→+∞
yd(t) = lims→0
sYD(s) =sH(s)
s+H(s)a = 0
Bonatti, Lopes & Peres
Capıtulo 19
Estabilidade
A estabilidade de um sistema pode ser caracterizada em termos da relacao entrada-saıda (BIBOestabilidade) ou em termos das variaveis de estado (pontos de equilıbrio).
19.1 BIBO Estabilidade
Definicao: Sistema BIBO Estavel
Conforme descrito anteriormente, um sistema e BIBO estavel (Bounded-Input Bounded-Output) se asaıda e limitada para toda entrada limitada.
|x(t)| < b ⇒ |y(t)| < +∞
Alem disso, um sistema linear invariante no tempo e BIBO estavel se e somente se a resposta aoimpulso do sistema for absolutamente integravel.
Propriedade 19.1Necessidade
Um sistema linear invariante no tempo descrito por uma funcao de transferencia racional
H(s) =N(s)
D(s)
e BIBO estavel se e somente se todos os polos (isto e, raızes de D(s) = 0) tiverem parte real negativa.
Prova: autovalores com parte real negativa garantem que a resposta ao impulso
h(t) =m∑
k=1
akgk(t) , gk(t) = trk exp(λkt) , 0 ≤ rk ≤ m
e absolutamente integravel.
Observe que foi suposto que H(s) nao possui fatores comuns e que e estritamente proprio. Se H(s)for proprio, ocorre um impulso na resposta ao impulso, o que nao invalida a demonstracao.
⋄
Definicao: polinomio Hurwitz1
Um polinomio D(p) que possui todas as raızes com parte real negativa e chamado de polinomioHurwitz.
1Adolf Hurwitz, matematico alemao (1859–1919).
291
292 Capıtulo 19. Estabilidade
Propriedade 19.2Uma condicao necessaria para que um polinomio D(p) de grau m, com αm > 0, seja Hurwitz, e quetodos os demais m coeficientes sejam positivos.
Prova:
D(p) = αmpm + αm−1p
m−1 + αm−2pm−2 + · · ·+ α1p+ α0 , (αm > 0)
D(p) = αm
∏
k
(p+ ak)∏
k
(p2 + 2bkp+ b2k + c2k)
As raızes reais sao −ak e as complexas sao −bk ± jck. Portanto, se
ak > 0 , bk > 0
entao todos os coeficientes do polinomio D(p) sao positivos.
Exemplo 19.1A Propriedade 19.2 e uma condicao apenas necessaria. Por exemplo, o polinomio
p3 + p2 + 11p+ 51 = (p+ 3)(p− 1 + j4)(p− 1− j4) = (p+ 3)(p2 − 2p+ 17)
possui todos os coeficientes positivos, mas nao e Hurwitz.
⋄
Propriedade 19.3Expansao de Stieltjes
O teste do sinal da parte real das raızes de um polinomio pode ser feito por expansao de Stieltjes2
Dm(p)
Dm−1(p)= σ1s+
1
σ2s+1
σ3s+1
. . . +1
σm−1s+1
σms
sendo Dm(p) e Dm−1(p) polinomios obtidos a partir do polinomio D(p), dados por
Dm(p) = αmpm + αm−2p
m−2 + · · · , Dm−1(p) = αm−1pm−1 + αm−3p
m−3 + · · ·
Todas as raızes de D(p) = 0 possuem parte real negativa se e somente se σk > 0, k = 1, . . . ,m.
⋄
2Thomas Jan Stieltjes, matematico holandes (1856-1894).
Bonatti, Lopes & Peres
19.1. BIBO Estabilidade 293
Exemplo 19.2Considere o polinomio
D(p) = p4 + p3 + 3p2 + 2p+ 1
Note que a condicao necessaria (todos os coeficientes positivos) e satisfeita.
D4(p)
D3(p)=p4 + 3p2 + 1
p3 + 2p= p+
r2(p) = p2 + 1
p3 + 2p
D3(p)
r2(p)=p3 + 2p
p2 + 1= p+
r1(p) = p
p2 + 1
r2(p)
r1(p)=p2 + 1
p= p+
r0(p) = 1
p
Portanto, colocando na forma da expansao de Stieltjes, tem-se
p4 + 3p2 + 1
p3 + 2p= p+
1
p+1
p+1
p
e pode-se concluir que o polinomio possui todas as raızes com parte real negativa. De fato, as raızessao aproximadamente (usando Matlab):
−0.10± j1.55 , −0.40± j0.51
Exemplo 19.3Considere o polinomio
D(p) = 24p4 + 24p3 + 18p2 + 6p+ 1
Note que a condicao necessaria (todos os coeficientes positivos) e satisfeita. Da expansao de Stieltjes,
D4(p)
D3(p)=
24p4 + 18p2 + 1
24p3 + 6p= p+
12p2 + 1
24p3 + 6p= p+
1
2p+4p
2p2 + 1
= p+1
2p+1
3p+1
4p
conclui-se que o polinomio e Hurwitz. De fato, as raızes sao aproximadamente (usando Matlab):
−0.25± j0.60 , −0.25± j0.21
Exemplo 19.4Considere o polinomio
D(p) = p5 + 2p4 + 2p3 + p2 + 2p+ 5
A expansao de Stieltjes fornece
Bonatti, Lopes & Peres
294 Capıtulo 19. Estabilidade
p5 + 2p3 + 2p
2p4 + p2 + 5=
1
2p+
14
3p+
110
9p+
1
−1
3p+
1
−p
indicando que o polinomio possui raızes com parte real positiva. De fato, as raızes sao aproxima-damente (usando Matlab)
−1.50 , −0.93± j1.27 , 0.69± j0.93
O teste do sinal da parte real das raızes pode tambem ser feito pelo calculo de determinantes dematrizes associadas aos coeficientes do polinomio.
Propriedade 19.4Polinomios Hurwitz
O polinomio de grau m, αm > 0 dado por
D(p) =m∑
k=0
αkpk
possui todas as raızes com parte real negativa se e somente se os determinantes det(∆k) (menoresprincipais lıderes de ∆m) forem maiores que zero para k = 1, . . . ,m, com
∆1 =[αm−1
], ∆2 =
[αm−1 αm
αm−3 αm−2
]
, ∆3 =
αm−1 αm 0αm−3 αm−2 αm−1
αm−5 αm−4 αm−3
∆m =
αm−1 αm 0 0 · · · 0αm−3 αm−2 αm−1 αm · · · 0αm−5 αm−4 αm−3 αm−2 · · · 0
......
......
......
αm−(2m−1) αm−(2m−2) αm−(2m−3) αm−(2m−4) · · · α0
Por exemplo, para m = 4, tem-se
∆4 =
α3 α4 0 0α1 α2 α3 α4
0 α0 α1 α2
0 0 0 α0
Note que ∆1, ∆2 e ∆3 sao as submatrizes de dimensao 1, 2 e 3 da diagonal principal comecando nocanto superior esquerdo. Note tambem que, se o determinante de ∆3 for maior do que zero, a condicaodet(∆4) = det(∆3)α0 > 0 ocorre se e somente se α0 > 0.
⋄
Bonatti, Lopes & Peres
19.1. BIBO Estabilidade 295
Exemplo 19.5Para m = 1, p+ α0 possui raiz negativa se e somente se det(∆1) = α0 > 0.
Para m = 2, o polinomio
p2 + α1p+ α0 , ∆2 =
[α1 10 α0
]
possui raızes com parte real negativa se e somente se
det(∆1) = α1 > 0 , det(∆2) = α1α0 > 0 ⇒ α0 > 0
Para m = 3, o polinomio
p3 + α2p2 + α1p+ α0 , ∆3 =
α2 1 0α0 α1 α2
0 0 α0
possui raızes com parte real negativa se e somente se
det(∆1) = α2 > 0 , det(∆2) = α2α1 − α0 > 0 , α0 > 0
Para m = 4, o polinomio
p4 + α3p3 + α2p
2 + α1p+ α0 , ∆4 =
α3 1 0 0α1 α2 α3 10 α0 α1 α2
0 0 0 α0
possui raızes com parte real negativa se e somente se
det(∆1) = α3 > 0 , det(∆2) = α3α2 − α1 > 0 , det(∆3) > 0 , α0 > 0
det(∆3) = det
α3 1 0α1 α2 α3
0 α0 α1
= α3α2α1 − α21 − α2
3α0
Exemplo 19.6Considere novamente o polinomio do Exemplo 19.3
D(p) = 24p4 + 24p3 + 18p2 + 6p+ 1
A matriz ∆4 e dada por
∆4 =
24 24 0 06 18 24 240 1 6 180 0 0 1
e portanto
∆1 = 24 , det(∆2) = 288 , det(∆3) = 1152 , det(∆4) = 1152
indicam que o polinomio tem todas as raızes com parte real negativa.
Bonatti, Lopes & Peres
296 Capıtulo 19. Estabilidade
Exemplo 19.7Retomando o polinomio do Exemplo 19.4
D(p) = p5 + 2p4 + 2p3 + p2 + 2p+ 5
tem-se
∆5 =
2 1 0 0 01 2 2 1 05 2 1 2 20 0 5 2 10 0 0 0 5
∆1 = 2 , det(∆2) = 3 , det(∆3) = 5 , det(∆4) = −25 , det(∆5) = −125
indicando que o polinomio nao e Hurwitz.
A tabela de Routh3 sistematiza o teste de Hurwitz sem o calculo explıcito dos determinantes, repre-sentando uma alternativa a expansao de Stieltjes.
Propriedade 19.5Tabela de Routh
Considere o polinomio
α5p5 + α4p
4 + α3p3 + α2p
2 + α1p+ α0 , αk > 0 , k = 0, . . . , 5
Todas as raızes possuem parte real negativa se e somente se todos os elementos da Tabela 19.1 forempositivos ou, equivalentemente, se todos os elementos da primeira coluna forem positivos. A ocorrenciade um zero ou de um numero negativo implica que o polinomio nao e Hurwitz (ou seja, nao possuitodas as raızes com parte real negativa).
O resultado (em termos do sinal da parte real das raızes) nao se altera se uma linha da tabela formultiplicada por um numero positivo.
p5 α5 α3 α1
p4 α4 α2 α0
p3 β3 =(α3α4 − α2α5)
α4β1 =
(α1α4 − α0α5)
α4
p2 γ2 =(α2β3 − β1α4)
β3γ0 = α0
p1 δ1 =(γ0β3 − β1γ2)
γ2
p0 ǫ0 = α0
Tabela 19.1: Tabela de Routh-Hurwitz.
⋄3Edward John Routh, matematico canadense 1831-1907.
Bonatti, Lopes & Peres
19.1. BIBO Estabilidade 297
Note que a segunda e a terceira linhas da Tabela 19.1 definem o polinomio de grau 4
α4p4 + β3p
3 + α2p2 + β1p+ α0
cuja tabela de Routh-Hurwitz reproduz a Tabela 19.1 (suprimida a primeira linha). Essa recorrenciapermite o enunciado da seguinte propriedade.
Propriedade 19.6Teste de Routh-Hurwitz (G. Meinsma)O polinomio
D(p) =m∑
k=0
αkpk , αk > 0 , k = 0, . . . ,m
e Hurwitz se e somente se o polinomio de grau m− 1
D(p)− αm
αm−1
(αm−1p
m + αm−3pm−2 + αm−5p
m−4 + · · ·)
for Hurwitz (note que os coeficientes das potenciasm−1, m−3, . . . , sao αm−1, αm−3, . . . , do polinomioD(p)).
⋄Exemplo 19.8O polinomio
p5 + 8p4 + 25p3 + 40p2 + 34p+ 12
possui raızes com parte real negativa, pois a tabela de Routh e dada por
p5 1 25 34
p4 8 40 12
p3 20 65/2
p2 27 12
p1 1275/54
p0 12
De fato, as raızes de D(p) = 0 (obtidas pelo Matlab) sao
−1,−2,−3,−1 + j,−1− j
Exemplo 19.9Considere novamente o polinomio do Exemplo 19.8, dado por
p5 + 8p4 + 25p3 + 40p2 + 34p+ 12 ⇒ D5(p) = p5 + 25p3 + 34p , D4(p) = 8p4 + 40p2 + 12
A expansao fornece
D5(p)
D4(p)=p5 + 25p3 + 34p
8p4 + 40p2 + 12=
1
8p+
r3(p) = 20p3 + (65/2)p
D4(p)
Bonatti, Lopes & Peres
298 Capıtulo 19. Estabilidade
D4(p)
r3(p)=
8p4 + 40p2 + 12
20p3 + (65/2)p=
8
20p+
r2(p) = 27p2 + 12
r3(p)
r3(p)
r2(p)=
20p3 + (65/2)p
27p2 + 12=
20
27p+
r1(p) = (1275/54)p
r2(p)
r2(p)
r1(p)=
27p2 + 12
(1275/54)p=
1458
1275p+
r0(p) = 12
r1(p)
r1(p)
r0(p)=
(1275/54)p
12=
1275
648p
Colocando na forma final da expansao, tem-se
D5(p)
D4(p)=
1
8p+
12
5p+
120
27p+
11458
1275p+
11275
648p
e portanto o polinomio tem raızes com parte real negativa. E interessante notar que os valores deσk, k = 1, . . . , 5 tem relacao com os valores da primeira coluna da tabela de Routh, isto e, σ1 e oelemento da linha 1 dividido pelo da linha 2, σ2 e o da linha 2 pela linha 3, e assim sucessivamente.
Note tambem que os demais valores da tabela aparecem nos coeficientes dos polinomios obtidoscomo resto das divisoes.
A tabela de Routh pode tambem informar o numero de raızes com parte real positiva.
Propriedade 19.7Se nao ocorrer nenhum zero na primeira coluna da tabela de Routh, o numero de mudancas de sinale igual ao numero de raızes do polinomio com parte real positiva.
A ocorrencia de um zero indica que o polinomio nao e Hurwitz e a tabela nao pode ser completada.Nesses casos, duas tecnicas podem ser utilizadas (veja [1] para maiores detalhes):
i) trocar o zero por ǫ, completar a tabela e estudar o sinal dos coeficientes quando ǫ→ 0+;
ii) estudar o polinomio pmD(1/p) (isto e, o polinomio definido pelos coeficientes lidos na ordeminversa), que possui o mesmo numero de raızes com parte real positiva que D(p), pois se λk,k = 1, . . . ,m sao as raızes de D(p), tem-se
pmD(1/p) =m∏
k=1
(1/p− λk)p =m∏
k=1
(1− λkp)
cujas raızes sao 1/λk. Note que se para raızes complexas, por exemplo, λ = α+ jβ, tem-se
1
λ=
α− jβα2 + β2
e portanto o sinal da parte real nao se altera.
Exemplo 19.10Considere o polinomio
D(p) = p5 + p4 + 2p3 + 2p2 + 3p+ 15
A tabela de Routh e dada por
Bonatti, Lopes & Peres
19.2. Estabilidade do Estado 299
p5 1 2 3
p4 1 2 15
p3 ǫ -12
p2 (2ǫ+ 12)/ǫ 15
p1 −12− 15ǫ2/(2ǫ+ 12)
p0 15
Quando ǫ → 0+, os sinais da primeira coluna sao +, +, +, +, − e +, indicando a existencia deduas raızes com parte real positiva. De fato, as raızes sao (aproximadamente)
−1.70 , −0.68± j1.71 , 1.03± j1.24
O mesmo resultado pode ser obtido pela analise de pmD(1/p), dado por
15p5 + 3p4 + 2p3 + 2p2 + p+ 1
cuja tabela de Routh e
p5 15 2 1
p4 3 2 1
p3 -8 -4
p2 0.5 1
p1 12
p0 1
⋄
19.2 Estabilidade do Estado
A estabilidade do estado (ou estabilidade interna) e definida pelo comportamento das trajetorias dovetor de estados para entrada constante (em geral nula) e condicoes iniciais em torno do ponto deequilıbrio (estabilidade local).
Considere o sistema autonomo
v = f(v)
cujos pontos de equilıbrio sao dados por
f(v) = 0
Um ponto de equilıbrio pode ser estavel (assintoticamente ou nao) ou instavel.
Definicao: estabilidade de um ponto de equilıbrio
O ponto de equilıbrio v e estavel se, para ǫ > 0, existir α(ǫ) > 0 tal que
‖v(0)− v‖ < α(ǫ) ⇒ ‖v(t)− v‖ < ǫ , ∀t ≥ 0
Definicao: estabilidade assintotica de um ponto de equilıbrio
Bonatti, Lopes & Peres
300 Capıtulo 19. Estabilidade
O ponto de equilıbrio v e assintoticamente estavel se for estavel e, alem disso, se existir α > 0 tal que
‖v(0)− v‖ < α ⇒ limt→+∞
v(t) = v
Propriedade 19.8O sistema linear autonomo
v = Av
e globalmente assintoticamente estavel se e somente se a parte real de todos os autovalores de A fornegativa, pois a solucao do sistema linear e dada por
v(t) = exp(At)v(0)
que e composta pelos modos proprios associados as raızes de ∆(λ) = 0. As raızes ∆(λ) = 0 sao osautovalores da matriz A.
⋄
Propriedade 19.9Lyapunov
O ponto de equilıbrio v = 0 e assintoticamente estavel se existir um domınio Ω contendo a origem euma funcao escalar ψ(v) diferenciavel tal que
ψ(0) = 0 , ψ(v) > 0 ∀v ∈ Ω− 0 e ψ(v) =d
dtψ(v) < 0 ∀v ∈ Ω− 0
⋄
Observe que a Propriedade 19.9 depende da escolha da funcao ψ(v) e e apenas suficiente para aestabilidade assintotica. Frequentemente, busca-se para ψ(v) uma forma quadratica dada por
ψ(v) = v′Pv
sendo P ∈ Rn×n uma matriz simetrica definida positiva, isto e, matriz com todos os autovalores reais
e positivos.
A derivada da funcao de Lyapunov e dada por
ψ(v) = v′Pv + v′P v = f(v)′Pv + v′Pf(v)
e o teste de estabilidade consiste na analise do sinal de ψ(v), isto e, o sistema e assintoticamenteestavel se ψ(v) < 0,∀v 6= 0.
Exemplo 19.11O sistema escalar
v = −v3
e assintoticamente estavel em Ω = R (portanto e globalmente assintoticamente estavel), pois paraψ(v) = v2,
ψ(0) = 0 , ψ(v) > 0 ∀v 6= 0 e ψ(v) = 2vv = −2v4 < 0 ∀v 6= 0
De fato, para v(0) > 0, tem-se
Bonatti, Lopes & Peres
19.2. Estabilidade do Estado 301
dv
v3= −dt ⇒ 1
2dv−2 = dt
e portanto
v(t) =1
√
1 + 2tv(0)2v(0)
Exemplo 19.12Considere o circuito mostrado na Figura 19.1 cujas equacoes sao
v1 = Cv2 +v2R
; x = Lv1 + v2
R
++
−− C
L
x v2
v1
Figura 19.1: Circuito RLC.
Definindo y = v2 e usando o operador derivada no tempo p =d
dt, tem-se
(
p2 +1
RCp+
1
LC
)
y =1
LCx
Para condicoes iniciais nulas, o sistema e linear e invariante no tempo. Os pontos de equilıbriopodem ser obtidos das equacoes de estado impondo-se que as derivadas das variaveis de estado saonulas. Para a entrada x = 0 (sistema autonomo), tem-se como ponto de equilıbrio v1 = 0, v2 = 0.
Observe que, para parametros R, L e C positivos, a energia armazenada no circuito (magnetica eeletrica) decresce assintoticamente.
ψ =1
2Lv2
1 +1
2Cv2
2 ⇒ ψ = Lv1v1 + Cv2v2
A funcao energia ψ(v1, v2) e uma funcao de Lyapunov do sistema, pois e positiva para (v1, v2) 6=(0, 0). Alem disso, substituindo as derivadas, obtem-se
ψ = −v22
R< 0 para v2 6= 0 e v1 qualquer
indicando que o sistema e assintoticamente estavel (tende ao ponto de equilıbrio v1 = v2 = 0).Observe que a derivada da energia e a potencia dissipada no resistor.
Bonatti, Lopes & Peres
302 Capıtulo 19. Estabilidade
Exemplo 19.13Considere um pendulo composto por uma haste rıgida sem peso, de comprimento ℓ, oscilando emum plano vertical, sujeito ao atrito de friccao no engate e sustentando na extremidade livre umamassa m. Denotando por y o angulo com a vertical (em repouso, y = 0), tem-se a equacao
mℓy = −mgsen(y)−mby
sendo g a aceleracao da gravidade e b o coeficiente de atrito. A forca longitudinal na barra e dadapor mg cos(y).
Trata-se de um sistema nao-linear estavel em relacao ao ponto de equilıbrio (y = 0, y = 0), pois aenergia (potencial mais cinetica), dada por
ψ(y, y) = mg(ℓ− ℓ cos(y)) +1
2m(ℓy)2
possui derivada negativa para todo y e y 6= 0, dada por
ψ = −mbℓy2
Propriedade 19.10Desigualdade de Lyapunov
O sistema linear autonomo
v = Av
e assintoticamente estavel se e somente se existir P = P ′ > 0 tal que
A′P + PA < 0 (definida negativa)
Prova: a suficiencia e consequencia da escolha da funcao de Lyapunov
ψ(v) = v′Pv ⇒ ψ(v) = v′Pv + v′P v = v′(A′P + PA)v
e, portanto,
ψ(v) > 0 e ψ(v) < 0 , v 6= 0 ⇒ P > 0 , A′P + PA < 0
Note que A′P + PA e uma matriz simetrica.
⋄
A determinacao de uma matriz simetrica definida positiva P que satisfaz a desigualdade acima podeser feita pela solucao da equacao de Lyapunov
A′P + PA = −Qcom Q = Q′ > 0 arbitraria, por exemplo, igual a matriz identidade.
Para qualquer matriz Q = Q′ > 0, a solucao da equacao de Lyapunov e unica e definida positiva se esomente se todos os autovalores da matriz A tiverem parte real negativa.
A propriedade a seguir fornece procedimentos para determinar se uma matriz e definida positiva.
Bonatti, Lopes & Peres
19.2. Estabilidade do Estado 303
Propriedade 19.11Matriz definida positiva
Uma matriz simetrica P ∈ Rn×n e definida positiva se e somente se qualquer uma das condicoes for
verificada.
• v′Pv > 0, ∀v ∈ Rn, v 6= 0;
• Todos os autovalores sao positivos;
• Todos os menores principais lıderes sao positivos;
• Existe R ∈ Rn×n nao singular tal que P = R′R.
Note que uma condicao necessaria para que uma matriz seja definida positiva e que todos os elementosda diagonal sejam positivos.
Uma matriz simetrica Q ∈ Rn×n e definida negativa se −Q for definida positiva.
⋄
Exemplo 19.14Considere o sistema
v =
[0 1−2 −3
]
v
Pela solucao da equacao de Lyapunov
A′P + PA = −I
tem-se
[0 1−2 −3
]′ [p1 p2
p2 p3
]
+
[p1 p2
p2 p3
] [0 1−2 −3
]
=
[−1 00 −1
]
[−4p2 p1 − 3p2 + 2p3
p1 − 3p2 + 2p3 2p2 − 6p3
]
=
[−1 00 −1
]
⇒ P =1
4
[5 11 1
]
Os menores principais lıderes de P sao 1.25 e 0.25, e portanto a matriz P e definida positiva,indicando que o sistema e assintoticamente estavel.
Exemplo 19.15Considere o sistema
v =
[−3 00 3
]
v
A′P + PA = −6I ⇒ P =
[1 p2
p2 −1
]
Os menores principais lıderes sao 1 e −1 − p2, indicando que o sistema nao e assintoticamenteestavel.
Bonatti, Lopes & Peres
304 Capıtulo 19. Estabilidade
Propriedade 19.12O sistema linear autonomo
v = Av
e globalmente estavel se e somente se a parte real de todos os autovalores de A for negativa ou nula,e os blocos de Jordan associados aos autovalores com parte real nula forem de ordem 1.
⋄
Exercıcio 19.1
Determine se o polinomio D(p) possui ou nao todas as raızes com parte real negativa.
D(p) = p4 + 2p3 + 6p2 + 4p+ 1
Solucao:
Como a tabela de Routh e dada por
p4 1 6 1p3 2 4p2 4 1p1 3.5p0 1
e todos os elementos sao positivos, o polinomio possui todas as raızes com parte real negativa.
O mesmo resultado pode ser obtido da Expansao de Stieltjes
D4(p)
D3(p)=p4 + 6p2 + 1
2p3 + 4p=
1
2s+
11
2p+
18
7p+
17
2p
σ1 =1
2; σ2 =
1
2; σ3 =
8
7; σ4 =
7
2
Exercıcio 19.2
Um sistema linear e descrito pela equacao diferencial
v =
0 0 00 0 00 0 0
v +
111
x
y =[
1 1 1]v
a) O sistema e estavel (no sentido de Lyapunov)?
b) O sistema e assintoticamente estavel?
c) O sistema e BIBO-estavel?
Bonatti, Lopes & Peres
Parte III
Apendices
305
Apendice A
Notacao
• Escalares e vetores (reais ou complexos) sao representados por letras latinas ou gregas minusculas
a, b, c, . . . , x, y, z, . . . , α, β, γ, . . . ,
• Letras maiusculas latinas, em geral, representam matrizes
A,B,C, . . . ,X, Y, Z
Excecoes: N designa o perıodo fundamental de um sinal discreto e T designa o perıodo funda-mental de um sinal contınuo
• A matriz identidade e denotada por I (as dimensoes sao inferidas pelo contexto).
• Letras caligraficas maiusculas representam conjuntos definidos no texto
A,B, C, . . . ,X ,Y,Z
• Letras com traco duplo (geradas pelo comando \mathbb do LATEX) representam variaveis aleatorias
X,Y,W, . . . ,
• Algumas letras com traco duplo denotam conjuntos de uso comum
R numeros reais
C numeros complexos
Z numeros inteiros
N numeros naturais (inteiros positivos e o zero)
Z+ numeros inteiros positivos
Rn vetores reais de dimensao n
Outros conjuntos especiais:
N = 0, 1, 2, . . . , N − 1 ou qualquer conjunto de N inteiros consecutivos
• Funcoes com domınio em conjuntos contınuos apresentam a variavel independente entre parenteses
f(t), x(t), X(z), H(s), . . .
• Funcoes com domınio em conjuntos discretos apresentam a variavel independente entre colchetes
f [n], x[k], . . .
306
307
• Coeficientes das projecoes e das series de Fourier sao denotados por letras minusculas comsubscritos
ak, bk, ck . . . , k ∈ Z
e podem, eventualmente, ser escritos como
a[k], b[k], c[k] . . . , k ∈ Z
• Domınios das funcoes sao representados pela letra Ω subscrita pela letra que designa a funcao
Ωx,Ωx1, . . .
• Operadores sao representados por letras caligraficas (geradas pelo comando \mathcal do LATEX),com operandos entre chaves
EX esperanca matematica de X
Gx(t) sistema com entrada x(t)
Fx(t) transformada de Fourier de x(t)
Lx(t) transformada de Laplace de x(t)
Zx[n] transformada Z de x[n]
Zp[n] transformada Zeta de p[n]
FSx[n]N serie de Fourier de x[n] (perıodo N)
• A combinacao de n termos m a m e denotada por
(nm
)
=n!
m!(n−m)!, 0 ≤ m ≤ n , m, n ∈ N
• A funcao degrau e denotada por u(t) e a funcao impulso por δ(t) para sinais contınuos, ourespectivamente u[n] e δ[n]
u(t > 0) = 1, u(t ≤ 0) = 0 ; δ(t) =d
dtu(t)
u[n ≥ 0] = 1, u[n < 0] = 0 ; δ[n] = u[n+ 1]− u[n]
• A funcao gate, denotada por GT (t), T > 0, e definida por
GT (t) = u(t+ T/2)− u(t− T/2)
• A funcao sinal e definida como
sinal(v) =
1 , v > 0−1 , v < 0
e pode ser denotada em termos da funcao degrau, isto e,
sinal(t) = u(t)− u(−t) = 2u(t)− 1
• A funcao TriT (t), T > 0, e definida por
TriT (t) = (2t/T + 1)GT/2(t+ T/4) + (1− 2t/T )GT/2(t− T/4)
Bonatti, Lopes & Peres
308 Capıtulo A. Notacao
• Probabilidades de variaveis aleatorias discretas sao denotadas por Pr como, por exemplo,
PrX = 1 = p
a probabilidade da variavel aleatoria X valer 1 e igual a p, 0 ≤ p ≤ 1.
• Densidades de probabilidade de variaveis aleatorias contınuas sao denotadas como funcoes comsubscrito indicando a variavel aleatoria. Por exemplo, pT(t) e a densidade de probabilidade davariavel T computada no valor amostral t
• Complexo conjugado
z = a+ jb , a, b ∈ R , j =√−1 ⇒ z∗ = a− jb
|z| =√
a2 + b2 (modulo) , ∠z = arctan(b/a) ∈ [−π/2, π/2] (fase)
• As partes real e imaginaria de um numero complexo sao denotadas por
Re(z) =z + z∗
2, Im(z) =
z − z∗2j
• O sımbolo < > representa a soma no caso discreto e a integral no caso contınuo, cujos intervalossao definidos no contexto.
• O produto escalar dos vetores v ∈ Cn e w ∈ C
n e denotado por
< vw∗ >=n∑
i=1
viw∗i , < vw∗ >∈ C
• O produto escalar dos sinais v(t) ∈ Cn e w(t) ∈ C
n e denotado por
< vw∗ >=
∫
Ωv(β)w(β)∗ , < vw∗ >∈ C
• Sinais ou vetores ortogonais (o sımbolo ⊥ denota ortogonalidade) sao definidos em termos doproduto escalar
v ⊥ w ⇔ < vw∗ >= 0
• A norma quadratica de um vetor v ∈ Cn e representada por ‖v‖, e dada por
‖v‖ =
√√√√
n∑
i=1
|vi|2
sendo |vi| o modulo da i-esima componente do vetor.
Observe que ‖v‖2 =< vv∗ >.
• O determinante de uma matriz quadrada A ∈ C e denotado por det(A)
• O operador ∗ denota convolucao entre dois sinais
x[n] = x1[n] ∗ x2[n] =+∞∑
k=−∞
x1[k]x2[n− k] , x(t) = x1(t) ∗ x2(t) =
∫ +∞
−∞x1(β)x2(t− β)dβ
Bonatti, Lopes & Peres
309
• O operador ⊛ denota convolucao periodica entre dois sinais periodicos
x[n] = x1[n] ⊛ x2[n] =∑
k∈N
x1[k]x2[n− k]
• O trem periodico de impulsos, de perıodo N , e denotado por
δN [n] =
+∞∑
ℓ=−∞
δ[n− ℓN ]
• O sımbolo
∫
T
indica que o intervalo de integracao e T e, no caso de sinais periodicos de perıodo fundamentalT , que o valor inicial da integracao e arbitrario.
• Funcao integral de uma funcao
Ix(t) =
∫ t
−∞x(β)dβ
• Funcao sampling
Sa(β) =sen(β)
β
Note que
limβ→0
Sa(β) = 1
• A expressao
dm
dxmf(x) , m ∈ N
denota a derivada de ordem m para m ∈ Z+ e denota f(x) para m = 0.
• O operador
(
zd
dz
)m
F (z)
consiste na aplicacao, repetida m vezes, da operacao combinada de derivar F (z) em relacao a ze multiplicar o resultado por z. Por exemplo, para m = 2,
(
zd
dz
)2
F (z) = zd
dz
(
zd
dzF (z)
)
• A derivada de ordem m em relacao ao tempo e denotada
x(m)(t) =dm
dtmx(t) = pmx(t) , m ∈ N
sendo p o operador derivada. Note que x(0)(t) = p0x(t) = x(t).
Bonatti, Lopes & Peres
310 Capıtulo A. Notacao
• Deslocamento (avanco) de ordem k, k ∈ N em relacao ao tempo
pkx[n] = x[n+ k]
sendo p o operador deslocamento.
• Equacao caracterıstica da matriz A
∆(λ) = det(λI−A) = 0
sendo ∆(λ) o polinomio caracterıstico de A.
• Funcao de Lyapunov e uma funcao escalar associada ao estado v ∈ Rn de um sistema, denotada
no Capıtulo 19 por
ψ(v)
• A matriz fundamental de um sistema linear variante no tempo v = A(t)v e dada por
Ψ(t) =[ψ1(t) ψ2(t) · · · ψn(t)
]⇒ Ψ(t) = A(t)Ψ(t)
sendo ψk(t), k = 1, . . . , n funcoes vetoriais linearmente independentes.
Bonatti, Lopes & Peres
Apendice B
Fundamentos
Expansao em Fracoes Parciais
Seja a funcao racional em s descrita porN(s)
D(s)
Caso 1: Grau de N(s) < Grau de D(s)
a) D(s) nao tem raızes multiplas.
s+ 1
s3 + s2 − 6s=
s+ 1
s(s− 2)(s+ 3)=a
s+
b
s− 2+
c
s+ 3
a = sN(s)
D(s)
∣∣∣∣s = 0
= −1
6; b = (s− 2)
N(s)
D(s)
∣∣∣∣s = 2
=3
10; c = (s+ 3)
N(s)
D(s)
∣∣∣∣s = −3
= − 2
15
Alternativamente, e possıvel usar identidade polinomial para o calculo das constantes a determinar.
b) D(s) com raızes multiplas.
s+ 1
s(s− 2)3=a
s+
b
(s− 2)+
c
(s− 2)2+
d
(s− 2)3
a = sN(s)
D(s)
∣∣∣∣s = 0
= −1
8; d = (s− 2)3
N(s)
D(s)
∣∣∣∣s = 2
=3
2
c =d
ds
(
(s− 2)3N(s)
D(s)
)∣∣∣∣s = 2
=d
ds
(s+ 1
s
)∣∣∣∣s = 2
= − 1
s2
∣∣∣∣s = 2
= −1
4
pois
d
ds
(a(s− 2)3
s+ b(s− 2)2 + c(s− 2) + d
)∣∣∣∣s = 2
= c
2b =d2
ds2
(
(s− 2)3N(s)
D(s)
)∣∣∣∣s = 2
=2
s3
∣∣∣∣s = 2
=1
4
pois
d2
ds2
(a(s− 2)3
s+ b(s− 2)2 + c(s− 2) + d
)∣∣∣∣s = 2
= 2b
311
312 Capıtulo B. Fundamentos
Caso 2: Grau de N(s) ≥ Grau D(s)
Reduz-se ao caso anterior por meio da divisao de polinomios.
(s+ 2)3
(s+ 1)=s3 + 6s2 + 12s+ 8
s+ 1
s3 + 6s2 + 12s+ 8 / s + 1
s3 + s2 s2 + 5s+ 7
5s2 + 12s+ 85s2 + 5s
7s+ 87s+ 7
+ 1
(s+ 2)3
s+ 1= s2 + 5s+ 7 +
1
s+ 1
Numeros Complexos
Definicao: Complexo Conjugado
z = a+ jb , a, b ∈ R , j =√−1 ⇒ z∗ = a− jb
Propriedade B.1Para z ∈ C, z = a+ jb
z + z∗ = 2a ∈ R , zz∗ = a2 + b2 = |z|2 ∈ R
⋄
Propriedade B.2
z = z∗ ⇒ z ∈ R ; z∗ = −z ⇒ Real(z) = 0
⋄
Propriedade B.3Euler1
exp(jθ) = cos(θ) + jsen(θ) , θ ∈ R , j =√−1
cos(θ) =1
2exp(jθ) +
1
2exp(−jθ) . sen(θ) =
1
2jexp(jθ)− 1
2exp(−jθ)
⋄1Leonhard Euler, matematico suico (1707–1783).
Bonatti, Lopes & Peres
313
Definicao: Cırculo Trigonometrico Unitario
O lugar geometrico no plano dos complexos da funcao
exp(jθ) , θ ∈ (−π, π]
e denominado cırculo trigonometrico unitario.
Propriedade B.4de Moivre2
(
exp(jθ))β
= exp(jβθ) ⇒(
cos(θ) + jsen(θ))β
= cos(βθ) + jsen(βθ) , β, θ ∈ R
⋄
Cholesky
A transformacao de Cholesky aplicada a matriz R (simetrica definida positiva) produz L triangularinferior que satisfaz R = LL′, com ℓi,i > 0 ; i = 1, . . . , n
A equacao LL′ = R resulta emn∑
k=1
ℓi,kℓj,k = ri,j ; i, j = 1, 2, . . . , n
Como ℓj,k = 0 para k > j (L e triangular inferior), tem-se:
j∑
k=1
ℓi,k ℓj,k = ri,j
Para j = 1 tem-se ℓ1,1 ℓi,1 = ri,1 =⇒ ℓi,1 =ri,1√r1,1
e para i ≥ j ≥ 2 tem-se ℓj,j ℓi,j = ri,j −j−1∑
k=1
ℓi,kℓj,k
Algoritmo: [L] = Cholesky(R)
n=size(R,1)
L=zeros(size(R));
for j = 1 : n
a(j : n, 1) = R(j : n, j)
for k = 1 : j − 1
a(j : n, 1) = a(j : n, 1)− L(j, k) ∗ L(j : n, k)
end
L(j : n, j) = a(j : n, 1)/√
a(j, 1)
end
A inversa Q de uma matriz triangular inferior L e uma matriz triangular inferior.
O calculo de Q se faz de maneira recorrente: qi,i = ℓ−1i,i e para j < i ;
i∑
k=1
ℓi,k qk,j = 0
2Abraham de Moivre, matematico frances (1667–1754).
Bonatti, Lopes & Peres
314 Capıtulo B. Fundamentos
Exemplo B.1Considere a matriz de correlacao R dada por:
R =
[4 55 7
]
= LL′ ⇒ L =
[2 0
2.5 0.866
]
⇒ Q = L−1 =
[0.500 0−1.443 1.155
]
Exemplo B.2Considere a matriz de correlacao R dada por:
R =
9 3 33 5 33 3 3
= LL′ ⇒ L =
3 0 01 2 01 1 1
⇒ Q = L−1 =
1/3 0 0−1/6 1/2 0−1/6 −1/6 1
Bonatti, Lopes & Peres
Apendice C
Propriedades de Matrizes
Definicao: Operacoes com Matrizes
Considere A ∈ Rm×n, B ∈ R
m×n e C ∈ Rn×ℓ, com elementos aij , bij e cij denotadas
A = [aij ] , B = [bij ] , C = [cij ]
αA = [αaij ] , A+B = [aij + bij ] , A′ = [aji] ∈ Rn×m
AC = [n∑
k=1
aikckj ] ∈ Rn×ℓ
Propriedade C.1Transposta do produto
Considere A ∈ Rm×n e B ∈ R
n×ℓ. Entao,
(AB)′ = B′A′
⋄
Definicao: Conjunto Imagem ou Range da matriz A
E o conjunto de vetores y tais que Ax = y para todo x, denotado R(A)
R(A) =
y ∈ Rm : y = Ax, x ∈ R
n
Definicao: Posto ou Rank da matriz A
E o numero de vetores linearmente independentes no R(A), denotado rank(A).
Propriedade C.2Dada uma matriz A ∈ R
m×n, tem-se:
• rank(A) e o numero de colunas linearmente independentes de A.
• rank(A) e o numero de linhas linearmente independentes de A.
• rank(A) ≤ minm,n.
315
316 Capıtulo C. Propriedades de Matrizes
⋄
Definicao: matriz de rank completo
Uma matriz A e de rank completo quando rank(A) e igual a menor das dimensoes de A.
Definicao: Espaco nulo da matriz A
E o conjunto de vetores x tais que Ax = 0, denotado N (A)
N (A) =
x ∈ Rn : Ax = 0
A dimensao de N (A) (numero de vetores linearmente independentes que satisfaz Ax = 0) e chamadade nulidade de A.
Propriedade C.3Dada uma matriz A ∈ R
m×n, a nulidade de A e dada por n− rank(A) e, portanto, a nulidade e maiorou igual a zero.
⋄
Propriedade C.4O rank de uma matriz A ∈ R
m×n nao e alterado pela pre-multiplicacao ou pos-multiplicacao pormatriz nao singular, isto e,
rank(A) = rank(AQ) = rank(TA) , Q, T nao singulares
⋄
Definicao: Sistema Linear de Equacoes
O sistema
Ax = b
com x ∈ Rn e b ∈ R
m pode possuir uma unica, nenhuma ou infinitas solucoes.
Propriedade C.5Sistema Consistente
Um sistema linear Ax = b possui solucao se e somente se b ∈ R(A), isto e,
rank([A b
]) = rank(A)
sendo[A b
]a matriz de dimensao R
m×(n+1) composta pela matriz A e pelo vetor coluna b.
⋄
Propriedade C.6Considere um sistema linear consistente Ax = b, com A ∈ R
m×n
• se n = rank(A) (o espaco nulo e um conjunto vazio), o sistema possui uma unica solucao.
Bonatti, Lopes & Peres
317
• se n > rank(A), o sistema possui infinitas solucoes.
⋄
Propriedade C.7Um sistema linear consistente Ax = b com uma unica solucao pode ser resolvido pelo metodo deeliminacao de Gauss.1
⋄
Matrizes Quadradas
Considere matrizes quadradas A ∈ Rn×n, B ∈ R
n×n
Definicao: autovalores e autovetores
O escalar λ ∈ C e um autovalor (ou valor proprio) da matriz quadrada A ∈ Rn×n se existir v 6= 0 tal
que
Av = λv
Qualquer vetor v ∈ Rn que satisfaz a equacao Av = λv e chamado de autovetor (ou autovetor a
direita) associado ao autovalor λ.
Qualquer vetor v ∈ Rn que satisfaz a equacao v′A = λv′ e chamado de autovetor a esquerda associado
ao autovalor λ.
Observe que os autovetores definem uma direcao no espaco (e nao um comprimento nem um sentido).
Propriedade C.8Autovetores a esquerda e a direita
Para quaisquer dois autovalores distintos da matriz A, o autovetor a esquerda associado a um dosautovalores e ortogonal ao autovetor a direita associado ao outro autovalor, isto e,
Avd = λ1vd ; v′eA = λ2v′e ; λ1 6= λ2 ⇒ v′evd = 0
⋄
Propriedade C.9Expansao de Laplace para determinantes
Determinante no caso escalar n = 1
det([a11]) = a11
Determinante no caso n > 1:
det(A) =n∑
i=1
aijCoij(A) , ∀ j ∈ 1, 2, . . . , n
sendo Coij(A) o cofator de A associado a posicao (i, j) dado por
1Johann Carl Friedrich Gauss (1777–1855), matematico alemao.
Bonatti, Lopes & Peres
318 Capıtulo C. Propriedades de Matrizes
Coij(A) = (−1)i+j det(Aij)
e Aij e a matriz (n − 1) × (n − 1) obtida da matriz A quando suprime-se a linha i e a colunaj. A aplicacao da propriedade de forma recorrente (expansao de Laplace2) permite o calculo dodeterminante de qualquer matriz quadrada.
A matriz quadrada de dimensao n formada pelos cofatores Coij(A) e chamada matriz cofatora de A,denotada Co(A). A transposta da matriz cofatora e a matriz adjunta de A, denotada Adj(A).
Adj(A) = Co(A)′
O determinante de A pode tambem ser calculado como
det(A) =n∑
j=1
aijCoij(A) , ∀ i ∈ 1, 2, . . . , n
⋄
Propriedade C.10Dada uma matriz quadrada A ∈ R
n×n, menor e o determinante de qualquer submatriz quadradaextraıda de A.
Um menor principal e o determinante de qualquer submatriz cuja diagonal esta contida na diagonalda matriz A.
Um menor principal lıder e o determinante da submatriz obtida pela remocao das k ultimas linhas ek ultimas colunas de A, k ∈ 0, 1, . . . n− 1.
⋄
Propriedade C.11
det(aA) = an det(A)
⋄
DefinicaoSe det(A) 6= 0, a matriz A e nao-singular e A−1 (inversa de A) e dada por
A−1 =Adj(A)
det(A)⇒ AA−1 = A−1A = I
Propriedade C.12Inversa de matriz 2 por 2
Para uma matriz nao singular A ∈ R2×2, tem-se
[a bc d
]−1
=1
ad− bc
[d −b−c a
]
⋄2Pierre-Simon Laplace, matematico frances (1749-1827).
Bonatti, Lopes & Peres
319
Propriedade C.13Inversa do produto
Para A e B nao singulares,
(AB)−1 = B−1A−1
⋄
Propriedade C.14Determinante do produto
O determinante do produto de matrizes quadradas e o produto dos determinantes de cada uma dasmatrizes
det(AB) = det(A) det(B)
⋄
Propriedade C.15Determinante da inversa
O determinante da inversa da matriz A e o inverso do determinante de A
det(A−1) =1
det(A)
⋄
Propriedade C.16Determinante de transformacao de similaridade
Para qualquer matriz T nao-singular tem-se
det(B = T−1AT ) = det(A)
A transformacao B = T−1AT e chamada de transformacao de similaridade, e diz-se que a matriz B esimilar a matriz A.
⋄
Definicao: Equacao Caracterıstica
A matriz A possui n autovalores, solucoes da equacao
∆(λ) = det(λI−A) = 0
denominada equacao caracterıstica associada a matriz A, pois
λv −Av = 0 ⇒ (λI−A)v = 0
Para que exista solucao v nao nula o determinante de (λI−A) deve ser nulo.
O polinomio det(λI−A) e monico (coeficiente associado ao λ de maior ordem igual a 1) de grau n, ee denominado polinomio caracterıstico da matriz A.
Bonatti, Lopes & Peres
320 Capıtulo C. Propriedades de Matrizes
Propriedade C.17Transformacoes de similaridade nao alteram os autovalores de uma matriz pois
det(λI− T−1AT ) = det(T−1) det(λI−A) det(T ) = det(λI−A)
⋄
Propriedade C.18Uma matriz com n autovalores distintos possui n autovetores linearmente independentes.
⋄
Propriedade C.19Matrizes diagonalizaveis
Uma matriz com n autovetores linearmente independentes v1, . . . , vn e diagonalizavel pela trans-formacao
T =[v1 v2 · · · vn
]
pois
A[v1 v2 · · · vn
]=[v1 v2 · · · vn
]diag[λ1, λ2, . . . , λn]
⇒ diag[λ1, λ2, . . . , λn] = T−1AT
Se, alem disso, os autovetores forem ortonormais,
T ′T = I ⇒ T−1 = T ′
⋄
Propriedade C.20Forma canonica de Jordan3
Existe T nao-singular tal que
T−1AT = diag[Jk1(λ1), Jk2
(λ2), . . . , Jkr(λr)]
sendo os blocos de Jordan dados por
Jk(λ) =
λ 1 0 · · · 00 λ 1 · · · 0...
.... . .
...
0 0 0. . . 1
0 0 0 λ
com k1 + k2 + · · ·+ kr = n e λi, i = 1, . . . , r sao os autovalores de A (nao necessariamente distintos).
3Marie Ennemond Camille Jordan, matematico frances (1838–1922).
Bonatti, Lopes & Peres
321
A multiplicidade geometrica de um autovalor λ e igual ao numero de autovetores linearmente indepen-dentes associados ao autovalor, ou seja, e a dimensao do espaco nulo de (λI−A)v = 0. A multiplicidadegeometrica e sempre menor ou igual a multiplicidade (algebrica) do autovalor.
A multiplicidade geometrica de um autovalor λ define o numero de blocos de Jordan Jk(λ) associadosa λ
Se, para todo autovalor de A as multiplicidades geometrica e aritmetica forem iguais, a forma deJordan e diagonal e a matriz T e formada pelos autovetores vk, k = 1, . . . , n.
T =[v1 v2 · · · vn
]
Se os n autovalores da matriz A sao distintos, os n autovetores associados sao linearmente indepen-dentes e a forma de Jordan e diagonal.
⋄
Propriedade C.21Matriz companheira
As raızes do polinomio de grau m
D(λ) =m∑
k=0
αkλk
sao tambem autovalores da matriz companheira
0 1 0 · · · 00 0 1 · · · 0...
......
. . ....
0 0 0 · · · 1−α0 −α1 −α2 · · · −αm−1
cuja equacao caracterıstica e ∆(λ) = D(λ) = 0.
⋄
Propriedade C.22O determinante de uma matriz A ∈ R
n×n e o produto dos n autovalores de A
det(A) =n∏
k=1
λk , λk autovalores de A
⋄
Propriedade C.23O determinante de uma matriz quadrada A e igual ao determinante da matriz transposta de A (de-notada A′)
det(A) = det(A′)
⋄
Bonatti, Lopes & Peres
322 Capıtulo C. Propriedades de Matrizes
Propriedade C.24Os autovalores de A sao iguais aos autovalores de A′
⋄
Propriedade C.25Os autovalores de uma matriz triangular (superior ou inferior) sao os elementos da diagonal principale, portanto, o determinante de uma matriz triangular e dado pelo produto dos elementos da diagonalprincipal.Observe que uma matriz diagonal e um caso particular de matriz triangular.
⋄
Definicao: funcao de matriz diagonal
Considere a funcao escalar f(λ) : D ⊂ C→ C e Λ ∈ Cn×n uma matriz diagonal. Entao
f(Λ) = f(diag[λ1, . . . , λn]) = diag[f(λ1), . . . , f(λn)]
A propriedade seguinte expande o calculo de funcao de matrizes para matrizes diagonalizaveis.
Propriedade C.26
f(A) = f(T−1ΛT ) = T−1f(Λ)T
Esse resultado pode ser estendido para matrizes bloco-diagonais.
Para matrizes descritas por blocos de Jordan, a funcao para cada bloco pode ser computada demaneira analıtica, resultando em uma matriz bloco-triangular cujos elementos dependem da funcao edas derivadas da funcao (veja Golub & Van Loan4)
⋄
Propriedade C.27Teorema de Cayley-Hamilton5
Toda matriz A satisfaz sua equacao caracterıstica, isto e,
det(λI−A) = ∆(λ) = 0 ⇒ ∆(A) = 0
⋄
Propriedade C.28Matrizes definidas positivas
Uma matriz simetrica A ∈ Rn×n e definida positiva se e somente se qualquer uma das condicoes for
verificada.
• v′Av > 0, ∀v ∈ Rn, v 6= 0;
• Todos os autovalores sao positivos;
4Matrix Computations, G. H. Golub & C. F. Van Loan, Third Edition, The John Hopkins University Press, 1996.5Arthur Cayley, ingles (1821–1895) e Sir William Rowan Hamilton, irlandes (1805–1865).
Bonatti, Lopes & Peres
323
• Todos os menores principais lıderes sao positivos;
• Existe B ∈ Rn×n nao singular tal que A = B′B.
⋄
Bonatti, Lopes & Peres
Referencias Bibliograficas
[1] J. J. D’Azzo and C. H. Houpis. Feedback Control System Analysis and Synthesis. McGraw-Hill,Tokyo, Japan, 2nd edition, 1966.
[2] R. Seydel. Practical Bifurcations and Stability Analysis. Springer Verlag, New York, NY, 2ndedition, 1994.
324
Indice Remissivo
degrau unitario, 84Desigualdade de Lyapunov, 302
estabilidade assintotica de um ponto de equilıbrio,299
estabilidade de um ponto de equilıbrio, 299Expansao de Stieltjes, 292
Graciliano Ramos, 2
Lyapunov, 300
Matriz definida positiva, 303
polinomio Hurwitz, 291Polinomios Hurwitz, 294
serie de Fourier, 126Sistema BIBO Estavel, 291
Tabela de Routh, 296Teorema de Parseval, 129Teste de Routh-Hurwitz (G. Meinsma), 297Transformada de Fourier, 127
325