Universidade Federal de Campina Grande
Centro de Ciências e Tecnologia
Unidade Acadêmica de Matemática e Estatística
Curso de Graduação em Matemática
Soluções de Sistemas de EquaçõesDiferenciais Lineares
por
Michel Barros Silva
sob orientação do
Prof. Dr. Severino Horácio da Silva
Campina Grande - PB
Novembro de 2011
Universidade Federal de Campina Grande
Centro de Ciências e Tecnologia
Unidade Acadêmica de Matemática e Estatística
Curso de Graduação em Matemática
Michel Barros Silva
Soluções de Sistemas de EquaçõesDiferenciais Lineares
Trabalho apresentado ao Curso de Graduação em Ma-
temática da Universidade Federal de Campina Grande
como requisito parcial para a obtenção do título de Ba-
charel em Matemática.
Orientado por Severino Horácio da Silva
Campina Grande - PB
Curso de Matemática, modalidade Bacherelado
Soluções de Sistemas de EquaçõesDiferenciais Lineares
por
Michel Barros Silva
Trabalho de Conclusão de Curso defendido e aprovado em: 23/11/2011 pela
Comissão Examinadora constituída pelos professores:
Prof. Dr. Severino Horácio da Silva
Orientador
UAME/CCT/UFCG
Prof. Alânnio Barbosa Nóbrega
Examinador
UAME/CCT/UFCG
Com nota igual a
Campina Grande - PB
Novembro/2011
Dedicatória
Aos meus pais, Diogo e Joana, e
aos meus irmãos Diego e Wagner.
iv
Agradecimentos
Inicialmente agradeço aos meus pais, Diogo e Joana. Ao meu pai por todo co-
nhecimento e sabedoria, a minha mãe por todo carinho e cuidado, e a ambos por toda
dedicação, atenção e amor. Um lho não poderia desejar pais melhores.
Aos meus irmãos, Diego e Wagner. A Diego por sempre me fazer ir, não impor-
tando com que humor eu esteja e a Wagner por seu cuidado comigo desde pequeno.
Aos meus amigos: Keytt, Magna, Jamilly, Jonas e Jogli.
A Fabrício e Aline, os meus amigos desde o primeiro período, com quem muito
estudei e me diverti.
A Raquel, Débora e Maria, grandes amigas que eu conheci no curso.
A Lorena com quem eu partilhei os últimos períodos na Universidade, por ter me
ajudado tirando dúvidas, resolvendo exercícios, compartilhando almoços e caminhadas
para o CX.
Ao professor Daniel Cordeiro, pelas as suas orientações em demonstrações mate-
mática e por sempre exigir o melhor de seus alunos.
Ao professor Severino Horácio, meu orientador, por sua orientação, estímulo,
paciência e fé nesses últimos períodos que me deram ânimo para sempre fazer mais e
nunca desistir.
v
Resumo
Neste trabalho usamos exponenciais de matrizes para encontrar soluções de sis-
temas de equações diferenciais lineares com coecientes constantes e estudamos alguns
problemas Hamiltonianos como o modelo de oscilação de uma mola e a interação gra-
vitacional de dois corpos.
vi
Abstract
This Work we used exponential of matrices to nd solution of systems of linear
dierential equations with constant coecients and we study some Hamiltonian pro-
blems like oscillation model of a spring and the gravitational interaction of two bodies
vii
Sumário
1 Preliminares 4
1.1 Teorema do Ponto Fixo de Banach . . . . . . . . . . . . . . . . . . . . 4
1.2 Exponencial de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Sistemas de Equações Diferenciais Lineares 21
2.1 Teorema de Existência e Unicidade . . . . . . . . . . . . . . . . . . . . 21
2.2 Sistemas de Equações Diferenciais Lineares . . . . . . . . . . . . . . . . 24
2.3 Solução de Sistema de Equações Diferenciais Através de Exponencial de
Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Sistemas Hamiltonianos 40
3.1 Sistemas Hamiltonianos . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.1 Colchete de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.2 O Oscilador Harmônico . . . . . . . . . . . . . . . . . . . . . . 44
3.1.3 Oscilador Forçado Não-Linear . . . . . . . . . . . . . . . . . . . 45
3.1.4 Sistema Newtoniano Geral . . . . . . . . . . . . . . . . . . . . . 46
3.1.5 Problema de N corpos . . . . . . . . . . . . . . . . . . . . . . . 47
3.1.6 O Problema de Kepler . . . . . . . . . . . . . . . . . . . . . . . 48
A Conceitos e Resultados da Álgebra Linear 50
A.1 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . 50
A.2 Diagonalização de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 55
A.3 Autovalores e Autovetores Complexos . . . . . . . . . . . . . . . . . . . 58
A.4 Forma Canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 66
Referências Bibliográcas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1
Introdução
O estudo das equações diferenciais começou com os métodos do Cálculo Diferen-
cial e Integral, descobertos por Newton e Leibntiz, para resolver problemas motivados
por considerações físicas e geométricas. Estes métodos, na sua evolução, conduzi-
ram gradualmente à consolidação das Equações Diferenciais como um novo ramo da
Matemática, que em meados do século XVIII se transformou numa das disciplina ma-
temáticas mais importantes e o método mais efetivo para a pesquisa cientíca. As
contribuições de matemáticos ilustres como Euler, Lagrange e Laplace expandiram
notavelmente o conhecimento das equações diferenciais no Cálculo das Variações, na
Mecânica Celeste e na Dinâmica dos Fluidos, (veja [9]).
Inicialmente, procurava-se expressar as soluções em termos de funções elementa-
res. Posteriormente, passou-se a considerar satisfatório expressar a solução na forma de
uma integral (quadratura). Entretanto, logo se vericou que o número de equações que
podiam ser resolvidas em termos de funções elementares era muito pequeno. No século
XIX os fundamentos da Análise Matemática experimentaram uma revisão e reformula-
ção geral visando maior rigor e exatidão, começando a pôr em dúvida certos métodos de
resoluções de equações. Passou-se a considerar como questão prévia em cada problema
a existência e unicidade de soluções satisfazendo dados iniciais. A importância dessa
consideração reside em que, sabendo-se a priori da existência da solução, sua busca se
torna justicável e promissora, uma vez que a solução assim obtida pode ser vericada
a posteriori, (veja [9] e [2]).
Nesse trabalho apresentamos alguns resultados da teoria das Equações Diferenci-
ais Ordinárias, com enfoque no estudo de soluções de sistemas de equações diferenciais
lineares com coecientes constantes, bem como alguns exemplos e aplicações desta
teoria. Esse texto está organizado como segue: no Capítulo 1 apresentamos alguns
conceitos e resultados preliminares que serão utilizados nos capítulos posteriores. No
2
3
Capítulo 2, demonstramos o Teorema de Existência e Unicidade de Solução e traba-
lhamos com sistemas de equações diferenciais lineares com coecientes constante. Para
isso, utizamos o conceito de exponencial de matrizes. No Capítulo 3 fazemos uma
introdução ao estudo dos sistemas lineares Hamiltonianos. Finalmente, no Apêndice,
apresentamos alguns conceitos e resultados básicos da Álgebra Linear.
Capítulo 1
Preliminares
Neste capítulo, apresentamos alguns conceitos e resultados necessários para de-
monstrarmos o Teorema de Existência e Unicidade de solução para o problema de valor
inicial, proposto em [9], e para resolvermos sistemas de equações diferenciais lineares
com coecientes constantes.
1.1 Teorema do Ponto Fixo de Banach
Uma métrica num conjunto X é uma função d : X×X → R, que associa a cada
par ordenado de elementos x, y ∈ X um número real d(x, y), chamado a distância de
x a y, de modo que sejam satisfeitas as seguintes condições para quaisquer x, y, z ∈ X:
d1) d(x, x) = 0;
d2) Se x 6= y, então d(x, y) > 0;
d3) d(x, y) = d(y, x);
d4) d(x, z) ≤ d(x, y) + d(y, z).
Denição 1.1.1. Um espaço métrico é um par (X, d), onde X é um conjunto e d é
uma métrica em X.
Exemplo 1.1.1. Seja X um espaço vetorial munido de uma norma | · |. Então
d : X ×X → R, d(x, y) = |x− y|
4
CAPÍTULO 1. PRELIMINARES 5
é uma métrica sobre X, a qual é chamada de métrica induzida pela norma | · |. De
fato, dados x, y, z ∈ X, temos
d(x, x) = |x− x| = 0.
Se x 6= y, então
d(x, y) = |x− y| > 0.
Temos ainda
d(x, y) = |x− y| = |y − x| = d(y, x).
Finalmente, observe que, pela desigualdade triangular,
d(x, z) = |x− z|≤ |x− y|+ |y − z|= d(x, y) + d(y, z).
Assim
d(x, z) ≤ d(x, y) + d(y, z).
Portanto d é uma métrica de X.
Exemplo 1.1.2. Seja Bb a bola de Rn de centro na origem e raio b e I = [a, b] ⊂ R.Considere X =C (I, Bb) o espaço das funções contínuas ϕ : I → Bb. Dena d :
X ×X → R por,
d(ϕ1, ϕ2) = supt∈I|ϕ1(t)− ϕ2(t)|.
Note que d dene uma métrica em X. De fato, dados ϕ1, ϕ2, ϕ3 ∈ X, temos
d(ϕ1, ϕ1) = supt∈I|ϕ1(t)− ϕ1(t)| = 0.
Se ϕ1 6= ϕ2, então
d(ϕ1, ϕ2) = supt∈I|ϕ1(t)− ϕ2(t)| > 0.
Temos ainda
d(ϕ1, ϕ2) = supt∈I|ϕ1(t)− ϕ2(t)|
= supt∈I|ϕ2(t)− ϕ1(t)|
= d(ϕ2, ϕ1).
Finalmente, observe que, pela desigualdade triangular, para todo t ∈ I
|ϕ1(t)− ϕ3(t)| ≤ |ϕ1(t)− ϕ2(t)|+ |ϕ2(t)− ϕ3(t)|,
CAPÍTULO 1. PRELIMINARES 6
donde, calculando o supremo, obtemos
supt∈I|ϕ1(t)− ϕ3(t)| ≤ sup
t∈I(|ϕ1(t)− ϕ2(t)|+ |ϕ2(t)− ϕ3(t)|)
≤ supt∈I|ϕ1(t)− ϕ2(t)|+ sup
t∈I|ϕ2(t)− ϕ3(t)|.
Assim
d(ϕ1, ϕ3) ≤ d(ϕ1, ϕ2) + d(ϕ2, ϕ3).
Portanto d é uma métrica em X.
Denição 1.1.2. Um ponto xo de uma aplicação f : X → X é um ponto x ∈ Mtal que f(x) = x.
Exemplo 1.1.3. Toda função contínua f : [0, 1] → [0, 1] possui um ponto xo. De
fato, considere a função contínua ϕ : [0, 1]→ R, dada por
ϕ(x) = f(x)− x.
Como 0 ≤ f(x) ≤ 1 para todo x ∈ [0, 1], segue-se que
ϕ(0) = f(0) ≥ 0 e ϕ(1) = f(1)− 1 ≤ 0.
Pelo Teorema do Valor Intermediário (veja [5]), existe x ∈ [0, 1] tal que ϕ(x) = 0, isto
é, f(x) = x.
Denição 1.1.3. Sejam X, Y espaços métricos. Uma aplicação f : X → Y chama-se
um contração quando existe uma constante c, com 0 ≤ c < 1, tal que
d(f(x), f(y)) ≤ c · d(x, y)
para quaisquer x, y ∈ X.
Exemplo 1.1.4. Seja U ⊂ Rn aberto e convexo. Se f : U → Rn é uma aplicação
diferenciável tal que |f ′(x)| ≤ c < 1 para todo x ∈ U e algum c ∈ R, pela Desigualdade
do Valor Médio, (veja [6]),
|f(x)− f(y)| ≤ |f ′(x)| |x− y|≤ c|x− y|.
Portanto f é uma contração.
Denição 1.1.4. Uma sequência (xn) num espaço métrico M chama-se uma sequên-
cia de Cauchy quando, para todo ε > 0 dado, existe n0 ∈ N tal que
m,n > n0 ⇒ d(xm, xn) < ε.
CAPÍTULO 1. PRELIMINARES 7
Denição 1.1.5. Diz-se que o espaço métrico X é completo quando toda sequência
de Cauchy em X converge para um elemento de X. Um espaço vetorial normado que
é completo, com a métrica induzida pela norma, chama-se um espaço de Banach.
Exemplo 1.1.5. Um subespaço fechado de um espaço métrico completo é completo.
De fato, seja F ⊂M fechado, com M completo. Dada uma sequência de Cauchy (xn)
em F , existe limxn = a ∈ M . Como F é fechado em M , tem-se a ∈ F . Logo F é
completo.
Exemplo 1.1.6. O espaço X =C (I, Bb) das funções contínuas denidas como no
Exemplo 1.1.2 é um espaço métrico completo. Com efeito, seja ϕn uma seguência de
Cauchy em X. Então, dado ε > 0, existe n0 ∈ N tal que para todo m,n ≥ n0,
d(ϕm(t), ϕn(t)) < ε,
ou seja,
supt∈I|ϕm(t)− ϕn(t)| < ε.
Daí,
|ϕm(t)− ϕn(t)| < ε, ∀ t ∈ I.
Logo (ϕ1(t), ϕ2(t), · · · ) é uma sequência de Cauchy em Bb. Como Bb é um subespaço
métrico fechado do espaço métrico completo Rn, Bb é um espaço completo. Assim
existe ϕt ∈ Bb tal que ϕm(t) → ϕt, quando t → ∞. Considere a função ϕ : I → Bb,
dada por
ϕ(t) = ϕt = limn→∞
ϕn(t)
Armamos que:
i) ϕ ∈ X;
ii) ϕn → ϕ.
De fato, sendo ϕn funções contínuas de I em Bb é fácil ver que ϕ : I → Bb é uma
função contínua. Além disso, dado t ∈ I, temos
|ϕn(t)− ϕ(t)| = |ϕn(t)− ϕt|,
onde, para n sucientemente grande, segue que,
|ϕn(t)− ϕt| < ε.
Como vale para todo t ∈ I, obtemos
supt∈I|ϕn(t)− ϕ(t)| < ε,
isto é,
d(ϕn(t), ϕ(t)) < ε.
Portanto X é um espaço métrico completo.
CAPÍTULO 1. PRELIMINARES 8
Teorema 1.1.1 (Teorema de Banach). Se X é um espaço métrico completo, toda
contração f : X −→ X possui um único ponto xo em X. Mais precisamente, se
escolhermos um ponto qualquer x0 ∈ X e pusermos
x1 = f(x0), x2 = f(x1), . . . , xn+1 = f(xn), . . .
a sequência (xn) converge em X e a = limxn é o único ponto xo de f .
Demonstração. Provemos inicialmente a unicidade. Se f(a) = a e f(b) = b, como f é
uma contração, temos
d(a, b) = d(f(a), f(b)) ≤ c · d(a, b),
ou seja,
(1− c) · d(a, b) ≤ 0.
Como 1−c > 0, concluímos que d(a, b) = 0, isto é, a = b. Provemos agora a existência,
para isso, provemos que (xn) é uma sequência de Cauchy em X. Ora
d(x1, x2) = d(f(x0), f(x1)) ≤ c · d(x0, x1),
d(x2, x3) = d(f(x1), f(x2)) ≤ c · d(x1, x2) ≤ c2 · d(x0, x1)
e, por recorrência, temos
d(xn, xn+1) ≤ cn · d(x0, x1), ∀n ∈ N.
Então para n, p ∈ N quaisquer, segue que
d(xn, xn+p) ≤ d(xn, xn+1) + d(xn+1, xx+2) + . . .+ d(xn+p−1, xn+p)
≤ [cn(1 + c+ . . .+ cp−1)] · d(x0, x1)
≤ cn
1− c· d(x0, x1).
Calculando o limite quando n→∞, obtemos
limn→∞
d(xn, xn+p) ≤ limn→∞
cn
1− c· d(x0, x1).
Como
limn→∞
cn = 0,
então
limn→∞
d(xn, xn+p) = 0,
concluindo que (xn) é uma sequência de Cauchy em X. Logo existe a ∈ X tal que
limn→∞ xn = a. Provemos que a é ponto xo de F . De fato, como f é contínua, temos
f(a) = f(limxn)
= lim f(xn)
= limxn+1
= a,
o que conclui a demonstração.
CAPÍTULO 1. PRELIMINARES 9
Corolário 1.1.1. Seja X um espaço métrico completo. Se F : X −→ X é contínua e,
para algum m, Fm é uma contração, então existe um único ponto p xo por F . Mais
ainda, p é um atrator de F , isto é, Fm(x)→ p quando n→∞. Onde Fm(x) é denido
por F (Fm−1(x)).
Demonstração. Seja p o ponto xo atrator de Fm dado pelo Teorema de Banach. Seja
n = mk + l com 0 ≤ l < m. Dado x ∈ X, F l(x) é um ponto de X. Como p é atrator
de Fm(x), temos [Fm]k(F l(x))→ p, quando k →∞, pois F l(j), 0 ≤ l < m é nito.
Da relação F n(x) = [Fm]k(F l(x)) e do fato que quando n→∞, tem-se k →∞, segue
que F n(x) → p, quando n → ∞, isto é, p é um atrator de F . Provemos agora que
F (p) = p. Com efeito,
p = limF n(F (p))
= limF n+1(p)
= limF (F n(p))
= F (limF n(p))
= F (p).
1.2 Exponencial de Matrizes
Começamos essa seção recordando que o espaço M(n) das matrizes n × n com
entradas reais, munido das operações de soma e multiplicação por escalar usuais, é um
espaço vetorial real.
Dada uma matriz A ∈M(n), seja
||A|| = sup|x|≤1|Ax| = sup
|x|=1
|Ax|.
É fácil vericar que || · || dene uma norma em M(n). Além disso, para A,B ∈ M(n)
temos
||AB|| ≤ ||A|| ||B||.
Em particular
||A2|| ≤ ||A||2
e por recorrência
||Am|| ≤ ||A||m.
CAPÍTULO 1. PRELIMINARES 10
Escrevendo
A0 = I, A1 = A e Am+1 = AmA
para as potencias, Am, de A ∈M(n).
Denimos a matriz exponencial de uma matriz A ∈M(n) por
eA = I + A+1
2!A2 +
1
3!A3 + . . .+
1
j!+ . . . =
∞∑j=0
1
j!Aj.
Veriquemos se a série da exponencial de matriz converge. No caso n = 1, temos
e(a) = (ea) é a série de Taylor da exponencial escalar e a série converge. No caso geral,
usando ||.|| de matrizes em M(n), obtemos∣∣∣∣∣∣∣∣∣∣N∑j=0
1
j!Aj
∣∣∣∣∣∣∣∣∣∣ ≤
N∑j=0
∣∣∣∣∣∣∣∣ 1
j!Aj∣∣∣∣∣∣∣∣
=N∑j=0
1
j!||Aj||
=N∑j=0
1
j!||AA . . . A︸ ︷︷ ︸
j vezes
||
≤N∑j=0
1
j!||A|| . . . ||A||︸ ︷︷ ︸
j vezes
=N∑j=0
1
j!||A||j.
Daí, fazendo N →∞ segue que∣∣∣∣∣∣∣∣∣∣∞∑j=0
1
j!Aj
∣∣∣∣∣∣∣∣∣∣ ≤
∞∑j=0
1
j!||A||j
= e||A||.
Assim a série∞∑j=0
1
j!Aj
é absolutamente convergente, logo é convergente.
Fixado uma matriz A ∈M(n) e dado t ∈ R, temos que tA ∈M(n). Logo
etA = I + tA+t2
2!A2 +
t3
3!A3 + . . . =
∞∑j=0
1
j!tjAj ∈M(n).
CAPÍTULO 1. PRELIMINARES 11
Exemplo 1.2.1. Considere a matriz diagonal
D =
λ1 0 . . . 0
0 λ2 . . . 0...
......
...
0 0 . . . λn
.
Note que, para cada j ∈ N
Dj = diag(λj1, λj2, . . . , λ
jn).
Assim,
eD =∞∑j=0
1
j!Dj
=∞∑j=0
1
j!diag(λj1, λ
j2, . . . , λ
jn)
= diag
(∞∑j=0
1
j!λj1,
∞∑j=0
1
j!λj2, . . . ,
∞∑j=0
1
j!λjn
)= diag(eλ1 , eλ2 , . . . , eλn).
Em particular, temos e0 = I e eI = diag(e, e, . . . , e) = eI
Exemplo 1.2.2. Considere agora a matriz
(0 0
c 0
), note que
(0 0
c 0
)2
=
(0 0
c 0
)(0 0
c 0
)
=
(0 0
0 0
)
portanto,
(0 0
c 0
)j
= 0 ∈M(2) para cada j ≥ 2, de modo que
exp
(0 0
c 0
)=
(1 0
0 1
)+
(0 0
c 0
)+
1
2
(0 0
0 0
)+ . . .
=
(1 0
c 1
).
Dada uma matriz A ∈ M(n), se existe um n tal que An = 0, então chamamos essa
CAPÍTULO 1. PRELIMINARES 12
matriz de Matriz Nilpotente, essas matrizes são da forma
Nc(n) =
0 0 . . . 0 0
c 0 . . . 0 0
0 c . . . 0 0
. . . . . . . . . . . . . . .
0 0 . . . c 0
.
Por exemplo, para uma matriz Nc ∈M(4), temos
Nc(4) =
0 0 0 0
c 0 0 0
0 c 0 0
0 0 c 0
Nc(4)2 =
0 0 0 0
0 0 0 0
c2 0 0 0
0 c2 0 0
Nc(4)3 =
0 0 0 0
0 0 0 0
0 0 0 0
c3 0 0 0
Nc(4)4 =
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
.
Donde, por denição temos a exponencial da matriz Nc(4)
eNc(4) = I +Nc(4) +1
2Nc(4)2 +
1
3!Nc(4)3 +
1
4!Nc(4)4 + . . .
= I +Nc(4) +1
2Nc(4)2 +
1
3!Nc(4)3
=
1 0 0 0
c 1 0 0c2
2!c 1 0
c3
3!c2
2!c 1
.
Usando indução pode-se demonstrar que
eNc(n) =
1 0 0 . . . 0 0
c 1 0 . . . 0 0c2
2!c 1 . . . 0 0
c3
3!c2
2!c . . . 0 0
......
......
......
cn−1
(n−1)!cn−2
(n−2)!cn−3
(n−3)! . . . c 1
.
Exemplo 1.2.3. Considere a matriz
(0 b
−b 0
), temos
(0 b
−b 0
)2
=
(0 b
−b 0
)(0 b
−b 0
)
=
(−b2 0
0 −b2
)
CAPÍTULO 1. PRELIMINARES 13(0 b
−b 0
)3
=
(0 b
−b 0
)(−b2 0
0 −b2
)
=
(0 −b3
b3 0
)(
0 b
−b 0
)4
=
(b4 0
0 b4
)e
(0 b
−b 0
)5
=
(0 b5
−b5 0
).
Por recorrência, temos (0 b
−b 0
)2j
= (−1)j
(b2j 0
0 b2j
)para as potencias pares e(
0 b
−b 0
)2j+1
= (−1)j
(0 b2j+1
−b2j+1 0
)para potências ímpares. Calculando a exponencial da matriz temos
exp
(0 b
−b 0
)=
(1 0
0 1
)+
(0 b
−b 0
)+
(−b2 0
0 −b2
)1
2!+
(0 −b3
b3 0
)1
3!+ . . .
Lembrando que as séries de Taylor do cosb e senb são dadas por
cosb = 1− 1
2!b2 +
1
4!b4 − 1
6!b6 + . . . =
+∞∑j=o
(−1)j
(2j)!b2j
e
senb = b− 1
3!b3 +
1
5!b5 − 1
7!b7 + . . . =
+∞∑j=0
(−1)j
(2j + 1)!b2j+1,
obtemos que
exp
(0 b
−b 0
)=
(a11 a12
a21 a22
),
onde
a11 = 1− 1
2!b2 +
1
4!b4 − 1
6!b6 + . . . = cosb
a12 = b− 1
3!b3 +
1
5!b5 − 1
7!b7 + . . . = senb
a21 = −b+1
3!b3 − 1
5!b5 +
1
7!b7 − . . . = −senb
a22 = 1− 1
2!b2 +
1
4!b4 − 1
6!b6 + . . . = cosb.
Logo
exp
(0 b
−b 0
)=
(cosb senb
−senb cosb
).
CAPÍTULO 1. PRELIMINARES 14
Conforme denimos no Apêndice, dizemos que as matrizes A,B ∈ M(n) são
conjugadas se existe Q ∈M(n) invertível tal que AQ = QB, ou seja,
A = QBQ−1
Teorema 1.2.1. Se A,B,Q ∈ M(n) são tais que AQ = QB,então eAQ = QeB. Em
particular, se as matrizes A e B de M(n) são conjugadas, então também as matrizes
eA e eB são conjugação e além disso, podemos usar a mesma matriz de conjugação; ou
seja, se Q ∈M(n) é invertível e A = QBQ−1, então
eA = eQBQ−1
= QeBQ−1.
Demonstração. Como AQ = QB, segue que
A2Q = AAQ
= AQB
= QBB
= QB2
e, por recorrência, AjQ = QBj, para j ∈ N. Assim
eAQ =
(∞∑j=0
1
j!Aj
)Q
=∞∑j=0
1
j!AjQ
=∞∑j=0
1
j!QBj
= Q
(∞∑j=0
1
j!Bj
)= QeB.
Exemplo 1.2.4. Pelo Exemplo A.2.1 do Apêndice sabemos que existem matrizes
A =
1 0 1
0 −2 1
0 0 −1
, Q =
1 1 0
0 −2 1
0 −2 0
e
D =
1 0 0
0 −1 0
0 0 −2
CAPÍTULO 1. PRELIMINARES 15
tais que A = QDQ−1. Como já sabemos como calcular a exponencial de um matriz
diagonal, então
eD =
e 0 0
0 e−1 0
0 0 e−2
.
Logo, pelo Teorema 1.2.1,
eA = QeBQ−1 = Q
e 0 0
0 e−1 0
0 0 e−2
Q−1.
Passamos agora ao problema de calcular a exponencial de uma matriz qualquer
na Forma Canônica de Jordan (veja Apêndice). Para isso prescisamos saber calcular a
exponencial de uma matriz em blocos e a exponencial de uma matriz nilpotente.
Para uma matriz de Jordan cujos os blocos são de ordem 1× 1, temosA1 0 . . . 0
0 A2 . . . 0...
......
...
0 0 . . . Ak
j
=
Aj1 0 . . . 0
0 Aj2 . . . 0...
......
...
0 0 . . . Akk
como cada bloco é de ordem 1x1 então a matriz de Jordan é uma matriz diagonal, logo
a sua exponencial é
ediag(A1,A2,...,Ak) = diag(eA1 , eA2 , . . . , eAk).
Portanto basta calcular a exponencial de cada bloco individualmente.
Note que podemos decompor cada bloco de Jordan de autovalor λ na soma de
uma matriz diagonal, com o autovalor na diagonal, com uma matriz nilpotente N1(l),
ou seja
Jλ(l) = λI −N1(l), λI ∈M(l).
Foi demostrado no Exemplo 1.2.1 como calcular a exponencial de uma matriz diagonal
e no Exemplo 1.2.2 para matriz nilpotente. Temos que essas matrizes comutam, de
fato
λ 0 0 . . . 0 0
0 λ 0 . . . 0 0
0 0 λ . . . 0 0...
......
......
...
0 0 0 . . . 0 λ
0 0 0 . . . 0 0
1 0 0 . . . 0 0
0 1 0 . . . 0 0...
......
......
...
0 0 0 . . . 1 0
CAPÍTULO 1. PRELIMINARES 16
=
0 0 0 . . . 0 0
λ 0 0 . . . 0 0
0 λ 0 . . . 0 0...
......
......
...
0 0 0 . . . λ 0
por outro lado,
0 0 0 . . . 0 0
1 0 0 . . . 0 0
0 1 0 . . . 0 0...
......
......
...
0 0 0 . . . 1 0
λ 0 0 . . . 0 0
0 λ 0 . . . 0 0
0 0 λ . . . 0 0...
......
......
...
0 0 0 . . . 0 λ
=
0 0 0 . . . 0 0
λ 0 0 . . . 0 0
0 λ 0 . . . 0 0...
......
......
...
0 0 0 . . . λ 0
.
Portanto matrizes diagonais e nilpotente comutam. Assim pelo Corolário 2.3.1 temos
que,
eJλ(l) = eλI+N1(l)
= eλIeN1(l)
= eλeN1(l).
Portanto a exponencial de um bloco de Jordan é dado por,
eJλ(l) = eλ
1 0 0 . . . 0 0
1 1 0 . . . 0 0
12!
1 1 . . . 0 0
13!
12!
1 . . . 0 0...
...... . . .
......
1(l−1)!
1(l−2)!
1(l−3)! . . . 1 1
∈M(l).
CAPÍTULO 1. PRELIMINARES 17
Consideremos agora para blocos associados a autovalores complexos. Assim, como
escrito anteriomente,
Ja,b(h) = A0a,b(h) +N1,I(h)
onde, J0a,b(h) = diag(Ja,b, Ja,b, . . . , Ja,b) ∈M(h) e
Nc,I(h) =
0 0 0 . . . 0 0
cI 0 0 . . . 0 0
0 cI 0 . . . 0 0...
...... . . .
......
0 0 0 . . . cI 0
∈M(h),
temos que N1,I(h)h = 0, logo essa matriz é nilpotente e pelo Exemplo 1.2.2 temos
eNc,I(h) =
I 0 0 . . . 0 0
cI I 0 . . . 0 0
c2
2!I cI I . . . 0 0
c3
3!I c2
2!I cI . . . 0 0
......
... . . ....
...
ch−1
(h−1)!Ich−2
(h−2)!Ich−3
(h−3)! . . . cI I
∈M(h).
Pelo Exemplo 2.3.1 sabemos que eJa,b = eaRb ∈M(2), onde
Rb =
cosb senb
−senb cosb
portanto,
eJ0a,b(h) = diag(eJa,b , eJa,b , . . . , eJa,b)
= diag(eaRb, eaRb, . . . , e
aRb)
= eadiag(Rb, Rb, . . . , Rb).
Note que as natrizes J0a,b(h) e N1,I(h) comutam,
eJa,b 0 0 . . . 0
0 eJa,b 0 . . . 0
0 0 eJa,b . . . 0...
...... . . .
...
0 0 0 . . . eJa,b
0 0 0 . . . 0
cI 0 0 . . . 0
0 cI 0 . . . 0...
...... . . .
...
0 0 0 . . . 0
CAPÍTULO 1. PRELIMINARES 18
=
0 0 0 . . . 0
cIeJa,b 0 0 . . . 0
0 cIeJa,b 0 . . . 0...
...... . . .
...
0 0 0 . . . 0
por outro lado,
0 0 0 . . . 0
cI 0 0 . . . 0
0 cI 0 . . . 0...
...... . . .
...
0 0 0 . . . 0
eJa,b 0 0 . . . 0
0 eJa,b 0 . . . 0
0 0 eJa,b . . . 0...
...... . . .
...
0 0 0 . . . eJa,b
=
0 0 0 . . . 0
cIeJa,b 0 0 . . . 0
0 cIeJa,b 0 . . . 0...
...... . . .
...
0 0 0 . . . 0
.
Usando o Corolário 2.3.1, obtemos
eJa,b(h) = eJ0a,b(h)+N1,I(h)
= eJ0a,b(h)eN1,I(h),
portanto a exponencial dos blocos de Jordan é dada por
eJa,b(h) = ea
Rb 0 0 . . . 0 0
Rb Rb 0 . . . 0 0
12!Rb Rb Rb . . . 0 0
13!Rb
12!Rb Rb . . . 0 0
......
......
......
1(h−1)!Rb
1(h−2)!Rb
1(h−3)!Rb . . . Rb Rb
.
Qualquer matriz A é linearmente conjugada a uma matriz J em forma de Jordan e
pelo Teorema 1.2.1 a exponencial de qualquer matriz A ∈M(n) é dada pela exponencial
de J conjugada pela mesma matriz que conjuga A e J , ou seja,
eA = QeJQ−1.
CAPÍTULO 1. PRELIMINARES 19
Exemplo 1.2.5. Considere uma matriz A ∈M(3) qualquer cujo polinômio caracterís-
tico é pA(λ) = (λ− 7)3. Se seu polinômio mínimo for
mA(λ) = (λ− 7)3
então a sua forma de Jordan possui um bloco J7(n) ∈ M(3) com o autovalor 7 na
diagonal, ou seja
J7(3) =
7 0 0
1 7 0
0 1 7
logo a exponencial de J7(3) é
eJ7(3) =
e7 0 0
e7 e7 0e7
2e7 e7
e a exponencial de A é dado por,
eA = QeJQ−1
= Q
e7 0 0
e7 e7 0e7
2e7 e7
Q−1.
Mas se seu polinômio mínimo for
mA(λ) = (λ− 7)2
sua forma de Jordan possui pelo menos um bloco J7(n) ∈M(2) , ou seja
J = diag(J7(2), J7(1)) =
7 0 0
1 7 0
0 0 7
e sua exponencial é,
ediag(J7(2),J7(1)) =
e7 0 0
e7 e7 0
0 0 e7
assim a exponencial de A é dado por,
eA = QeJQ−1
= Q
e7 0 0
e7 e7 0
0 0 e7
Q−1.
CAPÍTULO 1. PRELIMINARES 20
Exemplo 1.2.6. Considere a matriz
A =
1 0 −2
−5 6 11
5 −5 −10
.
Seu polinômio característico é
pA(λ) = (λ− 1)(λ+ 2− i)(λ+ 2 + i),
Conforme Exemplo A.3.2 (Apêndice). Sabemos que existem Q,D ∈M(3) tais que
D = Q−1AQ =
1 0 0
0 −2 1
0 −1 −2
.
Separando D em dois blocos, obtemos
D1 = (1) e D2 =
(−2 1
−1 −2
),
pelo Exemplo 1.2.1, temos
eD1 = e1
e pelo Teorema A.3.1 (veja Apêndice), segue que
eD2 = e
−2 1
−1 −2
= e−2
(cos1 sen1
−sen1 cos1
).
Assim
eD =
e 0 0
0 e−2cos1 e−2sen1
0 −e−2sen1 e−2cos1
.
Portanto, pelo Teorema 1.2.1 a exponencial de A é dado por,
eA = QeDQ−1
=
1 2 0
1 −3 1
0 3 −1
e 0 0
0 e−2cos1 e−2sen1
0 −e−2sen1 e−2cos1
0 1 −1
12−1
212
32−3
212
=
e−2cos1 + 3e−2sen1 e− e−2cos1− 3e−2sen1 −e+ e−2cos1 + e−2sen1
−5e−2sen1 e+ 5e−2sen1 −e− e−2cos1− 2e−2sen1
5e−2sen1 −5e−2sen1 e−2cos1 + 2e−2sen1
.
Capítulo 2
Sistemas de Equações Diferenciais
Lineares
Nesse capítulo apresentamos o Teorema de Existência e Unicidade de soluções e,
utilizando exponencial de matrizes, estudamos soluções de sistema de equações dife-
renciais com coecientes constantes.
2.1 Teorema de Existência e Unicidade
Nesta seção vamos considerar o caso geral de equações diferenciais ordinárias em
Rn. Mas precisamente, dada uma aplicação f : U → Rn, denida em cada ponto (t, y)
de um aberto de U de R× Rn ≡ Rn+1, dizemos que
dy
dt= f(t, y)
é a equação diferencial ordinária em Rn denida por f . Uma solução dessa equação
diferencial ordinária, às vezes denominada curva integral da equação, é um caminho
y : I → Rn denido e derivável num intervalo I de R, com gráco inteiramente contido
em U e velocidade determinada por f , ou seja, tal que, para cada t ∈ I,
(t, y(t)) ∈ U edy
dt= f(t, y(t)).
Fixemos um ponto (t0, y0) ∈ U e uma solução y : I → Rn de
dy
dt= f(t, y).
Se t0 ∈ I e também y(t0) = y0, dizemos que essa solução satisfaz a condição inicial
21
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 22
y(t0) = y0, ou seja, y(t) satisfaz o problema de valor-inicial
dy
dt= f(t, y), y(t0) = y0.
Teorema 2.1.1 (Teorema de Picard). Seja f contínua e lipschitziana em Ω = Ia×Bb,
onde Ia = t; |t− t0| ≤ a, Bb = x; |x−x0| ≤ b. Se |f | ≤M em Ω, então existe uma
única solução de
x′ = f(t, x), x(t0) = x0 (2.1)
em Iα, onde α = mina, bM.
Demonstração. Seja X =C (Iα, Bb) o espaço métrico completo das funções contínuas
ϕ : Iα −→ Bb, com a métrica da convergência uniforme
d(ϕ1, ϕ2) = supt∈Iα|ϕ1 − ϕ2|. (2.2)
Para ϕ ∈ X, seja F (ϕ) : X −→ E denida por
F (ϕ)(t) = x0 +
∫ t
t0
f(s, ϕ(s))ds, (2.3)
t ∈ Iα. Destacamos as seguintes propriedades de F :
i) F (X) ⊆ X
ii) F n é uma contração, para n sucientemente grande.
De fato, para todo t ∈ Iα,
|F (ϕ(t))− x0| =
∣∣∣∣∫ t
t0
f(s, ϕ(s))ds
∣∣∣∣≤
∫ t
t0
|f(s, ϕ(s))|ds
≤∫ t
t0
Mds
= M(t− t0)≤ Mα
≤ b.
Logo F (X) ⊆ X. Quanto a (ii), para todo par ϕ1, ϕ2 ∈ X e todo n ≥ 0, temos
|F n(ϕ1)(t)− F n(ϕ2)(t)| ≤Kn|t− t0|n
n!· d(ϕ1, ϕ2), t ∈ Iα, (2.4)
onde K é a constante de Lipschitz de f . Vericamos esta desigualdade por indução em
n. Para n = 0 é válida. Suponha que seja válida para n = l, isto é,
|F l(ϕ1)(t)− F l(ϕ2)(t)| ≤K l|t− t0|l
l!· d(ϕ1, ϕ2), t ∈ Iα.
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 23
Então
|F l+1(ϕ1)(t)− F l+1(ϕ2)(t)| = |F (F l(ϕ1))(t)− F (F l(ϕ2))(t)|
≤∫ t
t0
|f(s, F l(ϕ1))(s)− f(s, F l(ϕ2))(s)|ds
≤∫ t
t0
K|F l(ϕ1)(s)− F l(ϕ2)(s)|ds.
Por hipótese de indução, obtemos
|F l+1(ϕ1)(t)− F l+1(ϕ2)(t)| ≤ K
∫ t
t0
K l|t− t0|l
l!d(ϕ1, ϕ2)ds
= K l+1 |t− t0|l+1
(l + 1)!d(ϕ1, ϕ2).
Logo,
|F l+1(ϕ1)(t)− F l+1(ϕ2)(t)| ≤ kl+1 |t− t0|l+1
(l + 1)!d(ϕ1, ϕ2).
Portanto a desigualdade (2.4) é válida. Calculando o supremo em (2.4), segue que
d(F n(ϕ1), Fn(ϕ2)) ≤
knαn
n!· d(ϕ1, ϕ2).
E para n grandeKnαn
n!< 1
pois é o termo geral de uma série cuja soma é eKα. Portanto F n é uma contração em
X. Pelo Corolário 1.1.1, existe uma única ϕ ∈ X tal que F (ϕ) = ϕ, e isto, prova o
teorema.
Proposição 2.1.1. Seja f contínua e Lipschitziana em Ω = [a, b] × E, E um espaço
métrico. Então, para todo (t0, x0) ∈ Ω existe uma única solução de
x′ = f(t, x), x(t0) = x0
em I = [a, b].
Demonstração. Considere X =C (I, E) e F : X −→ X denida por
F (ϕ)(t) = x0 +
∫ t
t0
f(s, (ϕ(s))ds.
Seguindo os passos da demostração do Teorema 2.1.1, obtemos que F tem um único
ponto xo pois, para n grande, F n é uma contração.
Corolário 2.1.1 (Equações Lineares). Sejam A(t) e b(t) respectivamente matrizes
n× n e n× 1 de funções contínuas num intervalo I. Para todo (t0, x0) ∈ I ×Rn existe
uma única solução de x′ = A(t)x+ b(t), x(t0) = x0 denida em I.
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 24
Demonstração. Seja I =⋃n In, onde In ⊆ In+1 são intervalos compactos que contém
t0. f(t, x) = A(t)x+b(t) satisfaz as hipóteses da Proposição 2.1.1 em cada intervalo In.
Seja ϕn a única solução neste intervalo passando por (t0, x0). É claro que ϕn+1|In = ϕn.
Logo ϕ(t) = ϕn(t), t ∈ In está bem denida em I. É claro também que ϕ é a única
solução em I passando por (t0, x0).
2.2 Sistemas de Equações Diferenciais Lineares
Nessa seção, estudamos equações diferenciais ordinárias lineares homogêneas de
primeira ordem com coecientes constantes, ou seja, trata-se do estudo dos campos
lineares
f(x) = TA(x),
onde o operador linear f = TA : Rn −→ Rn é dado por TA(x) = Ax sendo A = (aij)n×n
uma n × n matriz real e x um vetor coluna, ou seja, o produto da matriz A com o
vetor-coluna n× 1 formado pelas coordenadas canônicas de x ∈ Rn.
Denição 2.2.1. Dizemos que um caminho x : R −→ Rn é uma solução da equação
diferencial linear autônoma
x′ = Ax (2.5)
se x é derivável em R e, para cada t ∈ R,
x′(t) = Ax(t).
As funções coordenadas xi : R −→ R de x(t) são soluções do sistemas associ-
ado à matriz A, ou seja, do sistema de equações diferencias lineares homogêneas com
coecientes constantes:
x′1(t) = a11x1(t) + a12x2(t) + · · ·+ a1nxn(t)
x′2(t) = a21x1(t) + a22x2(t) + · · ·+ a2nxn(t)
...
x′n(t) = an1x1(t) + an2x2(t) + · · ·+ annxn(t).
Exemplo 2.2.1. Considere a equação diferencial linear escalar
x′ = ax, x(0) = k
onde a ∈ R e x é um vetor,
x′ = ax,
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 25
ou seja,
a =x′
x.
Donde
a = (lnx)′.
Integrando ambos os menbros desta equação em relação a t, segue que∫adt =
∫(lnx)′dt.
Daí
at+ c = lnx,
calculando a exponencial, obtemos
eat+c = elnx,
isto é,
eatec = x.
Logo, chamando ec = k,
x = eatk,
demonstrando assim a existencia de solução. Pelo Teorema 2.1.1 temos que x(t) =
e−atk é a única solução do problema de valor inicial.
Exemplo 2.2.2.
A =
(2 0
0 −3
)encontremos a solução para a equação x′ = Ax. Chamando x = (x1, x2) e x′ = (x′1, x
′2),
temos (x′1x′2
)=
(2 0
0 −3
)(x1
x2
),
daí,x′1 = 2x1
x′2 = −3x2.
Pelo Exemplo 2.2.1, obtemos
x1(t) = e2tk1 e x2(t) = e−3tk2.
Assim, para k = (k1, k2), segue que
x(t) =
(k1e
2t
k2e−3t
)
=
(e2t 0
0 e−3t
)(k1
k2
)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 26
é a solução que satisfaz a condição inicial x(0) =
(k1
k2
).
Exemplo 2.2.3. Seja D = diag(λ1, λ2, . . . , λn), com λ1, . . . , λn ∈ R. Considere a
equação
x′ = Dx
ou equivalentemente,
x′ =
λ1 . . . 0...
......
0 . . . λn
x1
...
xn
.
Logo para cada 1 ≤ j ≤ n, a equação x′j(t) = λjxj(t), tem solução única da forma
xj(t) = kjeλjt. Portanto a solução do problema de valor inicial
x′ = diag(λ1, . . . , λn)x, x(0) = (k1, . . . , kn)t
é dada por x(t) = diag(eλ1t, eλ2t, . . . , eλnt)x(0).
Exemplo 2.2.4. Considere a matriz
A =
(λ 0
1 λ
).
Encontremos a solução da equação
x′ = Ax. (2.6)
Seja x = (x1, x2), então x′ = (x′1, x′2). De (2.6) temos(
x′1x′2
)=
(λ 0
1 λ
)(x1
x2
)⇒
x′1 = λx1
x′2 = x1 + λx2.
De x′1 = λx1, temos x1(t) = k1eλt. Substituindo na segunda equação obtemos, x2(t) =
k1eλt + λx2, usando o fator de integração (e−λt), segue que
e−λtx2(t) = k1eλte−λt + λx2e
−λt,
daí,
e−λtx2(t) = k1 + λx2e−λt,
assim
k1 = e−λtx2(t)− λx2e−λt
= (e−λtx2(t))′.
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 27
Integrando em relação a t, obtemos∫k1dt =
∫(e−λtx2(t))
′dt,
daí,
k1t+ k2 = e−λtx2(t),
isolando x2(t), obtemos
x2(t) = k1teλt + k2e
λt.
Assim,
x(t) = (x1(t), x2(t))t
= (k1eλt, k1te
λt + k2eλt)t
= eλt
(1 0
t 1
)(k1
k2
)
é a solução de (2.6) com a condição inicial x(0) = (k1, k2)t.
Proposição 2.2.1. Seja v ∈ Rn um autovetor de A ∈ M(n) com autovalor λ ∈ R.Então
x(t) = eλtv, t ∈ R
é a solução de x′ = Ax, x(0) = v
Demonstração. Seja v um autovetor de A associado ao autovalor λ ∈ R, então Av = λv.
Considere x(t) = eλtv, temos
x′(t) = λeλtv
= eλtλv
= eλtAv
= Aeλtv
= Ax(t).
Logo, x(t) = eλtv é solução de x′(t) = Ax(t) com x(0) = v.
Proposição 2.2.2. Se Q conjuga as matrizes reais A,B ∈M(n), então Q transforma
as solução de y′ = By nas soluções de x′ = Ax. Mais precisamente, se A = QBQ−1,
então são equivalentes as armações:
• y(t) é uma solução de y′ = By
• Qy(t) é uma solução de x′ = Ax
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 28
Demonstração. Suponha que y(t) é uma solução de y′ = By. Considere x(t) = Qy(t).
Como Q independe de t,
x′(t) = Qy′(t)
= QBy
= AQy
= Ax(t).
Logo, x(t) = Qy(t) é solução de x′ = Ax. Reciprocamente, suponha que x(t) é solução
de x′ = Ax. Considere y(t) = Q−1x(t), daí
y′(t) = Q−1x′(t)
= Q−1Ax
= BQ−1x
= By(t).
Logo y(t) é solução de y′ = By.
Exemplo 2.2.5. Considere as matrizes
A =
1 0 1
0 −2 1
0 0 −1
, Q =
1 1 0
0 −2 1
0 −2 0
e D =
1 0 0
0 −1 0
0 0 −2
tais que
AQ =
1 −1 0
0 2 −2
0 2 0
= QD.
Como D é uma Matriz diagonal, a solução de y′ = Dy, com y(0) = (l1, l2, l3)t, é dada
por
y(t) = diag(et, e−t, e−2t)y(0)
= (l1et, l2e
−t, l3e−2t)t
=
et 0 0
0 e−t 0
0 0 e−2t
l1
l2
l3
.
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 29
Pela Proposição 2.2.2, a solução de x′ = Ax é dada por x(t) = Qy(t), assim
x(t) = Qy(t)
=
1 1 0
0 −2 1
0 −2 0
l1e
t
l2e−t
l3e−2t
=
l1et + l2e
−t
−2l2e−t + l3e
−2t
−2l2e−t
.
Podemos obter as coodenadas cartesianas da condição inicial x(0) = (k1, k2, k3)t em
termos das coordenadas de y(0). De fato,
x(0) = Qy(0) k1
k2
k3
=
1 1 0
0 −2 1
0 −2 0
l1
l2
l3
k1
k2
k3
=
l1 + l2
−2l2 + l3
−2l2
.
Donde l1 = k1 − k32, l2 = −k3
2e l3 = k2 − k3. Por outro lado podemos calcular as
coordenadas de y(0), em termos das coodenadas de x(0), pois, de
y(0) = Q−1x(0)
resulta que, l1
l2
3
=
1 0 12
0 0 −12
0 1 −1
k1
k2
k3
.
Proposição 2.2.3. Sejam A ∈ M(n) uma matriz diagonalizável, com Q,D ∈ M(n),
tais que Q é invertível e Q−1AQ = D = diag(λ1, . . . , λn). Então, dado 1 ≤ i ≤ n e
escrevendo Qei = vi, o caminho si : R −→ Rn denido por si(t) = eλitQei = eλitvi,
t ∈ R é a solução de x′ = Ax com valor inicial x(0) = vi. Além disso, qualquer solução
x : R −→ Rn de x′ = Ax é uma combinação linear de s1, . . . , sn, a saber,
x(t) =n∑j=1
ljsj(t) =n∑j=1
ljeλjtvj
dene a única solução de x′ = Ax, x(0) =∑ljvj = Q(l1, . . . , ln).
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 30
Demonstração. Seja a equação diferencial y′ = Dy. Como D é uma matriz diagonal,
a solução geral é dada por
y(t) = diag(eλ1t, . . . , eλnt)y(0).
Daí,
y(t) = (l1eλ1t, l2e
λ2t, . . . , lneλnt)t
= l1eλ1t
1
0...
0
+ l2eλ2t
0
1...
0
+ . . .+ lneλnt
0
0...
1
=
n∑j=1
ljeλjtej
com y(0) =∑n
j=1 ljej. Pela Proposição 2.2.2, a solução geral de x′ = Ax é dada por
x(t) = Qy(t). Daí
x(t) = Qy(t)
= Q∑
ljeλjtej
=∑
ljeλjtQej,
como, por hipótese, Qei = vi, 1 ≤ i ≤ n, segue que
x(t) =∑
ljeλjtvj
e
x(0) =n∑j=1
ljeλj0vj
=n∑j=1
ljvj
=n∑j=1
ljQej
=n∑j=1
Q(ljej)
= Qn∑j=1
ljej
= Q(l1, · · · , ln).
Em paricular, tomando y(0) = ei, a solução básica y(t) = eλitei de y′ = Dy fornece a
solução básica si(t) = eλitvi de x′ = Ax.
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 31
Se A ∈M(n) é uma matriz semelhante a uma matriz diagonal D, ou seja,
Q−1AQ = D = diag(λ1, λ2, . . . , λn)
então, pela Proposição 2.2.3, cada vetor-coluna Qej = vj de Q dá origem a uma solução
básica sj(t) = eλjtvj do sistema x′ = Ax. Note que Dej = λjej para cada vetor ej da
base canônica de Rn, resulta que
Avj = AQej
= QDej
= Qλjej
= λjQej
= λjvj.
Assim cada vetor vj é levado por A em um múltiplo desse próprio vetor.
Exemplo 2.2.6. Dadas as matrizes
A =
1 0 1
0 −2 1
0 0 −1
, Q =
1 1 0
0 −2 1
0 −2 0
e D =
1 0 0
0 −1 0
0 0 −2
.
Pela Proposição 2.2.3, temos que a solução de x′ = Ax é dada por
x(t) =∑
ljeλjtvj ,
ou seja,
x(t) = l1et
1
0
0
+ l2e−t
1
−2
−2
+ l3e−2t
0
1
0
=
l1et + l2e
−t
−2l2e−t + l3e
−2t
−2l2e−t
.
2.3 Solução de Sistema de Equações Diferenciais Atra-
vés de Exponencial de Matrizes
Lembrando que para A ∈M(n) e t ∈ R, temos
etA =∞∑j=0
1
j!tjAj ∈M(n)
= tI + tA+t2
2!A2 +
t3
3!A3 + . . . ,
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 32
obtemos o seguinte resultado:
Proposição 2.3.1. Dados uma matriz A ∈ M(n) e x0 ∈ Rn, os caminhos t 7−→ etA
em M(n) e t 7−→ etAx0 em Rn são deriváveis e
d
dtetA = AetA ∈M(n),
d
dtetAx0 = AetAx0 ∈ Rn.
Demonstração. Dados A ∈M(n) e t ∈ R, temos ||tA|| = |t|||A||, de modo que
||1t(etA − I)− A|| =
∣∣∣∣∣∣∣∣(etA − I)− tAt
∣∣∣∣∣∣∣∣=
1
|t|||(etA − I)− tA||
=1
|t|
∣∣∣∣∣∣∣∣(tI + tA+t2A2
2!+t3A3
3!+ . . .
)− I − tA
∣∣∣∣∣∣∣∣=
1
|t|
∣∣∣∣∣∣∣∣t2A2
2!+t3A3
3!+t4A4
4!+ . . .
∣∣∣∣∣∣∣∣=
1
|t|
∣∣∣∣∣∣∣∣∣∣∞∑j=2
1
j!tjAj
∣∣∣∣∣∣∣∣∣∣ .
Rescrevendo essa iqualdade, obtemos
||1t(etA − I)− A|| = 1
|t|
∣∣∣∣∣∣∣∣∣∣ limn→∞
n∑j=2
1
j!tjAj
∣∣∣∣∣∣∣∣∣∣ .
Daí, usando a desigualdade triangular e a contínuidade da norma, segue que
||1t(etA − I)− A|| ≤ 1
|t|limn→∞
n∑j=2
1
j!
∣∣∣∣tjAj∣∣∣∣ . (2.7)
Como ||Aj|| ≤ ||A||j, temos
limn→∞
n∑j=2
1
j!
∣∣∣∣tjAj∣∣∣∣ ≤ limn→∞
n∑j=2
1
j!||tA||j . (2.8)
De (2.7) e (2.8), segue que
||1t(etA − I)− A|| ≤ 1
|t|limn→∞
n∑j=2
1
j!||tA||j .
Donde,
||1t(etA − I)− A|| ≤ 1
|t|
[||t2A2||
2!+||t3A3||
3!+||t4A4||
4!+ . . .
].
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 33
Já que ||An|| ≤ ||A||n, resulta
||1t(etA − I)− A|| ≤ 1
|t|
[||tA||2
2!+||tA||3
3!+||tA||4
4!+ . . .
]≤ 1
|t|
[||tA||2 + ||tA||3 +
||tA||4
2!+||tA||5
3!+ . . .
]=
1
|t|||tA||2
[1 + ||tA||+ ||tA||
2
2!+ . . .
]=
1
|t|||tA||2e||tA||
=|t|2
|t|||A||2e|t| ||A||
= |t| ||A||2e|t| ||A||.
Então, para |t| < 1, temos
||1t(etA − I)− A|| ≤ |t| ||A||2e||A||. (2.9)
Daí, escrevendo X(t) = etA, temos X(0) = I e por denição de derivada, obtemos
X ′(0) = A. Fixemos t, u ∈ R. Dado j ∈ N pelo binômio de Newton, temos
1
j!(t+ u)j =
1
j!
j∑l=0
(j
l
)
=
j∑j=0
tl
l!
uj−l
(j − l)!
=∑r+s=j
tr
r!
us
s!,
donde,
1
j!(tA+ uA)j =
1
j!(t+ u)jAj
=
[ ∑r+s=j
tr
r!
us
s!
]Aj
=∑r+s=j
tr
r!Arus
s!As.
Assim, para cada n ∈ N,n∑j=0
1
j!(tA+ uA)j =
n∑j=0
∑r+s=j
1
r!trAr
1
s!usAs
=
(n∑r=0
1
r!(tA)r
)(n∑s=0
1
s!(uA)s
).
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 34
Passando ao limite com n→ +∞, resulta etA+uA = etAeuA e portanto,
X(t+ u) = e(t+u)A
= etA+uA
= etAeuA
= X(t)X(u)
ou seja,
X(t+ u) = X(t)X(u) ∈M(n)
para qualquer t, u ∈ R. Disso decorre que X(t) é derivável em R, valendo
X ′(t) = X ′(0)X(t) = AX(t)
para cada t ∈ R. Além disso, dado x0 ∈ Rn, podemos aplicar todas essas matrizes em
x0 para concluir que x(t) = X(t)x0 = etAx0 é derivável em R e x′(t) = Ax(t), para
cada t ∈ R.
Corolário 2.3.1. Dados matrizes A e B em M(n), temos:
1. se AB = BA então eAeB = eA+B = eBeA;
2. a matriz eA sempre é invertível, com (eA)−1 = e−A.
Demonstração. Se A,B são tais que BA = AB, então B(tA) = (tA)B, donde BetA =
etAB. Denindo x(t) = etAetBx0 e derivando, temos
x′(t) = AetAetBx0 + etABetBx0
= AetAetBx0 +BetAetBx0
= (A+B)etAetBx0
= (A+B)x(t)
logo x(t) = etAetBx0 é solução de x′ = (A + B)x com condição inicial x(0) = x0. Mas
pela Proposição 2.3.1, t 7→ et(A+B)x0 é também solução de x′ = (A+B)x com condição
inicial x(0) = x0. Assim etAetBx0 = et(A+B)x0. Tomando t = 1, obtemos
eA+Bx0 = eAeBx0.
Como isso vale para todo x0 ∈ Rn, as matrizes eA+B e eAeB são iquais. Em particular,
como A−A = 0 e e0 = I, então
e−AeA = e−A+A = e0 = I = e0 = eA−A = eAe−A.
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 35
Exemplo 2.3.1. Considerando as matrizes(a 0
0 a
)(0 0
c 0
)=
(0 0
ac 0
)=
(0 0
c 0
)(a 0
0 a
)usando o Corolário 2.3.1 e os Exemplos 1.2.1 e 1.2.2 podemos calcular a exponencial
da matriz (a 0
c a
)da seguinte maneira,
exp
(a 0
c a
)= exp
[(a 0
0 a
)+
(0 0
c 0
)]
= exp
(a 0
0 a
)exp
(0 0
c 0
)
=
(ea 0
0 ea
)(1 0
c 1
)
=
(ea 0
cea ea
)
= ea
(1 0
c 1
).
Exemplo 2.3.2. Considere as matrizes(0 b
−b 0
)(a 0
0 a
)=
(0 ab
−ab 0
)=
(a 0
0 a
)(0 b
−b 0
).
Calculemos a exponencial da matriz (a b
−b a
).
Note que, usando o Corolário 2.3.1 e os Exemplos 1.2.1 e 1.2.3, obtemos
exp
(a b
−b a
)= exp
[(a 0
0 a
)+
(0 b
−b 0
)]
= exp
(a 0
0 a
)exp
(0 b
−b 0
).
=
(ea 0
0 ea
)(cosb senb
−senb cosb
)
= ea
(cosb senb
−senb cosb
).
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 36
Corolário 2.3.2. Se A ∈M(n) e x0 ∈ Rn, então o caminho
x(t) = etAx0
dene a única solução de x′ = Ax com condição inicial x(0) = x0.
Exemplo 2.3.3. Dada a matriz
A =
(λ1 0
0 λ0
),
considere a equação diferencial x′ = Ax com x(0) = x0. Como já sabemos como
calcular a exponencial de um matriz diagonal, temos
x(t) = etAx0
= exp
(tλ1 0
0 tλ2
)x0
=
(etλ1 0
0 etλ2
)x0
logo etAx0 é uma solução de x′ = Ax com x(0) = x0.
Exemplo 2.3.4. Considere agora o problema de valor inicial, x′ = Ax, x(0) = x0,
onde
A =
(λ 0
1 λ
).
A solução do problema de valor inicial é dada, pelo Corolário 2.3.2, por
x(t) = etAx0.
Mas procedendo como no Exemplo 2.3.1, obtemos
etA = etλ
(1 0
t 1
).
Logo
x(t) = etλ
(1 0
t 1
)x0
é a solução de x′ = Ax com x(0) = x0.
Exemplo 2.3.5. Encontre a solução da equação x′ = Ax com x(0) = x0, onde
A =
(0 b
−b 0
)
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 37
com b ∈ R. Pelo Corolário 2.3.2, segue que a solução procurada é
x(t) = eAtx0.
Calculando a exponencial de At, de maneira análoga ao Exemplo 1.2.3, obtemos,
eAt = e
t
0 b
−b 0
= e
0 bt
−bt 0
=
(cosbt senbt
−senbt cosbt
).
Daí,
x′(t) = AeAtx0
=
(0 b
−b 0
)(cosbt senbt
−senbt cosbt
)
=
(0 b
−b 0
)e
t
0 b
−b 0
.
Proposição 2.3.2. Seja w ∈ Cn um autovetor complexo de A ∈ M(n) com autovalor
complexo associado λ = a+ ib, com b 6= 0. Seja w = u+ iv a decomposição de w dada
por u = w+w2
e v = w−w2i
, com u, v ∈ Rn. Então
x(t) = eat[(cosbt)u− (senbt)v]
y(t) = eat[(senbt)u− (cosbt)v]
denem as únicas soluções de x′ = Ax, com x(0) = u e y(0) = v, respectivamente.
Demonstração. Seja w ∈ Cn um autovetor complexo de A ∈ M(n) com autovalor
complexo associado λ, temos Aw = λw, escrevendo z(t) = eλtw, obtemos
z′(t) = λeλtw
= eλtλw
= eλtAw
= Aeλtw
= Az(t)
de modo que z(t) é uma solução complexa de x′ = Ax. Escrevendo w = u + iv, com
u, v ∈ Rn e λ = a+ ib, com b 6= 0, a formula de Euler garante que
z(t) = e(a+ib)tw
= eat(cosbt+ isenbt)(u+ iv)
= eat[(cosbt)u− (senbt)v] + ieat[(senbt)u+ (cosbt)v],
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 38
de modo que escrevendo z(t) = x(t) + iy(t), resulta
x(t) = eat[(cosbt)u− (senbt)v]
y(t) = eat[(senbt)u+ (cosbt)v].
Mostremos agora que a parte real e a parte imaginária da solução complexa z(t) de
x′ = Ax, são soluções de x′ = Ax. Primeiramente mostremos para x(t) = eat[(cosbt)u−(senbt)v], isto é,
x′(t) = aeat[(cosbt)u− (senbt)v]− eat[(bsenbt)u+ (bcosbt)v]
= aeat(cosbt)u− aeat(senbt)v − eat(bsenbt)u− eat(bcosbt)v= eatcosbt(au− bv)− eatsenbt(av + bu).
Usando a Proposição A.3.2 (veja Apêndice), obtemos,
x′(t) = eat(cosbt)Au− eat(senbt)Av= A(eat(cosbt)u− eat(senbt)v)
= Ax(t).
Analogamente para y(t) = eat[(senbt)u+ (cosbt)v]
y′(t) = aeat[(senbt)u+ (cosbt)v] + eat[(bcosbt)u− (bsenbt)v]
= aeat(senbt)u+ aeat(cosbt)v + eat(bcosbt)u− eat(bsenbt)v= eatcosbt(av + bu) + eatsenbt(au− bv)
= eat(cosbt)Av + eat(senbt)Au
= A(eat(cosbt)v + eat(senbt)u)
= Ay(t).
Exemplo 2.3.6. No exemplo A.3.2 calculamos que w = (2,−3 + i, 3− i) = (2, 3, 3) +
i(0, 1,−1) = u+ iv é um autovetor complexo de
A =
1 0 −2
−5 6 11
5 −5 −10
associado ao autovalor complexo −2 + i. Assim pela Proposição 2.3.2,
x(t) = e−2tcost
2
−3
3
− e−2tsent 0
1
−1
CAPÍTULO 2. SISTEMAS DE EQUAÇÕES DIFERENCIAIS LINEARES 39
e
y(t) = e−2tsent
2
−3
3
+ e−2tcost
0
1
−1
denem as soluções reais de x′ = Ax com condições iniciais x(0) = u = (2,−3, 3) e
y(0) = v = (0, 1,−1).
Exemplo 2.3.7. Dada a matriz
A =
(a b
−b a
)temos que a ± ib são os autovalores complexos associados a w = (1, i) e w = (1,−i),respectivamente. Pela Proposição 2.3.2, temos que
x(t) = eatcosbt
(1
0
)− eatsent
(0
1
)= eat(cosbt,−senbt)
e
y(t) = eatsenbt
(1
0
)+ eatcost
(0
1
)= eat(senbt, cosbt),
são soluções de x′ = Ax, com x(0) = (1, 0) e y(0) = (0, 1). Temos que se s1(t) e s2(t)
são soluções de x′ = Ax, então s1(t) + cs2(t) também é solução de x′ = Ax. De fato
s′1(t) = As1(t) e s′2(t) = As2(t), donde derivando
s1(t) + cs2(t)
temos,
s′1(t) + cs′2(t) = As1(t) + Acs2(t)
= A(s1(t) + cs2(t)).
Logo
s′1(t) + cs′2(t) = A(s1(t) + cs2(t))
Portanto s1(t) + cs2(t) é solução de x′ = Ax, para qualquer c ∈ R.Donde k1x(t) + k2y(t) é solução de x′ = Ax, ou seja,
eat(k1cosbt+ k2senbt,−k1senbt+ k2cosbt) =
= eat
(cosbt senbt
−senbt cosbt
)(k1
k2
)é a solução de x′ = Ax, x(0) = (k1, k2).
Capítulo 3
Sistemas Hamiltonianos
Nesse Capítulo, seguindo [8], introduzimos o conceito de sistemas Hamiltonianos
de equações diferenciais ordinárias e exibimos alguns modelos que tem essa caracterís-
tica.
3.1 Sistemas Hamiltonianos
Um Sistema Hamiltoniano é um sistema de 2n equações diferenciais ordinárias
da forma
q′ = Hp, p′ = −Hq, (3.1)
isto é,
q′i =∂H
∂pi(t, q, p), p′i = −∂H
∂qi(t, q, p), i = 1, · · · , n, (3.2)
onde H = H(t, q, p), chamado de Hamiltoniano, é uma função real diferenciável de-
nida para (t, q, p) ∈ U , onde U é um aberto em R×Rn×Rn. Os vetores q = (q1, · · · , qn)
e p = (p1, · · · , pn) são chamados de vetores posição e momento, respectivamente, e t
representa o tempo. As variáveis q e p são chamadas variáveis conjugadas, ou seja, p é
conjugada a q. O número n ∈ N é chamado de grau de liberdade do sistema.
Denimos o vetor z ∈ Rn × Rn, a matriz simétrica J de ordem 2n × 2n e o
gradiente de H por
z =
q
p
, J = Jn =
0 I
−I 0
e 5z H = 5H =
∂H∂z1...
∂H∂z2n
, (3.3)
40
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 41
onde 0 é uma matriz n × n identicalmente nula e I é uma matriz identidade n × n.
Note que, de (3.1) e (3.3), segue que
z′ = J 5H(t, z) (3.4)
= J
∂H∂z1...
∂H∂z2n
. (3.5)
O Teorema de Existência e Unicidade garante que para cada (t0, z0) ∈ U , existe
uma única solução z = φ(t, t0, z0) de (3.4) denida para t próximo de t0 que satisfaz a
condição inicial φ(t0, t0, z0) = z0. Denimos φ em uma vizinhança aberta do conjunto
(t, t0, z) ∈ U : t = t0 em Rn. Além disso, essa solução é maximal no sentido que
existe t− = t−(t0, z0) e t+ = t+(t0, z0), possivelmente ±∞, tal que φ(t, t0, z0) é denido
para t− < t < t+ e
limt→t±
φ(t, t0, z0) = ∂U, (3.6)
onde ∂U denota a fronteira de U , (veja [1]).
No caso quando H é independente de t, então U é algum conjunto aberto em
R2n e H : U → R, nesse caso a equação diferencial (3.4) é autonôma e o sistema
Hamiltoniano é chamado de conservativo. As soluções nesse caso são desenhadas como
curvas parametrizadas em U ⊂ R2n e o conjunto U é chamado de espaço de fase. Pelo
Teorema de Existência e Unicidade, existe uma única curva passando por cada ponto
de U , e duas soluções não pode se cruzam em U .
Uma integral primeira de (3.4) é uma função F : U → R diferenciável que é
constante ao longo das soluções de (3.4), ou seja, F (φ(t, z0)) = F (z0) para todo t ∈ R.
As superfícies de nível F−1(c) ⊂ R2n, sendo c constante, são invariantes, ou seja, se
φ(t, z0) é uma solução com z0 ∈ F−1(c), então φ(t, z0) ∈ F−1(c), para todo t ∈ R.
3.1.1 Colchete de Poisson
Sejam H,F,G : U → R, U ⊂ R × Rn × Rn, funções diferenciaveis, denimos o
colchete de Poisson de F e G por
F,G(t, q, p) =n∑i=1
[∂F
∂qi(t, q, p)
∂G
∂pi(t, q, p)− ∂F
∂pi(t, q, p)
∂G
∂qi(t, q, p)
]. (3.7)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 42
O colchete de Poisson satisfaz a identidade de Jacob,
F, G,H+ G, H,F+ H, F,G = 0. (3.8)
Se F (t, q, p) é uma função diferenciável, denido no aberto U ⊂ R × Rn × Rn, pela
regra da cadeia, temos
dF
dt(t, q, p) =
∂F
∂t+∂F
∂q1q′1 + · · ·+ ∂F
∂qnq′n +
∂F
∂p1p′1 + · · ·+ ∂F
∂pnp′n,
agrupando os termos, obtemos
dF
dt(t, q, p) =
∂F
∂t+
n∑k=1
(∂F
∂qkq′k +
∂F
∂pkp′k
).
Pelas equações (3.2), segue que
dF
dt(t, q, p) =
∂F
∂t+
n∑k=1
(∂F
∂qk
∂H
∂pk− ∂F
∂pk
∂H
∂qk
).
Logo, por (3.7),dF
dt(t, q, p) =
∂F
∂t(t, q, p) + F,H(t, q, p). (3.9)
Teorema 3.1.1. Seja H,F,G : U → R, U ⊂ R× Rn × Rn e indepedente do tempo t.
Então
(i)F é uma integral primeira de (3.4) se, e somente se, F,H = 0.
(ii) H é uma integral primeira para (3.4).
(iii) Se F e G são integrais primeira para (3.4), então F,G também é.
(iv) F,H é a taxa de variação de F com relação ao tempo ao longo das soluções
de (3.4).
Demonstração. (i) Seja F uma integral primeira, como F não depende de t, então de
(3.9), obtemosdF
dt(t, q, p) = 0,
ou seja,∂F
∂t(t, q, p) + F,H(t, q, p) = 0.
Como F independe de t, segue que
F,H = 0.
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 43
Reciprocamente, se F,H = 0, de (3.9) obtemos
dF
dt(t, q, p) =
∂F
∂t(t, q, p).
Como F independe de t, obtemos
dF
dt(t, q, p) = 0.
Logo F é uma integral primeira.
(ii) Note que
H,H =∂H
∂q· ∂H∂p− ∂H
∂p· ∂H∂q
= 0,
Logo, de (i), H é uma integral primeira.
(iii) Da identidade de Jacob, temos
F, G,H+ G, H,F+ H, F,G = 0,
como F e G são integrais primeira, temos
F, G,H = 0 e G, H,F = 0.
Assim
H, F,G = 0.
Logo F,G é uma integral primeira.
(iv) De (3.9), temos
dF
dt(t, q, p) =
∂F
∂t(t, q, p) + F,H(t, q, p)
como F independe de t, segue que
dF
dt(t, q, p) = F,H(t, q, p)
Portanto F,H é a taxa de variação de F com relação ao tempo ao longo das soluções
de (3.4)
Em muitos casos o sistema Hamiltoniano H é a energia total do sistema físico,
nesses casos o teorema diz que a energia é uma quantidade conservativa.
No caso conservativo, quando H é independente de t, um ponto crítico de H, isto
é, um ponto onde o gradiente é zero, é um ponto de equilíbrio do sistema de equações
diferenciais (3.1) ou (3.4), ou seja, uma solução constante. Um ponto de equilíbrio ζ
do sistema (3.4) é estável se dado ε > 0, existe δ > 0 tal que ||ζ − φ(t, z0)|| < ε para
todo t em ||ζ − z0|| < δ.
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 44
Teorema 3.1.2. Se ζ é um mínimo ou máximo local de H, então ζ é estável.
Demonstração. Sem perda de generalidade, suponha que ζ = 0, H(0) = 0 e que 0
é um minimo local de H. Fixe ε > 0. Sendo H(0) = 0 e 0 um mínimo de H,
existe η > 0 tal que H(z) é positivo para 0 < ||z|| ≤ η. Seja x = min(ε, η) e
M = maxH(z) : ||z|| = x. Como H(0) = 0 e H é contínua, existe δ > 0 tal que
H(z) < M para ||z|| < δ. Se ||z0|| < δ, então H(z0) = H(φ(t, z0)) < M , para todo t.
||φ(t, z0)|| < x ≤ ε para todo t pois, caso contrário, existiria t0 tal que ||φ(t0, z0)|| = x,
mas H(φ(t0, z0)) ≥M , o que é uma contradição.
3.1.2 O Oscilador Harmônico
O oscilador harmonico é uma equação diferencial ordinária linear autônoma de
segunda ordem da forma
x′′ + w2x = 0, (3.10)
onde w é uma constante positiva. Fazendo a mudança de variável u = x′/w, podemos
reescrever (3.10) como um sistema de duas equações de primeira ordem da forma x′
u′
= w
0 1
−1 0
x
u
. (3.11)
Note que (3.11) é um sistema Hamiltoniano com
H(x, u) =w
2(x2 + u2),
pois as equações se tornam
x′ = wu =∂H
∂u(3.12)
u′ = −wx = −∂H∂x
. (3.13)
A variável u é a velocidade escalar, então o plano xu é essencialmente o plano
velocidade-posição, ou o plano de fase. O Teorema de Existência e Unicidade garante
que para cada ponto (x0, u0), no plano de fase, existe uma única solução passando nesse
ponto para qualquer t0. Procedendo como no Exemplo 2.3.7, temos que a solução do
sistema (3.11) é dada por x
u
=
cos w(t− t0) sen w(t− t0)
−sen w(t− t0) cos w(t− t0)
x0
u0
.
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 45
Como o sistema independe de t, então H é uma integral primeira pelo Teorema
3.1.1. De fato,
H ′ = w · x · x′ + w · u · u′
= w · x · w · u− w · u · w · x
= 0.
Logo a solução ca no conjunto onde H é constante, que é um círculo no plano xu.
Além disso, a origem é uma solução de equilíbrio do sistema e é um mínimo local de
H, então a origem é estável.
3.1.3 Oscilador Forçado Não-Linear
Considere o sistema
x′′ + f(x) = g(t), (3.14)
onde x é um escalar e f, g são funções reais deriváveis de uma variavel escalar. Um
sistema mecânico dado por essas equações é ilustrado pela gura abaixo.
Aqui, x é o deslocamento de uma particula de massa 1 que é conectado a uma
mola não linear que possui a força de restituição −f(x) sujeita a uma força externa
g(t) e supondo que não existe atrito atuando. Essa equação equivale ao sistema
x′ = y =∂H
∂y, y′ = −f(x) + g(t) = −∂H
∂x, (3.15)
onde
H =1
2y2 + F (x)− xg(t), F (x) =
∫ x
0
f(s)ds. (3.16)
Muitas equações são desta forma, por exemplo:
i) O oscilador hamônico: x′′ + w2x = 0;
ii) A equação do pêndulo: θ′′ + sen θ = 0;
iii) A equação de Dung: x′′ + x+ αx3 = cos wt.
No caso quando g é desprezado, g ≡ 0, H é uma integral primeira, pois
H =1
2y2 + F (x)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 46
não depende de t, assim as soluções cam nas curvas de nível de H. Portanto, o retrato
de fase é obtido marcando os pontos das curvas de nível.
Seja h = H(x0, y0). Resolvendo em relação a y, temos
h =1
2y2 + F (x),
ou seja,
y2 = 2h− 2F (x)
. Assim,
y = ±√
2h− 2F (x).
Logo,
y =dx
dt= ±
√2h− 2F (x). (3.17)
Note que, (3.17) é uma equação separável, então
dt =
(1
±√
2h− 2F (x)dx
). (3.18)
Integrando ambos os membros de (3.18), obtemos
t− t0 =
∫ x
x0
1
±√
2h− 2F (x)dr. (3.19)
A solução é obtida resolvendo (3.19).
3.1.4 Sistema Newtoniano Geral
O sistema n-dimensional análogo a (3.14) é
Nx′′ +5F (x) = g(t) (3.20)
onde x é um n-vetor, N = MI, sendo I a matriz identidade n × n e M um escalar
positivo, F é uma função derivável denida no aberto U ⊂ Rn, 5F é o gradiente de F
e g é uma função derivavel de t, para t em algum conjunto aberto em R.
Seja p = Nx′, temos
x′ = N−1p =∂H
∂pe p′ = −5 F (x) + g(t) = −∂H
∂x,
onde o Hamiltoniano é
H =1
2pTN−1p+ F (x)− xTg(t).
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 47
Se x representa o deslocamento de uma particula e N é uma matriz identidade
vezes um escalar positivo, então p é o momento linear da particula, 12pTN−1p é a energia
cinética e F a energia potêncial. Se g(t) ≡ 0, então
H =1
2pTN−1p+ F (x)
não depende de t. Logo, pelo Teorema 3.1.1, H é uma integral primeira.
No caso em que g(t) ≡ 0, se x0 é um ponto crítico do potêncial F , então
5F = 0.
Note que, em x0∂H
∂xi= 0 e
∂H
∂t= 0,
para i = 1, . . . , n. Assim,
5H =
(∂H
∂x1,∂H
∂x2, . . . ,
∂H
∂xn,∂H
∂t
)= 0
no ponto x0. Logo x0 é um ponto crítico de H, ou seja, um ponto crítico de F é um
ponto crítico de H, consequentemente é um ponto de equilíbrio para o Hamiltoniano.
Nesse caso, se x0 é o mínimo local para o potêncial F , então (x0, 0) é o mínimo
local para H e portanto é um ponto de equilíbrio estável pelo Teorema 3.1.2.
3.1.5 Problema de N corpos
Considere N corpos movendo-se no sistema Newtoniano, R3, em interação gra-
vitacional mútua, cada um de massa mi > 0 e posições descritas pelos vetores de
coordenadas cartesiana qi = (xi, yi, zi), i = 1, · · · , N . Da Física sabemos os seguintes
postulados:
i) 2 Lei de Newton: A força aplicada a um objeto é igual à massa do objeto multipli-
cado por sua aceleração, isto é,
Fij = mid2q
dt2. (3.21)
ii)Lei da Gravitação Universal: Dados dois corpos de massa m1 e m2, a uma distância
r entre si, esses dois corpos se atraem mutuamente com uma força que é proporcional
a massa de cada um deles e inversamente proporcional ao quadrado da distância que
os separa, ou seja,
Fij = −Gmimj(qi − qj)||qi − qj||3
, (3.22)
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 48
onde G = 6, 6732× 10−11m3kg/s2 é a constante de gravitação universal, (veja [8]).
Combinando esses dois postulados, obtemos um conjunto de 3N equações dife-
rênciais de segunda ordem da forma
mid2qidt2
= −N∑
j=1,j 6=i
Gmimj(qi − qj)||qi − qj||3
=∂U
∂qi, i = 1, · · · , N, (3.23)
onde
U =N∑
j=1,j 6=i
Gmimj
||qi − qj||(3.24)
é a energia potêncial.
As equações (3.23) podem ser reduzidas a um sistema de 6N equações de primeira
ordem da forma
midqidt
= pi
midpidt
= −N∑
j=1,j 6=i
Gmimj(qi − qj)||qi − qj||3
. (3.25)
Assimdqidt
=pimi
=∂H
∂pie
dpidt
= −N∑
j=1,j 6=i
Gmimj(qi − qj)||qi − qj||3
=∂H
∂qi, (3.26)
onde o Hamiltoniano é
H =N∑i=1
||pi||2
2mi
− U. (3.27)
3.1.6 O Problema de Kepler
O problema de Kepler é quando temos 2 corpos, consideramos que um dos corpos
de massa m2 esta xado na origem, isto é, q2 = (0, 0, 0) (dizemos que o corpo é tão
massivo, como o sol, que ele não se move). Considerando que o outro corpo tem massa
m1 e posição p1, de (3.23) as equações que descrevem o movimento desses corpos tem
a forma
m1d2q1dt2
=Gm1m2(q2 − q1)||q1 − q2||3
m2d2q2dt2
=Gm2m1(q2 − q1)||q2 − q1||3
.
Como q2 ≡ 0, essas equações dão o movimento do corpo de massa m1. Assim
m1d2q1dt2
=Gm1m2(q1)
||q1||3,
CAPÍTULO 3. SISTEMAS HAMILTONIANOS 49
ou seja,d2q1dt2
=−µq1||q1||3
, (3.28)
onde q1 ∈ R3 é o vetor posição e µ = Gm2. Nesse caso, denindo p1 = q′1, obtemos
dp1dt
= − µq1||q1||3
.
Assim,dq1dt
= p1 =∂H
∂pe
dp1dt
= − µq1||q1||3
=∂H
∂q1,
onde o Hamiltoniano é
H =||p1||2
2− µ
||q1||.
Apêndice A
Conceitos e Resultados da Álgebra
Linear
A.1 Autovalores e Autovetores
Denição A.1.1. Dizemos que duas matrizes reais A,B ∈ M(n) são linearmente
conjugadas, ou semelhantes, se existe uma matriz invertível Q ∈ M(n) tal que
AQ = QB, ou seja, tal que
A = QBQ−1.
Nesse caso, dizemos que Q conjuga A e B.
Denição A.1.2. Dados uma matriz real A ∈M(n) e um número real λ ∈ R, dizemos
que λ é um autovalor de A se existe um vetor v ∈ Rn tal que v 6= 0 e
Av = λv.
Nesse caso, dizemos que v é um autovetor associado a λ.
Dada uma matriz C ∈M(n), denimos o núcleo de C por
Nuc(C) = w ∈ Rn | Cw = 0.
Note que v é autovetor de A associado a λ se, e somente se, Av = λv, ou equivalente-
mente, (λI − A)v = 0, ou seja, v ∈ Nuc(λI − A). Se λ é um autovetor de A ∈ M(n),
dizemos que
Vλ = Nuc(λI − A) = v ∈ Rn | Av = λv
é um auto-espaço associado ao autovalor λ.
50
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 51
Lema A.1.1. Sejam A ∈ M(n) uma matriz real e λ um número real. Então as
seguintes armações são equivalentes:
(a) λ é um autovalor de A;
(b) existe um autovetor de A com autovalor associado λ ;
(c) Nuc(λI − A) 6= 0;(d) a matriz λI − A não é invertível;
(e) det(λI − A) = 0.
Demonstração. (a) ⇒ (b) Seja λ um autovalor de A ∈ M(n), então existe um vetor
v ∈ Rn tal que v 6= 0 e Av = λv. Logo v é um autovetor associado a λ.
(b)⇒ (c) Seja v um autovetor de A associado a λ, então de
Av = λv
temos,
λv − Av = 0,
donde,
(λI − A)v = 0,
assim
v ∈ Nuc(λI − A).
Logo
Nuc(λI − A) 6= 0
pois, v é um autovetor, ou seja, v 6= 0.
(c)⇒ (d) Suponha que o núcleo de λI −A é diferente de 0, então λI −A não
é invertível.
(d)⇒ (e) Seja λI − A uma matriz não invertível, então det(λI − A) = 0.
(e)⇒ (a) Se det(λI − A) = 0 então existe v 6= 0 em Rn tal que
(λI − A)v = 0,
daí,
λv − Av = 0,
assim,
λv = Av
ou seja, v é um autovetor de A associado ao autovalor λ.
Segue do Lema A.1.1 que os autovalores de A são as raízes reais do polinômio
p(λ) = pA(λ) = det(λI − A),
denominado polinômio característico da matriz A ∈M(n).
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 52
Exemplo A.1.1. Dada a matriz
A =
1 0 1
0 −2 1
0 0 −1
encontremos os autovalores de A. Calculando o polinômio característico
pA(λ) = det(λI − A)
=
∣∣∣∣∣∣∣λ− 1 0 −1
0 λ+ 2 −1
0 0 λ+ 1
∣∣∣∣∣∣∣= λ3 + 2λ2 − λ− 2
= (λ− 1)(λ+ 1)(λ+ 2)
Logo 1,−1,−2 são os autovalores de A.
Teorema A.1.1 (Teorema de Cayley-Hamilton). Uma matriz A ∈ M(n) anula seu
polinômio característico, isto é,
pA(A) = 0 ∈M(n).
Demonstração. Seja A uma matriz quadrada n × n arbitrária e p(t) seu polinômio
característico, digamos,
p(t) = det(tI − A) = antn + an−1t
n−1 + . . .+ a1t+ a0.
Agora, seja B(t) a adjunta clássica da matriz tI − A. Os elementos de B(t) são co-
fatôres da matriz tI−A, portanto, são polinômios em t de grau não excedende a n−1.
Assim,
B(t) = Bn−1tn−1 + . . .+B1t+B0,
onde os Bi, i = 0, · · · , n− 1, são matrizes quadradas n× n sobre um corpo R que são
independentes de t. Pela propriedade fundamental de adjunta clássica
(tI − A)B(t) = |tI − A|I
ou
(tI − A)(Bn−1tn−1 + . . .+B1t+B0) = (tn + an−1t
n−1 + . . .+ a1t+ a0)I.
Removendo os parênteses e agrupando os coecientes de t de potências correspondentes,
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 53
segue que
Bn−1 = I
Bn−2 − ABn−1 = an−1I
Bn−3 − ABn−2 = an−2I
. . . . . . . . .
B0 − AB1 = a1I
−AB0 = a0I.
Multiplicando a equação matricial acima por An, An−1, . . . , A, I, respectivamente, ob-
temos
AnBn−1 = An
An−1Bn−2 − AnBn−1 = an−1An−1
An−2Bn−3 − An−1Bn−2 = an−2An−2
. . . . . . . . .
AB0 − A2B1 = a1A
−AB0 = a0I.
Somando as equações matriciais acima,
0 = An + an−1An−1 + . . .+ a1A+ a0I.
Em outras palavras, p(A) = 0. Portanto, A é um zero de seu polinômio característico.
Lema A.1.2. Autovetores associados a autovalores distintos são linearmente indepen-
dentes.
Demonstração. Como todo autovetor é não-nulo, então nenhum autovetor é linear-
mente dependente, então o resultado vale para um autovetor. Para mais que um au-
tovetor vamos provar por contrapisitiva, ou seja, autovetores linearmente dependente
possuem ao menos dois autovetores associados iquais.
Provemos por indução, primeiramente veriquemos para dois autovetores. Se-
jam v1, v2 ∈ Rn autovetores linearmente dependentes de A ∈ M(n), associados aos
autovalores λ1 e λ2, respectivamente. Então existe a ∈ R tal que a 6= 0 e v2 = av1.
Temos
λ2v2 = Av2
= aAv1
= aλ1v1
= λ1av1
= λ1v2
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 54
donde,
λ2v2 − λ1v2 = 0,
ou seja,
(λ2 − λ1)v2 = 0.
Como v2 6= 0, então
λ2 − λ1 = 0.
Assim
λ2 = λ1.
Logo dois autovetores linearmente dependente possuem dois autovalores iquais. Su-
ponha que vale para k − 1 autovetores, ou seja, v1, v2, . . . , vk−1 ∈ Rn são autovetores
linearmente dependente de A associados aos autovalores λ1, . . . , λk−1, onde pelo menos
dois autovalores são iquais. Verequemos para k autovetores.
Sejam v1, v2, . . . , vk ∈ Rn autovetores linearmente dependente de A associados
aos autovalores λ1, . . . , λk, respectivamente. Se v1, . . . , vk−1 são linearmente depen-
dente, por hipótese de indução, para os autovetores v1, v2, . . . , vk, existe ao menos dois
autovalores iquais, e acaba a prova.
Suponha que v1, . . . , vk−1 são linearmente independente. Como v1, v2, . . . , vk for-
man um conjunto linearmente dependente e vk 6= 0 ∈ Rn, então vk é uma combinação
linear não trivial de v1, . . . , vk−1. Logo
vk =k−1∑i=1
aivi com algum ai 6= 0. (A.1)
Multiplicando (A.1) por λk, obtemos
λkvk =k−1∑i=1
aiλkvi. (A.2)
Por outro lado, aplicando (A.1) por A, segue que
Avk =k−1∑i=1
aiAvi ⇒ λkvk =k−1∑i=1
aiλivi. (A.3)
Subtraindo (A.2) de (A.3), obtemos
λkvk − λkvk =k−1∑i=1
aiλkvi −k−1∑i=1
aiλivi.
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 55
Daí,
0 =k−1∑i=1
aiλkvi −k−1∑i=1
aiλivi
=k−1∑i=1
(aiλkvi − aiλivi)
=k−1∑i=1
ai(λk − λi)vi.
Como estamos supondo v1, . . . , vk−1 linearmente independente, decorre que
ai(λk − λi) = 0, 1 ≤ i ≤ k − 1.
Sendo algum ai 6= 0, resulta que
λk = λi,
para algum 1≤ i ≤ k − 1 e acaba a demonstração.
A.2 Diagonalização de Matrizes
Denição A.2.1. Uma matriz A ∈ M(n) é dita diagonalizável se A é conjugada a
uma matriz diagonal.
Proposição A.2.1. Uma matriz A ∈ M(n) é diagonalizável se, e somente se, existe
uma base de Rn constituída de autovetores de A. Mais precisamente, dadas as matrizes
A,Q ∈ M(n), temos: as colunas de Q formam uma base de autovetores de A se,
somente se, Q é invertível e Q−1AQ é uma matriz diagonal.
Demonstração. Se Avj = λjvj para cada vetor de uma base do Rn, então a matriz D
do operador T = T1, nessa base, é simplesmente a matriz diagonal
D = diag(λ1, λ2, . . . , λn).
Daí, se Q é a matriz de colunas v1, . . . , vn, então
AQej = Avj
= λjvj
= λjQej
= Qλjej
= QDej
para todo j = 1, . . . , n. Assim,
AQv = QDv, ∀v ∈ Rn.
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 56
Logo,
AQ = QD,
ou seja, A e D são conjugadas por Q. Recíprocamente, observando que Dej = λjej
para cada vetor ej da base canônica do Rn resulta que
Avj = AQej
= QDej
= Qλjej
= λjQej
= λjvj,
ou seja, cada vetor coluna da matriz Q da conjugação de A com a matriz diagonal D
é necessariamente um autovetor de A.
Teorema A.2.1. Se a matriz A ∈ M(n) tem n autovalores distintos, então A é dia-
gonalizável.
Demonstração. Se A tem n autovalores distintos λ1, . . . , λn ∈ R associados aos au-
tovetores v1, . . . , vn ∈ Rn, então pelo Lema A.1.2, esses autovetores, v1, . . . , vn, são
linearmente independente. Logo forman uma base de Rn. Existe uma base de autove-
tores de A. Logo A é diagonalizável.
Exemplo A.2.1. Seja a matriz
A =
1 0 1
0 −2 1
0 0 −2
vimos que o seu polonômio característico é
pA(λ) = (λ− 1)(λ+ 1)(λ+ 2).
e seus autovalores são λ1 = 1, λ2 = −1 e λ3 = −2. Assim pelo teorema acima A é
diagonalizável e, pela Proposição A.2.1, A é semelhante a matriz diagonal
D =
1 0 0
0 −1 0
0 0 −2
.
Calculemos os autovetores associados aos autovalores. Conside v1 = (a, b, c) um auto-
vetor associado a λ1 = 1, então
λ1v = Av.
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 57
Donde a
b
c
=
1 0 1
0 −2 1
0 0 −1
a
b
c
=
a+ c
−2b+ c
−c
.
Da iqualdade acima, obtemos
a = a+ c
b = −2b+ c
c = −c⇒
a = a
c = 0
b = 0
assim a é qualquer e b = c = 0. Logo v1 = (1, 0, 0) é um autovetor associado a λ1 = 1.
Fazendo o mesmo procedimento para os autovalores λ2 e λ3. Para λ2 = −1, temos
λ2v = Av,
donde −a−b−c
=
a+ c
−2b+ c
−c
−a = a+ c
−b = −2b+ c
c = c
⇒c = c
c = −2a
b = c
.
Assim v2 = (1,−2,−2) é um autovetor associado a λ2 = −1. Para λ3 = −2, temos
λ3v = Av,
ou seja, −2a
−2b
−2c
=
a+ c
−2b+ c
−c
−2a = a+ c
−2b = −2b+ c
2c = c
⇒c = 0
a = 0
b = b.
Assim v3 = (0, 1, 0) é um autovetor associado a λ3 = −2. Como v1, v2 e v3 são as
colunas de Q, então
Q =
1 1 0
0 −2 1
0 −2 0
,
ou seja, AQ = QD. Portanto, D é a matriz diagonal associada a A.
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 58
A.3 Autovalores e Autovetores Complexos
Denição A.3.1. Um vetor não nulo w ∈ Cn é um autovetor complexo de uma matriz
real A ∈M(n) se existe γ ∈ C não real, tal que Aw = γw.
Proposição A.3.1. Dados uma matriz A ∈M(n), um número complexo não real γ e
um vetor não-nulo w ∈ Cn, temos:
• γ é um autovalor complexo de A se, e somente se, γ é um autovalor complexo de
A;
• w é um autovetor complexo de A com autovalor γ se, e somente se, w é um
autovetor complexo de A com autovalor γ;
• se w é um autovetor complexo de A então w,w é linearmente independente em
Cn.
Demonstração. Seja A uma matriz real, o polinômio característico pA(z) de A tem
coecientes reais e, portanto, pA(z) = pA(z). Considere γ um autovalor complexo de
A, então
pA(γ) = pA(γ) = 0 = 0
ou seja, γ também é um autovalor complexo de A.
Suponha agora w ∈ Cn um autovetor complexo de A com autovalor γ, ou seja,
Aw = γw.
Donde Aw = Aw, pois A é uma matriz de termos reais. Assim,
Aw = Aw = γw = γ w.
Logo w é um autovetor complexo de A associado a um autovalor complexo γ. Pro-
vemos agora que w,w é linearmente independente por contrapositiva. Suponha que
w e w são vetores linearmente dependente de A, associados aos autovalores γ e γ,
respectivamente. Então existe a ∈ R tal que a 6= 0 e w = wa. Daí,
γw = Aw
= aAw
= aγ w
= γaw
= γw.
Donde
γw − γw = 0⇒ (γ − γ)w = 0,
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 59
como w 6= 0, então
γ − γ = 0,
ou seja,
γ = γ.
Contradição, pois se γ é um número complexo não real, então γ 6= γ. Portanto w,wsão linearmente independente em Cn.
Podemos escrever w ∈ Cn, um autovetor complexo de A ∈M(n) como
w = u+ iv
com u, v ∈ R. Em particular
w = u+ iv = u− iv.
Daí,
w + w = (u+ iv) + (u− iv)
= 2u,
ou seja,
u =1
2(w + w).
Fazendo agora
w − w = (u+ iv)− (u− iv)
= u+ iv − u+ iv
= 2iv,
ou seja,
v =1
2i(w − w)
são os únicos vetores em Rn tais que w = u+ iv.
Proposição A.3.2. Sejam A ∈ M(n) uma matriz real e w ∈ Cn um autovetor com-
plexo de A associado ao autovalor complexo a + ib ∈ C, com b 6= 0. Escrevendo
w = u + iv com u, v ∈ Rn dados por u = w+w2
e v = w−w2i
, temos que u, v é linear-
mente independente em Rn e
Au = au− bvAv = bu+ av.
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 60
Demonstração. Suponha que w seja um autovetor complexo de A e sejam u, v ∈ Rn
tais que w = u+iv, como u = w+w2
e v = w−w2i
. Vamos supor que u, v seja linearmente
dependente em Rn, isto é, que exista α ∈ R tal que v = αu. De
v =w − w
2i
temos
w − w = 2iv
= 2iαu
= 2iα
(w + w
2
)= iα(w + w)
= iαw + iαw,
ou seja,
w − iαw = w + iαw,
donde,
w(1− iα) = w(1 + iα).
Como 1 − iα 6= 0 6= 1 + iα, w,w é linearmente dependente em Cn, o que contraria
a proposição A.3.1. Logo u, v é linearmente independente em Rn. Suponha agora
γ = a+ ib, com b 6= 0, o autovalor associado a w.
Au+ iAv = A(u+ iv)
= Aw
= γw
= (a+ ib)(u+ iv)
= (au− bv) + i(bu+ av)
= (au− bv) + i(bu+ av).
Igualando a parte real e imaginária, obtemos
Au = au− bvAv = bu+ av
como A ∈M(n) é uma matriz real, temos Au,Av ∈ Rn.
Exemplo A.3.1. Seja
A =
(a b
−b a
)
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 61
uma matriz e w ∈ C2 um autovetor de A, onde w = (1, i). Então w = (1, i) =
(1, 0) + i(0, 1), ou seja, u = (1, 0) e v = (0, 1). Daí,
Au =
(a b
−b a
)(1
0
)
=
(a
−b
)
= a
(1
0
)− b
(0
1
)= au− bv,
por outro lado,
Av =
(a b
−b a
)(0
1
)
=
(b
a
)
= b
(1
0
)+ a
(0
1
)= bu+ av.
Exemplo A.3.2. Seja A ∈M(n) uma matriz tal que
A =
1 0 −2
−5 6 11
5 −5 −10
.
calculando o seu polinômio característico, obtemos
pA(λ) = det(Iλ− A)
= λ3 + 3λ2 + λ− 5
= (λ− 1)(λ+ 2− i)(λ+ 2 + i)
os autovalores generalizados de A são 1 e −2± i, temos (1, 1, 0) o autovetor associado.
Tomando w = (z1, z2, z3) ∈ C3, para γ = −2 + i, temos
0 = ((−2 + i)I − A)w
=
−3 + i 0 2
5 −8 + i −11
−5 5 8 + i
z1
z2
z3
=
(−3 + i)z1 + 2z3
5z1 + (−8 + i)z2 − 11z3
−5z1 + 5z2 + (8 + i)z3
.
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 62
Tomando z1 = 2, temos z3 = 3−i e z2 = −3+i, de modo que w = (2,−3+i, 3−i) ∈ C3.
Daí,
Au = A
2
−3
3
=
−4
5
−5
= −2
2
−3
3
− 0
1
−1
= 2u− v.
Assim
Q =
1 2 0
1 −3 1
0 3 −1
e D =
1 0 0
0 −2 1
0 −1 −2
.
Teorema A.3.1. Seja A ∈ M(n) uma matriz real e λ1, λ2 as raízes do polinômio
característico pA(λ). Então ocorre exatamente um dos casos de classe de conjugação
de matrizes.
1. Se λ1, λ2 são reais e λ1 6= λ2 então
A ∼
(λ1 0
0 λ2
);
2. Se λ0 = λ1 = λ2, λ0 ∈ R:
(a) dim Nuc(λ0I − A) = 2, então
A ∼
(λ0 0
0 λ0
)= λ0I
(b) dim Nuc(λ0I − A) = 1, então
A ∼
(λ0 0
1 λ0
),
sendo as colunas da matriz de conjugação dadas por qualquer vetor u fora do
autoespaço Nuc(λ0I − A) e o autovetor v associado a λ0.
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 63
3. Se λ1 = a+ ib e λ2 = a− ib, com a, b ∈ R, b 6= 0, então
A ∼
(a b
−b a
)
sendo as colunas da matriz de conjugação dadas pela parte real e imaginárias de
qualquer autovetor complexo de A.
Demonstração. O caso 1 já foi demonstrado no caso geral de uma matriz n× n.Caso 2: Suponha que as raízes do polinômio característico de A sejam reais e
iquais, λ1 = λ2 = λ0 ∈ R. Então
pA(λ) = (λ− λ0)2
a) Se dim Nuc(λ0I − A) = 2, então dim Im(λ0I − A) = 0. Assim
λ0I − A = 0⇒ λ0I = A.
b) Se
dim Nuc(λ0I − A) = 1⇒ dim Im(λ0I − A) = 1
mas
(λ0I − A)(λ0I − A)2 = pA(A) = 0 ∈M(2).
Assim
dim Nuc(λ0I − A)2 = 2.
Daí,
(λ0I − A)[(λ0I − A)u] = 0,∀u ∈ Rn
e
Im(λ0I − A) ⊆ Nuc(λ0I − A)
Sendo
dim Im(λ0I − A) = dim Nuc(λ0I − A),
segue que,
Nuc(λ0I − A) = Im(λ0I − A).
Tomemos um vetor qualquer u ∈ R2 \ Nuc(λ0I − A), então u 6= 0 e (λ0I − A)u 6= 0.
Denindo
v = −(λ0I − A)u
obtemos que v 6= 0 e Au = λ0u+ v e pelo que vimos acima
v ∈ Im(λ0I − A) = Nuc(λ0I − A).
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 64
Assim v é um autovetor de A associado a λ0 e u, v é base de R2. Além disso a matriz
Q ∈M(2) de colunas Qe1 = u e Qe2 = v. Escrevendo
J =
(λ0 0
1 λ0
),
temos
Je1 = λ0e1 + e2 e Je2 = λ0e2.
Daí,
AQe1 = Au
= λ0u+ v
= λ0Qe1 +Qe2
= Q(λ0e1 + e2)
= QJe1
e
AQe2 = Av
= λ0v
= λ0Qe2
= Qλ0e2
= QJe2
Portanto
AQ = QJ.
Caso 3: Suponha λ = a + ib, λ = a − ib, b 6= 0, w = u + iv, com u, v ∈ Rn
autovetor associado a λ. Como u, v é LI em R2, a matriz real Q ∈M(n) de colunas
Qe1 = u, Qe2 = v é invertível e
Au = au− bv e Av = au+ av.
Escreva
J =
(a b
−b a
),
temos
Je1 = ae1 − be2 e Je2 = be1 + ae2.
logo
AQe1 = Au
= au− bv= aQe1 − bQe2= Q(ae1 − be2)= QJe1
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 65
e
AQe2 = Av
= bu+ av
= bQe1 + aQe2
= Q(be1 − ae2)= QJe2.
Portanto,
AQ = QJ.
Exemplo A.3.3. Considere a matriz
A =
(3 −1
1 1
).
Seu polinômio característico é da forma
pA(λ) = λ2 − 4λ+ 4 = (λ− 2)2,
então, λ = 2 é um autovalor de A com multiplicidade algebrica 2. Daí,
(A− Iλ)v = 0,
ou seja, (1 −1
1 −1
)(x
y
)=
(0
0
),
donde x = y. Assim, os autovetores de A são da forma (x, x), x 6= 0. Logo
Nuc(A− 2I) =
[(1
1
)].
Portanto, a matriz A é semelhante a matriz
J =
(2 0
1 2
)e a matriz Q de conjugação linear tem como colunas w e v, onde v é um autovetor de
A e w é um vetor fora do subespaço Nuc(A− 2I). Note que
(A− λI)2w = 0, (A− λI)w 6= 0,
isto é, (1 −1
1 −1
)=
(0 0
0 0
).
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 66
Assim
(A− λI)2w = 0⇔
(0 0
0 0
)(w1
w2
)=
(0
0
).
Logo podemos escolher w arbitrário desde que (A− 2I)w 6= 0. Escolha
w =
[1
0
]ou w =
[0
1
].
Portanto a matriz de conjugação Q é dada por
Q =
[1 1
0 1
].
Resolvendo,
y′ =
(2 0
1 2
)(y1
y2
)donde
y(t) =
(y1(t)
y2(t)
)=
(k1e
2t
k1te2t + k2
)é solução de y′ = Jy. Mas A ∼ J com matriz de conjugação Q,
AQ = QJ
e x(t) = Qy(t) é a solução procurada de x′ = Ax
A.4 Forma Canônica de Jordan
Teorema A.4.1. Seja T : V −→ V um operador linear, cujos polinômios característico
e mínimo são, respectivamente,
∆(t) = (t− λ1)n1 ...(t− λr)nr
e
m(t) = (t− λ1)m1 ...(t− λr)mr
onde os λi são escalares distintos. Então, T tem uma representação matricial diagonal
em blocos J , cujos elementos diagonais são da forma
Jij =
λi 0 0 . . . 0 0
1 λi 0 . . . 0 0
. . . . . . . . . . . . . . . . . .
0 0 0 . . . λi 0
0 0 0 . . . 1 λi
.
Para cada λi, os blocos correspondentes Jij têm as seguintes propriedades:
APÊNDICE A. CONCEITOS E RESULTADOS DA ÁLGEBRA LINEAR 67
1. Existe, ao menos um Jij de ordem mi; todos os outros Jij são de ordem ≤ mi;
2. A soma das ordens dos Jij é ni;
3. O número dos Jij é igual à multiplicidade geométrica dos λi;
4. O número dos Jij de cada ordem possível é determinado de maneira única por T .
A Demostração pode ser encontrado em [3]
Exemplo A.4.1. Suponhamos que os polinômios característico e mínimo de um ope-
rador T são, respectivamente,
∆(t) = (t− 2)4(t− 3)3 e m(t) = (t− 2)2(t− 3)2.
Então, a forma canônica de Jordan de T é uma das seguintes matrizes
2 0 0 0 0 0 0
1 2 0 0 0 0 0
0 0 2 0 0 0 0
0 0 1 2 0 0 0
0 0 0 0 3 0 0
0 0 0 0 1 3 0
0 0 0 0 0 0 3
ou
2 0 0 0 0 0 0
1 2 0 0 0 0 0
0 0 2 0 0 0 0
0 0 0 2 0 0 0
0 0 0 0 3 0 0
0 0 0 0 1 3 0
0 0 0 0 0 0 3
A primeira matriz ocorre se T tem dois autovetores independentes pertencentes ao
seu autovalor 2, e a segunda matriz ocorre se T tem três autovetores independentes
pertencentes a 2.
Exemplo A.4.2. Considere o polinômio característico ∆(t) = (t− 2)3(t− 5)2. Como
t− 2 tem expoente 3 em ∆(t), então 2 deve aparecer três vezes na diagonal principal.
Semelhantemente, 5 deve aparecer duas vezes. Assim, as possíveis formas canônicas
de Jordan são2 0 0 0 0
1 2 0 0 0
0 1 2 0 0
0 0 0 5 0
0 0 0 1 5
2 0 0 0 0
1 2 0 0 0
0 0 2 0 0
0 0 0 5 0
0 0 0 1 5
2 0 0 0 0
0 2 0 0 0
0 0 2 0 0
0 0 0 5 0
0 0 0 1 5
2 0 0 0 0
1 2 0 0 0
0 1 2 0 0
0 0 0 5 0
0 0 0 0 5
2 0 0 0 0
1 2 0 0 0
0 0 2 0 0
0 0 0 5 0
0 0 0 0 5
2 0 0 0 0
0 2 0 0 0
0 0 2 0 0
0 0 0 5 0
0 0 0 0 5
.
A formar de Jordan é denida pela multiplicidade geometrica do polinômio caracterís-
tico.
Referências Bibliográcas
[1] Doering, C. I.; Lopes, A. O.: Equações Diferenciais Ordinárias, IMPA, Rio de
Janeiro 2007.
[2] Figueiredo, D; Neves, A.: Equações diferenciais aplicadas, IMPA, Rio de Janeiro
2002.
[3] Homan, K; Kunze, R.: Álgebra Linear, LTC, Rio de Janeiro 1979.
[4] Lima, E. L.: Espaços Métricos, IMPA, Rio de Janeiro 2009.
[5] Lima, E. L.: Curso de Análise Vol.1, IMPA, Rio de Janeiro 2010.
[6] Lima, E. L.: Curso de Análise Vol.2, IMPA, Rio de Janeiro 2009.
[7] Lipschutz, S.: Álgebra Linear, McGraw-Hill do Brasil, São Paulo 1978.
[8] Meyer, K. R.; Hall, G. R.: Introduction to Hamiltonian Dynamical Systems and
the N-Body Problem, Springer - Verlag, New York 1992.
[9] Sotomayor, J.: Lições de Equações Diferenciais Ordinárias, IMPA, Rio de Janeiro
1979.
68
Top Related