ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE...

31
´ ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S ˜ AO CARLOS) 2 o semestre de 2015 1.Nota¸c˜ ao de aplica¸c˜ oes e conjuntos Sejam A e B dois conjuntos de natureza qualquer. Uma aplica¸ c˜ao f : A B de A para B ´ e uma lei pela qual a cada elemento a A est´ a associado um ´ unico elemento b B, denotado por b = f (a) e chamado a imagem de a. Escreve-se tamb´ em A f −→ B. Dizemos que A ´ eo dom´ ınio e B ´ e o contra-dom´ ınio de f . Note que, por defini¸c˜ ao, consideramos duas aplica¸c˜ oes f : A B e g : A C como diferentes se os contra-dom´ ınios s˜ao diferentes, isto ´ e, B ̸= C, mesmo se a lei parece a mesma. Por exemplo, denotando 1 R := {r | r ´ e um n´ umero real} e R + := {r R | r 0}, temos duas aplica¸c˜ oes f : R R, f : r 7r 2 ,e g : R R + , g : r 7r 2 , que s˜ao diferentes embora dadas atrav´ es da mesma lei r 7r 2 . (Escrevendo f : a 7b enfatizamos como f “age” sobre elementos; isto ´ e equivalente a escrever f (a)= b.) Utilizamos a seguinte nota¸c˜ ao de conjuntos. O s´ ımbolo denota o conjunto vazio, isto ´ e, sem elementos. ( ´ E razo´avel imaginar um conjunto como um saco de coisas. Neste caso, o vazio ´ e um saco vazio.) Quando A est´ a contido em B, ou seja, quando B cont´ em A, escrevemos A B ou B A. Para verificar que A B, precisa-se provar a implica¸c˜ ao a A = a B. Dois conjuntos A e B ao considerados como iguais se eles tˆ em os mesmos elementos. Em outras palavras, A = B ´ e equivalente a A B e A B. Por exemplo, p ̸= {p} para qualquer conjunto p. Em particular, o conjunto {} ao ´ e vazio. Sejam A e B conjuntos. Denotamos por A B a interse¸ c˜ao de A e B, isto ´ e, A B := {x | x A, x B}. Denotamos por A B := {x | x A ou x B} a uni˜ao de A e B. Denotamos por A × B := { (a, b) | a A, b B } o produto cartesiano de A e B. Este produto ´ e formado por todos os pares ordenados (a, b), onde a A e b B. N˜ao precisa saber o que ´ e um par ordenado. ´ E suficiente saber apenas a propriedade que caracteriza este conceito: (a, b)=(a ,b ) ⇐⇒ a = a e b = b . De modo an´ alogo, podemos definir o produto cartesiano A 1 × A 2 ×···× A n de conjuntos A 1 ,A 2 ,...,A n . Seja A um conjunto e sejam S, S A subconjuntos. Denotamos por S \ S := {s S | s/ S } o complemento de S em S. Seja f : A B umaaplica¸c˜ ao e sejam A A e B B. Ent˜ ao f (A ) := { f (a) | a A } ´ ea imagem de A por f e f 1 (B ) := { a A | f (a) B } ´ e a imagem inversa de B por f . Definimos a restri¸ c˜ao f | A : A B de f para A pela regra ´obvia f | A : a 7f (a ). A aplica¸c˜ ao de inclus˜ao i : A , A ´ e dada pela regra i : a 7a para todo a A . Sejam A f −→ B g −→ C duasaplica¸c˜ oes dos formatos indicados. Definimos a aplica¸c˜ ao composta ou a composi¸ c˜ao g f : A C pela regra (g f )(a) := g ( f (a) ) para todo a A. Essaopera¸c˜ ao ´ e associativa: ´ e f´acil verificar que (h g) f = h (g f ) para aplica¸c˜ oes A f −→ B g −→ C h −→ D. Podemos observar tamb´ em que a restri¸c˜ ao f | A daaplica¸c˜ ao f : A B para A A ´ e a composi¸c˜ ao f i, isto ´ e, f | A = f i, onde i : A , A ´ e a aplica¸c˜ ao de inclus˜ao. Para qualquer conjunto A, temos a aplica¸c˜ ao 1 Este ´ e nosso jeito de definir um conjunto. Seja dado um conjunto A e seja P (x) uma propriedade de elementos. Ent˜ ao o conjunto C = { a A | P (a) } ´ e formado por todos os elementos a A que satisfazem a propriedade P (a).

Transcript of ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE...

Page 1: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS)

2o semestre de 2015

1. Notacao de aplicacoes e conjuntos

Sejam A e B dois conjuntos de natureza qualquer. Uma aplicacao f : A → B de A para B euma lei pela qual a cada elemento a ∈ A esta associado um unico elemento b ∈ B, denotado por

b = f(a) e chamado a imagem de a. Escreve-se tambem Af−→ B. Dizemos que A e o domınio e B e

o contra-domınio de f . Note que, por definicao, consideramos duas aplicacoes f : A → B e g : A → Ccomo diferentes se os contra-domınios sao diferentes, isto e, B = C, mesmo se a lei parece a mesma.Por exemplo, denotando1 R := {r | r e um numero real} e R+ := {r ∈ R | r ≥ 0}, temos duas aplicacoesf : R→ R, f : r 7→ r2, e g : R→ R+, g : r 7→ r2, que sao diferentes embora dadas atraves da mesma leir 7→ r2. (Escrevendo f : a 7→ b enfatizamos como f “age” sobre elementos; isto e equivalente a escreverf(a) = b.)

Utilizamos a seguinte notacao de conjuntos. O sımbolo ∅ denota o conjunto vazio, isto e, semelementos. (E razoavel imaginar um conjunto como um saco de coisas. Neste caso, o vazio e um sacovazio.) Quando A esta contido em B, ou seja, quando B contem A, escrevemos A ⊂ B ou B ⊃ A.Para verificar que A ⊂ B, precisa-se provar a implicacao a ∈ A =⇒ a ∈ B. Dois conjuntos A e B saoconsiderados como iguais se eles tem os mesmos elementos. Em outras palavras, A = B e equivalente aA ⊂ B e A ⊃ B. Por exemplo, p = {p} para qualquer conjunto p. Em particular, o conjunto {∅} nao evazio.

Sejam A e B conjuntos. Denotamos por A ∩ B a intersecao de A e B, isto e, A ∩ B := {x | x ∈ A,x ∈ B}. Denotamos por A ∪ B := {x | x ∈ A ou x ∈ B} a uniao de A e B. Denotamos porA× B :=

{(a, b) | a ∈ A, b ∈ B

}o produto cartesiano de A e B. Este produto e formado por todos os

pares ordenados (a, b), onde a ∈ A e b ∈ B. Nao precisa saber o que e um par ordenado. E suficientesaber apenas a propriedade que caracteriza este conceito: (a, b) = (a′, b′)⇐⇒ a = a′ e b = b′. De modoanalogo, podemos definir o produto cartesiano A1 ×A2 × · · · ×An de conjuntos A1, A2, . . . , An. Seja Aum conjunto e sejam S, S′ ⊂ A subconjuntos. Denotamos por S \ S′ := {s ∈ S | s /∈ S′} o complementode S′ em S.

Seja f : A→ B uma aplicacao e sejam A′ ⊂ A e B′ ⊂ B. Entao f(A′) :={f(a) | a ∈ A′} e a imagem

de A′ por f e f−1(B′) :={a ∈ A | f(a) ∈ B′} e a imagem inversa de B′ por f . Definimos a restricao

f |A′ : A′ → B de f para A′ pela regra obvia f |A′ : a′ 7→ f(a′). A aplicacao de inclusao i : A′ ↪→ A edada pela regra i : a′ 7→ a′ para todo a′ ∈ A′.

Sejam Af−→ B

g−→ C duas aplicacoes dos formatos indicados. Definimos a aplicacao compostaou a composicao g ◦ f : A → C pela regra (g ◦ f)(a) := g

(f(a)

)para todo a ∈ A. Essa operacao e

associativa: e facil verificar que (h ◦ g) ◦ f = h ◦ (g ◦ f) para aplicacoes Af−→ B

g−→ Ch−→ D. Podemos

observar tambem que a restricao f |A′ da aplicacao f : A→ B para A′ ⊂ A e a composicao f ◦ i, isto e,f |A′ = f ◦ i, onde i : A′ ↪→ A e a aplicacao de inclusao. Para qualquer conjunto A, temos a aplicacao

1Este e nosso jeito de definir um conjunto. Seja dado um conjunto A e seja P (x) uma propriedade de elementos. Entao

o conjunto C ={a ∈ A | P (a)

}e formado por todos os elementos a ∈ A que satisfazem a propriedade P (a).

Page 2: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

2 2o SEMESTRE DE 2015

identica 1A : A → A dada pela regra 1A : a 7→ a. Essa aplicacao satisfaz as identidades f ◦ 1A = f e1A ◦ g = g para quaisquer aplicacoes f : A→ B e g : C → A.

Uma aplicacao f : A → B e dita injetora ou uma injecao se f(a1) = f(a2) =⇒ a1 = a2 paratodos a1, a2 ∈ A. A aplicacao de inclusao considerada acima e um exemplo de uma aplicacao injetora.Uma aplicacao f : A→ B e dita sobrejetora ou uma sobrejecao se todo elemento de B e a imagem porf de um elemento de A, isto e, se, para todo b ∈ B, existe um a ∈ A tal que f(a) = b. Uma aplicacaof : A→ B simultaneamente injetora e sobrejetora e dita bijetora ou uma bijecao. Um jeito equivalentede definir bijecao: uma aplicacao f : A → B se chama bijecao se ela possui uma inversa de doislados relativamente a composicao; isto significa que existe uma aplicacao (inversa) g : B → A tal quef ◦ g = 1B e g ◦ f = 1A.

2. Escalares

Necessitamos fixar um conjunto K de escalares. Normalmente, este sera R ou C := {c | c e um numerocomplexo}. Mas quase tudo funcionara2 tomando-se K = Q, onde Q := {q | q e um numero racional}.As propriedades que um conjunto numerico K deve ter para servir como conjunto de escalares sao as

seguintes:

E1. 1 ∈ K.E2. k1, k2 ∈ K =⇒ −k1, k1 + k2, k1k2 ∈ K.

E3. 0 = k ∈ K =⇒ 1

k∈ K.

Em palavras: temos escalar 1 e podemos efetuar adicao, subtracao, multiplicacao e divisao.3 Em par-ticular, 0 ∈ K pois 0 = 1− 1.

3. Espaco vetorial

Seja V um conjunto munido de duas operacoes: K × V·→ V denotada (k, v) 7→ k · v e chamada

multiplicacao por escalar, e V × V+→ V denotada (v1, v2) 7→ v1 + v2 e chamada adicao. Dizemos que V

e um K-espaco vetorial se

V1. v1 + v2 = v2 + v1 para todos v1, v2 ∈ V (comutatividade da adicao).V2. (v1 + v2) + v3 = v1 + (v2 + v3) para todos v1, v2, v3 ∈ V (associatividade da adicao).V3. Existe um n ∈ V tal que n + v = v para todo v ∈ V (existencia do elemento neutro para a

adicao). Tal n e unico: para elementos neutros n e n′ temos n′ = n+n′ = n′ +n = n. No que se segue,denotaremos este elemento por 0.

V4. Para todo v ∈ V , existe um v′ ∈ V tal que v + v′ = 0. Para um dado v ∈ V , este v′ e unico:se v + v′′ = 0, temos v′′ = 0+ v′′ = (v + v′) + v′′ = (v′ + v) + v′′ = v′ + (v + v′′) = v′ + 0 = 0 + v′ = v′.Em seguida, chamaremos v′ oposto a v e o denotaremos por (−v).

V5. k · (v1 + v2) = (k · v1) + (k · v2) para todos v1, v2 ∈ V e k ∈ K (distributividade da multiplicacaopor escalar relativamente a adicao em V ).

V6. (k1 + k2) · v = (k1 · v) + (k2 · v) para todos k1, k2 ∈ K e v ∈ V (distributividade da multiplicacaopor escalar relativamente as adicoes).

V7. (k1k2) · v = k1 · (k2 · v) para todos k1, k2 ∈ K e v ∈ V (associatividade da multiplicacao porescalar).

V8. 1 · v = v para todo v ∈ V .

Daı segue 0 · v = 0. Realmente, v = 1 · v = (1+ 0) · v = 1 · v+0 · v = v+0 · v. Agora 0 = (−v) + v =(−v) + (v + 0 · v) =

((−v) + v

)+ 0 · v = 0 + 0 · v = 0 · v. Tambem temos (−1) · v = −v. Com efeito,

2Na computacao usa-se uma escolha mais exotica de escalares, a de 16 elementos.3A ultima operacao exige que o escalar pelo qual dividimos nao seja nulo.

Page 3: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 3

v+ (−1) · v = 1 · v+ (−1) · v =(1 + (−1)

)· v = 0 · v = 0. Em seguida, vamos as vezes omitir · e utilizar

a notacao de subtracao v1 − v2 := v1 + (−v2).3. Exemplos. 1. R-espaco vetorial de vetores no plano.3.2. R-espaco vetorial de vetores no espaco.3.3. Seja C um conjunto. Denotamos por Func(C,K) := {f : C → K} o conjunto de todas as

funcoes (= aplicacoes) de C para K. Definimos operacoes. Para f, f1, f2 ∈ Func(C,K) e k ∈ K, facamos

(f1 + f2)(c) := f1(c) + f2(c) e (k · f)(c) := kf(c) para qualquer c ∈ C. E facil verificar que obtemosum K-espaco vetorial. Realmente, para provar que f1 + f2 = f2 + f1, precisamos apenas verificar que(f1+f2)(c) = (f2+f1)(c) para todo c ∈ C : pela definicao, (f1+f2)(c) = f1(c)+f2(c) = f2(c)+f1(c) =(f2 + f1)(c). O elemento neutro para a adicao e a funcao identicamente nula, dada por 0(c) := 0 paratodo c ∈ C. A funcao oposta a f e dada por (−f)(c) := −f(c) para todo c ∈ C. Os outros axiomas severificam de modo analogo.

3.4. Os proprios escalares K munidos das obvias operacoes constituem um K-espaco vetorial.3.5. Sejam V1, V2 K-espacos vetoriais. Em V1×V2, definimos operacoes (v1, v2)+ (v′1, v

′2) := (v1+ v′1,

v2 + v′2) e k · (v1, v2) := (k · v1, k · v2) para todos v1, v′1 ∈ V1, v2, v

′2 ∈ V2 e k ∈ K. E facil verificar que

obtemos um K-espaco vetorial chamado soma direta de V1 e V2 e denotado por V1 ⊕ V2. Por exemplo,o elemento neutro para a adicao e (0, 0) e o oposto a (v1, v2) e (−v1,−v2). De maneira semelhante,podemos definir a soma direta V1 ⊕ V2 ⊕ · · · ⊕ Vn de n K-espacos vetoriais V1, V2, . . . , Vn. DenotamosKn := K⊕K⊕ · · · ⊕K︸ ︷︷ ︸

n vezes

.

3.6. C e um R-espaco vetorial. R e C sao Q-espacos vetoriais.3.7. O conjunto K[x] := {knxn+kn−1x

n−1+ · · ·+k1x+k0 | k0, k1, . . . , kn−1, kn ∈ K, n ≥ 0} de todosos polinomios em uma variavel x com coeficientes em K munido das obvias operacoes (aqu, e melhorinterpretar um polinomio como uma expressao formal, nao como uma funcao) e um K-espaco vetorial.Fazendo K[x]<n :=

{f(x) ∈ K[x] | grau de f(x) < n

}obtemos um K-espaco vetorial que e de fato Kn.

3.8. Seja C um conjunto e seja C0 ⊂ C. O conjunto{f ∈ Func(C,K) | f |C0 ≡ 0

}munido das

mesmas operacoes como no Exemplo 3.3 e um K-espaco vetorial, onde f |C0 ≡ 0 significa que a funcaof e identicamente nula sobre C0.

4. Subespacos. Dependencia linear. Base e dimensao

Seja V um K-espaco vetorial e seja W ⊂ V . Dizemos que W e um subespaco de V se

S0. 0 ∈W .S1. k ∈ K, w ∈W =⇒ k · w ∈W .S2. w1, w2 ∈W =⇒ w1 + w2 ∈W .

Em palavras: W e um subconjunto em V fechado relativamente as operacoes de tomar-se o 0, adicaoe multiplicacao por escalar. E facil ver que W munido das operacoes induzidas e um K-espaco vetorial.Denotamos W ≤ V .

4.1. Exemplos. 1. Seja V um K-espaco vetorial e sejam W1,W2 ≤ V . Entao W1 ∩ W2 ≤ V eW1 + W2 := {w1 + w2 | w1 ∈ W1, w2 ∈ W2} ≤ V . Realmente, de 0 ∈ W1 e 0 ∈ W2 segue que0 ∈ W1 ∩ W2. Se w ∈ W1 ∩ W2 e k ∈ K, entao w ∈ Wi para i = 1, 2. Sendo Wi um subespaco,k · w ∈ Wi para i = 1, 2. Em outras palavras, k · w ∈ W1 ∩W2. Se w,w′ ∈ W1 ∩W2, entao w,w′ ∈ Wi

e w + w′ ∈ Wi para i = 1, 2, pois Wi e um subespaco. Logo, w + w′ ∈ W1 ∩W2. Assim provamosque W1 ∩W2 ≤ V . Obviamente, W1 ∩W2 e o maior (no sentido de inclusao de conjuntos) subespacocontido em ambos W1 e W2. Vamos verificar que W1 + W2 ≤ V . Sendo 0 ∈ W1 e 0 ∈ W2, temos0 = 0 + 0 ∈ W1 + W2. Sejam w ∈ W1 + W2 e k ∈ K. Entao w = w1 + w2 para alguns w1 ∈ W1 ew2 ∈ W2. Logo, k · w = k · w1 + k · w2 ∈ W1 +W2, pois k · w1 ∈ W1 e k · w2 ∈ W2. Finalmente, sejamw,w′ ∈ W1 +W2. Entao, w = w1 + w2 e w′ = w′

1 + w′2 para w1, w

′1 ∈ W1 e w2, w

′2 ∈ W2 apropriados.

Page 4: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

4 2o SEMESTRE DE 2015

Daı, w + w′ = w1 + w′1 + w2 + w′

2 com w1 + w′1 ∈ W1 e w2 + w′

2 ∈ W2. Assim, W1 +W2 ≤ V . Noteque W1 +W2 contem ambos W1 e W2. Realmente, todo w1 ∈ W1 pode ser escrito como w1 = w1 + 0com 0 ∈ W2. Logo, W1 ⊂ W1 + W2. De modo semelhante, obtemos W2 ⊂ W1 + W2. Ainda mais,o subespaco W1 + W2 e o menor (no sentido de inclusao de conjuntos) subespaco que contem ambosW1 e W2. Com efeito, seja W ≤ V um subespaco tal que W1,W2 ⊂ W . Entao, para quaisquerw1 ∈ W1 e w2 ∈ W2, temos w1, w2 ∈ W . Daı, w1 + w2 ∈ W . Assim vemos que qualquer elementode W1 +W2 pertence a W , ou seja, W1 +W2 ⊂ W . Da mesma maneira podemos definir o subespacoW1 + W2 + · · · + Wn := {w1 + w2 + · · · + wn | w1 ∈ W1, w2 ∈ W2, . . . , wn ∈ Wn} para subespacosW1,W2, . . . ,Wn ≤ V . Este subespaco e o menor que contem todos os W1,W2, . . . ,Wn. Como a adicaoe associativa, nao colocamos os parenteses em W1 +W2 + · · ·+Wn.

4.1.2. Seja V um K-espaco vetorial e seja v ∈ V . Entao e facil ver que Kv := {k · v | k ∈ K} ≤ V .Obviamente, Kv e o menor subespaco que contem v. Caso v = 0, todo w ∈ Kv admite a unica formaw = k · v com k ∈ K.

4.1.3. Seja V um K-espaco vetorial e sejam v1, . . . , vn ∈ V . Denotamos [v1, . . . , vn] := Kv1+· · ·+Kvn.Pelos Exemplos 4.1.1 e 4.1.2, [v1, . . . , vn] e o menor subespaco que contem todos os v1, . . . , vn. Dizemosque [v1, . . . , vn] e o subespaco gerado por v1, . . . , vn e chamamos os elementos v1, . . . , vn geradores deste

subespaco. E imediato que todo v ∈ [v1, . . . , vn] tem uma forma v = k1 · v1 + · · · + kn · vn, ondek1, . . . , kn ∈ K. A expressao k1 · v1 + · · · + kn · vn se chama combinacao linear de v1, . . . , vn comcoeficientes k1, . . . , kn ∈ K. Nestes termos, um subconjunto W ⊂ V nao-vazio e um subespaco se,e so se, e fechado relativamente as combinacoes lineares de seus elementos com coeficientes arbitrarios.

4.1.4. Temos subespacos K[x]<n ≤ K[x]<m ≤ K[x] para n ≤ m.4.1.5. Temos R ≤ C para o R-espaco vetorial C e Q ≤ R ≤ C para o Q-espaco vetorial C.4.1.6. O conjunto W :=

{f ∈ Func(C,K) | f |C0 ≡ 0

}no Exemplo 3.8 e um subespaco do K-espaco

vetorial Func(C,K), W ≤ Func(C,K).4.1.7. Solucoes de um sistema homogeneo de equacoes lineares em n variaveis formam um subespaco

do K-espaco vetorial Kn.4.1.8. Seja V um K-espaco vetorial. Entao V ≤ V e 0 ≤ V , onde 0 denota o subconjunto formado

apenas pelo elemento 0. Estes dois subespacos sao o maior e o menor possıveis, respectivamente.Podemos escrever 0 = [∅], ou seja, o subespaco 0 e gerado por nada. Note tambem que todo subespacode um subespaco e um subespaco: V ≥W1 e W1 ≥W2 =⇒ V ≥W2.

4.2. Definicao. Sejam v1, v2, . . . , vn ∈ V elementos de um K-espaco vetorial V . Dizemos quev1, v2, . . . , vn sao linearmente independentes (abreviando, LI) se, para quaisquer k1, k2, . . . , kn ∈ K,

n∑i=1

ki · vi = 0 =⇒ ki = 0 para todo i = 1, 2, . . . , n.

Em palavras: se a combinacao linear de v1, v2, . . . , vn e nula, entao ela e trivial, isto e, todos os seuscoeficientes sao nulos. Se v1, v2, . . . , vn nao sao LI, dizemos que eles sao linearmente dependentes (abre-viando, LD). Os elementos v1, v2, . . . , vn ∈ V sao LD se uma combinacao nao-trivial de tais elementos

e nula, isto e, se existem k1, k2, . . . , kn ∈ K, nem todos nulos, tais quen∑

i=1

ki · vi = 0. Note que,

quando v1, v2, . . . , vn sao LD, o elemento 0 admite a forma de duas diferentes combinacoes lineares de

v1, v2, . . . , vn. Realmente, 0 =n∑

i=1

ki · vi =n∑

i=1

0 · vi.

O conceito de dependencia linear e essencial quando procuramos uma colecao mınima de geradoresde um subespaco:

4.3. Lema. Sejam v1, v2, . . . , vn ∈ V elementos de um K-espaco vetorial e sejan∑

i=1

ki · vi = 0 uma

Page 5: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 5

dependencia linear nao-trivial, onde k1, k2, . . . , kn ∈ K. Assim, kj = 0 para algum j. Entao podemosexcluir o gerador vj da colecao de geradores v1, v2, . . . , vn nao alterando o subespaco [v1, v2, . . . , vn],isto e, [v1, v2, . . . , vn] = [v1, v2, . . . , vj−1, vj+1, . . . , vn].

Demonstracao. Multiplicando a dependencia por k−1j e isolando vj , obtemos vj =

∑i =j

(−k−1j ki) ·vi.

Logo, vj ∈ [v1, v2, . . . , vj−1, vj+1, . . . , vn]. E claro que [v1, v2, . . . , vj−1, vj+1, . . . , vn] ⊂ [v1, v2, . . . , vn].Lembrando que [v1, v2, . . . , vn] e o mınimo subespaco que contem todos os v1, v2, . . . , vn e observandoque vl ∈ [v1, v2, . . . , vj−1, vj+1, . . . , vn] para todo l, concluımos que [v1, v2, . . . , vj−1, vj+1, . . . , vn] ⊃[v1, v2, . . . , vn] �

4.4. Observacao. Sejam v1, v2, . . . , vn ∈ V elementos LI de um K-espaco vetorial. Entao todov ∈ [v1, v2, . . . , vn] admite uma unica forma de combinacao linear de v1, v2, . . . , vn.

Demonstracao. O fato que todo v ∈ [v1, v2, . . . , vn] admite a forma de uma combinacao linear de

v1, v2, . . . , vn foi observado no Exemplo 4.1.3. Para a unicidade, suponhamos quen∑

i=1

ki · vi =n∑

i=1

k′i · vi,

onde k1, k2, . . . , kn, k′1, k

′2, . . . , k

′n ∈ K. Entao

n∑i=1

(ki − k′i) · vi = 0. Sendo v1, v2, . . . , vn LI, concluımos

que ki − k′i = 0 para todo i = 1, 2, . . . , n, ou seja, ki = k′i �

4.5. Observacao. Qualquer parte de uma colecao LI em um espaco vetorial e LI �

4.6. Lema. Sejam v1, v2, . . . , vn ∈ V elementos LI de um K-espaco vetorial. Entao, para qualquerk ∈ K e quaisquer 1 ≤ i, j ≤ n tais que i = j, os elementos v1, v2, . . . , vi−1, vi+k ·vj , vi+1, . . . , vn sao LI.

Demonstracao. Seja ki · (vi + k · vj) +∑l =i

kl · vl = 0 uma dependencia linear de elementos

v1, v2, . . . , vi−1, vi + k · vj , vi+1, . . . , vn. Entao ki · (vi + k · vj) + kj · vj +∑l =i,j

kl · vl = 0, ou seja,

ki · vi +(kj + kik) · vj +∑l =i,j

kl · vl = 0. Sendo v1, v2, . . . , vn LI, obtemos kl = 0 para todo l = i, j, ki = 0

e kj + kik = 0. Daı, kj = 0. Em outras palavras, todos os coeficientes da dependencia linear acima saonulos �

4.7. Corolario. Sejam v1, v2, . . . , vn ∈ V elementos LI de um K-espaco vetorial. Fixemos um ındice1 ≤ j ≤ n e tomemos quaisquer kl ∈ K para l = j. Entao os elementos

v1 + k1 · vj , v2 + k2 · vj , . . . , vj−1 + kj−1 · vj , vj , vj+1 + kj+1 · vj , . . . , vn + kn · vjsao LI.

Demonstracao. Aplicando o Lema 4.6 com i = 1 e k = k1, obtemos uma nova colecao LI

v1 + k1 · vj , v2, . . . , vj , . . . , vn.Aplicando o Lema 4.6 a nova colecao com i = 2 e k = k2, obtemos a colecao LI

v1 + k1 · vj , v2 + k2 · vj , v3, . . . , vj , . . . , vn.Assim, chegamos a colecao LI

v1 + k1 · vj , v2 + k2 · vj , . . . , vj−1 + kj−1 · vj , vj , vj+1, . . . , vn.

Aplicando o Lema 4.6 a essa ultima colecao com i = j + 1 e k = kj+1, obtemos a colecao LI

v1 + k1 · vj , v2 + k2 · vj , . . . , vj−1 + kj−1 · vj , vj , vj+1 + kj+1 · vj , vj+2, . . . , vn.

Continuando a agir deste modo, chegamos ao resultado desejado �

Page 6: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

6 2o SEMESTRE DE 2015

4.8. Teorema. Sejam v1, v2, . . . , vn ∈ V LI e seja V = [g1, g2, . . . , gm]. Entao m ≥ n.

Demonstracao. Utilizamos a inducao sobre m. Para m = 0, o fato e obvio. Suponhamos quem > 0. Facamos W := [g1, g2, . . . , gm−1]. Se vi ∈ W para todo i, pela hipotese de inducao, obtemosm − 1 ≥ n e, portanto, m ≥ n. Podemos supor que um dos vi’s nao pertence a W . Sem perda degeneralidade, este e vn, vn /∈ W . Vamos provar que Kvn + W = V . Para alguns k1, k2, . . . , km ∈ K,

temos vn =m∑j=1

kj · gj com km = 0 pois, caso contrario, vn ∈ [g1, g2, . . . , gm−1] = W . Isolando gm,

obtemos gm = k−1m vn −

m−1∑j=1

(k−1m kj) · gj . Em outras palavras, gm ∈ Kvn + W . Assim, gj ∈ Kvn + W

para todo j. Agora, V = [g1, g2, . . . , gm] implica Kvn + W = V . Portanto, para todo 1 ≤ i < n,existem ki ∈ K e wi ∈ W tais que vi = ki · vn + wi. Isto pode ser reescrito como wi = vi + (−ki) · vnpara todo i = 1, 2, . . . , n − 1. Pelo Corolario 4.7 aplicado aos vi’s, ao j = n e aos (−kl)’s, l = n,e pela Observacao 4.5, concluımos que w1, w2, . . . , wn−1 sao LI. Aplicando a hipotese de inducao paraw1, w2, . . . , wn−1 ∈W = [g1, g2, . . . , gm−1], obtemos m− 1 ≥ n− 1. Portanto, m ≥ n �

4.9. Definicao. Uma colecao LI de geradores b1, b2, . . . , bn ∈ V se chama base linear do K-espacovetorial V . Enfatizamos que a base e uma colecao ordenada.

Do Lema 4.3 segue o

4.10. Corolario. De qualquer colecao finita de geradores de um espaco vetorial, e possıvel escolheruma base linear �

4.11. Corolario. Seja V um K-espaco vetorial finitamente gerado. Entao toda colecao finita LI deelementos de V pode ser completada a uma base linear de V .

Demonstracao. Seja V = [g1, g2, . . . , gm] e seja v1, v2, . . . , vn ∈ V uma colecao LI. Pelo Teorema 4.8,n ≤ m. Portanto, aumentando a colecao v1, v2, . . . , vn se necessario, podemos supor que ela e umacolecao maxima (no sentido de inclusao de conjuntos) LI. Vamos mostrar que ela e uma base linear. Bastaprovar que V = [v1, v2, . . . , vn]. Se V = [v1, v2, . . . , vn], tomamos qualquer vn+1 ∈ V \ [v1, v2, . . . , vn] edemonstramos que v1, v2, . . . , vn, vn+1 sao LI, assim chegando a uma contradicao com a maximalidade

de v1, v2, . . . , vn. Realmente, suponhamos quen+1∑i=1

ki · vi = 0. Se kn+1 = 0, obtemos uma dependencia

linear dos v1, v2, . . . , vn, donde concluımos que todos os ki’s sao nulos. Se kn+1 = 0, podemos expressar

vn+1 na forma de combinacao linear dos v1, v2, . . . , vn : vn+1 =n∑

i=1

(−k−1n+1ki) · vi. Isto contradiz

vn+1 /∈ [v1, v2, . . . , vn] �

Do Teorema 4.8 segue imediatamente o

4.12. Corolario. Duas bases lineares de um espaco vetorial tem a mesma cardinalidade �

4.13. Definicao. A cardinalidade4 de uma base linear de um K-espaco vetorial V se chama dimensaode V sobre K e se denota por dimK V . Dos Lema 4.3 e Corolario 4.12 segue que a dimensao pode sercaracterizada como a cardinalidade de qualquer colecao mınima (no sentido de inclusao de conjuntos)de geradores. Pela demonstracao do Corolario 4.11, a dimensao tambem pode ser caracterizada como acardinalidade de qualquer colecao maxima LI. Note que do Teorema 4.8 segue que qualquer subespacode um espaco vetorial de dimensao finita tem dimensao finita.

4Consideramos aqui somente os espacos vetoriais finitamente gerados, mas nao e difıcil generalizar as consideracoes

para os espacos vetoriais de dimensao infinita.

Page 7: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 7

4.14. Corolario. Seja W ≤ V um subespaco de um K-espaco vetorial V finitamente gerado. Entaoexiste um subespaco W ′ ≤ V tal que W ∩W ′ = 0 e W +W ′ = V .

Demonstracao. Tomamos uma base linear b1, b2, . . . , bn ∈ W de W e completamo-la a uma baselinear b1, b2, . . . , bn, bn+1, . . . , bm ∈ V de V , m ≥ n. Facamos W ′ := [bn+1, . . . , bm]. Claramente,

W+W ′ = V . Seja w ∈W∩W ′. Entao w =

n∑i=1

ki ·bi =m∑

j=n+1

kj ·bj para k1, k2, . . . , kn, kn+1, . . . , km ∈ K

apropriados. Daı obtemos uma dependencia linearn∑

i=1

ki · bi+m∑

j=n+1

(−kj) · bj = 0, implicando que todos

os ki’s sao nulos. Logo, w = 0 �

4.15. Corolario. Sejam W1,W2 ≤ V subespacos de um K-espaco vetorial V finitamente gerado.Entao dimK W1 + dimK W2 = dimK(W1 ∩W2) + dimK(W1 +W2).

Demonstracao. Escolhemos uma base linear b1, b2, . . . , bn ∈ W1 ∩W2 de W1 ∩W2. Pelo Corola-rio 4.11, podemos completa-la a uma base linear b1, b2, . . . , bn, a1, a2, . . . , am ∈W1 de W1. Tambem com-pletamo-la a uma base linear b1, b2, . . . , bn, c1, c2, . . . , cl ∈ W2 de W2. Basta mostrar que b1, b2, . . . , bn,a1, a2, . . . , am, c1, c2, . . . , cl ∈W1 +W2 e uma base linear de W1 +W2, pois, neste caso, dimK(W1 ∩W2)= n, dimK W1 = n+m, dimK W2 = n+ l e dimK(W1+W2) = n+m+ l, implicando a formula desejada.

De W1 = [b1, b2, . . . , bn, a1, a2, . . . , am] e W2 = [b1, b2, . . . , bn, c1, c2, . . . , cl] segue que W1 + W2 =[b1, b2, . . . , bn, a1, a2, . . . , am, c1, c2, . . . , cl] (lembre-se que W1 + W2 e o menor subespaco que contemambos W1 e W2).

Seja

n∑i=1

ki · bi +m∑j=1

k′j · aj +l∑

s=1

k′′s · cs = 0 uma dependencia linear entre os b1, b2, . . . , bn, a1, a2,

. . . , am, c1, c2, . . . , cl. Entao −l∑

s=1

k′′s · cs =n∑

i=1

ki · bi +m∑j=1

k′j · aj ∈ W1 ∩W2, pois a parte direita da

igualdade pertence a W1 e a parte esquerda da igualdade pertence a W2. Por outro lado, em termos da

base b1, b2, . . . , bn, c1, c2, . . . , cl de W2, o elemento −l∑

s=1

k′′s · cs, sendo pertencente a W1 ∩W2, tem que

ter coeficientes nao-nulos somente na frente dos bi’s. Em outras palavras, todos os k′′s ’s sao nulos. Agora

temos

n∑i=1

ki · bi+m∑j=1

k′j ·aj = 0. Lembrando que os b1, b2, . . . , bn, a1, a2, . . . , am sao LI, vemos que todos

os ki’s e k′j ’s sao nulos �

4.16. Dicionario. Seja β : b1, b2, . . . , bn uma base linear de um K-espaco vetorial V . Podemos

associar a todo elemento v ∈ V uma coluna de escalares [v]β :=

k1k2...kn

que, pela Observacao 4.4,

e univocamente determinada pela igualdade v =n∑

i=1

ki · bi. Reciprocamente, qualquer coluna de n

escalares

k1k2...kn

define um elemento v ∈ V dado pela mesma formula v :=n∑

i=1

ki · bi. Assim, quando

uma base linear em V e fixa, temos um dicionario perfeito que interpreta os elementos de V como as

Page 8: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

8 2o SEMESTRE DE 2015

colunas de escalares. Note que bi corresponde a coluna cujo unico coeficiente nao-nulo e igual a 1 e estano i-esimo lugar.

Mais ainda, este dicionario preserva a adicao e a multiplicacao por escalar. Com efeito, se [v]β =k1k2...kn

e [v′]β =

k′1k′2...k′n

, entao v =n∑

i=1

ki · bi e v′ =n∑

i=1

k′i · bi. Portanto, v+ v′ =n∑

i=1

(ki + k′i) · bi, ou seja,

[v + v′]β =

k1 + k′1k2 + k′2

...kn + k′n

. Em outras palavras, [v + v′]β = [v]β + [v′]β . Para qualquer k ∈ K, temos

k · v =

n∑i=1

(kki) · bi. Isto significa que [k · v]β =

kk1kk2...

kkn

. Logo, [k · v]β = k[v]β .

5. Aplicacoes (transformacoes) lineares. Matrizes

Uma aplicacao A : U → V entre K-espacos vetoriais e dita linear ou transformacao linear se

A1. A(u1 + u2) = Au1 +Au2 para todos u1, u2 ∈ U .A2. A(ku) = k(Au) para todos u ∈ U e k ∈ K.

Em palavras: A preserva a adicao e a multiplicacao por escalar.

5.1. Observacao. Seja A : U → V uma aplicacao linear entre K-espacos vetoriais, sejam u1, u2,

. . . , un ∈ U e sejam k1, k2, . . . , kn ∈ K. Entao A( n∑

i=1

kiui

)=

n∑i=1

kiAui. Em outras palavras, toda

aplicacao linear preserva combinacoes lineares �

5.2. Exemplos 1. Seja U ≤ V um subespaco de um K-espaco vetorial V . Entao a aplicacao deinclusao i : U ↪→ V e linear. Se uma aplicacao linear e injetiva, ela se chama monomorfismo. Assim,i : U ↪→ V e um exemplo de monomorfismo.

5.2.2. Seja U um K-espaco vetorial e seja k ∈ K. Entao a multiplicacao por k, dada pela regramk : u 7→ ku, e uma aplicacao linear mk : U → U . Se uma aplicacao linear e bijetora, ela se chamaisomorfismo. Quando dois espacos vetoriais sao isomorfos, eles desfrutam as mesmas propriedadesalgebricas.5 E possıvel ver que a aplicacao inversa a um isomorfismo tambem e linear. Caso k = 0,a aplicacao mk : U → U e um exemplo de isomorfismo.

5.2.3. Seja V um K-espaco vetorial e seja β uma base linear em V . Entao o Dicionario 4.16 estabeleceuma aplicacao linear dada pela regra v 7→ [v]β . Essa aplicacao e um isomorfismo entre V e Kn, onden := dimK V .

5.2.4. Sejam UA−→ V

B−→ W aplicacoes lineares entre K-espacos vetoriais. Entao a compostaB ◦ A e uma aplicacao linear. Realmente, para todos u1, u2 ∈ U , temos, pela definicao da composta,(B ◦ A)(u1 + u2) = B

(A(u1 + u2)

)= B(Au1 + Au2) = B(Au1) + B(Au2) = (B ◦ A)u1 + (B ◦ A)u2,

pois A e B sao lineares. Para quaisquer k ∈ K e u ∈ U , temos (B ◦ A)(ku) = B(A(ku)

)= B(kAu) =

kB(Au) = k(B ◦A)u pelos mesmos motivos.

5Portanto, podemos considera-los como os “mesmos”. A unica diferenca entre tais espacos vetoriais e que os correspon-dentes conjuntos sao diferentes, ou seja, as naturezas de elementos sao diferentes. Mas, para os fins de nossos estudos, istonao importa. Qualquer que seja a “madeira” da qual e feito um espaco vetorial, o funcionamento do espaco nao depende

dessa particularidade.

Page 9: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 9

5.2.5. Sejam U e V K-espacos vetoriais. No conjunto LinK(U, V ) := {A : U → V | A e linear}de todas as aplicacoes lineares de U para V , definimos uma estrutura de K-espaco vetorial. ParaA,A1, A2 ∈ LinK(U, V ) e k ∈ K, facamos (A1 + A2)u := A1u + A2u e (kA)u := kAu para todo u ∈ U .A aplicacao 0 dada pela regra 0 : u 7→ 0 e obviamente linear e faz papel de um elemento neutro, pois(A+ 0)u = Au+ 0u = Au+ 0 = Au para todo u ∈ U . Seja A ∈ LinK(U, V ). Definimos (−A)u := −Aupara todo u ∈ U . A aplicacao (−A) assim definida e linear, pois (−A)(u1 + u2) = −A(u1 + u2) =−(Au1 + Au2) = (−Au1) + (−Au2) = (−A)u1 + (−A)u2 e (−A)(ku) = −A(ku) = −kAu = k(−A)upara todos u, u1, u2 ∈ U e k ∈ K (nestes calculos, utilizamos que A e linear). Agora

(A + (−A)

)u =

Au + (−A)u = Au − Au = 0 = 0u, ou seja, A + (−A) = 0. Os outros axiomas se verificam de modoanalogo ou ainda mais facil.

5.2.6. Sejam U , V e W K-espacos vetoriais. Qualquer aplicacao linear A : U → V define umaaplicacao linear −◦A : LinK(V,W )→ LinK(U,W ) dada pela regra −◦A : B 7→ B◦A (pelo Exemplo 5.4.2,B ◦A ∈ LinK(U,W )). Realmente, sejam B,B1, B2 ∈ LinK(V,W ) e seja k ∈ K. Precisamos verificar que(B1 +B2) ◦A = B1 ◦A+B2 ◦A e que (kB) ◦A = k(B ◦A). As igualdades para verificar significam que((B1+B2)◦A

)u =

(B1 ◦A+B2 ◦A

)u e

((kB)◦A

)u =

(k(B ◦A)

)u para todo u ∈ U . Essas verificacoes

constituem um calculo automatico:((B1 +B2) ◦A

)u = (B1 +B2)(Au) = B1(Au) +B2(Au) = (B1 ◦A)u+ (B2 ◦A)u =

(B1 ◦A+B2 ◦A

)u,(

(kB) ◦A)u = (kB)(Au) = kB(Au) = k

((B ◦A)u

)=

(k(B ◦A)

)u.

Em palavras: a composicao com A (a direita) e uma aplicacao linear. De modo analogo, qualqueraplicacao linear B : V → W define uma aplicacao linear B ◦ − : LinK(U, V ) → LinK(U,W ) dada pelaregra B◦− : A 7→ B◦A. Podemos resumir ambas propriedades afirmando que a composicao ◦ e bilinear.Isto significa nada mais do que a linearidade da composicao em cada um de seus argumentos quando ooutro esta fixo.

5.3. Lema. Sejam U e V K-espacos vetoriais, seja b1, b2, . . . , bn ∈ U uma base linear em U e sejamv1, v2, . . . , vn ∈ V . Entao existe uma unica aplicacao linear A : U → V tal que Abj = vj para todoj = 1, 2, . . . , n.

Demonstracao. Todo u ∈ U admite uma unica forma de combinacao linear de elementos da base:

u =

n∑j=1

kjbj para unicos k1, k2, . . . , kn ∈ K. Temos que definir a aplicacao A pela regra Au :=

n∑j=1

kjvj ,

pois Abj = vj e A( n∑

j=1

kjbj

)=

n∑j=1

kjAbj pela Observacao 5.1. Assim, ja temos a unicidade. Se u′ =

n∑j=1

k′jbj com k′1, k′2, . . . , k

′n ∈ K, entao

Au =n∑

j=1

kjvj , Au′ =n∑

j=1

k′jvj , A(u+ u′) = A( n∑

j=1

(kj + k′j)bj

)=

n∑j=1

(kj + k′j)vj

pela regra acima. Concluımos que A(u+ u′) = Au+Au′. Para qualquer k ∈ K, temos

A(ku) = A( n∑

j=1

(kkj)bj

)=

n∑j=1

kkjvj = kn∑

j=1

kjvj = kAu �

5.4. Corolario. Duas aplicacoes lineares que coincidem em uma base linear sao iguais �

5.5. Exercıcio. Seja A : U → V uma aplicacao linear entre K-espacos vetoriais. Prove que A0 = 0e A(−u) = −Au para todo u ∈ U .

Seja A : U → V uma aplicacao linear entre K-espacos vetoriais. Chamamos A−10 = {u ∈ U | Au = 0}nucleo de A.

Page 10: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

10 2o SEMESTRE DE 2015

5.6. Lema. Seja A : U → V uma aplicacao linear entre K-espacos vetoriais e sejam U ′ ≤ U e V ′ ≤ Vsubespacos. Entao a imagem AU ′ e a imagem inversa A−1V ′ sao subespacos, AU ′ ≤ V e A−1V ′ ≤ U .Em particular, o nucleo de A e um subespaco de U .

Demonstracao. Todo elemento de AU ′ tem a forma Au′ para algum u′ ∈ U ′. Sejam Au′, Au′1, Au′

2 ∈AU ′ quaisquer elementos de AU ′, onde u′, u′

1, u′2 ∈ U ′, e seja k ∈ K. Entao Au′

1 +Au′2 = A(u′

1 + u′2) ∈

AU ′ e kAu′ = A(ku′) ∈ AU ′ pois u′1 + u′

2 ∈ U ′ e ku′ ∈ U ′. Pelo Exercıcio 5.5, A0 = 0 ∈ AU ′.Sejam u, u1, u2 ∈ A−1V ′ e seja k ∈ K. Entao Au,Au1, Au2 ∈ V ′. Agora A(u1+u2) = Au1+Au2 ∈ V ′

e A(ku) = kAu ∈ V ′. Em outras palavras, u1 + u2 ∈ A−1V ′ e ku ∈ A−1V ′. Pelo Exercıcio 5.5, A0 = 0.Isto implica que 0 ∈ A−1V ′ �

O nucleo de uma aplicacao linear e uma medida de ate qual ponto a aplicacao nao e um monomorfismo:

5.7. Lema. Seja A : U → V uma aplicacao linear entre K-espacos vetoriais. Entao A e ummonomorfismo se, e so se, o nucleo de A e nulo.

Demonstracao. Obviamente o nucleo de A e nulo se A e um monomorfismo. Suponhamos queA−10 = 0. Se Au1 = Au2, entao 0 = Au1 + (−Au2) = Au1 + A(−u2) = A(u1 − u2) pelo Exercıcio 5.5.Sendo o nucleo nulo, u1 − u2 = 0, ou seja, u1 = u2 �

5.8. Definicao. Seja W ≤ V um subespaco de um K-espaco vetorial V finitamente gerado. PeloCorolario 4.14, existe um subespaco W ′ ≤ V chamado complementar a W tal que W ∩ W ′ = 0 eW +W ′ = V . Neste caso, escrevemos W ⊕W ′ = V .

De fato, obtemos a soma direta de espacos vetoriais definida de uma outra forma, a interna. Vamosver o porque. Todo elemento v ∈ V admite uma unica decomposicao v = w + w′ com w ∈ W ew′ ∈ W ′. Realmente, para w1, w2 ∈ W e w′

1, w′2 ∈ W ′, a igualdade w1 + w′

1 = w2 + w′2 implica

w1 − w2 = w′2 − w′

1 ∈W ∩W ′. De W ∩W ′ = 0 segue w1 = w2 e w′1 = w′

2.Agora, para quaisquer v, v1, v2 ∈ V e k ∈ K, temos as decomposicoes v = w + w′, v1 = w1 + w′

1 ev2 = w2 +w′

2 para unicos w,w1, w2 ∈W e w′, w′1, w

′2 ∈W ′. Portanto, kv = kw+ kw′ e a decomposicao

de kv e v1 + v2 = (w1 + w2) + (w′1 + w′

2) e a decomposicao de v1 + v2. Em outras palavras, a adicao ea multiplicacao por escalar fazem-se pelas componentes na decomposicao, isto e, do mesmo jeito comona soma direta definida no Exemplo 3.5.

Vemos tambem que as aplicacoes π : V → W e π′ : V → W ′ dadas pelas regras π : v 7→ w eπ′ : v 7→ w′, onde v = w + w′ e a decomposicao de v com w ∈ W e w′ ∈ W ′, chamadas projecoes(relacionadas a soma direta), sao lineares.

Juntando bases lineares de W e de W ′, e facil ver que dimK W + dimK W ′ = dimK V .

5.9. Lema. Seja A : U → V uma aplicacao linear entre K-espacos vetoriais com U finitamentegerado e seja W um subespaco complementar ao nucleo N := A−10 de A, isto e, U = N ⊕W . EntaoA|W : W → AU e um isomorfismo.

Demonstracao. De AN = 0 segue que AU = A(N +W ) = AW . Portanto, a aplicacao A|W : W →AU e um epimorfismo (uma aplicacao linear se chama epimorfismo se e sobrejetora). Se w ∈ W estano nucleo de A|W : W → AU , entao Aw = 0. Logo, w ∈ N . Assim obtemos w ∈ N ∩W = 0, ou seja,w = 0. Pelo Lema 5.7, A|W : W → AU e um monomorfismo �

5.10. Corolario. Seja A : U → V uma aplicacao linear entre K-espacos vetoriais com U finitamentegerado. Entao dimK A−10 + dimK AU = dimK U �

A dimensao da imagem de uma aplicacao linear A : U → V e dita posto de A, que se denota por rkA,rkA := dimK AU .

5.11. Dicionario. Sejam U e V K-espacos vetoriais, seja β : b1, b2, . . . , bn uma base linear de U eseja γ : c1, c2, . . . , cm uma base linear de V . Tomemos uma aplicacao linear qualquer A : U → V . Entao,

Page 11: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 11

para todo j = 1, 2, . . . , n, temos Abj =m∑i=1

aijci para unicos aij ∈ K (note o uso atıpico de ındices).

Associamos a aplicacao linear A a (m×n)-matriz [A]βγ := [aij ] com coeficientes em K. Reciprocamente,seja [aij ] uma (m×n)-matriz arbitraria com coeficientes em K. Pelo Lema 5.3, existe uma unica aplicacao

linear A : U → V tal que Abj =m∑i=1

aijci para todo j = 1, 2, . . . , n. Assim, quando bases lineares em U

e V sao fixas, temos um dicionario perfeito que interpreta as aplicacoes lineares de LinK(U, V ) como as(m× n)-matrizes de escalares.

Mais ainda, este dicionario estabelece um isomorfismo entre os K-espacos vetoriais LinK(U, V ) eMatrm×n K, onde Matrm×n K e formado por todas as (m × n)-matrizes sobre K. Realmente, sejam

A,A′ ∈ LinK(U, V ) e seja k ∈ K. Para todo j = 1, 2, . . . , n, temos Abj =m∑i=1

aijci e A′bj =m∑i=1

a′ijci,

onde aij , a′ij ∈ K. Entao (A + A′)bj = Abj + A′bj =

m∑i=1

(aij + a′ij)ci e (kA)bj = kAbj =m∑i=1

(kaij)ci

para todo j = 1, 2, . . . , n. Traduzindo, obtemos [A]βγ = [aij ], [A′]βγ = [a′ij ], [A + A′]βγ = [aij + a′ij ] e

[kA]βγ = [kaij ]. Em outras palavras, [A+A′]βγ = [A]βγ + [A′]βγ e [kA]βγ = k[A]βγ .

Este dicionario e compatıvel com o Dicionario 4.16, isto e, [Au]γ = [A]βγ [u]β para todos u ∈ U e

A ∈ LinK(U, V ). Com efeito, os fatos que [u]β =

k1k2...kn

e [A]βγ = [aij ] se expressam pelas igualdades

u =n∑

j=1

kjbj e Abj =m∑i=1

aijci para todo j = 1, 2, . . . , n. Entao, pela Observacao 5.1,

Au =n∑

j=1

kjAbj =n∑

j=1

kj

( m∑i=1

aijci

)=

m∑i=1

( n∑j=1

aijkj

)ci.

Resta observar quen∑

j=1

aijkj e o i-esimo coeficiente da coluna [aij ]

k1k2...kn

.5.12. Dicionario. Sejam U , V e W K-espacos vetoriais, seja β : b1, b2, . . . , bn uma base linear

de U , seja γ : c1, c2, . . . , cm uma base linear de V e seja δ : d1, d2, . . . , dl uma base linear de W . Entao

[B ◦A]βδ = [B]γδ · [A]βγ para todos A ∈ LinK(U, V ) e B ∈ LinK(V,W ). Realmente, as matrizes [A]βγ = [aij ]

e [B]γδ = [bsi] sao dadas pelas igualdades Abj =m∑i=1

aijci para todo j = 1, 2, . . . , n e Bci =l∑

s=1

bsids para

todo i = 1, 2, . . . ,m. Entao

(B ◦A)bj = B(Abj) = B( m∑

i=1

aijci

)=

m∑i=1

aijBci =m∑i=1

aij

( l∑s=1

bsids

)=

l∑s=1

( m∑i=1

bsiaij

)ds.

Assim, o sj-esimo coeficiente da matriz [B ◦ A]βδ e igual am∑i=1

bsiaij , ou seja, [B ◦ A]βδ = [B]γδ · [A]βγ .

Deste modo, o Dicionario 5.11 traduz a composta de aplicacoes lineares para o produto de matrizes.

5.13. Definicao. Seja V um K-espaco vetorial e sejam β e γ duas bases lineares de V . A matriz

Page 12: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

12 2o SEMESTRE DE 2015

Mβγ := [1V ]

βγ se chama matriz de mudanca de base β para γ.

5.14. Lema. Sejam U e V K-espacos vetoriais, sejam β, β′ bases lineares de U e sejam γ, γ′ bases

lineares de V . Entao, para qualquer aplicacao linear A : U → V , temos [A]β′

γ′ = Mγγ′ · [A]βγ ·M

β′

β . Alem

disso, Mββ′ = (Mβ′

β )−1.

Demonstracao. Pelos Definicao 5.13 e Dicionario 5.12,

Mγγ′ · [A]βγ ·M

β′

β = [1V ]γγ′ · [A]βγ · [1U ]

β′

β = [1V ◦A ◦ 1U ]β′

γ′ = [A]β′

γ′ .

E facil ver que [1U ]ββ = 1, onde 1 denota a matriz identidade. Portanto,

Mβ′

β ·Mββ′ = [1U ]

β′

β · [1U ]ββ′ = [1U ◦ 1U ]ββ = [1U ]

ββ = 1,

Mββ′ ·Mβ′

β = [1U ]ββ′ · [1U ]β

β = [1U ◦ 1U ]β′

β′ = [1U ]β′

β′ = 1,

ou seja, Mββ′ = (Mβ′

β )−1 �

5.15. Corolario. Seja V um K-espaco vetorial, sejam β e γ duas bases lineares de V , sejaM a matriz

de mudanca de base β para γ e seja A : V → V uma aplicacao linear. Entao [A]γγ = M · [A]ββ ·M−1 �

6. Espaco dual. Naturalidade

Seja V um K-espaco vetorial. Uma aplicacao linear do formato f : V → K se chama funcional linear(lembre-se que, pelo Exemplo 3.4, K e um K-espaco vetorial). O espaco dual V ∗ e formado por todosos funcionais lineares, V ∗ := LinK(V,K).

Seja A : U → V uma aplicacao linear entre K-espacos vetoriais. Definimos a aplicacao dual A∗ :V ∗ → U∗ pela regra A∗ : f 7→ f ◦A para todo funcional linear f : V → K, ou seja, A∗f := f ◦A. EntaoA∗ : V ∗ → U∗ e uma aplicacao linear. Realmente, para todos f, f1, f2 ∈ V ∗ e k ∈ K, temos

A∗(f1 + f2) = (f1 + f2) ◦A = f1 ◦A+ f2 ◦A = A∗f1 +A∗f2, A∗(kf) = (kf) ◦A = k(f ◦A) = kA∗f

pelo Exemplo 5.2.6 (bilinearidade de ◦).Para aplicacoes lineares U

A,A′

−→ VB−→W entre K-espacos vetoriais e k ∈ K, temos

(A+A′)∗ = A∗ +A′∗ (kA)∗ = kA∗ (B ◦A)∗ = A∗ ◦B∗.

Com efeito, para todo f ∈ V ∗, temos

(A+A′)∗f = f ◦ (A+A′) = f ◦A+ f ◦A′ = A∗f +A′∗f = (A∗ +A′∗)f ,(kA)∗f = f ◦ (kA) = k(f ◦A) = kA∗f

pelo Exemplo 5.2.6 (bilinearidade de ◦). Para todo g ∈W ∗, temos

(B ◦A)∗g = g ◦ (B ◦A) = (g ◦B) ◦A = (B∗g) ◦A = A∗(B∗g) = (A∗ ◦B∗)g.

Em palavras: passar a aplicacao dual e uma aplicacao linear.

Temos uma aplicacao linear natural IV : V → V ∗∗ definida pela regra IV : v 7→ (f 7→ fv) para todosv ∈ V e f ∈ V ∗, ou seja, (IV v)f := fv ∈ K. Em outras palavras, interpretamos qualquer v ∈ V comoum funcional linear sobre V ∗ que manda f ∈ V ∗ para fv ∈ K. Precisamos fazer algumas verificacoes.O fato que IV v definido acima e linear segue de

(IV v)(f1 + f2) = (f1 + f2)v = f1v + f2v = (IV v)f1 + (IV v)f2, (IV v)(kf) = (kf)v = k(fv) = k((IV v)f

),

onde f, f1f2 ∈ V ∗ e k ∈ K. O fato que a aplicacao IV definida acima e linear reside no calculo(IV (v1 + v2)

)f = f(v1 + v2) = fv1 + fv2 = (IV v1)f + (IV v2)f =

((IV v1) + (IV v2)

)f ,(

IV (kv))f = f(kv) = k(fv) = k

((IV v)f

)=

(k(IV v)

)f ,

onde v, v1, v2 ∈ V , f ∈ V ∗ e k ∈ K.

Page 13: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 13

UIU−−−−→ U∗∗

A

y A∗∗

yV

IV−−−−→ V ∗∗

A naturalidade de IV em V significa o seguinte. Seja A : U → V uma aplicacaolinear. Entao temos o diagrama de aplicacoes lineares a esquerda. A naturalidade dizque este diagrama e comutativo, isto e, A∗∗ ◦ IU = IV ◦A. Verifiquemos este fato. Paratodos u ∈ U e f ∈ V ∗, temos

((IV ◦A)u

)f =

(IV (Au)

)f = f(Au) = (f ◦A)u = (A∗f)u

e((A∗∗ ◦ IU )u

)f =

((A∗)∗(IUu)

)f =

((IUu) ◦ A∗)f = (IUu)(A

∗f) = (A∗f)u. Istoimplica que (IV ◦A)u = (A∗∗◦IU )u para todo u ∈ U , ou seja, que IV ◦A = A∗∗◦IU . Intuitivamente, essanaturalidade expressa que, “deformando” ou “movendo” o espaco vetorial U atraves de A, temos umacorrespondente “deformacao” (natural) do espaco vetorial U∗∗ tal que IU naturalmente acompanha esteprocesso. Um outro jeito de expressar a naturalidade de IV e dizer que a definicao de IV nao envolvenenhuma escolha arbitraria (tal como, por exemplo, uma escolha de base linear).

6.1. Proposicao. Sejam U, V,W K-espacos vetoriais e sejam V1, V2 ≤ V subespacos tais que V =V1 ⊕ V2. Entao temos os isomorfismos naturais

i : LinK(U, V )→ LinK(U, V1)⊕ LinK(U, V2), j : LinK(V,W )→ LinK(V1,W )⊕ LinK(V2,W )

dados pelas regras i : A 7→ (π1 ◦ A, π2 ◦ A) e j : B 7→ (B ◦ j1, B ◦ j2), onde πl : V → Vl e a projecao ejl : Vl ↪→ V e a aplicacao de inclusao, l = 1, 2.

Demonstracao. A linearidade de i e j segue da bilinearidade de ◦ (vide o Exemplo 5.2.6). Se iA = 0,

entao π1 ◦ A = 0 e π2 ◦ A = 0 implicando π1(Au) = 0 e π2(Au) = 0 para todo u ∈ U . Dai, Au = 0para todo u ∈ U . Logo, A = 0. Pelo Lema 5.7, i e um monomorfismo. Se jB = 0, temos B ◦ j1 = 0 eB ◦ j2 = 0 implicando BV1 = 0 e BV2 = 0. Daı, BV = B(V1 + V2) = 0 e B = 0. Pelo Lema 5.7, j e ummonomorfismo.

Sejam A1 : U → V1 e A2 : U → V2 aplicacoes lineares. Definimos A : U → V pela formulaA = j1 ◦A1 + j2 ◦A2. Entao πl ◦A = Al para l = 1, 2, pois

(6.2) π1 ◦ j1 = 1V1 , π1 ◦ j2 = 0, π2 ◦ j1 = 0, π2 ◦ j2 = 1V2 .

Logo, iA = (A1, A2). Em outras palavras, i e um epimorfismo. Concluımos que i e um isomorfismo.Sejam B1 : V1 → W e B2 : V2 → W aplicacoes lineares. Definimos B : V → W pela regra

B : v1 + v2 7→ B1v1 + B2v2, ou seja, B(v1 + v2) := B1v1 + B2v2 para todos v1 ∈ V1 e v2 ∈ V2.

Uma verificacao imediata mostra que B e linear. E facil ver que jB = (B1, B2). Em outras palavras,j e um epimorfismo. Concluımos que j e um isomorfismo �

A Proposicao 6.1 afirma que aplicacoes lineares para ou de uma soma direta sao de fato pares deaplicacoes. Alem das relacoes (6.2) utilizadas na demonstracao da Proposicao 6.1, e facil verificar arelacao

(6.3) j1 ◦ π1 + j2 ◦ π2 = 1V .

Na verdade, IV : V → V ∗∗ e um monomorfismo. Verificamos este fato apenas para V finitamentegerado. Realmente, se IV v = 0 para algum v ∈ V , entao fv = 0 para todo f ∈ V ∗. Pelo Corolario 4.14,podemos achar um subespaco W ≤ V complementar a Kv, V = Kv⊕W . Suponhamos que v = 0. Entaov e uma base linear de Kv e, pelo Lema 5.3, podemos encontrar um funcional linear g : Kv → K tal quegv = 1. Pela Proposicao 6.1, existe um funcional linear f : V → K tal que jf = (g, 0). Obviamente,fv = gv = 1 = 0. Uma contradicao. Logo, v = 0 e, pelo Lema 5.7, IV e um monomorfismo.

Seja β : b1, b2, . . . , bn uma base linear de V . Para todo j = 1, 2, . . . , n, pelo Lema 5.3, existe umunico funcional linear b∗j : V → K tal que b∗j bj = 1 e b∗j bi = 0 para i = j. Entao β∗ : b∗1, b

∗2, . . . , b

∗n

e uma base linear de V ∗ chamada dual a β. Realmente, sen∑

j=1

kjb∗j = 0, entao 0 =

( n∑j=1

kjb∗j

)bi =

Page 14: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

14 2o SEMESTRE DE 2015

n∑j=1

kjb∗j bi = ki para todo i. Em outras palavras, os b∗1, b

∗2, . . . , b

∗n sao LI. Seja f ∈ V ∗. Demonstramos

que f =

n∑j=1

(fbj)b∗j . Pelo Corolario 5.4, basta verificar que fbi =

( n∑j=1

(fbj)b∗j

)bi para todo i. Isto e

imediato:( n∑

j=1

(fbj)b∗j

)bi =

n∑j=1

(fbj)(b∗j bi) = fbi. Em particular, dimK V = dimK V ∗ = dimK V ∗∗ se V

e finitamente gerado.

Daı concluımos que IV : V → V ∗∗ e um isomorfismo natural para V finitamente gerado. Esteisomorfismo pode ser visto como uma identificacao. Isto significa que podemos pensar que V = V ∗∗.Deste modo, a expressao fv para v ∈ V e f ∈ V ∗ pode ser lida de duas maneiras:

1. O escalar fv e o valor de f em v. Neste caso, interpretamos f como um funcional linear sobre V .

2. O escalar fv e o valor de v em f . Neste caso, interpretamos v como um funcional linear sobre V ∗.

Seja A : U → V uma aplicacao linear entre K-espacos vetoriais finitamente gerados. Entao, con-siderando IU e IV como aplicacoes identicas, temos A∗∗ = A pela naturalidade de IV .

6.4. Proposicao. Seja A : U → V uma aplicacao linear entre K-espacos vetoriais finitamentegerados. Entao rkA = rkA∗.

Demonstracao. Denotamos por N := A−10 o nucleo de A e por W ′ := AU a imagem de A. SejaW ≤ U um subespaco complementar a N e seja N ′ ≤ V um subespaco complementar a W ′, isto e,U = N ⊕W e V = N ′ ⊕W ′. Denotamos tambem as correspondentes injecoes e projecoes:

N ⊕Wj2←↩ W , N ′ j′1

↪→ N ′ ⊕W ′ j′2←↩ W ′, N ′ π′1←− N ′ ⊕W ′ π′

2−→W ′.

Note que a igualdade π′1◦A = 0 e a relacao analoga a (6.3) implicam A = 1V ◦A = (j′1◦π′

1+j′2◦π′2)◦A =

j′2 ◦ π′2 ◦A. Pelo Lema 5.9, rkA = dimK W . Pela observacao acima, dimK W = dimK W ∗.

Basta mostrar que a aplicacao φ : A∗V ∗ → W ∗ dada pela regra φ : g 7→ g ◦ j2 para g ∈ A∗V ∗ ≤ U∗

e um isomorfismo. O fato que φ e linear segue da bilinearidade de ◦ (Exemplo 5.2.6).

Suponhamos que φg = 0 para g ∈ A∗V ∗. Entao g = A∗f para algum f ∈ V ∗. Um elemento arbitrariou ∈ U tem a forma u = n+ w com n ∈ N e w ∈W . Claramente, An = 0 e j2w = w. Logo,

(A∗f)u = (f ◦A)(n+ w) = f(A(n+ w)

)= f(An+Aw) = f(Aw) =

= f(A(j2w)

)= (f ◦A ◦ j2)w =

((A∗f) ◦ j2

)w = (φg)w = 0.

Concluımos que g = A∗f = 0. Assim, φ e um monomorfismo.

Para todo u ∈ U , temos Au ∈W ′. Portanto, (π′2 ◦A)u = π′

2(Au) = Au ∈W ′ para todo u ∈ U . PeloLema 5.9, I := π′

2 ◦ A ◦ j2 : W → W ′ e um isomorfismo (lembre-se que A|W = A ◦ j2). Denotamos porI ′ : W ′ →W o isomorfismo inverso a I.

Seja h ∈W ∗ um funcional linear. Entao h◦I ′ ∈ LinK(W′,K). Pela Proposicao 6.1, existe um funcional

linear f ∈ LinK(V,K) tal que jf = (0, h ◦ I ′). Isto implica (vide a definicao de j na Proposicao 6.1) quef ◦ j′2 = h ◦ I ′. De I ′ ◦ I = 1W segue f ◦ j′2 ◦ I = h, ou seja, h = f ◦ j′2 ◦ π′

2 ◦A ◦ j2 = f ◦A ◦ j2 = φ(A∗f)pela relacao j′2 ◦ π′

2 ◦A = A demonstrada acima. Concluımos que φ e um epimorfismo �

6.5. Dicionario. Sejam U e V K-espacos vetoriais, seja β : b1, b2, . . . , bn uma base linear de U eseja γ : c1, c2, . . . , cm uma base linear de V . Entao, para qualquer aplicacao linear A : U → V , temos

[A∗]γ∗

β∗ =([A]βγ

)t, onde M t denota a matriz M transposta. Realmente, [A]βγ = [aij ] com os coeficientes

aij ∈ K determinados pelas igualdades Abj =m∑i=1

aijci, j = 1, 2, . . . , n. Para desenvolver o elemento

Page 15: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 15

A∗c∗s na forma de uma combinacao linear dos b∗j ’s, utilizamos a formula g =n∑

j=1

(gbj)b∗j demonstrada

acima para qualquer g ∈ U∗. Assim, temos

A∗c∗s =n∑

j=1

((A∗c∗s)bj

)b∗j =

n∑j=1

((c∗s ◦A)bj

)b∗j =

n∑j=1

(c∗s(Abj)

)b∗j =

=n∑

j=1

(c∗s

( m∑i=1

aijci

))b∗j =

n∑j=1

( m∑i=1

aijc∗sci

)b∗j =

n∑j=1

asjb∗j .

Isto significa que [A∗]γ∗

β∗ = [asj ]t.

6.6. Notacao. Seja M ∈ Matrm×n K uma matriz. Denotamos por M1,M2, . . . ,Mm todas as msucessivas linhas de M e por M1,M2, . . . ,Mn todas as n sucessivas colunas de M . Os fatos que amatriz M esta composta das suas proprias linhas e das suas proprias colunas podem ser agora escritoscomo

M = [M1 M2 . . .Mn], M =

M1

M2...

Mm

.No mesmo estilo, para as matrizes A ∈ Matrm×n K e B ∈ Matrm×l K, denotamos por [A | B] a matriz

[A1 A2 . . . An B1 B2 . . . Bl] ∈ Matrm×(n+l) K.

Seja M ∈ Matrm×n K uma matriz. Consideramos o K-espaco vetorial Km como formado por colunas.A dimensao do subespaco de Km gerado por todas as colunas de M se chama posto de M e e denotadapor rkM .

6.7. Dicionario. Seja A : U → V uma aplicacao linear entre K-espacos vetoriais, seja β :b1, b2, . . . , bn uma base linear de U e seja γ : c1, c2, . . . , cm uma base linear de V . Denotamos M := [A]βγ .Como foi observado no Dicionario 4.16, o j-esimo elemento bj da base linear β corresponde a colunacujo unico coeficiente nao-nulo e igual a 1 e esta no j-esimo lugar. Daı, pela formula [A]βγ [v]β = [Av]γ ,

obtemos M j = M [bj ]β = [Abj ]γ . Em palavras: a j-esima coluna da matriz [A]βγ corresponde a Abj .Agora, pelo Dicionario 4.16, concluımos que a imagem AU corresponde ao subespaco de Km geradopelas colunas de [A]βγ . Em particular, rk[A]βγ = rkA. E facil ver que o nucleo de A corresponde aosubespaco de Kn formado por todas as solucoes do sistema homogeneo MX = 0 (vide o Exemplo 4.1.7).

6.8. Corolario. Seja M uma matriz. Entao rkM = rkM t. Em palavras: o posto de uma matrizdefinido atraves de colunas e o definido atraves de linhas coincidem6 �

Fazer algo natural normalmente e contrario a um ato da escolha violenta, tal como a de base linear oude coordenadas.7 Ha pessoas, (a maioria dos autores de livros de algebra linear) que consideram o espacoKn como o principal objeto de estudo na algebra linear. Essa visao parece a tentativa de arrumar umacama de Procrusto8 retangular de matrizes para as aplicacoes lineares, obscurecendo assim a verdadeiranatureza de tais aplicacoes. As matrizes naturalmente aparecem no estudo de aplicacoes lineares poistem origem de somas diretas; mas mesmo a decomposicao do espaco na soma direta dos unidimensionaise um ato de violencia pois nao e natural nem unica.

Quando precisamos efetuar calculos explıcitos para obter um resultado numerico que e necessarionuma aplicacao pratica, as matrizes podem ser realmente bem-vindas. Neste caso, sim, fazemos uma

6Vide tambem a Observacao 8.13.7Hermann Weyl (1885–1955): “The introduction of numbers as coordinates . . . is an act of violence . . . ”8Um bandido grego, dos antigos, famoso pela sua cama de ferro . . . vide http://en.wikipedia.org/wiki/Procrustes

Page 16: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

16 2o SEMESTRE DE 2015

violencia, mas essa pode ser comparada com a de um cirurgiao e nao tem nada a ver com a de umbandido. O dicionario serve para usar a lıngua mais adequada a situacao. Nao fale Alemao com Deus!9

7. Sistemas de equacoes lineares. Matrizes elementares

Um sistema de equacoes lineares tem a formaa11x1 + a12x2 + · · ·+ a1nxn = b1a21x1 + a22x2 + · · ·+ a2nxn = b2

......

...am1x1 + am2x2 + · · ·+ amnxn = bm

e pode ser escrito na forma matricial AX = B, onde A := [aij ] ∈ Matrm×n K se chama matriz do

sistema, X :=

x1

x2...xn

e a coluna de variaveis e B :=

b1b2...bm

. A matriz [AB] se chama matriz aumentada

do sistema. O sistema AX = 0 se chama sistema homogeneo associado ao sistema AX = B. Sabemos(vide Exemplo 4.1.7) que todas as solucoes do sistema homogeneo formam um subespaco em Kn.

7.1. Observacao. Seja S0 uma solucao particular do sistema AX = B. Entao todas as solucoes dosistema AX = B constituem o conjunto {S0 + S | AS = 0} �

7.2. Lema. O sistema AX = B admite uma solucao se, e so se, rkA = rk[AB].

Demonstracao. O sistema pode ser escrito na forma x1A1 + x2A

2 + · · · + xnAn = B. Portanto,

rkA = rk[AB] se existe uma solucao. Suponhamos que rkA = rk[AB]. Entao o subespaco gerado porA1, A2, . . . , An contem B. Logo, x1A

1 + x2A2 + · · ·+ xnA

n = B para alguns x1, x2, . . . , xn ∈ K �

Recordemos o metodo de Gauss-Jordan de solucao de um sistema de equacoes lineares. Fazendo asseguintes operacoes elementares com a matriz aumentada do sistema

• Trocar a posicao de duas linhas da matriz.• Multiplicar uma linha da matriz por um escalar diferente de zero.• Somar a uma linha da matriz um multiplo escalar de outra linha.

podemos conseguir a matriz escalonada reduzida que se caracteriza pelas propriedades

• Todas as linhas nulas ocorrem abaixo das nao-nulas.• O primeiro coeficiente nao-nulo de cada linha nao-nula, chamado pivo, e igual a 1.• O pivo da (i+ 1)-esima linha nao-nula esta a direita do da i-esima.• Na coluna de um pivo, todos os outros coeficientes sao nulos.

(Omitindo a segunda exigencia, caracterizamos uma matriz escalonada semi-reduzida. Para conseguira escalonada semi-reduzida, as operacoes elementares do segundo tipo sao desnecessarias.) Se o pivode uma linha esta na ultima coluna, o sistema nao admite solucoes. Caso contrario, chamamos livresas variaveis que nao correspondem as colunas com pivos. Essas servem como parametros da solucaogeral do sistema. Ainda mais, a solucao geral obtida deste modo ja providencia uma solucao parti-cular S0 e uma base linear de solucoes do sistema homogeneo associado. Um exemplo numerico: Seja1 0 3 0 0 20 1 2 0 0 30 0 0 1 4 10 0 0 0 0 0

a matriz aumentada do sistema. Ela ja esta escalonada reduzida. As variaveis

9Imperador Carlos V (1500–1558) : “Eu falo Espanhol com Deus, Italiano com as mulheres, Frances com os homens e

Alemao com meu cavalo”.

Page 17: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 17

livres sao x3 e x5. O sistema correspondente tem a forma

x1 + 3x3 = 2x2 + 2x3 = 3x4 + 4x5 = 1

. Considerando as variaveis

livres como parametros, x3 := p1 e x5 := p2, obtemos a solucao geral do sistemax1

x2

x3

x4

x5

=

23010

+ p1

−3−2100

+ p2

000−41

:= S0 + p1S1 + p2S2 p1, p2 ∈ K.

Aqui S0 e uma solucao particular do sistema e S1, S2 formam uma base linear de solucoes do sistemahomogeneo associado.10

7.3. Observacao. Seja A ∈ Matrm×n K e seja B ∈ Matrm×l K. Se a matriz [A | B] e escalonadareduzida, entao A e escalonada reduzida �

7.4. Observacao. Seja A ∈ Matrm×m K uma matriz quadrada escalonada reduzida. Entao, ou A =1m×m, ou a ultima linha de A e nula, Am = 0.

Demonstracao. Suponhamos que Am = 0. Entao A nao possui linhas nulas. Se o pivo da i-esima linha fica na posicao ii-esima para todo i, temos A = 1m×m. Caso contrario, um dos pivos ficaestritamente a direita da diagonal principal. Isto, lembrando-se que a matriz A e quadrada, nao deixanenhum espaco para o pivo da m-esima linha �

Podemos descrever o processo de escalonamento e pivotizacao utilizando matrizes elementares. Fixa-mos m. Denotamos por eij a (m ×m)-matriz cujo unico coeficiente nao-nulo esta na ij-esima posicaoe e igual a 1.

Sejam 1 ≤ i, j ≤ m, i = j, dois ındices distintos. Denotamos por Eij a (m ×m)-matriz que difereda matriz identidade 1m×m somente nas posicoes ii, ij, ji e jj. Os correspondentes coeficientes de Eij

sao 0, 1, 1 e 0. Podemos tambem definir Eij := 1m×m − eii + eij + eji − ejj . O leitor pode facilmenteverificar que, para qualquer (m×n)-matriz A, a matriz EijA e a matriz A com as linhas Ai e Aj trocadas.Em outras palavras, a primeira operacao elementar se realiza atraves da multiplicacao a esquerda poruma matriz do tipo Eij .

Seja 1 ≤ i ≤ m e seja 0 = k ∈ K. Denotamos por Ei(k) a (m × m)-matriz que difere da matrizidentidade 1m×m somente na posicao ii e tal que o ii-esimo coeficiente de Ei(k) e igual a k. Podemos

tambem definir Ei(k) := 1m×m + (k − 1)eii. E facil ver que a multiplicacao a esquerda por uma matrizdo tipo Ei(k) realiza a segunda operacao elementar.

Sejam 1 ≤ i, j ≤ m, i = j, dois ındices distintos e seja k ∈ K. Denotamos Eij(k) := 1m×m + keij .Para qualquer (m×n)-matriz A, a matriz eijA e a (m×n)-matriz que possui uma unica linha nao-nula,a i-esima, igual a Aj . Portanto, Eij(k)A e a matriz A com uma unica mudanca: sua i-esima linha eigual a Ai + kAj . Em outras palavras, a terceira operacao elementar realiza-se atraves da multiplicacaoa esquerda por uma matriz do tipo Eij(k).

As matrizes dos tres tipos descritos acima chamam-se elementares. Assim, para fazer uma matrizA ∈ Matrm×n K escalonada reduzida, multiplicamo-la a esquerda (sucessivamente) por algumas matrizeselementares E1, E2, . . . , El ∈ Matrm×m K de modo que a matriz El . . . E2E1A fique escalonada reduzida.Para conseguir uma matriz escalonada semi-reduzida precisamos apenas das matrizes elementares doprimeiro e do terceiro tipos.

10O fato que S1, S2 sao LI segue de uma obvia observacao, valida em geral: Seja xi uma variavel livre. Entao osi-esimos coeficientes das colunas-solucoes do sistema homogeneo sao todos nulos, exceto aquele correspondendo a propria

variavel xi, que e igual a 1.

Page 18: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

18 2o SEMESTRE DE 2015

Por um calculo direto, obtemos a

7.5. Observacao. Sejam 1 ≤ i, j ≤ m, i = j, e seja k ∈ K. Entao

EijEij = Eij(k)Eij(−k) = Eij(−k)Eij(k) = 1m×m.

Se k = 0, temos tambem Ei(k)Ei(k−1) = Ei(k

−1)Ei(k) = 1m×m �

Recordamos que uma matriz A ∈ Matrm×n K e dita inversıvel se existe uma matriz B ∈ Matrn×m K,chamada inversa a A e denotada por A−1, tal que AB = 1m×m e BA = 1n×n. Note que tal inversa eunica: se B′ e uma outra inversa, obtemos B′ = 1n×nB

′ = (BA)B′ = B(AB′) = B1m×m = B. Na ver-dade, pelos Dicionarios 5.11 e 5.12, as matrizes inversıveis correspondem aos isomorfismos. Logo, taismatrizes sao necessariamente quadradas (espacos vetoriais isomorfos tem a mesma dimensao). A Ob-servacao 7.5 diz que todas as matrizes elementares sao inversıveis.

7.6. Observacao. Sejam M1,M2, . . . ,Ml (m×m)-matrizes inversıveis. Entao a matriz M1M2 . . .Ml

e inversıvel e (M1M2 . . .Ml)−1 = M−1

l . . .M−12 M−1

1 .

Demonstracao. Temos

M1M2 . . .Ml−1MlM−1l M−1

l−1 . . .M−12 M−1

1 = M1M2 . . .Ml−1M−1l−1 . . .M

−12 M−1

1 =

= · · · = M1M2M−12 M−1

1 = M1M−11 = 1.

De modo semelhante,

M−1l . . .M−1

2 M−11 M1M2 . . .Ml = M−1

l . . .M−12 M2 . . .Ml = · · · = M−1

l Ml = 1 �

7.7. Observacao. Sejam M ∈ Matrs×m K, A ∈ Matrm×n K e B ∈ Matrm×l K. Entao M [A | B] =[MA |MB].

Demonstracao. Basta observar que M [A1 A2 . . . An] = [MA1 MA2 . . .MAn] �

7.8. Teorema. Seja A ∈ Matrm×m K uma matriz quadrada. Seja M ∈ Matrm×m K o produto dematrizes elementares tal que M [A | 1m×m] e uma matriz escalonada reduzida. Entao A e inversıvel se,e so se, a matriz MA nao possui linhas nulas. Neste caso, M = A−1.

Demonstracao. Pela Observacao 7.7, M [A | 1m×m] = [MA | M ]. Pela Observacao 7.3, a matrizMA e escalonada reduzida. Pelas Observacoes 7.5 e 7.6, a matriz M e inversıvel. Aplicamos agoraa Observacao 7.4 a matriz MA. Se MA = 1m×m, entao, multiplicando essa igualdade a esquerdapor M−1, obtemos A = M−1. Portanto, A e inversıvel e A−1 = M . Se a ultima linha de MA e nula,entao [0 . . . 01]MA = 0. Neste caso, a matriz A nao pode ser inversıvel. Caso contrario, multiplicandoa ultima igualdade a direita pela inversa a MA, obtemos [0 . . . 01] = 0. Uma contradicao �

O leitor deve notar que o Lema 4.6 tem algo a ver com a terceira operacao elementar.

8. Determinante

Seja A = [aij ] ∈ Matrn×n K uma matriz quadrada. Definimos o determinante de A pela formula

detA =∑

(j1j2...jn)

(−1)I(j1j2...jn)a1j1a2j2 . . . anjn ,

onde (j1j2 . . . jn) percorre todas as permutacoes de 1, 2, . . . , n e o sımbolo I(j1j2 . . . jn) denota o numerode inversoes na permutacao (j1j2 . . . jn). Dizemos que (j1j2 . . . jn) e uma permutacao de 1, 2, . . . , nse {j1, j2, . . . , jn} = {1, 2, . . . , n}, ou seja, se a sequencia j1, j2, . . . , jn representa os mesmos numeros1, 2, . . . , n listados apenas em uma ordem (possivelmente) diferente. Uma inversao na permutacao(j1j2 . . . jn) ocorre quando jα > jβ , mas α < β. Assim, I(j1j2 . . . jn) e o numero de todas as ocorrenciasde pares dos jk’s na ordem decrescente. Por exemplo, I(12 . . . n) = 0. De fato, no calculo do

Page 19: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 19

determinante, precisamos somente da paridade do numero I(j1j2 . . . jn). Em seguida, utilizaremos semdemonstracao o seguinte

8.1. Fato. Seja (j1j2 . . . jn) uma permutacao de 1, 2, . . . , n. Entao, para 1 ≤ α < β ≤ n, os numerosI(j1j2 . . . jα . . . jβ . . . jn) e I(j1j2 . . . jβ . . . jα . . . jn) tem paridades distintas.

Este fato possibilita determinar a paridade de uma permutacao (j1j2 . . . jn) fazendo transposicoes depares de ındices (isto e, trocando como acima jα e jβ com α = β) ate obter a permutacao (12 . . . n) comI(12 . . . n) = 0.

Na definicao de determinante, cada termo a1j1a2j2 . . . anjn no somatorio tem exatamente um fator emcada linha da matriz A. Sendo (j1j2 . . . jn) uma permutacao de 1, 2, . . . , n, neste mesmo termo temosexatamente um fator em cada coluna de A. Assim, podemos ver que os termos no somatorio percorremexatamente tais produtos de n coeficientes de A que contem um fator em cada linha de A e um fatorem cada coluna de A.

Consideremos o termo a1j1a2j2 . . . anjn . Ele nao se altera se fizermos uma transposicao de doisfatores. Fazendo tais transposicoes, podemos finalmente ordenar os ındices jα’s. Em cada etapa, temoso termo escrito em uma forma do tipo as1t1as2t2 . . . asntn . Quando fazemos a transposicao dos fatoresasktk , asltl , onde 1 ≤ k < l ≤ n, efetuamos de fato as transposicoes simultaneas de sk, sl na permutacao(s1s2 . . . sk . . . sl . . . sn) e de tk, tl na permutacao (t1t2 . . . tk . . . tl . . . tn). Pelo Fato 8.1, isto implica que,quando chegamos ao produto ai11ai22 . . . ainn, os sinais (−1)I(i1i2...in) e (−1)I(j1j2...jn) sao os mesmos,onde (j1j2 . . . jn) e a permutacao relacionada a forma original a1j1a2j2 . . . anjn do termo em questao.Em outras palavras, provamos que∑

(j1j2...jn)

(−1)I(j1j2...jn)a1j1a2j2 . . . anjn =∑

(i1i2...in)

(−1)I(i1i2...in)ai11ai22 . . . ainn,

ou seja, chegamos ao seguinte

8.2. Corolario. Para toda matriz A ∈ Matrn×n K, temos detA = detAt �

Seja A = [aij ] ∈ Matrn×n K, seja 1 ≤ l ≤ n e seja k ∈ K. Podemos escrever A como composta das

suas linhas, A =

[ ∗Al

]. Substituımos a l-esima linha Al pela linha Al + A′

l, onde A′l = [a′l1 a

′l2 . . . a

′ln].

Temos

det

[ ∗Al+A′

l

]=

∑(j1j2...jl...jn)

(−1)I(j1j2...jl...jn)a1j1a2j2 . . . (aljl + a′ljl) . . . anjn =

∑(j1j2...jl...jn)

(−1)I(j1j2...jl...jn)a1j1a2j2 . . . aljl . . . anjn+∑

(j1j2...jl...jn)

(−1)I(j1j2...jl...jn)a1j1a2j2 . . . a′ljl . . . anjn

= det

[ ∗Al

]+ det

[ ∗A′

l

].

Do mesmo modo,

det

[ ∗kAl

]=

∑(j1j2...jl...jn)

(−1)I(j1j2...jl...jn)a1j1a2j2 . . . (kaljl) . . . anjn =

= k∑

(j1j2...jl...jn)

(−1)I(j1j2...jl...jn)a1j1a2j2 . . . aljl . . . anjn = k det

[ ∗Al

].

Chegamos a

Page 20: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

20 2o SEMESTRE DE 2015

8.3. Proposicao. Para todo l, o determinante detA e linear na l-esima linha de A (fixando todasas outras linhas de A) �

Essa propriedade do determinante pode ser tambem assim expressa: o determinante e multi-linearnas linhas da matriz.

Seja A = [aij ] ∈ Matrn×n K e sejam 1 ≤ p < q ≤ n. Trocando as linhas p-esima e q-esima de A, peloFato 8.1, obtemos

det

∗Aq

∗Ap

=∑

(j1j2...jp...jq...jn)

(−1)I(j1j2...jp...jq...jn)a1j1a2j2 . . . aqjp . . . apjq . . . anjn =

=∑

(j1j2...jp...jq...jn)

(−1)I(j1j2...jp...jq...jn)a1j1a2j2 . . . apjq . . . aqjp . . . anjn =

= −∑

(j1j2...jp...jq...jn)

(−1)I(j1j2...jq...jp...jn)a1j1a2j2 . . . apjq . . . aqjp . . . anjn = − det

∗Ap

∗Aq

.

Chegamos ao

8.4. Corolario. O determinante muda de sinal ao se trocar duas linhas da matriz �

Essa propriedade do determinante se expressa dizendo-se que o determinante e anti-simetrico naslinhas da matriz. A anti-simetricidade do determinante claramente implica que o determinante de umamatriz com duas linhas iguais e nulo.

Pelo Corolario 8.2, sao validas as afirmacoes envolvendo colunas no lugar de linhas, analogas aProposicao 8.3 e ao Corolario 8.4.

Sejam d1, d2, . . . , dn ∈ K. Denotamos por diag(d1, d2, . . . , dn) a correspondente (n×n)-matriz diago-nal, isto e, a matriz cujos unicos coeficientes nao-nulos estao na diagonal principal e sao respectivamenteiguais a d1, d2, . . . , dn.

8.5. Observacao. Sejam 1 ≤ i, j ≤ n, i = j, sejam d1, d2, . . . , dn ∈ K, seja k ∈ K e sejaA ∈ Matrn×n K. Entao det(EijA) = − detA, det

(Eij(k)A

)= detA e det

(diag(d1, d2, . . . , dn)A

)=

d1d2 . . . dn detA. Em particular, detEij = −1, detEij(k) = 1 e det diag(d1, d2, . . . , dn) = d1d2 . . . dn.Assim, se k = 0, temos detEi(k) = k.

Demonstracao. A igualdade det(EijA) = − detA segue do Corolario 8.4 e das consideracoes acimada Observacao 7.5. Por mesmas consideracoes, pela Proposicao 8.3 e pelo Corolario 8.4, temos

det(Eij(k)A

)= det

∗Ai+kAj

∗Aj

= det

∗Ai

∗Aj

+ k det

∗Aj

∗Aj

= detA.

A igualdade det(diag(d1, d2, . . . , dn)A

)= d1d2 . . . dn detA segue imediatamente da multi-linearidade

do determinante pois, multiplicando uma matriz A por uma matriz diagonal, multiplicamos de fato aslinhas de A por correspondentes coeficientes da matriz diagonal. Para o resto, basta tomar A = 1n×n �

8.6. Exercıcio. Uma matriz quadrada T chama-se triangular superior (respectivamente, inferior)se todos os coeficientes abaixo (respectivamente, acima) da diagonal principal de T sao nulos. Paraqualquer matriz triangular T , prove que detT e o produto de todos os coeficientes da diagonal principalde T .

Page 21: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 21

Pela Observacao 8.5, podemos calcular o determinante de A simplesmente escalonando A. Devido aoExercıcio 8.6, para os fins deste calculo, basta conseguir no final uma matriz triangular.

8.7. Observacao. Seja A ∈ Matrn×n K. Entao A e inversıvel se, e so se, detA = 0.

Demonstracao. Pela Observacao 8.5, podemos supor que A e escalonada reduzida. Basta observarque detA = 0 caso a ultima linha de A seja nula e aplicar a Observacao 7.4 (ou o Teorema 7.8) �

8.8. Teorema. Sejam A,B ∈ Matrn×n K. Entao det(AB) = (detA)(detB).

Demonstracao. Pela Observacao 8.5, multiplicando as matrizes A e AB a esquerda por umamesma matriz elementar E temos as semelhantes mudancas dos determinantes detA e det(AB). Assim,podemos supor que A e escalonada reduzida. Se A = 1n×n, a igualdade det(AB) = (detA)(detB) eobvia. Caso contrario, pela Observacao 7.3, a ultima linha de A e nula e detA = 0. Temos [0 . . . 01]A = 0.Logo, [0 . . . 01]AB = 0 e AB nao pode ser inversıvel. Pela Observacao 8.7, det(AB) = 0 �

Para A ∈ Matrn×n K, denotamos por Aij a matriz A com as i-esima linha e j-esima coluna retiradas.Chamamos Aij o ij-esimo menor de A. O numero (−1)i+j detAij e dito o ij-esimo cofator de A.A matriz transposta a matriz formada por todos os cofatores de A se chama matriz adjunta a A e e

denotada por adjA :=[(−1)i+j detAij

]t.

Seja (jj2j3 . . . jn) uma permutacao de 1, 2, 3, . . . , n. Entao (−1)I(jj2j3...jn) = (−1)j+1(−1)I(j2j3...jn).Realmente, fazendo transposicoes dos j2, j3, . . . , jn, podemos reduzir o problema ao caso da permutacao(j 1 2 . . . (j − 1) (j + 1) . . . n

)que tem j − 1 inversoes. Essa observacao implica que

detA =∑

(jj2j3...jn)

(−1)I(jj2j3...jn)a1ja2j2a3j3 . . . anjn =

=n∑

j=1

a1j(−1)j+1∑

(j2j3...jn)

(−1)I(j2j3...jn)a2j2a3j3 . . . anjn =n∑

j=1

a1j(−1)j+1 detA1j

para qualquer matriz A = [aij ] ∈ Matrn×n K. Trocando as linhas, pelo Corolario 8.4, obtemos a formula

semelhante detA =n∑

j=1

aij(−1)i+j detAij para qualquer i, chamada desenvolvimento de Laplace de

determinante pela i-esima linha. Pelo Corolario 8.2, obtemos a formula detA =

n∑i=1

aij(−1)i+j detAij

para todo j, chamada desenvolvimento de Laplace de determinante pela j-esima coluna.

8.9. Proposicao. Seja A ∈ Matrn×n K. Entao A(adjA) = (adjA)A = (detA)1n×n.

Demonstracao. Ja sabemos quen∑

j=1

aij(−1)i+j detAij = detA en∑

j=1

(−1)j+i detAjiaji = detA para

todo i. Isto implica que todos os coeficientes das diagonais principais de A(adjA) e (adjA)A sao iguais

a detA. Resta mostrar quen∑

j=1

aij(−1)l+j detAlj = 0 para i = l e quen∑

i=1

(−1)i+j detAijail = 0 para

j = l. Suponhamos que i = l. Pelo desenvolvimento de Laplace pela l-esima linha para a matriz

∗Ai

∗Ai

que e a matriz A com a l-esima linha substituıda por Ai, temos

n∑j=1

aij(−1)l+j detAlj = det

∗Ai

∗Ai

= 0.

Page 22: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

22 2o SEMESTRE DE 2015

Suponhamos que j = l. Pelo desenvolvimento de Laplace pela j-esima coluna para a matriz A com a

j-esima coluna substituıda por Al, obtemos 0 = det[∗Al ∗Al∗] =n∑

i=1

ail(−1)i+j detAij �

Utilizando as Observacao 8.7 e Proposicao 8.9, obtemos a formula explıcita para a matriz inversa:

8.10. Corolario. Seja A ∈ Matrn×n K com detA = 0. Entao A−1 =1

detAadjA �

Aplicando essa formula para sistemas de equacoes lineares, chegamos a regra de Cramer :

8.11. Corolario. Seja AX = B um sistema de n equacoes lineares em n variaveis tal que detA = 0.

Entao o sistema admite uma unica solucao dada pelas formulas xj =det[A1 A2 . . . Aj−1 BAj+1 . . . An]

detA,

j = 1, 2, . . . , n.

Demonstracao. Multiplicando a igualdade AX = B a esquerda pela inversa a A, obtemos a

unica solucao X = A−1B. Pelo Corolario 8.10, temos xj =1

detA

n∑i=1

(−1)i+jAijbi. Resta observar

quen∑

i=1

bi(−1)i+jAij e o desenvolvimento de Laplace de det[A1 A2 . . . Aj−1 BAj+1 . . . An] pela j-esima

coluna �

8.12. Observacao. Sejam A,M ∈ Matrn×n K com M inversıvel. Entao det(M−1) = (detM)−1 edet(MAM−1) = detA.

Demonstracao. Pelo Teorema 8.8, 1 = det 1n×n = det(MM−1) = (detM)(detM−1). Portanto,det(M−1) = (detM)−1. Agora,

det(MAM−1) = (detM)(detA)(detM−1) = (detM)(detA)(detM)−1 = detA

pelo Teorema 8.8 �

8.13. Observacao. O posto de qualquer matriz A e igual ao tamanho maximo de uma submatrizquadrada Q de A com detQ = 0.

Demonstracao. Retirando de A colunas que sao LD das outras, obtemos uma submatriz B com omesmo posto. Retirando de B linhas que sao LD das outras, nao alteramos o posto e, pelo Corolario 6.8,chegamos a uma submatriz quadrada Q cujo posto coincide com seu tamanho. Logo, detQ = 0.

Reciprocamente, se Q e uma submatriz quadrada de A com detQ = 0, entao as colunas de Q sao LI.Portanto, as correspondentes colunas de A sao LI, implicando que o posto de A e maior ou igual aotamanho de Q �

Seja A : V → V uma aplicacao linear. Escolhendo qualquer base linear β de V , definimos detA :=

det[A]ββ . Pelos Corolario 5.15 e Observacao 8.12, esta definicao e correta, ou seja, nao depende da escolhade base linear. Parece que, durante toda essa secao, temos falado Alemao com Deus . . .

9. Formas simetricas bilineares e 1.5-lineares

Em seguida, lidamos somente com espacos vetoriais de dimensao finita. Para k ∈ K, o sımbolo k temduas variantes de leitura:

1. k denota o numero (complexo) k conjugado.

2. k = k.

Page 23: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 23

9.1. Definicao. Seja V um K-espaco vetorial. Uma forma simetrica (hermitiana) e uma aplicacao

⟨−,−⟩ : V × V → K, (v1, v2) 7→ ⟨v1, v2⟩, linear em v1 e tal que ⟨v1, v2⟩ = ⟨v2, v1⟩ para todos v1, v2 ∈ V .Em outras palavras, a forma e bilinear (1.5-linear), pois ⟨kv1, v2⟩ = k⟨v1, v2⟩ e ⟨v1, kv2⟩ = k⟨v1, v2⟩ paratodo k ∈ K. Se W ≤ V e um subespaco, podemos restringir a forma ⟨−,−⟩ para W , obtendo o espacovetorial W munido da forma induzida.

9.2. Definicao. Seja V um espaco vetorial munido de forma e seja W ≤ V . Define-se W ortogonalpor W⊥ :=

{v ∈ V | ∀w ∈ W ⟨v, w⟩ = 0

}. O nucleo da forma em V e V ⊥. Caso o nucleo seja nulo,

dizemos que a forma e nao-degenerada. Se a forma induzida no subespaco W ≤ V e nao-degenerada,dizemos que W e nao-degenerado. Para U,W ≤ V , o ortogonal de W relativo a U e dado por W⊥U :=W⊥ ∩ U .

9.3. Lema. Seja V um espaco com forma e sejam W,W1,W2 ≤ V . Entao W⊥ ≤ V , W ⊂ W⊥⊥e

(W1 +W2)⊥ = W⊥

1 ∩W⊥2 .

Demonstracao. Podemos reescrever a definicao de W⊥ como W⊥ :={v ∈ V | ⟨v,W ⟩ = 0

}.

Sejam v, v1, v2 ∈ W⊥ e k ∈ K. Entao ⟨v,W ⟩ = ⟨v1,W ⟩ = ⟨v2,W ⟩ = 0. Portanto, ⟨v1 + v2,W ⟩ ⊂⟨v1,W ⟩+ ⟨v2,W ⟩ = 0 e ⟨kv,W ⟩ = k⟨v,W ⟩ = 0. Logo, W⊥ ≤ V .

Claramente, ⟨W⊥,W ⟩ = 0. Aplicando , obtemos ⟨W,W⊥⟩ = 0. Isto implica W ⊂W⊥⊥.

O fato que v ∈ W⊥1 ∩W⊥

2 e equivalente a ⟨v,W1⟩ = ⟨v,W2⟩ = 0. Por outro lado, ⟨v,W1 + W2⟩ =⟨v,W1⟩+ ⟨v,W2⟩. Daı concluımos que v ∈W⊥

1 ∩W⊥2 e equivalente a v ∈ (W1 +W2)

⊥ �

9.4. Observacao. Seja V um espaco com forma e seja W ≤ V o subespaco complementar aonucleo V ⊥, i.e., V = V ⊥⊕W . Entao W e nao-degenerado e a forma sobre V e determinada pela formasobre W .

Demonstracao. O fato que a forma sobre V e determinada pela forma sobreW segue imediatamentede ⟨V ⊥, V ⟩ = 0. Se w ∈ W esta no nucleo da forma sobre W , entao ⟨w,W ⟩ = 0. Por outro lado,⟨w, V ⊥⟩ = 0. Logo, ⟨w, V ⟩ = ⟨w, V ⊥⟩ + ⟨w,W ⟩ = 0, ou seja, w ∈ V ⊥. Resta observar que w ∈V ⊥ ∩W = 0 �

9.5. Lema. Seja V um espaco com forma e seja W ≤ V . Entao dimK W + dimK W⊥ ≥ dimK V .

Demonstracao. Utilizamos inducao sobre dimK W . Caso dimK W = 0, a desigualdade e obvia.Suponhamos que dimK W ≥ 1. Entao temos um elemento nao-nulo 0 = w ∈ W e podemos decompor

W = Kw ⊕ W ′. Definimos um funcional linear f : W ′⊥ → K pela regra f : v 7→ ⟨v, w⟩. Entao

(Kw)⊥ ∩W ′⊥ e o nucleo de f , f−10 = (Kw)⊥ ∩W ′⊥. Realmente, v ∈W ′⊥ esta no nucleo de f se, e sose, ⟨v, w⟩ = 0. Isto e equivalente a ⟨v,Kw⟩ = 0.

Pelo Corolario 5.10, dimK f−10 ≥ dimK W ′⊥−1. Pelo Lema 9.3, (Kw)⊥∩W ′⊥ = W⊥. Pela hipotese

de inducao, dimK W ′ + dimK W ′⊥ ≥ dimK V . Portanto,

dimK W + dimK W⊥ = 1 + dimK W ′ + dimK f−10 ≥

≥ 1 + dimK W ′ + dimK W ′⊥ − 1 = dimK W ′ + dimK W ′⊥ ≥ dimK V �

9.6. Corolario. Seja V um espaco com forma e seja W ≤ V . Entao W ∩W⊥ e o nucleo da formainduzida sobre W . Caso W seja nao-degenerado, temos V = W ⊕W⊥.

Demonstracao. Um elemento w ∈ W esta no nucleo da forma sobre W se, e so se, ⟨w,W ⟩ = 0.Isto e equivalente a w ∈ W⊥, ou seja, a w ∈ W ∩ W⊥. Suponhamos que W ∩ W⊥ = 0. EntaodimK(W +W⊥) = dimK W + dimK W⊥ ≥ dimK V pelo Lema 9.5 �

Page 24: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

24 2o SEMESTRE DE 2015

9.7. Lema. Seja V um espaco com forma nao-degenerado e seja W ≤ V um subespaco nao-

degenerado. Entao W⊥ e nao-degenerado e W⊥⊥= W .

Demonstracao. Pelo Corolario 9.6, V = W ⊕W⊥. Basta mostrar que W⊥⊥= W , pois isto implica

que o nucleo da forma induzida sobre W⊥ e nulo pelo Corolario 9.6.

Seja w + w′ ∈ W⊥⊥, onde w ∈ W e w′ ∈ W⊥. Pelo Lema 9.3, W ⊂ W⊥⊥

. Logo, w′ ∈ W⊥⊥,

ou seja, ⟨w′,W⊥⟩ = 0. De w′ ∈ W⊥ segue ⟨w′,W ⟩ = 0. Agora, ⟨w′, V ⟩ = ⟨w′,W +W⊥⟩ = ⟨w′,W ⟩ +⟨w′,W⊥⟩ = 0. Sendo V nao-degenerado, w′ = 0 �

Um elemento v ∈ V e dito isotropico se ⟨v, v⟩ = 0.

9.8. Lema. Seja V um espaco com forma nao identicamente nula. Entao V possui um elementonao-isotropico.

Demonstracao. Suponhamos que ⟨v, v⟩ = 0 para todo v ∈ V . Entao, para todos v1, v2 ∈ V , temos

0 = ⟨v1 + v2, v1 + v2⟩ = ⟨v1, v2⟩ + ⟨v2, v1⟩ = ⟨v1, v2⟩ + ⟨v1, v2⟩. Se a operacao e identica, concluımosque a forma e identicamente nula em V . Caso contrario, temos Re⟨v1, v2⟩ = 0 para todos v1, v2 ∈ V .Substituindo v1 por iv1, obtemos Im⟨v1, v2⟩ = 0 para todos v1, v2 ∈ V �

9.9. Lema. Seja V um espaco com forma nao-degenerado e seja W � V um subespaco nao-degenerado. Entao existe um subespaco nao-degenerado W ′ tal que W ≤W ′ e dimK W ′ = dimK W +1.

Demonstracao. Pelos Corolario 9.6, Lema 9.7 e Lema 9.8, existe um elemento nao-isotropicow′ ∈W⊥. Facamos W ′ := W +Kw′. Suponhamos que w+kw′ esta no nucleo da forma sobre W ′, ondew ∈ W e k ∈ K. Entao 0 = ⟨w + kw′,W ⟩ = ⟨w,W ⟩, pois w′ ∈ W⊥ implica ⟨w′,W ⟩ = 0. Sendo Wnao-degenerado, temos w = 0. Agora concluımos, de ⟨w + kw′, w′⟩ = 0 e ⟨w′, w′⟩ = 0, que k = 0 �

9.10. Definicao. Uma bandeira de subespacos e uma cadeia de subespacos V0 ≤ V1 ≤ · · · ≤ Vn

tal que Vn = V e dimVi = i para todo i. Caso V seja munido de uma forma, a bandeira e ditanao-degenerada se todos os Vi’s sao nao-degenerados.

Pelos Lemas 9.8 e 9.9, qualquer espaco com forma nao-degenerado possui uma bandeira nao-degene-rada de subespacos.

9.11. Definicao. Seja V um espaco com forma. Uma base linear β : b1, b2, . . . , bn de V e ditaortonormal11 se ⟨bi, bi⟩ ∈ {−1, 0, 1} e ⟨bi, bj⟩ = 0 para todos i e j tais que i = j. Denotemos porβ−, β0, β+ as quantidades de elementos da base β tais que ⟨bi, bi⟩ = −1, ⟨bi, bi⟩ = 0, ⟨bi, bi⟩ = 1,respectivamente. A tripla (β−, β0, β+) chama-se assinatura da base.

9.12. Lema. Seja V um espaco com forma e seja β : b1, b2, . . . , bn uma base linear ortonormal de V .Entao β0 = dimK V ⊥.

Demonstracao. E imediato que todo elemento isotropico de β pertence a V ⊥. Sejam b1, b2, . . . , bm

todos os elementos nao-isotropicos de β e seja v =m∑i=1

kibi ∈ V ⊥, onde ki ∈ K. Entao ⟨v, bj⟩ = 0 para

todo j = 1, 2, . . . ,m. Logo, 0 =⟨ m∑

i=1

kibi, bj

⟩=

m∑i=1

ki⟨bi, bj⟩ = ±kj �

9.13. Ortogonalizacao de Gram-Schmidt. Seja V0 ≤ V1 ≤ · · · ≤ Vn uma bandeira nao-degenerada de subespacos de V . Entao existe b1, b2, . . . , bn, uma base ortonormal de V , tal queb1, b2, . . . , bk e uma base de Vk para todo k.

11Caso K = C e a operacao seja identica, pedimos que ⟨bi, bi⟩ ∈ {0, 1}, inserindo em seguida as correspondentes

modificacoes.

Page 25: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 25

Demonstracao. Inducao sobre n. Para n = 1, simplesmente tomamos 0 = c1 ∈ V1 e o normalizamos:

b1 =c1√∣∣⟨c1, c1⟩∣∣ . (Sendo V1 nao-degenerado, ⟨c1, c1⟩ = 0.) Suponhamos que, para k < n, ja tenhamos

encontrado uma base ortonormal b1, b2, . . . , bk de Vk tal que b1, b2, . . . , bi e uma base de Vi para todo

i ≤ k. Tomemos ck+1 ∈ Vk+1 \ Vk e facamos c′k+1 := ck+1 −k∑

i=1

⟨ck+1, bi⟩⟨bi, bi⟩

bi. Sendo b1, b2, . . . , bk ∈ Vk,

temos c′k+1 ∈ Vk+1 \ Vk. De dimK Vk+1 = dimK Vk + 1 segue que Vk+1 = Vk + Kc′k+1. Mostremos que⟨c′k+1, bj⟩ = 0 para todo j ≤ k. Com efeito,

⟨c′k+1, bj⟩ =⟨ck+1 −

k∑i=1

⟨ck+1, bi⟩⟨bi, bi⟩

bi, bj

⟩= ⟨ck+1, bj⟩ −

k∑i=1

⟨ck+1, bi⟩⟨bi, bi⟩

⟨bi, bj⟩ =

= ⟨ck+1, bj⟩ −⟨ck+1, bj⟩⟨bj , bj⟩

⟨bj , bj⟩ = 0.

Sendo b1, b2, . . . , bk geradores de Vk, temos ⟨c′k+1, Vk⟩ = 0. Se c′k+1 fosse isotropico, ele pertenceriaao nucleo da forma sobre Vk+1, pois Vk+1 = Vk + Kc′k+1. Portanto, c′k+1 nao e isotropico e podemosnormaliza-lo, obtendo o bk+1 desejado �

9.14. Corolario. Qualquer espaco com forma admite uma base ortonormal.

Demonstracao. Pela Observacao 9.4, podemos supor que V e nao-degenerado. Portanto, V possuiuma bandeira nao-degenerada de subespacos. Agora, o resultado segue de 9.13 �

9.15. Definicao. Seja V um espaco com forma e sejam v1, v2, . . . , vk ∈ V . Facamos gij := ⟨vi, vj⟩.A (k × k)-matriz G := G(v1, v2, . . . , vk) := [gij ] se chama matriz de Gram de v1, v2, . . . , vk. O fato

que a forma e simetrica implica que Gt= G, onde M denota a matriz M com todos os coeficientes

“conjugados” por . Em palavras: G e simetrica (hermitiana).

9.16. Dicionario. Seja V um espaco com forma e seja β : b1, b2, . . . , bn uma base linear de V . Entaoa matriz de Gram Gββ := G(b1, b2, . . . , bn) de β determina a forma de V , pois ⟨v, v′⟩ = [v]tβG

ββ [v′]β

para quaisquer v, v′ ∈ V . Realmente, se v =n∑

i=1

kibi e v′ =n∑

j=1

k′jbj , entao ⟨v, v′⟩ =n∑

i,j=1

ki⟨bi, bj⟩k′j =

n∑i,j=1

kigijk′j , onde gij = ⟨bi, bj⟩.

Qualquer matriz simetrica (hermitiana) aparece como matriz de Gram de uma base de um certo espacovetorial munido de uma forma apropriada. Com efeito, seja G = [gij ] ∈ Matrn×n K uma matriz simetrica

(hermitiana), ou seja, G = Gt. Seja V um K-espaco linear com uma base linear β : b1, b2, . . . , bn. Para

v1, v2 ∈ V , definimos ⟨v1, v2⟩ := [v1]tβG[v2]β . E imediato que ⟨v1, v2⟩ e linear em v1. Resta observar que

⟨v2, v1⟩ = [v2]tβG[v1]β = [v2]t

βG[v1]β = [v2]t

βGt[v1]β =

([v1]

tβG[v2]β

)t= ⟨v1, v2⟩.

Seja γ : c1, c2, . . . , cn uma outra base de V e seja Mβγ a matriz de mudanca da base β para γ. Entao

Gββ = (Mβγ )

tGγγMβγ . Realmente, temos Mβ

γ = [mij ], onde bj =n∑

i=1

mijci para todo j. Entao

gkl = ⟨bk, bl⟩ =⟨ n∑

i=1

mikci,n∑

j=1

mjlcj

⟩=

n∑i,j=1

mik⟨ci, cj⟩mjl =n∑

i,j=1

mikfijmjl,

Page 26: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

26 2o SEMESTRE DE 2015

onde Gγγ = [fij ].

9.17. Lema. Seja V um espaco com forma e seja β uma base linear de V . Entao V e degenerado se,e so se, detGββ = 0. Exceto no caso em que K = C e a operacao e identica, o determinante detGββ

e um numero real cujo sinal nao depende da escolha de base.

Demonstracao. Uma base linear γ de V e ortonormal se, e so se, sua matriz de Gram Gγγ e diagonalcom coeficientes −1, 0, 1. Pelo Lema 9.12, V e degenerado se, e so se, γ0 > 0, o que e equivalente adetGγγ = 0.

Pelo Corolario 9.14, podemos mudar da base original β para uma ortonormal γ. Pelo Dicionario 9.16,

temos Gββ = (Mβγ )

tGγγMβγ , onde Mβ

γ e a matriz de mudanca de β para γ. Pelo Teorema 8.8,

detGββ = det(Mβγ )

t detGγγ detMβγ = detMβ

γ detGγγdetMβγ = detMβ

γ detMβγ detGγγ ,

pois a operacao comuta com as adicoes e multiplicacoes (que participam na expressao de detMβγ ).

Sabemos que detMβγ = 0. Assim obtemos a primeira afirmacao. Para a segunda, basta observar que

detMβγ detM

βγ = | detMβ

γ |2 > 0 �

No que se segue, desconsideraremos o caso em que K = C com a operacao identica, pois este eabsolutamente trivial quanto aos aspectos que trataremos.

9.18. Exemplo. Seja V um espaco com forma e sejam e, f ∈ V tais que ⟨e, e⟩ > 0 > ⟨f, f⟩. FacamosW := Ke+Kf . Entao dimK W = 2 e qualquer base ortonormal em W tem a assinatura (1, 0, 1). Alemdisso, W possui elementos nao-isotropicos (nao-nulos).

Realmente, podemos supor que W = V . Se 0 = n ∈ V ⊥, entao V = Kw + Kn para algum w ∈ Vpois dimK W ≤ 2. Caso ⟨w,w⟩ ≥ 0, concluımos que ⟨v, v⟩ ≥ 0 para todo v ∈ V . Caso ⟨w,w⟩ ≤ 0,temos ⟨v, v⟩ ≤ 0 para todo v ∈ V . Nenhum destes casos e possıvel pois V possui um elemento positivo

e um negativo. Por motivo semelhante, dimK V = 2. Seja β uma base ortonormal de V . E facil verque a assinatura de β e diferente de (2, 0, 0) (pois V possui um elemento positivo) e de (0, 0, 2) (pois Vpossui um elemento negativo). Pelo Lema 9.12, β0 = 0. Logo, a assinatura de β so pode ser (1, 0, 1).

E imediato que a soma dos elementos de β e isotropica.

9.19. Teorema da Inercia de Sylvester. A assinatura nao depende da escolha de base ortonormal.

Demonstracao. Utilizamos inducao sobre dimK V . Sejam β : b1, b2, . . . , bn e β′ : b′1, b′2, . . . , b

′n duas

bases ortonormais de V . Pela demonstracao do Lema 9.12, os elementos isotropicos de β (mesmo comoos elementos isotropicos de β′) geram o nucleo V ⊥. Os restantes elementos de β geram o subespacoW complementar ao nucleo, V = V ⊥ ⊕ W . Pela Observacao 9.4, W e nao-degenerado. Para todonao-isotropico b′i, temos b′i = ni + wi, onde ni ∈ V ⊥ e wi ∈ W . Os elementos wi’s formam uma base

linear de W . Realmente, seja∑

kiwi = 0 uma dependencia linear nao-trivial entre os wi’s. Entao

0 =∑

kib′i ∈ V ⊥, onde os b′i’s sao nao-isotropicos. Uma contradicao. E facil ver que ⟨b′i, b′j⟩ = ⟨wi, wj⟩

para todos i, j. Logo, os wi’s formam uma base ortonormal deW cuja assinatura e (β′−, 0, β

′+). Em outras

palavras, reduzimos o problema para o espaco W , ou seja, podemos supor que V e nao-degenerado.

Se β− = 0, entao ⟨v, v⟩ ≥ 0 para todo v ∈ V . Com efeito, para [v]β = [ki], temos ⟨v, v⟩ =n∑

i=1

kiki =

n∑i=1

|ki|2 ≥ 0 pelo Dicionario 9.16. Assim, β− = 0 implica β′− = 0 e, neste caso, nada ha para se

demonstrar. Do mesmo modo, β+ = 0 implica β′+ = 0. Portanto, podemos supor que ⟨bn, bn⟩ = 1 e

⟨b′n, b′n⟩ = −1.

Page 27: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 27

FacamosW := Kbn +Kb′n, U := (Kbn)

⊥, U ′ := (Kb′n)⊥.

Claramente, b1, b2, . . . , bn−1 ∈ U e b′1, b′2, . . . , b

′n−1 ∈ U ′. Pelo Corolario 9.6, dimK U = dimK U ′ = n− 1.

Logo, U = Kb1 +Kb2 + · · ·+Kbn−1 e U ′ = Kb′1 +Kb′2 + · · ·+Kb′n−1. Obviamente, as assinaturas dasindicadas bases ortonormais de U e de U ′ sao respectivamente (β−, 0, β+ − 1) e (β′

− − 1, 0, β′+). Pelo

Lema 9.3, W⊥ = U ∩U ′. Pelos Exemplo 9.18 e Lema 9.12, W e nao-degenerado. Pelo Lema 9.7, U ∩U ′

e nao-degenerado. Aplicando o Corolario 9.6 aos espacos U e U ′ e ao subespaco U ∩ U ′, obtemos asdecomposicoes ortogonais U = (U ∩U ′)⊕ (U ∩U ′)⊥U e U ′ = (U ∩U ′)⊕ (U ∩U ′)⊥U ′

(para o ortogonalrelativo, vide a Definicao 9.2). Utilizando o Corolario 9.14, escolhemos uma base ortonormal γ de U ∩U ′

e algumas bases ortonormais δ e δ′ de (U ∩ U ′)⊥U e de (U ∩ U ′)⊥U ′, respectivamente. Entao γ ⊔ δ e

γ ⊔ δ′ sao bases ortonormais de U e de U ′, respectivamente. Calculando as assinaturas, obtemos

(β−, 0, β+ − 1) =((γ ⊔ δ)−, (γ ⊔ δ)0, (γ ⊔ δ)+

)= (γ−, γ0, γ+) + (δ−, δ0, δ+),

(β′− − 1, 0, β′

+) =((γ ⊔ δ′)−, (γ ⊔ δ′)0, (γ ⊔ δ′)+

)= (γ−, γ0, γ+) + (δ′−, δ

′0, δ

′+),

pois as assinaturas nao dependem das escolhas de bases em U e em U ′ pela hipotese de inducao. Restaprovar que (U ∩ U ′)⊥U = (Kbn)

⊥W e que (U ∩ U ′)⊥U ′= (Kb′n)

⊥W , pois isto implica que (δ−, δ0, δ+) =(1, 0, 0) e (δ′−, δ

′0, δ

′+) = (0, 0, 1) devido ao Exemplo 9.18.

Sendo W e V nao degenerados, (U ∩U ′)⊥U = (U ∩U ′)⊥ ∩U = W⊥⊥ ∩U = W ∩ (Kbn)⊥ = (Kbn)

⊥W

pelo Lema 9.7. Pelo mesmo motivo, (U ∩ U ′)⊥U ′= (Kb′n)

⊥W �

Assim, podemos falar sobre a assinatura (s−, s0, s+) do espaco. Como medı-la? Pelo Lema 9.12,s0 = dimK V ⊥. Utilizando a Observacao 9.4, podemos reduzir o problema ao caso de V nao-degenerado.Seja γ : c1, c2, . . . , cn uma base de V e suponhamos que seja conhecida a matriz de Gram Gγγ . Queremoscalcular a assinatura de V em termos de Gγγ . Fazendo Vi := Kc1+Kc2+ · · ·+Kci para todo 0 ≤ i ≤ n,obtemos uma bandeira de subespacos. E obvio que a matriz de Gram da base c1, c2, . . . , ci de Vi e uma(i× i)-submatriz Gγγ

i , chamada principal, relacionada as primeiras i linhas e as primeiras i colunas damatriz Gγγ = Gγγ

n . Suponhamos que a bandeira e nao-degenerada. Pelo Lema 9.17, isto e equivalenteao fato que detGγγ

i = 0 para todo 1 ≤ i ≤ n. Apliquemos a bandeira a Ortogonalizacao 9.13 e obtemosuma base ortonormal β : b1, b2, . . . , bn de V . Para todo 1 ≤ i ≤ n, temos as bases c1, c2, . . . , ci e

b1, b2, . . . , bi de Vi. Pelo Lema 9.17, os sinais de detGγγi e detGββ

i sao os mesmos. Resta observar que,para uma base ortonormal, podemos medir a assinatura como se segue:

9.20. Criterio de Sylvester. Seja V um espaco com forma e seja γ uma base linear de V . Suponha-mos que detGγγ

i = 0 para todo 1 ≤ i ≤ n. Entao a assinatura de V e igual a (s−, 0, s+), onde s− e aquantidade de numeros negativos na sequencia

detGγγ1 ,

detGγγ2

detGγγ1

,detGγγ

3

detGγγ2

, . . . ,detGγγ

n

detGγγn−1

e s+ e a quantidade de numeros positivos nessa mesma sequencia �

Um R-espaco vetorial V munido de uma forma de assinatura (0, 0, s+) chama-se Euclidiano. Nestecaso, a forma e referida como produto interno.

10. Autovalores e autovetores. Diagonalizacao

Seja A : V → V uma aplicacao linear e seja 0 = v ∈ V . Dizemos que v e um autovetor de A seAv = kv para algum k ∈ K. Para o autovetor v, o escalar k e unico e se chama autovalor de A quecorresponde ao autovetor v. Caso V admita uma base linear formada por autovetores de A, dizemos

Page 28: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

28 2o SEMESTRE DE 2015

que A e diagonalizavel. Em termos de matrizes, isto significa que a matriz [A]γγ e diagonal para alguma

base linear γ de V . Quando a aplicacao A e descrita atraves da matriz B := [A]ββ em uma base linearβ de V , o fato que A e diagonalizavel e equivalente, pelo Corolario 5.15, a existencia de uma matrizinversıvel M tal que MBM−1 e uma matriz diagonal.

Em outras palavras, o escalar k ∈ K e um autovalor de A se, e so se, o nucleo da aplicacao lineark1V −A nao e nulo. Pelos Lema 5.7 e Corolario 5.10, isto e equivalente ao fato que a aplicacao k1V −Anao e um isomorfismo. Pela Observacao 8.7, k1V − A e um isomorfismo se, e so se, det(k1V − A) = 0.Resumindo: para um escalar k ∈ K ser um autovalor de A, e necessario e suficiente que det(k1V −A) = 0,

ou seja, em termos matriciais, que det(k1n×n − [A]ββ

)= 0, onde β e uma (qualquer) base linear de V e

n := dimK V .

10.1. Definicao. Seja A : V → V uma aplicacao linear e seja β uma base linear de V . O polinomio

PA(x) := det(x1n×n − [A]ββ

)se chama polinomio caracterıstico de A, onde n := dimK V . Pelos Obser-

vacao 8.12 e Corolario 5.15, essa definicao e correta, pois Mx1n×nM−1 = x1n×n para qualquer (n×n)-

matriz inversıvel M .

10.2. Lema. Seja A : V → V uma aplicacao linear. Entao k ∈ K e um autovalor de A se, e so se,k e raiz do polinomio caracterıstico de A, isto e, PA(k) = 0 �

10.3. Proposicao. Seja A : V → V uma aplicacao linear. Suponhamos que o polinomio carac-terıstico PA(x) possui n := dimK V raızes distintas em K. Entao A e diagonalizavel.

Demonstracao. Sejam r1, r2, . . . , rn ∈ K raızes distintas de PA(x) e sejam v1, v2, . . . , vn ∈ V os

autovetores correspondentes. Basta provar que v1, v2, . . . , vn sao LI. Sejam∑i=1

kivi = 0, 1 ≤ m ≤ n,

uma dependencia linear mınima entre os vi’s com todos os ki’s nao-nulos. Por definicao, autovetores saonao-nulos. Logo, m > 1. Sendo m > 1 e sendo os ri’s distintos, podemos supor que rm = 0. Aplicando

A a dependencia linear acima, obtemos

m∑i=1

kirivi = 0. Daı,

m∑i=1

kirir−1m vi = 0 e

m∑i=1

ki(rir−1m − 1)vi = 0.

O coeficiente de vm na ultima dependencia linear e nulo. Pela minimalidade da dependencia linearm∑i=1

kivi = 0, temos ki(rir−1m −1) = 0 para todo 1 ≤ i ≤ m. Em particular, k1(r1r

−1m −1) = 0. De k1 = 0

segue r1 = rm. Uma contradicao �

Substituindo x = 0 em PA(x), podemos ver que o termo constante de PA(x) e igual a (−1)n detA, onden := dimK V . E facil ver que xn e o termo de grau n em x no polinomio caracterıstico PA(x). Realmente,

o determinante e a soma de produtos de n coeficientes da matriz x1n×n − [A]ββ , um coeficiente em cadalinha e um em cada coluna da matriz. Obviamente, apenas o produto dos coeficientes na diagonalprincipal pode contribuir ao termo de grau n em x, produzindo assim xn. Este mesmo raciocınio

possibilita calcular o termo de grau n− 1 : ele e igual a(− tr[A]ββ

)xn−1, onde trM denota o traco da

matriz M , isto e, a soma de todos os coeficientes na diagonal principal de M . Com efeito, os termos de

grau n−1 em x vem somente de tais produtos de coeficientes da matriz x1n×n−[A]ββ que tem pelo menosn− 1 coeficientes na diagonal principal. Mas entao o fator restante tem que estar tambem na diagonalprincipal para que o produto contenha um coeficiente em cada linha e um em cada coluna. Em outraspalavras, o termo procurado e o termo de grau n−1 em x no produto (x−a11)(x−a22)(x−ann), isto e,(−

n∑i=1

aii

)xn−1, onde [A]ββ = [aij ].

Na verdade, do mesmo modo como fizemos no caso do determinante, podemos definir o traco de uma

aplicacao linear A : V → V tomando trA := tr[A]ββ para qualquer base linear β de V . Para provar que

Page 29: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 29

essa definicao e correta, basta observar que trB = tr(MBM−1) para B,M ∈ Matrn×n K e M inversıvel.Por sua vez, este fato segue da identidade tr(BC) = tr(CB), valida para todos B,C ∈ Matrn×n K, poistal identidade implica tr(MBM−1) = tr(M−1MB) = trB. Resta provar a identidade. Sejam B = [bij ]e C = [cij ]. Entao

tr(BC) =n∑

i=1

n∑j=1

bijcji =n∑

j=1

n∑i=1

cjibij = tr(CB).

10.4. Observacao. Seja A : V → V uma aplicacao linear e seja n := dimK V . Entao PA(x) =xn − (trA)xn−1 + · · ·+ (−1)n detA �

A partir deste momento, omitimos o sinal ◦ na composicao de aplicacoes lineares escrevendo sim-plesmente BA no lugar de B ◦A. Em particular, Ai denotara a composta A ◦A ◦ · · · ◦A︸ ︷︷ ︸

i vezes

para qualquer

aplicacao linear do formato A : V → V para i ≥ 0 (por convencao, A0 := 1V ).

10.5. Definicao. Seja f(x) ∈ K[x] um polinomio, f(x) = kmxm + km−1xm−1 + · · · + k1x + k0,

e seja A : V → V uma aplicacao linear. Definimos a aplicacao linear f(A) : V → V pela formulaf(A) := kmAm + km−1A

m−1 + · · ·+ k1A+ k0A0.

10.6. Observacao. Sejam f1(x), f2(x), f(x), g1(x), g2(x), g(x) ∈ K[x] polinomios tais que

(10.7) f1(x) + f2(x) = f(x), g1(x)g2(x) = g(x)

e seja A : V → V uma aplicacao linear. Entao

f1(A) + f2(A) = f(A), g1(A)g2(A) = g(A).

Demonstracao. A validade das relacoes (10.7) e o resultado de uma manipulacao formal com asexpressoes formais chamadas polinomios, utilizando a distributividade da adicao e as comutatividadee associatividade das adicao e multiplicacao. Essas mesmas propriedades valem para as expressoesenvolvendo A no lugar da variavel x pois, por exemplo, AiAj = Ai+j = AjAi �

De modo semelhante, podemos definir a matriz f(B) para f(x) ∈ K[x] e B ∈ Matrn×n K.

Sejam B,C ∈ Matrn×n K e seja n = n1+n2, n1, n2 > 0. Podemos considerar as matrizes B e C como

formadas por blocos, isto e, B =[B11 B12

B21 B22

]e C =

[C11 C12

C21 C22

], onde B11, C11 ∈ Matrn1×n1 K, B12, C12 ∈

Matrn1×n2 K, B21, C21 ∈ Matrn2×n1 K e B22, C22 ∈ Matrn2×n2 K. E facil verificar as igualdades

B + C =[B11+C11 B12+C12

B21+C21 B22+C22

], BC =

[B11C11+B12C21 B11C12+B12C22

B21C11+B22C21 B21C12+B22C22

].

Em palavras: as regras para operacoes de matrizes funcionam tambem para as matrizes exibidas naforma de blocos.

10.8. Observacao. Seja B =[B11 ∗0 B22

]∈ Matrn×n K uma matriz exibida na forma de blocos e seja

f(x) ∈ K[x]. Entao f(B) =[f(B11) ∗

0 f(B22)

]�

Em seguida, precisaremos do seguinte

10.9. Fato. Todo polinomio f(x) ∈ C[x] de grau > 0 admite uma raiz r ∈ C, isto e, f(r) = 0.

10.10. Teorema de Cayley-Hamilton. Seja A : V → V uma aplicacao linear. Entao PA(A) = 0.

Page 30: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

30 2o SEMESTRE DE 2015

Demonstracao. Inicialmente consideramos o caso K = C. Utilizamos inducao sobre n := dimC V .(O caso n = 1 e trivial.) Pelo Fato 10.9, o polinomio PA(x) possui uma raiz r ∈ C. Pelo Lema 10.2,existe 0 = b1 ∈ V tal que Ab1 = rb1. Pelo Corolario 4.11, podemos incluir b1 em uma base linear

β : b1, b2, . . . , bn de V . Pelo Dicionario 6.7, [A]ββ =[ r ∗0 B

], onde B ∈ Matr(n−1)×(n−1) C. Pelo desen-

volvimento de Laplace de determinante pela primeira coluna, obtemos

PA(x) = det(x1n×n − [A]ββ

)= det

[x−r ∗0 x1(n−1)×(n−1)−B

]= (x− r)PB(x).

Pela hipotese de inducao, PB(B) = 0. Pela Observacao 10.6 aplicada a matrizes e pela Observacao 10.8,

PA

([A]ββ

)=

([A]ββ − r1n×n

)PB

([A]ββ

)=

[0 ∗0 ∗

] [PB(r) ∗

0 PB(B)

]=

[0 ∗0 ∗

] [ ∗ ∗0 0

]= 0.

O caso K = R se reduz facilmente ao anterior. Com efeito, basta observar que PA

([A]ββ

)= 0 para

alguma base linear β de V , onde PA(x) := det(x1n×n−[A]ββ

). De fato, isto ja foi demonstrado: podemos

interpretar a matriz [A]ββ (com coeficientes reais) como uma matriz com coeficientes complexos �

10.11. Definicao. Seja V um espaco com forma nao-degenerado. Uma aplicacao linear A : V →V e dita ortogonal (unitaria) se A preserva a forma: ⟨Av1, Av2⟩ = ⟨v1, v2⟩ para todos v1, v2 ∈ V .Uma aplicacao linear A : V → V e dita autoadjunta se ⟨Av1, v2⟩ = ⟨v1, Av2⟩ para todos v1, v2 ∈ V .

Toda aplicacao ortogonal A : V → V e um isomorfismo. Realmente, se Av = 0, entao 0 = ⟨Av,Av′⟩ =⟨v, v′⟩ para todo v′, implicando que v ∈ V ⊥ = 0.

10.12. Proposicao. Seja V um C-espaco vetorial com forma nao-degenerado e seja A : V → Vuma aplicacao linear autoadjunta que nao possui autovetores isotropicos. Entao V possui uma baseortonormal de autovetores de A.

Demonstracao. Inducao sobre n := dimC V . (Para n = 1, o fato e trivial.) Como na demonstracaodo Teorema de Cayley-Hamilton 10.10, podemos encontrar um autovetor 0 = b1 ∈ V de A, isto e,Ab1 = rb1 para algum r ∈ C. Pela hipotese da Proposicao 10.12, o subespaco W := Cb1 e nao-degenerado pois b1 nao e isotropico. Seja w′ ∈ W⊥. Entao ⟨Aw′, b1⟩ = ⟨w′, Ab1⟩ = ⟨w′, rb1⟩ = 0. Daı,Aw′ ∈ W⊥. Assim, AW⊥ ⊂ W⊥. Pelo Lema 9.7, W⊥ e nao-degenerado. Pelo Corolario 9.6, temos adecomposicao ortogonal V = W ⊕W⊥. A aplicacao A|W⊥ : W⊥ → W⊥ e autoadjunta e nao possuiautovetores isotropicos. Resta aplicar a hipotese de inducao �

10.13. Dicionario. Seja V um K-espaco com forma de assinatura (0, 0, n), seja β uma base ortonor-

mal de V e seja A : V → V uma aplicacao linear. Denotamos B := [A]ββ .

A aplicacao A e ortogonal se, e so se, a matriz B e ortogonal (unitaria), isto e, se BBt= B

tB =

1n×n, onde n := dimK V . Realmente, pelo Dicionario 9.16, ⟨v1, v2⟩ = [v1]tβ [v2]β . Pelo Dicionario 5.11,

⟨Av1, Av2⟩ =(B[v1]β

)tB[v2]β = [v1]

tβB

tB[v2]β . Portanto, a identidade ⟨Av1, Av2⟩ = ⟨v1, v2⟩ para todos

v1, v2 ∈ V e equivalente a BtB = 1n×n, ou seja, a BtB = 1n×n. Para a matriz quadrada B, a igualdade

BtB = 1n×n implica B−1 = B

te, portanto, BB

t= 1n×n.

A aplicacao A e autoadjunta se, e so se, a matriz B e simetrica (hermitiana), isto e, Bt = B.Com efeito, pelos Dicionarios 9.16 e 5.11, temos

⟨Av1, v2⟩ =(B[v1]β

)t[v2]β = [v1]

tβB

t[v2]β , ⟨v1, Av2⟩ = [v1]tβB[v2]β = [v1]

tβB [v2]β .

Portanto, a identidade ⟨Av1, v2⟩ = ⟨v1, Av2⟩ para todos v1, v2 ∈ V e equivalente a Bt = B.

Page 31: ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ · 2015. 9. 15. · ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP S AO CARLOS)~ 2o semestre de 2015 1. Nota˘c~ao de aplica˘c~oes

ALGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SAO CARLOS) 31

Em seguida, denota a conjugacao complexa.

10.14. Corolario. Seja S ∈ Matrn×n K uma matriz simetrica (hermitiana). Entao, para alguma(n× n)-matriz ortogonal (unitaria) U , a matriz USU−1 e diagonal com coeficientes reais.

Demonstracao. No caso K = C, o fato segue dos Dicionario 10.13 e Proposicao 10.12 pois, quandoa assinatura e (0, 0, n), todo elemento isotropico e nulo e a matriz de mudanca de uma base ortonormal

para uma outra base ortonormal e sempre unitaria. (A matriz USU−1 e real pois U−1 = Ute USU−1 =

U SU t = (U−1)tStU t = (USU−1)t.)No caso K = R, precisamos apenas de um analogo da Proposicao 10.12 para o R-espaco V com

forma de assinatura (0, 0, n). Neste caso, a demonstracao da Proposicao 10.12 funciona perfeitamente se

encontrarmos um autovetor de A. Seja β uma base ortonormal de V . A matriz [A]ββ e real e simetrica,

portanto, hermitiana. Pelo fato demonstrado no caso K = C, a matriz [A]ββ possui um autovalor real.Daı segue que A possui um autovalor real �