SUMARIOS ALARGADOS DE ALGEBRA LINEAR E GEOMETRIA ANALITICA
AMILCAR BRANQUINHO
17-09-2013 | T.
Informacao sobre a disciplina de Algebra Linear e Geometria Analıtica quanto, aos temas de
estudo, referencias bibliograficas, avaliacao, horario de atendimento e contactos.
Horario de Duvidas. Terca-feira das 11:30 as 13:30 e quinta-feira das 12 as 13 no Gabinete 4.5.
Plano do curso.
1. Matrizes: Algebra e propriedades.
2. Sistemas de equacoes lineares - Metodo de eliminacao de Gauss.
3. Inversao de matrizes - Algoritmo de Gauss-Jordan.
4. Determinantes.
5. Espacos e sub-espacos vectoriais.
6. Transformacoes lineares.
7. Espacos Vectoriais com produto interno. Metodo dos mınimos quadrados.
8. Diagonalizacao de matrizes.
9. Aplicacoes geometricas em R2 e em R3 : curvas e superfıcies de segunda ordem.
Referencias Bibliograficas.
• Introducao a Algebra Linear - Ana Paula Santana e Joao Queiro;
Ref. 15-01/SAN.Int/ex. 2 c.17
• Algebra Linear - Seymour Lipschutz;
Ref. 15-01/LIP/3.ed.
Avaliacao na disciplina de Algebra Linear e Geometria Analıtica.
• Todos os alunos tem direito a fazer exame.
• Os alunos que frequentem 75% das aulas teoricas e 75% das aulas teorico-praticas poderao efectuar
outro tipo de avaliacao:
• Duas frequencias de 10 valores.
•Os alunos deverao obter um mınimo de 3 valores, para poderem realizar a segunda frequencia.
• Os alunos que num dos tipos de avaliacao anterior tenham obtido classificacao superior a 17 valores
serao submetidos a uma prova complementar.
1
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
• Frequencia I: 29/10/2013 das 10h as 11h30m
• Frequencia II: 17/12/2013 das 10h as 11h30m
19-09-2013 | T.
Introducao ao estudo de matrizes. Exemplos e operacoes.
Matrizes. Sao muitos os exemplos de dados numericos apresentados em forma de tabelas bi-dimen-
sionais. Para tal basta consultar jornais, revistas ou livros. Por exemplo, na seguinte tabela podemos
ver um balanco de vendas de duas livrarias nos meses de Julho e Agosto:
Julho
Loja 1 2
Jornais 6 8
Revistas 15 20
Livros 45 64
e
Agosto
Loja 1 2
Jornais 7 9
Revistas 18 31
Livros 52 68
Podemos apresentar os dados destas tabelas de forma simples, respectivamente como6 8
15 50
45 64
e
7 9
18 31
52 68
.
Este tipo de tabela rectangular sera designada por matriz e os seus elementos por escalares.
Definicoes. Uma matriz de tipo m × n com elementos, que designaremos por escalares, em R (ou C)
e uma tabela rectangular que se obtem dispondo os escalares segundo m linhas e n colunas, i.e.
A =
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n
......
...
am,1 am,2 · · · am,n
ou, abreviadamente, A =[ai,j
]j=1,...,n
i=1,...,m, ou ainda, A =
[ai,j
],
sendo ai,j o escalar na linha i coluna j da matriz.
Denotamos o conjunto das matrizes de tipo m×n em R ou C por Mm,n(R) ou Mm,n(C), respectivamente.
As matrizes coluna serao designadas por vectores, e os conjuntos Mm,1(R) e Mm,1(C) sao identificados
com Rm e Cm , respectivamente.
Usaremos letras maiusculas para designar matrizes, exceptuando-se o caso das matrizes coluna que
serao designadas por letras minusculas.
Se m = n (respectivamente, m 6= n) dizemos que a matriz A e quadrada (respectivamente, rectangular).
Se para i > j, ai,j = 0 (respectivamente, i < j, ai,j = 0) dizemos que a matriz A e triangular superior
(respectivamente, triangular inferior).
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Se para i 6= j, ai,j = 0, a matriz A diz-se diagonal.
Numa matriz quadrada, A, designamos por diagonal principal de A (respectivamente, secundaria) a
sucessao a1,1, a2,2,, . . . , am,m, (respectivamente, a1,m, a2,m−1, . . . , am,1); dizemos que a matriz diagonal A
e escalar se os seus elementos diagonais forem todos iguais. A matriz escalar com todos os elementos
diagonais iguais a 1 designa-se por matriz identidade e sera denotada por Im.
A matriz nula, 000 , e a matriz em que todos os escalares sao iguais a 0 .
A matriz quadrada, A, diz-se simetrica (respectivamente, anti-simetrica) se ai,j = aj,i (respectivamente,
ai,j = −aj,i).
Problema. Seja A =
x x+ y x− z
x− y y y + z
x+ z − 2 z − y z
, com x, y, z ∈ R .
Analise separadamente os casos em que A e triangular superior, triangular inferior ou simetrica.
Resolucao. Para que A seja triangular superior, temos que x − y = z − y = x + z − 2 = 0 , i.e.
x = y = z = 1 . A matriz A sera triangular inferior se x + y = y + z = x − z = 0 e, portanto,
x = −y = z . A matriz A e simetrica se x+ y = x− y , x− z = x+ z − 2 e y + z = z − y, logo y = 0 e
z = 1 . Temos assim, que a matriz A e dada, respectivamente por1 2 0
0 1 2
0 0 1
,
x 0 0
2x −x 0
2(x− 1) 2x x
,
x x x− 1
x 0 1
x− 1 1 1
, x ∈ R .
Soma de matrizes e produto de uma matriz por um escalar. Dadas duas matrizes m × n,
A =[ai,j
]e B =
[bi,j
], designamos por matriz soma, A+B, a matriz m× n, A+B =
[ai,j + bi,j
].
Para α ∈ R ou C designamos por matriz produto de α por A, a matriz m × n, αA definida por
αA =[α ai,j
].
Propriedades das operacoes com matrizes. Sejam A,B,C matrizes m× n e α, β escalares, entao:
(soma de matrizes) (produto por um esacalar)1. (A+B) + C = A+ (B + C) ;
2. A+ 000 = 000 + A = A ;
3. A+ (−A) = (−A) + A = 000 ;
4. A+B = B + A .
a) (α + β)A = αA+ βA;
b) α(A+B) = αA+ β B;
c) α(βA) = (αβ)A;
d) 1A = A.
Note-se que a matriz −A com A =[ai,j
]e por definicao a matriz oposta de A, i.e −A =
[−ai,j
].
Demonstracao. Estas propriedades tem uma demonstracao imediata basta para tal recorrer a definicao
de matriz e as propriedades que os escalares verificam.
Problema. Determine as matrizes X, Y ∈M2,3(C) tais que 3X + Y = A , 4X + 2Y = B com
A =
[3/2 1 0
2 1/2 5
]e B =
[3 4 2
2 1 8
].
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Resolucao. Tendo em atencao as propriedades anteriores, o sistema dado e equivalente a 6X + 2Y =
2A , 4X + 2Y = B , ou ainda, 2X = 2A−B , 2Y = −4A+ 3B ; logo
X = A− 1/2B =
[0 −1 −1
1 0 1
]e Y = −2A+ 3/2B =
[−3/2 0 1
−3 −1/2 −6
].
Produto de matrizes. Sejam A,B matrizes m×n e n× p, respectivamente. Designamos por produto
AB da matriz A pela matriz B, a matriz C =[ci,j
], m× p com
ci,j = ai,1b1,j + ai,2b2,j + · · ·+ ai,nbn,j =n∑
k=1
ai,kbk,j, i.e.
AB =
a1,1 a1,2 · · · a1,n
......
...
ai,1 ai,2 · · · ai,n...
......
am,1 am,2 · · · am,n
b1,1 · · · b1,j · · · b1,p
b2,1 · · · b2,j · · · b2,p
......
...
bn−1,1 · · · bn−1,j · · · bn−1,p
bn,1 · · · bn,j · · · bn,p
=
c1,1 · · · c1,p
ci,j
cm,1 · · · cm,p
= C .
Exemplo. Calcule a matriz produto
[2 −1 5 −3
4 2 −3 −5
]1 −2 −3
3 6 −1
2 7 −2
4 1 5
=
[2− 3 + 10− 12 −4− 6 + 35− 3 −6 + 1− 10− 15
4 + 6− 6− 20 −8 + 12− 21− 5 −12− 2 + 6− 25
]
Casos particulares de produto de matrizes, AB (Exemplos).
[a1 a2 · · · an
]b1
b2
...
bn
=n∑
k=1
akbk .
[a1 · · · an
] b1,1 · · · b1,p
......
bn,1 · · · bn,p
=[c1 · · · cp
]com cj =
n∑k=1
akbk,j, j = 1, . . . , p .
a1,1 · · · a1,n
......
am,1 · · · am,n
b1
...
bn
=
c1
...
cn
, com cj =n∑
k=1
aj,kbk, que e ainda igual a
a1,1
...
am,1
b1 + · · ·+
a1,n
...
am,n
bn,
que designamos por combinacao linear dos vectores coluna da matriz A.a1
...
am
[b1 · · · bn
]=
a1b1 · · · a1b,n
......
amb1 · · · ambn
.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısicaa1,1 · · · a1,m
a2,1 · · · a2,m
......
an,1 · · · an,m
b1 0 · · · 0
0 b2 · · · 0...
.... . .
...
0 0 · · · bm
=
a1,1b1 a1,1b2 · · · a1,mbn
a2,1b1 a2,2b2 · · · a2,mbn...
......
an,1b1 an,2b2 · · · an,mbn
.
b1 0 · · · 0
0 b2 · · · 0...
.... . .
...
0 0 · · · bn
a1,1 · · · a1,m
a2,1 · · · a2,m
......
an,1 · · · an,m
=
a1,1b1 a1,1b1 · · · a1,mb1
a2,1b2 a2,2b2 · · · a2,mb2
......
...
an,1bn an,2bn · · · an,mbn
.
19-09-2013 | TP.
Exercıcios sobre matrizes elementares, produtos de matrizes, propriedades da inversa de uma
matriz.
Propriedades do produto de matrizes. Supondo que as operacoes seguintes tem sentido:
1. (AB)C = A(B C) (propriedade associativa)
2. A(B +B′) = AB + AB′ e (A+ A′)B = AB + A′B (propriedade distributiva)
3. AI = A e I B = B (I e a matriz identidade)
4. AB 6= BA (o produto de matrizes nao e comutativo)
5. Existem matrizes A,B nao nulas tais que AB = 000 (divisores de zero)
Demonstracao. Designando por A =[ai,h
], B =
[bh,j
]e C =
[cj,k
]temos:
(AB)C =[∑
h ai,hbh,j
] [cj,k
]=[∑
j(∑
h(ai,hbh,j)cj,k)]
=[∑
j,h ai,hbh,jcj,k
]A(BC) =
[ai,h
] [∑j bh,jaj,k
]=[∑
h(∑
j ai,h(bh,jcj,k))]
=[∑
j,h ai,hbh,jcj,k
]Determinamos o escalar na posicao i, k de (AB)C e de A(B C) que sao, como vimos, iguais. Pelo que
a identidade e valida para todo o i e k, logo temos a identidade 1.
Para a identidade 2 vamos somente verificar que: A(B+B′) =[ai,h
] [bh,j + b′h,j
]=[∑
h ai,h(bh,j + b′h,j)]
=[∑
h ai,hbh,j +∑
h ai,hb′h,j
]=[∑
h ai,hbh,j
]+[∑
h ai,hb′h,j
]= AB + AB′.
Para verificar 3 basta tomar nos dois ultimos exemplos de produtos de matrizes os bj = 1, para termos
o pretendido.
Para 4 e 5 considerem-se os seguintes exemplos:
A =
1 2 5
−2 1 3
1 0 −1
e B =
−3 0 2
4 3 −3
−1 −1 1
; entao AB =
0 1 1
7 0 −4
−2 1 1
e BA =
−1 −6 −17
−5 11 32
2 −3 −9
;
e, portanto, AB 6= BA ;
e os divisores de zero:
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
[1 0 −2 1
3 −1 0 2
] 2 1 −3
2 1 −7
−1 0 −1
−4 −1 1
=
[0 0 0
0 0 0
]; e tambem,
[1 −3
2 −6
] [3 9
1 3
]=
[0 0
0 0
]. c.q.d.
Definicao. Uma matriz quadrada n × n, A, diz-se invertıvel se existir uma matriz n × n, X, tal que
AX = X A = In .
Propriedades das matrizes invertıveis. Sejam A e B matrizes n× n. Entao:
• Se A e invertıvel, entao A tem uma unica inversa.
• Se A e B sao invertıveis (e denotando por A−1, B−1 a matriz inversa de A,B, respectivamente), a
sua inversa e dada por (AB)−1 = B−1A−1.
Demonstracao. Para a primeira propriedade basta supor que existem matrizes X, Y , n × n tais que
AX = Y A = In. Entao, Y = Y In = Y (AX) = (Y A)X = InX = X. Logo X = Y .
Para demonstrar a segunda propriedade, usaremos o facto de que a inversa de uma matriz invertıvel e
unica. Temos, por isso, somente que verificar que (AB)(B−1A−1) = In = (B−1A−1)(AB). De facto,
(AB)(B−1A−1) = A(BB−1)A−1 = AInA−1 = AA−1 = In,
e tambem (B−1A−1)(AB) = B−1(A−1A)B = B−1 InB = B−1B = In. c.q.d.
Problema. Analise a existencia de inversa de uma matriz 2× 2.
Resolucao sumaria. Seja A =
[a b
c d
], com a, b, c, d ∈ C; entao, a matriz A e invertıvel se, e somente
se, a d− b c 6= 0 . Mais ainda, a matriz inversa de A−1 e dada por A−1 =1
a d− b c
[d −b−c a
].
Problema. Analise a existencia de uma matriz 2× 2, A, tal que A2 = I2.
Demonstracao. Ve-se facilmente que a propriedade indicada para A e equivalente a A−1 = A. Usando
a expressao da matriz inversa de uma matriz invertıvel, A =
[a b
c d
], temos que
b = 0 ou a d− b c = −1; c = 0 ou a d− b c = −1; a = d/(a d− b c) e (d = 0 ou a d− b c = ±1).
Se a d−b c = 1, temos de imediato que b = c = 0 e a = d, pelo que a d = 1; logo a = d = ±1 e b = c = 0.
Se a d− b c = −1, entao d = −a e b c = 1− a2 . Se a = 0, entao d = 0, e b, c sao tais que b c = 1 .
Temos assim como solucao do problema as matrizes[±1 0
0 ±1
];
[a b
c −a
], com bc = 1− a2;
[0 b
1/b 0
], com b 6= 0. c.q.d.
Exercıcio. Analise a existencia de uma matriz 2× 2, A, tal que A2 = −I2 .
Aplicacao do produto de matrizes. Considere quatro cidades com aeroporto. Defina-se a matriz
A =[ai,j
]com ai,j =
1 se existe um voo comercial directo entre as cidades i e j
0 caso contrario.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Supondo que A e a matriz de 0’s e 1’s dada por A =
0 1 1 0
1 0 0 1
1 0 0 0
0 1 0 0
, calcule as matrizes A2 e A3:
1. indique quantos voos com uma unica escala existem entre as cidades 2 e 3.
2. indique quantos voos com duas unicas escalas existem entre as cidades 1 e 3.
3. analise se e possıvel voar entre cada uma das cidades?
Resolucao. O escalar na posicao 2, 3 de A2 e dado por a2,1a1,3 +a2,2a2,3 +a2,3a3,3 +a2,4a4,3. Mais ainda,
cada termo da forma a2,jaj,3, com j = 1, 2, 3, 4 e igual a 1 se a2,j = aj,3 = 1 , i.e. existe um voo directo
entre as cidades 2 e j e entre as j e 3, i.e. existe um voo com uma unica escala j entre as cidades 2 e 3.
Desta forma vemos que o escalar na posicao 2, 3 de A2 nos da o numero de voos com uma unica escala
entre as cidades 2 e 3 .
Como A2 =
2 0 0 1
0 2 1 0
0 1 1 0
1 0 0 1
e A3 =
0 3 2 0
3 0 0 2
2 0 0 1
0 2 1 0
vemos que o escalar na posicao 2, 3 de A2 e 1, pelo que existe um voo com uma unica escala entre as
cidades 2 e 3; mais ainda como a posicao 1, 3 da matriz A3 nos da o numero de voos com duas escalas
entre as cidades 1 e 3, vemos que a resposta a questao 2 e 2 .
Para a questao 3 basta considerar a matriz A+ A2 + A3 e verificar que esta nao tem escalares nulos.
24-09-2013 | T.
Matrizes elementares. Aplicacao a resolucao de sistemas lineares e decomposicao LU de uma
matriz.
Definicao. Um sistema de m equacoes lineares a n incognitas, x1, . . . , xn e todo o conjunto de relacoes
do tipo
a1,1x1 + a1,2x2 + · · ·+ a1,nxn = b1 (primeira equacao)
a2,1x1 + a2,2x2 + · · ·+ a2,nxn = b2 (segunda equacao)...
am,1x1 + am,2x2 + · · ·+ am,nxn = bm (m-esima equacao)
A ai,j e bi, com i = 1, . . . ,m e j = 1, . . . , n designamos respectivamente por coeficientes e termo
independente, do sistema.
Dizemos ainda que (α1, . . . , αn) e uma solucao do sistema dado, se ao tomarmos x1 = α1, . . . , xn = αn,
as m equacoes se convertem em identidades. Resolver o sistema e determinar o conjunto de solucoes do
sistema. Discutir o sistema e analisar se o sistema e compatıvel (caso em que dizemos que o sistema
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
e possıvel) ou incompatıvel (caso em que dizemos que o sistema e impossıvel). Quando o sistema e
possıvel, diz-se determinado se tiver solucao unica, e indeterminado se tiver mais do que uma solucao.
Exemplos.
1. O sistema x+ y + z = 6 , x+ y − z = 0 , x+ z = 4 , x+ y = 3 de quatro equacoes nas incognitas
x, y, z, tem solucao unica (x, y, z) = (1, 2, 3) ; logo e possıvel e determinado.
2. O sistema x+y+z = 6 , x+y−z = 0 , x+y = 3 , x+y+2z = 9 de quatro equacoes nas incognitas
x, y, z, tem infinitas solucoes (x, y, z) = (α, 3− α, 3), α ∈ R; logo e possıvel e indeterminado.
3. O sistema x + y + z = 6 , x + y − z = 0 , −2x − 2y = 1 de tres equacoes nas incognitas x, y, z,
nao tem solucoes; de facto, ao somar as tres equacoes obtemos 0 = 7(!), logo as equacoes nao sao
compatıveis.
Para resolver um sistema de equacoes e aconselhavel reduzi-lo a outros sistemas mais simples que lhe
sejam equivalentes, i.e. que tenham o mesmo conjunto solucao.
Propriedade fundamental de equivalencia de sistemas. Um sistema de equacoes lineares e equiva-
lente a qualquer dos sistemas que resultam de realizar nele alguma das seguintes operacoes elementares:
• Mudar a ordem das equacoes;
• Multiplicar uma das das equacoes por qualquer escalar nao nulo;
• Somar algebricamente, a uma das equacoes, outra delas;
• Aplicar reiteradamente qualquer das operacoes anteriores.
Demonstracao. Ve-se facilmente que as primeiras duas operacoes nao alteram a natureza o sistema.
Pela natureza da quarta operacao resta analisar a terceira operacao. Para tal, considere-se o sistema
de m equacoes a n incognitas (x1, . . . , xn):a1,1x1 + a1,2x2 + · · ·+ a1,nxn = b1
...
am,1x1 + am,2x2 + · · ·+ am,nxn = bm
,
i.e. `j(x1, . . . , xn) = 0, com `j(x1, . . . , xn) = aj,1x1 + aj,2x2 + · · ·+ aj,nxn − bj , para j = 1, . . . ,m.
Suponhamos agora que ααα = (α1 . . . αn) e uma solucao do sistema; entao `j(ααα) = 0, para j = 1, . . . ,m;
e, portanto, por exemplo, `1(ααα) + `2(ααα) = 0 , `2(ααα) = 0, . . ., `m(ααα) = 0 . Concluımos assim que ααα e
solucao do sistema `1(xxx) + `2(xxx) = 0 , `2(xxx) = 0 , . . ., `m(xxx) = 0 , com xxx = (x1, . . . , xn) . c.q.d.
Exemplo. Resolva o sistema x+ y + 2z = 9 , 3x+ 6y − 5z = 0 , 2x+ 4y − 3z = 1 .
Resolucao. Este sistema e equivalente a:
`1(x, y, z) = 0 , `2(x, y, z)− 3`1(x, y, z) = 0 , `3(x, y, z)− 2`1(x, y, z) = 0 ,
onde `1 ≡ x+ y + 2z − 9 , `2 ≡ 3x+ 6y − 5z e `3 ≡ 2x+ 4y − 3z − 1 , i.e.
x+ y + 2z = 9 , 3y − 11z = −27 , 2y − 7z = −17 ,
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
que passaremos a denotar por `′j(x, y, z) = 0 , j = 1, 2, 3 .
O sistema encontrado e ainda equivalente a:
`′1(x, y, z) = 0 , `′2(x, y, z) = 0 , `′3(x, y, z)− 2/3 `′2(x, y, z) = 0 ,
i.e., x+ y + 2z = 9 , 3y − 11z = −27 , 1/3z = 1 ; logo x = 1 , y = 2 , z = 3 e a solucao procurada.
Interpretacao matricial. O sistema dado admite a seguinte representacao matricial:
Axxx = b , onde A =
1 1 2
3 6 −5
2 4 −3
e b =
9
0
1
.
Considere-se o sistema na forma[A b
], i.e.
1 1 2 9
3 6 −5 0
2 4 −3 1
→
`2 − 3`1
`3 − 2`1
1 1 2 9
0 3 −11 −27
0 2 −7 −17
→
`3 − 2/3`2
1 1 2 9
0 3 −11 −27
0 0 1/3 1
Obtemos assim como unica solucao x = 1 , y = 2 , z = 3 .
Exercıcio. Determine a matriz inversa de U =
1 1 2
0 3 −11
0 0 1/3
.
Indicacao. Considere a matriz U ampliada com a matriz identidade de ordem 3, I3 i.e.[U I3
]e
efectue operacoes elementares por linhas por forma a transformar a matriz U na matriz I3.
Observacao. Note ao considerar a matriz U ampliada pela matriz identidade I3, esta na verdade a
considerar os seguintes sistemas lineares em simultaneo:
U xxx1 =
1
0
0
, U xxx2 =
0
1
0
, U xxx3 =
0
0
1
, pelo que U−1 =[xxx1 xxx2 xxx3
].
26-09-2013 | T.
Matrizes elementares. Aplicacao ao calculo da matriz inversa de uma matriz invertıvel.
Na aula passada deixamos como exercıcio a analise da invertibilidade da matriz triangular superior U
e em caso afirmativo o seu calculo.
Para tal vamos usar a indicacao deixada na aula anterior, i.e. comecamos com[U I3
]:
1 1 2 1 0 0
0 3 −11 0 1 0
0 0 1/3 0 0 1
3`3→
1 1 2 1 0 0
0 3 −11 0 1 0
0 0 1 0 0 3
`1 − 2`3
`2 + 11`3
→
1 1 0 1 0 −6
0 3 0 0 1 33
0 0 1 0 0 3
1/3`2
→
1 1 0 1 0 −6
0 1 0 0 1/3 11
0 0 1 0 0 3
`1 − `2
→
1 0 0 1 −1/3 −17
0 1 0 0 1/3 11
0 0 1 0 0 3
.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Obtemos assim, U−1 =
1 −1/3 −17
0 1/3 11
0 0 3
. (Como facilmente se pode comprovar.)
Definicao. Designamos por matriz elementar as matrizes quadradas que se obtenham ao aplicar a
matriz identidade, com o mesmo numero de linhas, as operacoes elementares dadas na aula passada, i.e.
• Mudar a ordem das equacoes;
• Multiplicar uma das das equacoes por qualquer escalar nao nulo;
• Somar algebricamente, a uma das equacoes, outra delas.
Assim, obtemos as seguintes matrizes:
Pi,j =
1
0 · · · 1...
...
1 · · · 0
1
i
j
que e a matriz de permutacao das linhas i e j;
i j
Di(α) =
1...
· · · α · · ·...
1
i
que e a matriz que multiplica a linha i por α;
i
Ei,j(α) =
1
1 · · · α. . .
...
1
1
i
j
que e a matriz que soma a linha i, α `j.
i j
Assim, se A =
`1
...
`n
, entao Pi,j A =
...
`j...
`i...
, Di(α)A =
...
`i−1
α `i
`i+1
...
, Ei,j(α)A =
...
`i−1
`i + α `j
`i+1
...
.
Relacao entre as operacoes elementares e o produto de matrizes no sistema dado na aula
passada. As operacoes realizadas correspondem a multiplicacao da matriz A, sucessivamente pelas
matrizes elementares E2,1(−3) , E3,1(−2) , E3,2(−2/3), i.e. o sistema dado e equivalente ao sistema
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
E3,2(−2/3)E3,1(−2)E2,1(−3)Axxx = E3,2(−2/3)E3,1(−2)E2,1(−3) b,
ou ainda
1 1 2
0 3 −11
0 0 1/3
x
y
z
=
9
−27
1
, cuja solucao e obviamente
x
y
z
=
1
2
3
.
Observacao. Na resolucao do problema anterior obtivemos ainda a seguinte identidade:1 0 0
−3 1 0
0 −2/3 1
A =
1 1 2
0 3 −11
0 0 1/3
, pois E3,2(−2/3)E3,1(−2)E2,1(−3) =
1 0 0
−3 1 0
0 −2/3 1
.
Como
1 0 0
−3 1 0
0 −2/3 1
−1
=
1 0 0
3 1 0
2 2/3 1
, A = LU onde L =
1 0 0
3 1 0
2 2/3 1
e U =
1 1 2
0 3 −11
0 0 1/3
.
Note-se que a matriz L reproduz, a menos do sinal, as operacoes realizadas em A para chegar a U .
Verifiquemos agora que a matriz das operacoes elementares por linhas, E3,2(−2/3)E3,1(−2)E2,1(−3), e
a inversa de L, i.e.1 0 0
3 1 0
2 2/3 1
1 0 0
−3 1 0
0 −2/3 1
=
1 0 0
−3 1 0
0 −2/3 1
1 0 0
3 1 0
2 2/3 1
=
1 0 0
0 1 0
0 0 1
.
Alem disso, o sistema Axxx = b ou, equivalentemente, (LU)xxx = b (atendendo a que A = LU) transforma-
-se (por operacoes elementares) no sistema equivalente
U xxx = L−1 b, com L−1
9
0
1
=
9
−27
1
.
Observacao. Conhecida a matriz inversa de U , U−1, podemos determinar a matriz inversa de A, i.e.
A−1 = U−1 L−1 (pois A = LU).
Definicao. Seja A uma matriz m× n. Designamos por matriz transposta de A, a matriz n×m que se
obtem de A colocando o escalar ai,j na linha j coluna i, para i = 1, . . . ,m, j = 1, . . . , n.
Designamos por AT =[aj,i
]i=1,...,m
j=1,...,na matriz transposta de A =
[ai,j
]j=1,...,n
i=1,...,m.
Propriedades. Sejam A, B e C tres matrizes e α um escalar. Entao:
• (AT )T = A (a transposicao e uma involucao);
• (A+B)T = AT +BT (A e B sao ambas m× n);
• (αA)T = αAT ;
• (AC)T = CT AT (C e uma matriz n× p).
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Observacao. Se A e uma matriz quadrada, entao:
• A e simetrica se, e somente se, A = AT ;
• A e anti-simetrica se, e somente se, a A = −AT ;
• A + AT e simetrica e A − AT e anti-simetrica. Alem disso, A = (A + AT )/2 + (A − AT )/2 ; e,
portanto, toda a matriz quadrada se pode representar como a soma de uma matriz simetrica com
uma anti-simetrica.
Demonstracao. Vamos somente verificar que se tem a identidade (AC)T = CT AT . Comparemos
entao, os elementos situados na linha i coluna j da matriz
(AC)T , i.e.n∑
k=1
aj,k ck,i (linha j, coluna i de AC)
com o situado na mesma posicao da matriz
CT AT , i.e.n∑
k=1
ck,i aj,k ; logo (AC)T = CT AT . c.q.d.
Propriedades das matrizes invertıveis (continuacao). Seja A uma matriz quadrada n× n. Se A
e invertıvel, entao AT tambem e invertıvel e tem-se (AT )−1 = (A−1)T .
Demonstracao. Para tal basta analisar os produtos de matrizes:
AT (A−1)Tdef.= (A−1A)T = IT = I e (A−1)T AT def.
= (AA−1)T = IT = I . c.q.d.
26-09-2013 | TP.
Resolucao dos problemas 30, 31, 32, 33, 42, 47, 48 e 53 do caderno de exercıcios.
Resolucao do problema 30.
[cosα − sinα
sinα cosα
][cos β − sin β
sin β cos β
]
=
[cosα cos β − sinα sin β − cosα sin β − sinα cos β
sinα cos β + cosα sin β − sinα sin β + cosα cos β
]=
[cos(α + β) − sin(α + β)
sin(α + β) cos(α + β)
]Resolucao do problema 31. Temos somente que efectuar os produtos indicados e nos casos em que o
expoente e variavel tem de formular uma hipotese e prova-la usando o metodo de inducao matematica.
Por exemplo, pode provar-se que[1 1
0 1
]k=
[1 k
0 1
], e que
[cosα − sinα
sinα cosα
]k=
[cos(kα) − sin(kα)
sin(kα) cos(kα)
], k ∈ N e α ∈ R .
Resolucao do problema 32. Facilmente se ve que Ak = diag{µk1, µ
k2, . . . , µ
kn} .
Resolucao do problema 33. (A+B)2 = (A+B)(A+B) = A2 + AB +BA+B2,
(A+B)(A−B) = A2 − AB +BA−B2 e tambem (AB)2 = A(BA)B;
logo (A + B)2 = A2 + 2AB + B2, (A + B)(A − B) = A2 − B2 e (AB)2 = A2B2 (como se diz no
enunciado) se, e somente se, AB = BA.
Resolucao do problema 42. Pode verificar-se para estes exemplos AB = I = BA, tendo-se portanto,
A−1 = B em cada um dos casos considerados.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Resolucao do problema 47. Basta verificar que nas condicoes do problema
(I − A)(I + A+ · · ·+ Ak−1) = I = (I + A+ · · ·+ Ak−1)(I − A) .
Assim, (I −A)(I +A+ · · ·+Ak−1) = (I +A+ · · ·+Ak−1)− (A+ · · ·+Ak−1 +Ak) = I −Ak , e como
Ak = 000 temos (I − A)(I + A+ · · ·+ Ak−1) = I .
Por outro lado,
(I + A+ · · ·+ Ak−1)(I − A) = (I + A+ · · ·+ Ak−1)− (A+ · · ·+ Ak−1 + Ak) = I − Ak ,
e como Ak = 000 temos (I + A+ · · ·+ Ak−1)(I − A) = I . c.q.d.
Resolucao do problema 48. Basta tomar para matriz A =
0 1 0
0 0 1
0 0 0
no exercıcio anterior; pois
A2 =
0 0 1
0 0 0
0 0 0
e An =
0 0 0
0 0 0
0 0 0
, n = 3, . . .; pelo que
(I − A)−1 =
1 −1 0
0 1 −1
0 0 1
−1
= I + A+ A2 =
1 1 1
0 1 1
0 0 1
.
Problema. Aplique o resultado do problema 47 para calcular a inversa de B =
2 2 1
0 3 −1
0 0 −1
.
Resolucao. Multiplique B a esquerda pela matriz
(diag{2, 3,−1})−1 = diag{1/2, 1/3,−1} = D1(1/2)D2(1/3)D3(−1), (produto de matrizes diagonais)
obtendo B1 =
1 1 1/2
0 1 −1/3
0 0 1
. Agora, B1 = I − A , com A =
0 −1 −1/2
0 0 1/3
0 0 0
.
Aplique o problema 47 para calcular a matriz B−11 (i.e. B−1
1 = I +A+A2 , pois A3 = 000 ), e determine
a inversa de B a partir da identidade (diag{2, 3,−1})−1B = B1 , i.e. B−11 = B−1 diag{2, 3,−1}; e,
portanto, B−1 = B−11 diag{1/2, 1/3,−1} .
Exercıcio. Aplique o resultado do problema 47 para calcular a inversa de C =
2 0 0
−5 7 0
4 2 1
.
Resolucao do problema 53. Basta efectuar os produtos de matrizes e verificar as identidades indi-
cadas[cosα − sinα
sinα cosα
][cosα sinα
− sinα cosα
]=
[cosα sinα
− sinα cosα
][cosα − sinα
sinα cosα
]= I2
e tambem[cosα sinα
sinα − cosα
][cosα sinα
sinα − cosα
]=
[cosα sinα
sinα − cosα
][cosα sinα
sinα − cosα
]= I2
01-10-2013 | T.
Caracterıstica de uma matriz. Criterio de invertibilidade de uma matriz quadrada. Discussao de
sistemas.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Vamos ver alguns sistemas de equacoes lineares que facilmente se podem resolver.
Definicao. As matrizes que verifiquem:
• Cada linha (a partir da segunda) comeca com uma sucessao de zeros que tem pelo menos um zero
mais que a linha anterior. Note que, caso haja linhas constituıdas somente por zeros, estas terao
de ocorrer nas ultimas linhas;
• Nas linhas em que existe algum elemento nao nulo, o primeiro escalar nao nulo sera designado
por “pivot”;
sao designadas por matrizes em escada.
Um sistema de equacoes lineares diz-se em escada se a matriz do sistema estiver em escada.
Exemplo de matriz em escada.
d1 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗0 0 d2 ∗ ∗ ∗ ∗ ∗ ∗0 0 0 d3 ∗ ∗ ∗ ∗ ∗0 0 0 0 0 d4 ∗ ∗ ∗0 0 0 0 0 0 d5 ∗ ∗0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
, dj 6= 0, j = 1, 2, 3, 4, 5.
Discussao de sistemas em escada. Considere o sistema M xxx = b , com M uma matriz em escada
m× n com r “pivots” (logo M tem as ultimas m− r linhas de zeros). Entao:
• o sistema e possıvel se, e somente se, os ultimos m− r escalares do termos independente sao todos
nulos;
• supondo que os ultimos m − r escalares do termo independente sao zero, o sistema e possıvel e
determinado se r = n e e indeterminado se r < n (note que nao e possıvel que se tenha r > n).
Metodo de eliminacao de Gauss. E o processo que nos permite reduzir, por operacoes elementares
por linhas, um sistema de equacoes lineares, Axxx = b , a um sistema de equacoes lineares em escada
(equivalente ao inicial).
Definicao. Ao numero de “pivots”, r, da matriz em escada obtida de A por operacoes elementares por
linhas, designa-se por caracterıstica de A, e sera denotado por carA .
Exemplos. Considere os sistemas em escada, M xxx = b :
•
x+ 3z − v = 2
y + 5z = 7
u+ 2v = −1
, descrito matricialmente como[M b
]≡
1 0 3 0 −1 2
0 1 5 0 0 7
0 0 0 1 2 −1
;
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
A solucao vem dada por x = 2 − 3α + β , y = 7 − 5α , z = α , u = −1 − 2β , v = β , α, β ∈ R , ou
vectorialmente,
X =
2
7
0
−1
0
+ α
−3
−5
1
0
0
+ β
1
0
0
−2
1
, onde M
2
7
0
−1
0
=
2
7
−1
, M
−3
−5
1
0
0
=
0
0
0
e M
1
0
0
−2
1
=
0
0
0
.
•
x+ 3z − v = 2
y + 5z = 7
u+ 2v = −1
0 = 0
, descrito matricialmente como[M b
]≡
1 0 3 0 −1 2
0 1 5 0 0 7
0 0 0 1 2 −1
0 0 0 0 0 0
;
A solucao coincide com a do sistema anteriormente estudado.
•
x+ 3z − v = 2
y + 5z = 7
u+ 2v = −1
0 = 4
, descrito matricialmente como
1 0 3 0 −1 2
0 1 5 0 0 7
0 0 0 1 2 −1
0 0 0 0 0 4
;
e um sistema impossıvel.
•
x+ 4y + z + u = 1
y + 2z − u = 4
z − 4u = 9
u = −2
, descrito matricialmente como[M b
]≡
1 4 1 1 1
0 1 2 −1 4
0 0 1 −4 9
0 0 0 1 −2
;
A solucao vem dada por u = −2 , z = 1 , y = 0 , x = 2 .
Criterio de invertibilidade. Se M e a matriz em escada que se obtem aplicando certas operacoes
elementares por linhas a uma matriz quadrada A, entao uma condicao necessaria e suficiente para que A
seja invertıvel e que todos os elementos da diagonal de M sejam nao nulos.
Calculo da inversa de uma matriz quadrada invertıvel. A matriz A−1, de uma matriz in-
vertıvel, A, pode determinar-se da seguinte forma: realizam-se as adequadas operacoes elementares
sobre as linhas da matriz A, e simultaneamente sobre as linhas da matriz identidade, I, ate conseguir
que A se transforme na matriz identidade (o que e sempre possıvel, pois A e invertıvel e temos tantos
“pivots” como linhas da matriz A); neste momento, a transformada da matriz identidade pelas mesmas
operacoes e a matriz A−1.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Problema. Analisar se A =
1 3 −2
2 4 0
3 5 −1
e invertıvel e, em caso afirmativo, calcular a sua inversa.
Resolucao. Considere-se[A I
], i.e.
1 3 −2 1 0 0
2 4 0 0 1 0
3 5 −1 0 0 1
→
−2`1 + `2
−3`1 + `3
1 3 −2 1 0 0
0 −2 4 −2 1 0
0 −4 5 −3 0 1
→
−2`2 + `3
1 3 −2 1 0 0
0 −2 4 −2 1 0
0 0 −3 1 −2 1
(existe A−1)
→
−1/2 `1
−1/3 `3
1 3 −2 1 0 0
0 1 −2 1 −1/2 0
0 0 1 −1/3 2/3 −1/3
2`3 + `1
2`3 + `2
→
1 3 0 1/3 4/3 −2/3
0 1 0 1/3 5/6 −2/3
0 0 1 −1/3 2/3 −1/3
−3`2 + `1
→
1 0 0 −2/3 −7/6 4/3
0 1 0 1/3 5/6 −2/3
0 0 1 −1/3 2/3 −1/3
. Logo A−1 =1
6
-4 -7 8
2 5 -4
-2 4 -2
.
Teorema de Rouche. Considere-se um sistema de equacoes lineares Axxx = b, com A matriz m×n e b
vector m× 1 dados. Entao:
• Axxx = bbb e possıvel se, e somente se, car[A bbb
]= carA ;
• Axxx = bbb e possıvel e determinado se, e somente se, car[A bbb
]= carA = n ;
• Axxx = bbb e possıvel e indeterminado se, e somente se, car[A bbb
]= carA < n .
03-10-2013 | T.
Discussao de Sistemas. Aplicacoes.
Definicao. Um sistema de equacoes lineares, Axxx = b , diz-se homgeneo se o termo indepenedente for 000 ,
i.e., for do tipo Axxx = 000 .
Lema. Um sistema homgeneo e sempre possıvel (pois admite, pelo menos, como solucao a nula, i.e.
xxx = 000 e solucao). Mais ainda, se xxx1 e xxx2 sao duas quaisquer solucoes do sistema homgoeneo, Axxx = 000 ,
entao αxxx1 + β xxx2 e ainda uma solucao qualquer que sejam os escalares α, β .
Definicao. Seja A ∈Mm,n . O conjunto de solucoes do sistema Axxx = 000 designa-se por nucleo de A, ou
sub-espaco nulo de A e representa-se por N(A) = {xxx ∈ Rn : Axxx = 000} .
Teorema de representacao da solucao. Seja A uma matriz m × n de coeficientes em C e bbb um
vector de Cm. Se o sistema Axxx = bbb e possıvel, e yyy e uma sua solucao, entao o conjunto solucao, sol ,
de Axxx = bbb e dado por sol = {yyy + yyy0 , yyy0 ∈ N(A)} .
Demonstracao. Verifiquemos primeiro que xxx = yyy+yyy0 e de facto uma solucao do sistema Axxx = bbb , i.e.,
A(yyy + yyy0) = Ayyy + Ayyy0 = bbb+ 000 = bbb .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Suponhamos agora que zzz e uma outra solucao de Axxx = bbb entao A(zzz−yyy) = Azzz−Ayyy = bbb− bbb = 000 ; logo
zzz − yyy ∈ N(A) e, portanto, sol 3 zzz = yyy + yyy0 com yyy0 ∈ N(A) . c.q.d.
Determinacao do nucleo de A. Considere-se o sistema Axxx = 000 com A matriz m× n . Este sistema
e sempre possıvel, sendo determinado caso, carA = n , e indeterminado caso carA < n .
Neste ultimo caso comecamos por identificar as variaveis livres em numero igual a n − carA , corres-
pondentes as variaveis sem “pivot” da matriz U na decomposicao P A = LU . Designamos por nulidade
de A o numeros de variaveis livres, n− carA e denotamo-la por nulA .
Determinamos, de seguida, a solucao dos sistemas Axxxj0 = 000 onde xxxj0 , com j = 1, . . . ,nulA e o vector
resultante de tomar todas as variaveis livres iguais a zero menos a j-esima variavel, que e igual a 1 .
Desta forma encontramos que yyy ∈ N(A) representa-se como combinacao linear dos vectores xxxj0 , i.e.
yyy = α1xxx10 + · · ·+ αnulAxxx
nulA0 .
Aplicacao. Discuta em termos do parametro α ∈ R o sistema de equacoes lineares Axxx = bbb com
A =
1 2 4 −3
3 7 5 −5
5 12 6 −7
, bbb =
2
3
α
e xxx =
x
y
z
w
;
e resolva o sistema dado para os valores de α que o tornem possıvel.
Resolucao. Considere-se a matriz do sistema ampliada[A bbb
], i.e.
1 2 4 −3 2
3 7 5 −5 3
5 12 6 −7 α
→
−3`1 + `2
−5`1 + `3
1 2 4 −3 2
0 1 −7 4 −3
0 2 −14 8 α− 10
→
−2`2 + `3
1 2 4 −3 2
0 1 −7 4 −3
0 0 0 0 α− 4
;
logo se α 6= 4 o sistema e impossıvel, e caso α = 4 o sistema e possıvel e indeterminado.
Vamos agora resolver o sistema quando α = 4 . Comecemos por indicar que a caracterıstica da matriz
do sistema e 2 (tem como “pivots” os escalares assinalados nas posicoes (1, 1) e (2, 2)) e a nulidade e 2
(o sistema dado tem como variaveis livres z, w ).
Comecemos por determinar uma solucao do sistema com z = w = 0 ; logo y = 7 e x = 6 , i.e.
xxxp =[8 −3 0 0
]T; e resolvamos o sistema homogeneo associado primeiro com z = 1 e w = 0,
e depois com z = 0 e w = 1, determinando, respectivamente, os vectores xxx10 =
[−18 7 1 0
]Te
xxx20 =
[11 −4 0 1
]T.
A solucao geral do sistema de equacoes lineares com α = 4 vem dado por
xxx = xxxp + β xxx10 + γ xxx2
0 , com β, γ ∈ R .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Teorema. Sejam A e B matrizes quadradas n × n. Se a matriz AB for invertıvel, entao A e B sao
matrizes invertıveis. Em particular, se AB = In entao B = A−1 .
Demonstracao. Suponhamos que AB e uma matriz invertıvel e que B nao e invertıvel. Entao o
sistema Bxxx = 000 e possıvel e indeterminado, pelo que o sistema (AB)xxx = 000 e tambem possıvel e
indeterminado (pois uma solucao do primeiro sistema e tambem solucao deste sistema), o que e absurdo.
Temos entao que B e invertıvel. Mais ainda, como A = (AB)B−1 temos que a matriz A e invertıvel
(pois esta descrita como o produto de duas matrizes invertıveis).
Suponhamos agora que AB = In . Da primeira parte do teorema concluımos que tanto A como B sao
matrizes invertıveis; e, portanto, das propriedades elementares do produto de matrizes temos
A−1 = A−1In = A−1(AB) = (A−1A)B = InB = B . c.q.d.
Definicao. Seja A uma matriz m × n. Dizemos que o produto de uma matriz triangular inferior, L,
por uma triangular superior, U , e uma decomposicao LU de A se A coincidir com LU a menos de
mudanca da ordem das linhas de A , i.e. existe uma matriz de permutacao, P , tal que P A = LU .
Decomposicao LU de uma matriz (algoritmo). Use operacoes elementares por linhas, i.e.
Ek · · · E2E1
sobre a matriz A por forma a transforma-la numa matriz em escada, U , (que e sempre possıvel ainda
que para tal se tenha de multiplicar por matrizes de permutacao) i.e. (Ek · · ·E2E1)A = U ; e, portanto,
A = (Ek · · ·E2E1)−1U = LU , com L = E−11 · · ·E−1
k .
Resumidamente temos.[A I
]→[U L−1
], e L e a matriz triangular inferior com 1’s na
diagonal que regista as operacoes elementares por linhas efectuadas, com sinal contrario.
Exemplo. Determinar a decomposicao LU da matriz A =
0 2 2 4
0 2 2 2
1 2 2 1
2 6 7 5
. Comecamos por multipli-
car A pela matriz P1,4 , i.e. vamos efectuar operacoes elementares sobre P1,4A
[P1,4A I4
]≡
2 6 7 5 1 0 0 0
0 2 2 2 0 1 0 0
1 2 2 1 0 0 1 0
0 2 2 4 0 0 0 1
→
−1/2`1 + `3
2 6 7 5 1 0 0 0
0 2 2 2 0 1 0 0
0 −1 −3/2 −3/2 −1/2 0 1 0
0 2 2 4 0 0 0 1
→
1/2`2 + `3
−`2 + `4
2 6 7 5 1 0 0 0
0 2 2 2 0 1 0 0
0 0 −1/2 −1/2 −1/2 1/2 1 0
0 0 0 2 0 −1 0 1
≡[U L−1
].
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Assim, P1,4A = LU , com L =
1 0 0 0
0 1 0 0
1/2 −1/2 1 0
0 1 0 1
e U =
2 6 7 5
0 2 2 2
0 0 −1/2 −1/2
0 0 0 2
.
Teorema de unicidade da factorizacao LU . Se A e uma matriz n×n invertıvel, entao a factorizacao
P A = LU unica.
Demonstracao. Suponhamos que existem L1, L2 e U1, U2 , pares de matrizes quadradas n×n , respecti-
vamente triangulares inferiores (com 1’s na diagonal) e triangulares superiores tais que que P A = L1U1
e tambem P A = L2U2 ; entao como Lj Uj sao invertıveis temos tambem L−11 L2 = U1U
−12 , logo terao
de ser iguais a matriz identidade, In , i.e. L−11 L2 = In = U1U
−12 , e do teorema anterior tiramos que
L1 = L2 e que U1 = U2 . c.q.d.
Calculo da inversa de uma matriz quadrada invertıvel (continuacao). A matriz A−1 , de uma
matriz invertıvel, A , pode determinar-se da seguinte forma: realizam-se as adequadas operacoes elemen-
tares sobre as linhas da matriz A, e simultaneamente sobre as linhas da matriz identidade, I , ate
conseguir que A se transforme numa matriz em escada (o que e sempre possıvel); neste momento,
acabamos de levar a matriz[A I
]a[U L−1
]; efectuando agora as operacoes elementares por
linhas a matriz U ampliada com a matriz I ate que a primeira se transforme na matriz identidade,
obtemos como transformada de I a matriz U−1. Agora, da representacao A = LU , temos que A−1 =
U−1 L−1.
03-10-2013 | TP.
Resolucao dos problemas 29, 31. e), 60, 61, 63. g) e 65.
Resolucao do problema 29. a) Sendo A =[ai,j
]e B =
[Bi,j
], matrizes n × n, entao o elemento
situado na linha i, coluna j da matriz A2 +B en∑
k=1
ai,kak,j + bi,j , para i, j = 1, . . . , n.
Para a alınea b) temos que o elemento situado na linha i, coluna j de A−BA+ 2In, e
ai,j −
(n∑
k=1
bi,kak,j
)+ 2δi,j , onde δi,j =
1 se i = j
0 se i 6= j(delta de Kronecker) i, j = 1, . . . , n .
Resolucao do problema 31. e) Ve-se facilmente que sendo A =
[2 −1
3 −2
], se tem A2 =
[1 0
0 1
]; e,
portanto, A2n = I2 e A2n+1 = A , n ∈ N .
Resolucao do problema 60. a)
1 2 4
3 −1 −2
1 −5 3
1
1
1
=
7
0
−1
; b)
1 3 1
−2 2 6
1 1 1
−2
1
−1
=
0
0
−2
;
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
c)
1 1
2 3
1 1
[
1
2
]=
3
8
3
; d)
[1 2 3
−1 4 1
]1
−1
0
=
[−1
−5
].
Resolucao do problema 61. a)
1 3 1
−2 2 6
1 1 1
x
y
z
=
0
0
−2
; b)
[1 2 3
−1 4 1
]x
y
z
=
[−1
−5
];
c)
1 2 4
3 −1 −2
1 −5 3
x
y
z
=
7
0
−1
; d)
1 1
2 3
1 1
[x
y
]=
3
8
3
.
Resolucao do problema 63. g) Para resolver o sistema Axxx = bbb , com A =
1 1 1 1
1 1 3 2
3 5 7 3
e bbb =
1
3
0
,
considere-se[A bbb
]=
1 1 1 1 1
1 1 3 2 3
3 5 7 3 0
→
`2 ↔ `3
1 1 1 1 1
3 5 7 3 0
1 1 3 2 3
→
−3`1 + `3
−`1 + `2
1 1 1 1 1
0 2 4 0 −3
0 0 2 1 2
.
Vemos assim que o sistema dado e possıvel e indeterminado, e x4 e uma variavel livre; a solucao geral
do sistema sera dada por xxx = αxxx0 +xxxp, α ∈ R, tais que Axxx0 = 000 , e Axxxp = bbb , com xxx0 =[x y z 1
]Te xxxp =
[x1 x2 x3 0
]T. Obtemos xxxp =
[7/2 −7/2 1 0
]Te xxx0 =
[−3/2 2 −1/2 1
]T.
Observacao. A decomposicao P2,3A = LU tem L =
1 0 0
3 1 0
1 0 1
e U =
1 1 1 1
0 2 4 0
0 0 2 1
.
Resolucao do problema 65. Consideramos a matriz ampliada do sistema depois de multiplicada pela
matriz de permutacao P2,3 , i.e.[P2,3A b
], com A =
1 β β
1 1 β
β 1 1
e b =
0
β2
0
, i.e. depois de aplicar
as transformacoes por linhas `′2 = −`1 + `2 e `′3 = −β`1 + `3 temos1 β β 0
0 1− β 0 β2
0 1− β2 1− β2 0
.
Agora, se β = 1 o sistema e impossıvel (pois a linha `′2 le-se 0 = 1 ); se β = −1 o sistema e possıvel
e indeterminado (pois a linha `′3 le-se 0 = 0 ); caso β 6= ±1 entao o sistema e possıvel e determinado;
efectuando a operacao `′′3 = −(1 + β)`′2 + `′31 β β 0
0 1− β 0 β2
0 0 1− β2 −β(1 + β)
, obtemos como solucao
0
β2/(1− β)
−β2/(1− β)
.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Exercıcio. Identifique as matrizes L e U da decomposicao P2,3A para os casos β = −1 , β = 1 , ou
β 6= ±1 .
08-10-2013 | T.
Determinante de uma matriz quadrada de ordem n. Aplicacoes.
Definicao. Determinante de uma matriz de ordem n e uma funcao det : Mn×n(K)→ K , com K ≡ Rou C , verificando as seguintes condicoes:
1• para cada i = 1, . . . , n e α ∈ K , tem-se
det[· · · cccj + bbb · · ·
]= det
[· · · cccj · · ·
]+ det
[· · · bbb · · ·
],
onde cccj e bbb sao vectores coluna[a1,j · · · an,j
]T, j = 1, . . . , n e
[b1 · · · bn
]T, respectivamente;
2• para cada i = 1, . . . , n e α ∈ K , tem-se det[· · · αcccj · · ·
]= α det
[· · · cccj · · ·
];
3• Se a matriz A tiver duas colunas iguais, tem-se detA = det[· · · cccj · · · cccj · · ·
]= 0 ;
4• det In = 1 .
Notacao.
• O determinante de uma matriz A , detA , pode denotar-se como det[ai,j
]ou ainda
∣∣∣ai,j∣∣∣ ou |A| .• As propriedades 1 e 2 expressam a linearidade por colunas da funcao determinante.
• A definicao anterior nao se altera substituindo o termo “coluna” por “linha” (cf. texto de apoio).
No estudo que agora iniciamos vamos supor que existe uma unica funcao satisfazendo as condicoes 1
a 4, i.e. vamos considerar que a defincao dada e consistente.
Propriedades dos determinantes. Seja A uma matriz n× n; entao tem-se:
a. se uma coluna de A for multipla de uma outra, entao detA = 0 . Em particular, detA = 0 se a
matriz A tiver uma linha nula;
b. o determinante muda de sinal quando se trocam entre si duas colunas de A ;
c. se P e uma matriz de permutacao tem-se detP = ±1 ;
d. O determinante de uma matriz A nao se altera se a uma coluna de A adicionarmos um multiplo
de uma outra coluna.
Demonstracao. Vamos denotar a matriz A por colunas, i.e. A =[· · · ccci · · · cccj · · ·
]. Entao,
det[· · · αcccj · · · cccj · · ·
]2= α det
[· · · cccj · · · cccj · · ·
]3= 0 ,
pelo que a fica provado.
Para demonstrarmos b comecemos por considerar
det[· · · ccci + cccj · · · ccci + cccj · · ·
]3= 0 .
Aplicando a linearidade (i.e. as propriedades 1 e 2) a este determinante, podemos escrever
det[· · · ccci · · · ccci · · ·
]+ det
[· · · ccci · · · cccj · · ·
]+ det
[· · · cccj · · · ccci · · ·
]+ det
[· · · cccj · · · cccj · · ·
]= 0 .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Mas da propriedade 3 temos que det[· · · ccci · · · cccj · · ·
]+ det
[· · · cccj · · · ccci · · ·
]= 0 .
Por definicao de matriz de permutacao, e aplicacao reiterada de b concluımos que detP = ±1 .
Para demonstrarmos d basta ver que
det[· · · ccci · · · cccj + αccci · · ·
]1= det
[· · · ccci · · · cccj · · ·
]+ det
[· · · ccci · · · αccci · · ·
]a= det
[· · · ccci · · · cccj · · ·
]. c.q.d.
Observacao. As propriedades que acabamos de estabelecer admitem uma leitura em termos de deter-
minantes de produtos de matrizes, i.e. sendo A =[· · · ccci · · · cccj · · ·
]uma matriz n× n, entao:
•[· · · cccj · · · ccci · · ·
]= APi,j ,
•[· · · ccci · · · cccj + αccci · · ·
]= AEi,j(α) ,
•[· · · ccci · · · αcccj · · ·
]= ADj(α) .
Agora, detPi,j = det[· · · eeej · · · eeei · · ·
], onde eeej e o vector coluna que tem todos os escalares
nulos com excepcao que que esta na posicao j que e igual a 1. Assim, pela propriedade b temos que
detPi,j = −1 .
Mais ainda,
detEi,j(α) = det[· · · eeei · · · eeej + αeeei · · ·
]= det
[· · · eeei · · · eeej · · ·
]+ det
[· · · eeei · · · αeeei · · ·
]a= det In = 1 .
Temos ainda que detDj(α) = det[· · · eeei · · · αeeej · · ·
]2= α det In = α .
Assim, podemos escrever para qualquer matriz A ∈Mn×n :
• det(APi,j) = (detA) (detPi,j) ,
• det(AEi,j(α)) = (detA) (detEi,j(α)) ,
• det(ADj(α)) = (detA) (detDj(α)) .
Exemplo. Calcule o determinante das matrizes A =
1 2 3
0 4 5
0 0 7
e B =
2 0 0
3 4 0
−1 0 5
.
Resolucao. Ve-se facilmente que
AD2(1/4)D3(1/7) =
1 1/2 3/7
0 1 5/7
0 0 1
;
mais ainda, AD2(1/4)D3(1/7)E1,2(−1/2)E1,3(−3/7)E2,3(−5/7) = I .
Assim, A = E2,3(5/7)E1,3(3/7)E1,2(1/2)D3(7)D2(4) ; pelo que
detA = |E2,3(5/7)| |E1,3(3/7)| |E1,2(1/2)| |D3(7)| |D2(4)| = 28 .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Para a matriz B comecamos por multiplicar a direita pela matriz D1(1/2)D2(1/4)D3(1/5) , i.e.
B transforma-se em
1 0 0
3/2 1 0
−1/2 0 1
; assim, BD1(1/2)D2(1/4)D3(1/5)E2,1(−3/2)E3,1(1/2) = I .
Logo B = E3,1(−1/2)E2,1(3/2)D3(5)D2(4)D1(2) ; e, portanto, detA = 40 .
Determinantes de matrizes especiais.
• det(D1(α1) · · ·Dn(αn)) = detD1(α1) · · · detDn(αn) =n∏
j=1
αj , i.e. o determinante de uma matriz
diagonal e o produto dos seus elementos diagonais.
• o determinante de uma matriz triangular superior (respectivamente, triangular inferior) e o produto
dos seus elementos diagonais.
Demonstracao. De facto, sendo T+ =[· · · tj · · ·
]uma matriz triangular superior temos que
T+ =
[α1eee1 α2eee2 + ∗eee1 · · · αneeen +
n−1∑j=1
∗eeej
], onde eeej e, como anteriormente, o vector coluna
que tem todos os escalares nulos com excepcao que que esta na posicao j que e igual a 1.
Se algum dos elementos diagonais for nulo, i.e. αk = 0 , para algum k = 1, . . . , n entao, a coluna k
de T+, tttk =k−1∑j=1
∗eeej , admite a representacao tttk =k−1∑j=1
βkj tttj , com βk
j , j = 1, . . . , k−1 bem determinados.
Agora, aplicando a propriedade 1 temos
detT = det[ttt1 · · · tttk−1 tttk tttk+1 · · ·
]=
k−1∑j=1
det[ttt1 · · · tttk−1 ∗ tttj tttk+1 · · ·
]e da propriedade d temos que detT+ = 0 .
Vamos supor agora quen∏
j=1
αj 6= 0 . Mutiplicando a matriz T+ pela matriz D1(1/α1) · · ·Dn(1/αn) ,
obtemos T+D1(1/α1) · · ·Dn(1/αn) =
[eee1 eee2 + ∗eee1 eee3 + (∗eee1 + ∗eee2) · · · eeen +
n−1∑j=1
∗eeej
].
Agora, adicionando a segunda coluna da matriz que obtivemos pelo processo anterior, eee2 +∗eee1 , (−∗)eee1
transforma-mo-la em eee2 , e pela propriedade d o valor do determinante nao se altera. Como sabemos
esta operacao corresponde a multiplicar a matriz T+D1(1/α1) · · ·Dn(1/αn) por E1,2(−∗) , pelo que a
matriz inicial foi transformada em
T+D1(1/α1) · · ·Dn(1/αn)E1,2(−∗) =
[eee1 eee2 eee3 + (∗eee1 + ∗eee2) · · · eeen +
n−1∑j=1
∗eeej
].
Multiplicando sucessivamente matrizes do tipo E1,j(∗) eliminamos a dependencia do vector eee1 de todas
a colunas de T+ com a excepcao da primeira coluna. Continuando a aplicar este processo, eliminamos,
primeiro a dependencia de eee2 em todas as colunas de T+ com a excepcao da segunda coluna, ate chegar
a eliminar a dependencia de eeen−1 da ultima coluna, i.e. multiplicando cuidadosamente por matrizes
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
elementares do tipo Ei,j(∗) levamos a nossa matriz T+ a matriz In , i.e.
T+D1(1/α1) · · ·Dn(1/αn) (produto de matrizes Ei,j(∗) pela ordem que indicamos) = In .
Como (Ei,j(∗))−1 = Ei,j(−∗) e (D1(1/α1))−1 = D1(α1) , T+ pode representar-se na forma
T+ = (produto de matrizes Ei,j(−∗) pela ordem inversa)Dn(αn) · · ·D1(α1)
Concluımos assim que (aplicando as formulas para o determinante do produto por matrizes elementares)
detT+ = detDn(αn) · · · detD1(α1) =n∏
j=1
αj , pois detEi,j(−∗) = 1 .
Para matrizes triangulares inferiores T− pode provar-se da mesma forma tendo em atencao que
T− =
[α1 eee1 +
n∑j=2
∗eeej α2 eee2 +n∑
j=3
∗eeej · · · αn eeen
],
e, portanto T− pode representar-se na forma
T− = (produto de matrizes Ei,j(−∗) – ordem a determinar)Dn(αn) · · ·D1(α1) .
Como conhecemos o determinante do produto de matrizes elementares temos detT+ =n∏
j=1
αj . c.q.d.
10-10-2013 | T.
Determinantes de matrizes quadradas: Teorema de Laplace.
Teorema. Considere a decomposicao LU para uma matriz A quadrada n× n, i.e. A = P TLU (pois,
P TP = I ); entao, detA = detP detU , e tambem detAT = detA .
Demonstracao. Basta notar que P TP = In ; e, portanto, detP T detP = 1 , ou ainda, tendo em
atencao a propriedade c, detP T = detP . Agora pela decomposicao LU de A temos o resultado
procurado para o determinante da matriz A .
Para mostrar que detAT = detA basta notar que o determinante de uma matriz triangular e o produto
dos seus elementos diagonais, pelo que detUT = detU . c.q.d.
Teorema. Sejam A,B matrizes quadradas n × n . Entao, det(AB) = detA detB . Alem disso, se A
e invertıvel, entao detA−1 = (detA)−1 .
Demonstracao. A primeira identidade e consequencia da representacao LU para as matrizes A e B ,
quando estas sao invertıveis, e de que tanto L como U admitem uma representacao como produto de
matrizes elementares. Quando A ou B nao sao invertıveis, temos tambem que AB nao e invertıvel,
pelo que det(AB) = 0 = detA detB .
Para a segunda identidade basta notar que pela definicao de matriz invertıvel A−1A = In , e da propri-
edade anterior temos det(A−1A) = detA−1 detA = 1 , de onde se obtem o resultado procurado. c.q.d.
Problema. Analise a existencia de uma matriz quadrada A , n× n invertıvel e tal que AT = −A3 .
Resolucao. Das hipoteses temos detA = (−1)n(detA)3 , i.e. (1− (−1)n(detA)2) detA = 0 .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Agora, como detA 6= 0 , concluımos que (detA)2 = (−1)n , i.e. se n e par (detA)2 = 1 e se n e ımpar
(detA)2 = −1 ; logo, caso n seja para, detA = ±1 , e caso n seja ımpar detA = ±i .
Por exemplo, as matrizes A =
i 0 0
0 −i 0
0 0 −i
e A =
[i 0
0 −i
]satisfazem a condicoes do enunciado.
Note-se que caso n = 3 nao existe uma matriz com escalares reais satisfazendo a condicao do enunciado.
Definicao. Seja A =[ai,j
]uma matriz n × n . Designamos por complemento algebrico de ai,j a
(−1)i,j detAi,j onde Ai,j e a matriz que se obtem de A por supressao da linha i e da coluna j .
Teorema de Laplace. O determinante de uma matriz quadrada e igual a soma dos produtos dos
elementos de uma coluna (respectivamente, linha) pelos respectivos complementos algebricos, i.e. sendo
A =[ai,j
]e denotando por (−1)i+j detAi,j o complemento algebrico de ai,j para i, j = 1, . . . , n , tem-se
detA =n∑
i=1
(−1)i+jai,j detAi,j , j = 1, . . . , n
(analogamente para linhas, detA =n∑
j=1
(−1)i+jai,j detAi,j , i = 1, . . . , n ).
Demonstracao. Escrevendo a coluna j da matriz A na forma cccj =n∑
i=1
ai,j eeei , onde eeei e, para cada
i = 1, . . . , n , o vector coluna que tem todos os escalares nulos com excepcao do que esta na posicao i
que e igual a 1 . Desta forma escrevemos A por colunas como[· · · cccj−1
n∑i=1
ai,j eeei cccj+1 · · ·]
.
Aplicando a linearidade do determinante concluımos que,
detA =n∑
i=1
det[· · · cccj−1 ai,j eeei cccj+1 · · ·
]=
n∑i=1
ai,j det[· · · cccj−1 eeei cccj+1 · · ·
].
Acabamos de expressar o determinante de A em termos de n determinantes das matrizes
· · · a1,j−1 0 a1,j+1 · · ·...
......
· · · ai−1,j−1 0 ai−1,j+1 · · ·· · · ai,j−1 1 ai,j+1 · · ·· · · ai+1,j−1 0 ai+1,j+1 · · ·
......
...
i = 1, . . . , n.
O determinante destas matrizes coincidem a menos de (−1)j com o determinante das matrizes que
resultam delas por troca da coluna j sucessivamente com as colunas j − 1 ate a coluna 1 , i.e. com o
determinante das matrizes
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
0 · · · a1,j−1 a1,j+1 · · ·...
......
0 · · · ai−1,j−1 ai−1,j+1 · · ·1 · · · ai,j−1 ai,j+1 · · ·0 · · · ai+1,j−1 ai+1,j+1 · · ·...
......
i = 1, . . . , n.
Mais ainda, o determinante destas matrizes coincidem a menos de (−1)i com o determinante das
matrizes que resultam delas por troca da linha i sucessivamente com as linhas i− 1 ate ate a linha 1 ,
i.e. com o determinante das matrizes
1 · · · ai,j−1 ai,j+1 · · ·0 · · · a1,j−1 a1,j+1 · · ·...
......
0 · · · ai−1,j−1 ai−1,j+1 · · ·0 · · · ai+1,j−1 ai+1,j+1 · · ·...
......
i = 1, . . . , n.
Mas o determinante desta matriz e igual ao determinante da matriz que se obtem da matriz A por
supressao da linha i e da coluna j, i.e. podemos escrever
detA =n∑
i=1
det[· · · cccj−1 ai,j eeei cccj+1 · · ·
]=
n∑i=1
ai,j(−1)i+j detAi,j .
Da mesma forma se demonstra a formula de calculo do determinante segundo os escalares de uma
mesma linha. c.q.d.
Exemplos.
• Seja A =
[a b
c d
]; detA = a detA1,1 − b detA1,2 = −c detA2,1 + d detA2,2 = a detA1,1 −
c detA2,1 = −b detA1,2 + d detA2,2 ,
onde A1,1 = d , A1,2 = c , A2,1 = b e A2,2 = a , i.e. detA = a d− b c .
• Seja A =
a b c
d e f
g h i
; detA = a detA1,1 − b detA1,2 + c detA1,3
onde A1,1 =
[e f
h i
], A1,2 =
[d f
g i
], A1,3 =
[d e
g h
];
e do caso analisado anteriormente temos que detA1,1 = e i− f h , detA1,2 = d i− f g e detA1,3 =
d h− g e . Assim, detA = a e i− a f h− b d i+ b f g + c d h− c g e .
Observacao. No primeiro exemplo, observe-se a posicao na matriz A dos escalares (que agora identi-
ficamos com 1’s) que aparecem nos produtos duplos da formula de calculo do determinante, i.e.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica[1 0
0 1
]↔ a d e
[0 1
1 0
]↔ b c ,
cujos determinantes valem, respectivamente 1 e −1 (pois coincidem com a matriz identidade e com a
matriz de permutacao), que e o sinal de a d e b c na formula do determinante.
No segundo exemplo, observe-se a posicao na matriz A dos escalares (que agora identificamos com 1’s)
que aparecem nos produtos triplos da formula de calculo do determinante, i.e.1 0 0
0 0 1
0 1 0
↔ a f h ,
0 1 0
1 0 0
0 0 1
↔ b d i ,
0 0 1
0 1 0
1 0 0
↔ c g e , cujos determinantes valem −1
1 0 0
0 1 0
0 0 1
↔ a e i ,
0 1 0
0 0 1
1 0 0
↔ b f g ,
0 0 1
1 0 0
0 1 0
↔ c d h , cujos determinantes valem 1
(pois coincidem com a matriz identidade, ou com matrizes de permutacao ou com produtos de matrizes
de permutacao). Obtemos assim a regra de Sarrus, i.e. detA = (a e i+b f g+d h c)−(c e g+b d i+f h a) .
10-10-2013 | TP.
Determinantes de matrizes quadradas: Regra de Cramer. Resolucao de Exercıcios.
Definicao. Seja A =[ai,j
]uma matriz n× n . Definimos matriz adjunta como a matriz transposta da
matriz dos complementos algebricos de A, i.e.
adj A =[(−1)i+j detAi,j
]T=
(−1)1+1 detA1,1 · · · (−1)n+1 detA1,n
......
(−1)1+n detAn,1 · · · (−1)n+n detAn,n
T
=
(−1)1+1 detA1,1 · · · (−1)n+1 detAn,1
......
(−1)1+n detA1,n · · · (−1)n+n detAn,n
.
Como consequencia directa do teorema de Laplace temos:
Formula explıcita para o calculo da inversa de uma matriz invertıvel. Seja A uma matriz
quadrada invertıvel. Entao A−1 = (detA)−1 adj A .
Indicacao. Basta notar quen∑
k=1
(−1)k+jak,i detAk,j = (detA) δi,j , j = 1, . . . , n, onde δi,j e a delta de
Kronecker. De facto,n∑
k=1
(−1)k+jak,i detAk,j = det[· · · ci · · · ci · · ·
]; e, portanto, (adj A)A = (detA)In .
i j
Aplicacao a resolucao de sistemas (Regra de Cramer). Seja A =[ai,j
]uma matriz n × n e
bbb =[bi
]um vector n×1 . O sistema Axxx = bbb diz-se de Cramer se a matriz do sistema, A , for invertıvel.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Um sistema de Cramer tem solucao unica xxx =[x1 · · · xn
]Tdada por
xj = δj/(detA) ,
onde δj e para cada j = 1, . . . , n, o determinante da matriz que se obtem de A por substituicao da
coluna j (de A) pelo vector bbb , i.e.
xj = det[· · · cccj−1 bbb cccj+1 · · ·
]/detA , j = 1, . . . , n .
Indicacao. Basta notar que (adj A)bbb =
[n∑
i=1
(−1)i+j(detAi,j) bi
]e (adj A)A = (detA) In . Pelo
que, do teorema de Laplace, obtemos quen∑
i=1
(−1)i+j(detAi,j) bi = det[· · · cccj−1 bbb cccj+1 · · ·
].
Assim, (detA) bj = det[· · · cccj−1 bbb cccj+1 · · ·
], j = 1, . . . , n . c.q.d.
Problemas. Determinar a solucao do sistema de equacoes lineares
2x+ y − 3 z = 1 , −x+ 5 y + z = 4 , 3x− 2 y − 4 z = −1 .
Resolucao. Em notacao matricial o sistema dado le-se
Axxx = bbb , com A =
2 1 −3
−1 5 1
3 −2 −4
e bbb =
1
4
−1
e xxx =
x
y
z
.
Como detA = 2 , sabemos que A e invertıvel, pelo que o sistema dado e de Cramer. Mais ainda,
A−1 =1
detA
|A1,1| −|A1,2| |A1,3|−|A2,1| |A2,2| −|A2,3||A3,1| −|A3,2| |A3,3|
T
,
com |A1,1| = −18 , |A1,2| = 1 , |A1,3| = −13 , |A2,1| = −10 , |A2,2| = 1 , |A2,3| = −7 , |A3,1| = 16 ,
|A3,2| = −1 , |A3,3| = 11 ; e, portanto, A−1 =1
2
−18 10 16
−1 1 1
−13 7 11
, pelo que xxx = A−1 bbb =
3
1
2
.
Aplicando directamente a regra de Cramer temos:
x =
∣∣∣∣∣∣∣∣1 1 −3
4 5 1
−1 −2 −4
∣∣∣∣∣∣∣∣detA
=6
2= 3 , y =
∣∣∣∣∣∣∣∣2 1 −3
−1 4 1
3 −1 −4
∣∣∣∣∣∣∣∣detA
=2
2= 1 , z =
∣∣∣∣∣∣∣∣2 1 1
−1 5 4
3 −2 −1
∣∣∣∣∣∣∣∣detA
=4
2= 2 .
Resolucao do problema 83. a)
∣∣∣∣∣ 1 3
−2 4
∣∣∣∣∣ = 1 4− 3 (−2) = 10 ; f)
∣∣∣∣∣∣∣∣2 1 3
1 0 2
1 4 2
∣∣∣∣∣∣∣∣ = (2 + 12)− (16 + 2) = 4 ;
k)
∣∣∣∣∣∣∣∣∣∣a 0 0 0
0 0 0 b
0 c 0 0
0 0 d 0
∣∣∣∣∣∣∣∣∣∣c3↔c4= −
∣∣∣∣∣∣∣∣∣∣a 0 0 0
0 0 b 0
0 c 0 0
0 0 0 d
∣∣∣∣∣∣∣∣∣∣c2↔c3=
∣∣∣∣∣∣∣∣∣∣a 0 0 0
0 b 0 0
0 0 c 0
0 0 0 d
∣∣∣∣∣∣∣∣∣∣= a b c d ;
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
l)
∣∣∣∣∣∣∣∣∣∣0 1 0 0
1 0 1 0
0 1 0 1
0 0 1 0
∣∣∣∣∣∣∣∣∣∣`1↔`2= −
∣∣∣∣∣∣∣∣∣∣1 0 1 0
0 1 0 0
0 1 0 1
0 0 1 0
∣∣∣∣∣∣∣∣∣∣`3↔`4=
∣∣∣∣∣∣∣∣∣∣1 0 1 0
0 1 0 0
0 0 1 0
0 1 0 1
∣∣∣∣∣∣∣∣∣∣−`2+`4=
∣∣∣∣∣∣∣∣∣∣1 0 1 0
0 1 0 0
0 0 1 0
0 0 0 1
∣∣∣∣∣∣∣∣∣∣= 1 .
15-10-2013 | T.
Resolucao dos problemas 64, 93 e 96 do caderno de exercıcios.
Resolucao do problema 64. Pode ver-se que o determinante da matriz do sistema
A =
[i 1 + i
1− i −6 + i
]e igual a −3− 6 i , logo A e invertıvel e A−1 =
[(4− 13 i)/15 (3− i)/15
−(1 + 3i)/15 −(2 + i)/15
],
pelo que a solucao do sistema vem dada por
A−1 bbb =
[(4− 13 i)/15 (3− i)/15
−(1 + 3i)/15 −(2 + i)/15
] [3 + i
4
]=
[(37− 39 i)/15
−(8 + 14i)/15
].
Outro processo: A partir do momento que verificamos que a matriz do sistema, A , e invertıvel, podemos
aplicar directamente a Regra de Cramer para resolver o sistema dado, obtendo-se
z =
∣∣∣∣∣3 + i 1 + i
4 −6 + i
]detA
=−23− 7 i
−3− 6 ie w =
∣∣∣∣∣ i 3 + i
1− i 4
]detA
=−4 + 6 i
−3− 6 i,
que e a solucao do sistema (confirmar).
Podemos ainda, como processo alternativo determinar a decomposicao LU da matriz A :[i 1 + i
1− i −6 + i
]→
(1 + i)`1 + `2
[i 1 + i
0 −6 + 3 i
], i.e. A =
[1 0
−(1 + i) 1
] [i 1 + i
0 −6 + 3 i
].
Agora, temos somente que resolver o seguinte sistema em escada (exercıcio),[i 1 + i
0 −6 + 3 i
] [z
w
]=
[1 0
−(1 + i) 1
]−1 [3 + i
4
]=
[1 0
1 + i 1
] [3 + i
4
]=
[3 + i
6 + 4 i
].
Resolucao do problema 93. Seja A =
1 1 α
1 α 1
α 1 1
, e calculemos o seu determinante, i.e. detA =
−2 + 3α−α3 = −(α− 1)2(α+ 2) . Assim, se a ∈ R \ {−2, 1} a matriz A e invertıvel. Mais ainda, para
α 6= −2, 1 , a sua inversa vem dada por A−1 =1
detA
|A1,1| −|A1,2| |A1,3|−|A2,1| |A2,2| −|A2,3||A3,1| −|A3,2| |A3,3|
T
,
com |A1,1| = α−1 , |A1,2| = 1−α , |A1,3| = 1−α2 , |A2,1| = 1−α , |A2,2| = 1−α2 , |A2,3| = 1−α , |A3,1| =
1−α2 , |A3,2| = 1−α , |A3,3| = α−1 ; e, portanto, A−1 = − 1
(α− 1)2(α + 2)
α− 1 α− 1 1− α2
α− 1 1− α2 α− 1
1− α2 α− 1 α− 1
.
Resolucao do problema 96. Como A = T B T−1 e det(T B T−1) = detT det(B T−1)
= detT detB detT−1 = detT detB (detT )−1 obtemos detA = detB .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
17-10-2013 | T.
Espaco vectorial. Exemplos. Sub-espaco vectorial. Exemplos.
Conceito de Espaco Vectorial. Seja V um conjunto dado cujos elementos serao designados por vecto-
res. Consideremos tambem o conjunto K (que sera sempre R ou C ) cujos elementos serao designados
por escalares. Diremos que V e um espaco vectorial sobre K se as operacoes soma e produto por um
escalar, satisfazem as seguintes propriedades, para todo o ~u,~v, ~w ∈ V , α, β ∈ K :
+++ : V× V→ V ... : K× V→ V
1. (~u+++ ~v) +++ ~w = ~u+++ (~v+++ ~w) ;
2. ∃~0 : ~u+++~0 = ~0 +++ ~u = ~u ;
3. ∃ − ~u : ~u+++ (−~u) = (−~u) +++ ~u = ~0 ;
4. ~u+++ ~v = ~u+++ ~v;
a) (α + β) ... ~u = α... ~u+++ β ... ~u ;
b) α... (~u+++ ~v) = α... ~u+++ β ... ~v ;
c) α(β ... ~u) = (αβ) ... ~u ;
d) 1 ... ~u = ~u .
Observacao. Caso K seja C o espaco vectorial V diz-se complexo; e caso K = R , V diz-se um espaco
vectorial real.
No que se segue vamos aligeirar a notacao e denotar os vectores de ~u de V por uuu .
Exemplos. Alem dos espacos Kn , ou mesmo Mm,n(K) com K = R ou C que nos serviram como
modelo (cf. aula T | 19-09-2013 em Propriedades das operacoes com matrizes) convem citar os
seguintes exemplos de espacos vectoriais:
• O conjunto das funcoes definidas num mesmo conjunto D com valores em K , que denotamos por
F(D,K) , com as operacoes adicao de funcoes e produto de uma funcao por um escalar, i.e.
+++ : F(D,K)×F(D,K)→ F(D,K) sendo f+++g a funcao definida em D por (f+g)(x) = f(x)+g(x);
... : K× F(D,K)→ F(D,K) sendo α... f a funcao definida em D por (α... f)(x) = α f(x) .
• O conjunto dos polinomios com coeficientes em K na variavel x, que denotaremos por P[x] e um
espaco vectorial sobre K , relativamente as operacao usuais de soma de polinomios e do produto
de um escalar por um polinomio.
Definicao. Seja V um espaco vectorial sobre K e seja U um subconjunto de V . Dizemos que U e um
sub-espaco vectorial de V se as operacoes sobre V estiverem bem definidas sobre U ; e, portanto, U e
tambem um espaco vectorial sobre K .
Teorema de caracterizacao. U e um sub-espaco vectorial do espaco vectorial V se, e somente se,
sendo ∅ 6= U ⊂ V se tem
uuu+++ vvv ∈ U e α...uuu ∈ U , para todo o uuu,vvv ∈ U e α ∈ K . Propriedade (*)
Observacao. As condicoes anteriores de caracaterizacao de um sub-espaco podem ser substituidas por
α...uuu+++ β ... vvv ∈ U , uuu,vvv ∈ U e α, β ∈ K , Propriedade (**)
i.e. as combinacoes lineares dos vectores de U estao em U .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Demonstracao. Nao vamos demonstrar que a carcaterizacao de sub-espacos mas somente indicar que o
enunciado na observacao e natural. De facto, se se verificam as condicoes (*) entao α...uuu ∈ U e β ... vvv ∈ U ,
pelo que de (*) temos que α...uuu+++ β ... vvv ∈ U . Agora, se (**) se tem, entao, tomando α = β = 1 , por um
lado e β = 0 por outro obtemos (*). c.q.d.
Observacao. O vector nulo, 000 , pertence a todos os sub-espacos vectoriais de um dado espaco vecto-
rial V . Alem disso, o espaco vectorial V tem como sub-espacos V e {000} . Os demais sub-espacos de V
dizem-se proprios.
Exemplos.
1. O conjunto U = {(x, y, z) ∈ R3 : 3x− 2 y + 4 z = 0} e um sub-espaco vectorial de R3 .
(Basta verificar que o vector nulo de R3 esta em U e que toda a combinacao linear de vectores
de U e ainda um vector de U .)
2. O conjunto dos polinomios complexos cujo grau e menor do que ou igual a 5, P5[x] , e um sub-
-espaco vectorial de P[x] .
(Basta justificar que o polinomio zero esta em P5[x] e que toda a soma algebrica de polinomios
de grau menor do que, ou igual a, 5 e ainda um polinomio de P5[x] .)
3. O conjunto das matrizes 7×7 de escalares reais e simetricas, e um sub-espaco vectorial de M7(R) .
(Basta verificar que a matriz nula 7 × 7 e simetrica, que a soma de matrizes simetricas e ainda
uma matriz simetrica e que o produto de uma matriz simetrica por um escalar e tambem uma
matriz simetrica.)
17-10-2013 | TP.
Sub-espaco linear gerado por um conjunto de vectores. Resolucao do problema 99 do caderno de
exercıcios.
Interseccao de sub-espacos. A intersecao de sub-espacos de um mesmo espaco vectorial V e ainda
um sub-espaco vectorial de V .
Demonstracao. Designemos por U a interseccao dos sub-espacos Uj , j = 1, 2 . Note-se que o vector
nulo pertence a cada um destes sub-espacos Uj , pelo que tambem pertence a U ; logo U 6= ∅ . Tomem-se
agora uuu,vvv quaisquer vectores em U e α, β ∈ K , entao por hipotese (U1,U1 , sao sub-espacos)
α...uuu+++ β ... vvv ∈ Uj , j = 1, 2; logo α...uuu+++ β ... vvv ∈ U1 ∩ U2 = U . c.q.d.
Observacao. A uniao de sub-espacos de um mesmo espaco vectorial V nao e, em geral, um sub-espaco
vectorial de V . Por exemplo, considere os seguintes sub-espacos vectoriais de R2
U1 = {(x, 0) : x ∈ R} e U2 = {(0, y) : y ∈ R} . (verificar que sao sub-espacos vectoriais)
Justificacao. Basta notar que o vector soma dos vectores (1, 0) ∈ U1 e (0, 1) ∈ U2 , (logo pertencem a
U1 ∪ U2 ), e o vector (1, 1) = (1, 0) + (0, 1) que nao pertence a U1 ∪ U2 .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Definicao. Seja V um espaco vectorial sobre K ; seja S = {uuu1, . . . ,uuun} um conjunto de vectores de V .
Designam-se por combinacoes lineares de vectores de S os vectores
vvv = α1 ...uuu1 +++ · · ·+++ αn ...uuun , onde αj ∈ K , j = 1, . . . , n .
Exemplos. Considere os vectores aaa = (1, 0, 1) , bbb = (0, 1, 1) e ccc = (1, 1, 2) . Verifique que
L({aaa, bbb, ccc}) = {α...aaa+++ β ... bbb+++ γ ... ccc , α, β, γ ∈ R} e um sub-espaco vectorial de R3 , e identifique-o.
Resolucao. O vector nulo pertence ao espaco; para tal basta tomar α = β = γ = 0 . Considere agora
os vectores arbitrarios uuu,vvv ∈ L({aaa, bbb, ccc}) , i.e. ∃αj, βj, γj ∈ R , com j = 1, 2 tais que
uuu = α1 ... aaa+++ β1 ... bbb+++ γ1 ... ccc = (α1 + γ1 , β1 + γ1 , α1 + β1 + 2γ1 ) e
vvv = α2 ... aaa+++ β2 ... bbb+++ γ2 ... ccc = (α2 + γ2 , β2 + γ2 , α2 + β2 + 2γ2 ) .
Entao para todo o α, β ∈ R temos α...uuu+++ β ... vvv = (αα1 + βα2) ... aaa+ (αβ1 + ββ2) ... bbb+ (αγ1 + βγ2) ... ccc ; logo
α...uuu+++ β ... vvv ∈ L({aaa, bbb, ccc}) .
Vamos passar a identificacao do sub-espaco L({aaa, bbb, ccc}) , i.e. que propriedade intrınseca e satisfeita pelos
vectores que o compoem. Vimos ja que uuu ∈ L({aaa, bbb, ccc}) , se existem escalares α, β, γ ∈ R tais que
uuu = (u1, u2, u3) := α...aaa+++ β ... bbb+++ γ ... ccc = (α + γ , β + γ , α + β + 2γ) .
Em notacao matricial este identidade le-se:1 0 1
0 1 1
1 1 2
α
β
γ
=
u1
u2
u3
,
que sabemos ser um sistema possıvel (pois, por definicao de L({aaa, bbb, ccc}) , sabemos que existem para cada
uuu ∈ L({aaa, bbb, ccc}) escalares α, β, γ ∈ R tais que uuu = α...aaa+++ β ... bbb+++ γ ... ccc ). Discutindo o sistema obtemos1 0 1 u1
0 1 1 u2
1 1 2 u3
→
−`1 + `3
1 0 1 u1
0 1 1 u2
0 1 1 u3 − u1
→
−`2 + `3
1 0 1 u1
0 1 1 u2
0 0 0 u3 − u1 − u2
;
logo u3−u1−u2 = 0 , e a condicao procurada, i.e. L({aaa, bbb, ccc}) = {uuu := (u1, u2, u3) ∈ R3 : u3 = u1 +u2} .
Teorema. O conjunto de todas as combinacoes lineares de vectores de S e um sub-espaco vectorial
de V , que se designa por espaco vectorial gerado por S , que denotaremos por L(S) , i.e.
L(S) = {α1 ...uuu1 +++ · · ·+++ αn ...uuun : αj ∈ K , j = 1, . . . , n} .
Alem disso, L(S) e o menor, no sentido da inclusao, sub-espaco de V que contem S .
Demonstracao. Confirmemos primeiro que L(S) se trata de um sub-espaco vectorial, i.e. L(S) 6= ∅e que α...uuu+ β ... vvv ∈ L(S) sempre que uuu,vvv ∈ L(S) , α, β ∈ K . De facto, por definicao
uuu,vvv ∈ L(S) ≡ ∃αj, βj ∈ K : uuu =n∑
j=1
αj ...uuuj e vvv =n∑
j=1
βj ...uuuj ; logo α...uuu+++β ... vvv =n∑
j=1
(ααj+β βj) ...uuuj ;
pelo que α...uuu+++ β ... vvv ∈ L(S) . Por outro lado, todo o sub-espaco que contenha S tera de conter todas
as combinacoes lineares de vectores de S , logo tera de conter L(S) . Como por, definicao, L(S) e um
sub-espaco vectorial que contem S , concluımos que L(S) e o menor sub-espaco que contem S . c.q.d.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Resolucao do problema 99.
a) Comece por verificar que o vector (0, 0, 0, 0) esta em
U = {(x1, x2, x3, x4) ∈ R4 : x1 = −x2 , x3 = x4} ;
mais ainda, a soma de dois vectores uuu := (u1, u2, u3, u4) e vvv := (v1, v2, v3, v4) de U e um vector
de U , pois u1 + v1 = −(u2 + v2) e u3 + v3 = u4 + v4 ; e tambem para todo o escalar real α se
tem que αuuu ∈ U , pois αu1 = −αu2 e tambem αu3 = αu4 .
b) Nao e um sub-espaco vectorial real pois tomando α = 1/2 e (1, 0,−1, 1) ∈ U = {(x1, x2, x3, x4) ∈R4 : x1 + x2 + x3 = 0 , x4 inteiro} temos que o vector (1/2, 0,−1/2, 1/2) 6∈ U .
c) Trata-se de um sub-espaco vectorial de R4 (verificar).
d) Nao e sub-espaco pois (0, 0, 0, 0) 6∈ U = {(x1, x2, x3, x4) ∈ R4 : x1 + x2 + x3 + x4 = 1} .
e) Comecemos por notar que x1 x2 = 0 se, e somente se, x1 = 0 ou x2 = 0 ; assim
U = {(x1, x2, x3, x4) ∈ R4 : x3 = x4 = 0 , x1 = 0 ou x2 = 0}= {(x1, 0, 0, 0), x1 ∈ R} ∪ {(0, x2, 0, 0), x2 ∈ R} .
Ve-se facilmente, que o vector (1, 1, 0, 0) = (1, 0, 0, 0) + (0, 1, 0, 0) , nao esta em U no entanto
(1, 0, 0, 0) , (0, 1, 0, 0) ∈ U .
f) Comecemos por identificar U = {(x1, x2, x3, x4) ∈ R4 : x21 = x2
3} como a uniao dos sub-espacos
U1 = {(x1, x2, x3, x4) ∈ R4 : x1 = x3} e U2 = {(x1, x2, x3, x4) ∈ R4 : x1 = −x3} , i.e. U = U1 ∪ U2 .
Verifique que o vector soma dos vectores (0, 0, 1, 1) e (0, 0, 1,−1) de U, i.e. o vector (0, 0, 1, 0) nao
esta em U .
22-10-2013 | T.
Conjuntos equivalentes de vectores. Soma de sub-espacos vectoriais. Dependencia e independencia
linear.
Definicao. Sejam S = {uuu1, . . . ,uuup} e T = {vvv1, . . . , vvvq} dois conjuntos de vectores num mesmo
espaco vectorial V . Dizemos que os conjuntos S e T sao equivalentes se geram o mesmo sub-espaco,
i.e. L(S) = L(T ) , ou ainda, todo o vector de qualquer dos conjuntos S ou T se escreve como combinacao
linear dos vectores do outro (conjunto).
Esta relacao entre conjuntos de vectores e de equivalencia, i.e. e reflexiva, simetrica e transitiva.
Exemplo. Mostre que os conjuntos {aaa, bbb, ccc} , definido na aula TP | 17-10-2013, e {uuu,vvv} , com uuu =
(2, 1, 3) , vvv = (1, 2, 3) , sao equivalentes.
Basta verificar que existem αj, βj, γj ∈ R , com j = 1, 2 tais que uuu = α1 aaa + β1 bbb + γ1 ccc e vvv =
α2 aaa + β2 bbb + γ2 ccc . De facto, tomando α1 = γ1 = 1 , β1 = 0 , e α2 = 1 , β2 = 2 , γ2 = 0 obtemos as
identidades procuradas.
Outro processo: Podemos identificar o sub-espaco gerado pelo conjunto {uuu,vvv} , i.e. L({uuu,vvv}) = {www :=
(w1, w2, w3) := αuuu + β vvv , α, β ∈ R} ; logo o sistema de equacoes lineares 2α + β = w1 , α + 2β = w2 ,
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
3α+3β = w3 , e possıvel (em α, β, γ ); donde se conclui, somando as duas primeiras equacoes a simetrica
da terceira, que w3 = w1 + w2 , i.e. L({uuu,vvv}) = {(w1, w2, w3) ∈ R3 : w3 = w1 + w2} = L({aaa, bbb, ccc}) .
Soma de sub-espacos vectoriais. Sejam U1,U1 sub-espacos vectoriais de um mesmo espaco vecto-
rial V . Definimos o conjunto soma de U1 com U2 , como
U1 +++ U2 = {uuu1 + uuu2 , uuu1 ∈ U1,uuu2 ∈ U2} .
Este conjunto e um sub-espaco vectorial de V .
Alem disso, e o menor, no sentido da inclusao, sub-espaco de V que contem U1,U2 .
Demonstracao. O conjunto U1 +++U2 e um sub-espaco de V pois considerando uuu,vvv ∈ U1 +++U2 existem
uuu1, vvv1 ∈ U1 e uuu2, vvv2 ∈ U2 tais que uuu = uuu1 +uuu2 e vvv = vvv1 +vvv2 . Assim, uuu+vvv = (uuu1 +vvv1) + (uuu2 +vvv2) com
uuu1 + vvv1 ∈ U1 (pois U1 e sub-espaco vectorial) e uuu2 + vvv2 ∈ U2 (pois U2 e sub-espaco vectorial); logo
uuu + vvv ∈ U1 +++ U2 . Mais ainda, sendo α um escalar, temos αuuu = αuuu1 + αuuu2 ∈ U1 +++ U2 (isto porque
αuuu1 ∈ U1 , pois U1 e sub-espaco vectorial, e αuuu2 ∈ U2 , pois U2 e sub-espaco vectorial).
Analisemos agora a ultima afirmacao. Todo o vector uuu1 ∈ U1 esta em U1 +++ U2 , pois como o vector
nulo esta em U2 , temos que uuu1 = uuu1 +000 ∈ U1 +++U2 ; logo U1 ⊂ U1 +++U2 . Analogamente concluımos que
U2 ⊂ U1 +++ U2 . Ja so falta mostrar que
se U for um sub-espaco de V com U1 ⊂ U e U2 ⊂ U , entao U1 +++ U2 ⊂ U .
De facto, sendo u ∈ U1 +++ U2 , existem uuu1 ∈ U1 e uuu2 ∈ U2 tais que uuu = uuu1 + uuu2 ; mas por hipotese
U1,U2 ⊂ U , pelo que uuu ∈ U . c.q.d.
Resolucao do problema 101. Os conjuntos M = {α (1, 1), α ∈R} e N = {α (1, 2), α ∈ R} representam respectivamente, rec-
tas que passam pela origem que tem a direccao do vector
(1, 1) e (1, 2) (cf. figura ao lado). Sao obviamente sub-es-
pacos de R2 , pois tratam-se de rectas que passam pela ori-
gem. Temos ainda que M ∩ N = {000 = (0, 0)} e tambem
M ∪ N = {uuu ∈ R2 : uuu ∈ M ou uuu ∈ N }; o primeiro e o sub-
-espaco nulo e o segundo nao e sub-espaco, pois o vector soma
-1 1 2 3 4x
-1
1
2
3
4
y
Graficos de M e de N
(1, 1) + (1, 2) = (2, 3) 6∈ M ∪N , no entanto (1, 1) ∈ M ⊂ M ∪N e (1, 2) ∈ N ⊂ M ∪N . Temos ainda
que M +++ N = {uuu ∈ R2 : uuu = mmm + nnn com mmm ∈ M e nnn ∈ N} que e um sub-espaco de R2 , que coincide
com R2 (verificar).
Problema. Em R4 considere os sub-espacos U1 e U2 , definidos por
U1 = {(α, β, 0, 0), α, β ∈ R } e U2 = {(0, α, β, 0), α, β ∈ R } .
Os sub-espacos soma e interseccao de U1 com U2 sao dados, respectivamente, por
U1 +++ U2 = {(α, β, γ, 0), α, β, γ ∈ R } e U1 ∩ U2 = {(0, α, 0, 0), α ∈ R } .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Note que o sub-espaco U1 = L({(1, 0, 0, 0), (0, 1, 0, 0)}) e tambem U2 = L({(0, 1, 0, 0), (0, 0, 1, 0)}) ;
mais ainda U1 +++ U2 = L({(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)}) e U1 ∩ U2 = L({(0, 1, 0, 0)}) .
Definicao. Sejam U1,U2 , sub-espacos vectoriais de um mesmo espaco vectorial V . Dizemos que a
soma dos sub-espaco U1 , U2 e directa, e escrevemos U1⊕U2 se todo o vector de U1⊕U2 admitir uma
unica representacao com soma de vectores de U1 e de U2 , i.e. se uuu1 + uuu2 = vvv1 + vvv2 , com uuu1, vvv1 ∈ U1 ,
uuu2, vvv2 ∈ U2 , entao uuu1 = vvv1 e uuu2 = vvv2 .
Caracterizacao. Sejam U1,U2 , sub-espacos vectoriais de um mesmo espaco vectorial V . A soma
U1 +++ U2 e directa se, e somente se, uuu1 + uuu2 = 000 , com uuu1 ∈ U1 , uuu2 ∈ U2 , entao uuu1 = uuu2 = 000 .
Demonstracao. A implicacao directa e imediata, pois se todo o elemento de U1 ⊕U2 tem uma repre-
sentacao unica como soma de um elemento de U1 com um de U2 , em particular tal e verdadeiro para
o vector nulo (que esta obviamente em U1 ⊕ U2 ).
Para analisar a implicacao recıproca, basta supor que uuu1 + uuu2 = vvv1 + vvv2 , para algum uuu1, vvv1 ∈ U1 , e
uuu2, vvv2 ∈ U2 ; entao (uuu1 − vvv1) + (uuu2 − vvv2) = 000 ; mas, por hipotese, a unica representacao do vector nulo
como soma de vectores de U1 e U2 e como soma de vectores nulos, temos que uuu1 = vvv1 e uuu2 = vvv2 . c.q.d.
Observacao. Pode ver-se a soma dos sub-espacos U1,U2 e directa se, e somente se, U1 ∩ U2 = {000} .
De facto, se uuu e um vector de U1 ∩ U2 , entao como uuu + (−uuu) = 000 e uuu ∈ U1 , −uuu ∈ U2 , temos que
uuu = −uuu = 000 ; pelo que U1 ∩ U2 = {000} .
Agora, se U1 ∩ U2 = {000} temos que uuu1 + uuu2 = 000 , com uuu1 ∈ U1 , uuu2 ∈ U2 , entao uuu1 = −uuu2 e como
−uuu2 ∈ U2 , temos que uuu1,uuu2 ∈ U1 ∩ U2 ; logo uuu1 = uuu2 = 000 , i.e. a unica representacao do vector nulo
como soma de um vector de U1 com um vector de U2 e 000 + 000 = 000 . c.q.d.
Dependencia e independencia linear. Seja S = {uuu1, . . . ,uuup} um conjunto de vectores num espaco
vectorial V sobre K . Dizemos que S e um conjunto de vectores linearmente independente se a unica
combinacao linear do vector nulo e a que tem todos os coeficientes iguais a zero, i.e. se αj ∈ K , com
j = 1, . . . , p sao tais que α1uuu1 + · · ·+ αpuuup = 000 , entao α1 = · · · = αp = 0 .
Em contraposicao, dizemos que S e um conjunto linearmente dependente se nao for independente, i.e.
existem escalares α1, . . . αp nao todos nulos tais que α1uuu1 + · · ·+ αpuuup = 000 .
Dizemos ainda que um vector depende linearmente de um conjunto de vectores, se ele se puder repre-
sentar como combinacao linear desse conjunto de vectores.
Exemplos.
• Em R3 , o conjunto de vectores {uuu,vvv,www} dados por uuu = (2, 1,−5) , vvv = (1,−4, 2) , www = (1, 2,−4) ,
e linearmente dependente. (De facto, 2uuu− vvv − 3www = 000 .)
• Em R3 , o conjunto de vectores {uuu,vvv,www} dados por uuu = (1, 0, 0) , vvv = (1, 1, 0) , uuu = (1, 1, 1) , e
linearmente independente.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
(De facto, αuuu + β vvv + γwww = 000 , e equivalente a α + β + γ = 0 , β + γ = 0 e γ = 0 , i.e.
α = β = γ = 0 .)
• Mostre que o conjunto {aaa, bbb, ccc} , aaa = (1, 0, 1) , bbb = (0, 1, 1) e ccc = (1, 1, 2) , e linearmente dependente,
enquanto o conjunto {uuu,vvv} , com uuu = (2, 1, 3) , vvv = (1, 2, 3) , e linearmente independente.
(De facto como ccc = aaa + bbb , concluımos que aaa + bbb − ccc = 000 , logo o conjunto {aaa, bbb, ccc} e linearmente
dependente; por outro lado vemos que nao existe α ∈ R tal que uuu = αvvv , logo o conjunto {uuu,vvv}e linearmente independente.)
24-10-2013 | T, TP.
Revisao sobre a materia dada.
Resolucao do Problema 46. Sejam A,B matrizes invertıveis; entao A−1(A + B)B−1 = (A−1A +
A−1B)B−1 = (I + A−1B)B−1 = I B−1 + A−1BB−1 = B−1 + A−1 I = A−1 + B−1 . Verifique tambem
que B−1(A+B)A−1 = A−1 +B−1 .
Resolucao do Problema 50. Sendo A uma matriz m× n , entao B = AT A e uma matriz m×m e
C = AAT e uma matriz n×n . Para verificar que estes dois produtos de matrizes nao coincidem basta
tomar A uma qualquer matriz rectangular. Verifiquemos que os produtos de matrizes dados definem
uma matriz simetrica, i.e. BT = B e CT = C . De facto, BT = (AT A)T = AT (AT )T = AT A = B e
CT = (AAT )T = (AT )T AT = AAT = C .
Resolucao do Problema 63. e), f), h). Vemos facilmente que o sistema de equacoes lineares
da alınea e) e impossıvel. De facto, se somarmos a linha 3 com o simetrico da linha 1, obtemos
x2 − x3 + x4 − 2x5 = 12 que nao e compatıvel com a quarta linha, i.e. x2 − x3 + x4 − 2x5 = −5 .
Para a alınea f) temos que o sistema de equacoes lineares e equivalente a x1 + x2 + x3 + x4 = 1 ,
2x2 + 4x3 = −3 , 2x3 +x4 = 2 , que e possıvel e indeterminado com variavel livre x4 . Agora, resolvendo
o sistema com x4 = 0 , obtemos como solucao xxxp = (7/2,−7/2, 1, 0) ; e resolvendo o sistema homgeneo
associado com x4 = 1 obtemos xxx0 = (−3/2, 1,−1/2, 1) . Pelos teoremas da aula T | 3-10-2013
concluımos que a solucao geral do sistema de equacoes lineares dado e xxx = xxxp + αxxx0 , α ∈ R .
O sistema de equacoes lineares da alınea h) e possıvel e determinado com solucao xxx = (−37/2,−27/2, 6)
(exercıcio). Se lhe acrescentarmos uma equacao na variavel xxx = (x1, x2, x3) obtemos um sistema possıvel,
caso a equacao seja compatıvel com as restantes (por exemplo, para a equacao x1 + 2x2 + 3x3 = 19/2 –
verificar); ou impossıvel caso a equacao seja incompatıvel com as restantes (por exemplo, para a equacao
x3 = 5 – verificar).
Como exercıcio determine uma representacao P A = LU para as matrizes dos sistemas de equacoes
lineares considerados.
Resolucao do Problema 87. Sendo A uma matriz n × n , det(2A) = 2n detA (basta aplicar a
condicao 2 da definicao de determinante a cada uma das colunas de A ). Da mesma forma se conclui que
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
det(−A) = (−1)n detA . Sabemos tambem que det(AB) = detA detB , pelo que det(A2) = (detA)2 ,
det(Ek,l(α)A) = det(Ek,l(α)) detA = detA , e det(Pk,lA) = detPk,l detA = − detA .
Resolucao do Problema 95. Se A = −AT , entao detA = (−1)n detA (ver problema anterior, tendo
em atencao que detA = detAT ). Entao, (1− (−1)n) detA = 0 , pelo que se n e ımpar, concluımos que
detA = 0 . Caso n seja par nada se pode concluir.
Resolucao do Problema 37. Tendo em atencao o produto de matrizes apresentado na pagina 4
deste texto, temos que, sendo A uma matriz m × n definida por colunas, i.e. A =[ccc1 · · · cccn
],
com cccj =[a1,j · · · am,j
]T, j = 1, . . . , n e vvv =
[v1 · · · vn
]T, entao Avvv = v1 ccc1 + · · · + vn cccn . Da
mesma forma se ve que sendo B =[ddd1 · · · dddn
], com dddj =
[b1,j · · · bm,j
]T, j = 1, . . . , n , se tem
Bvvv = v1 ddd1 + · · ·+ vn dddn .
Por hipotese sabemos que Avvv = Bvvv , v ∈ Rn . Em particular, esta identidade verifica-se para
vvv = `j com `j =[0 · · · 0 1 0 · · · 0
]T, j = 1, . . . , n .
jAssim, A`j = B `j , para j = 1, . . . , n e equivalente a cccj = dddj para j = 1, . . . , n , i.e. para A = B .
Resolucao do Problema 112. Sendo A uma matriz m × n o conjunto U = {www = Avvv , v ∈ R} e
um sub-espaco vectorial de Rm , que designaremos por espaco das colunas de A . De facto, como ficou
expresso no problema anterior www e combinacao linear das colunas de A , logo U = L({ccc1, . . . , cccn}) , onde
cccj e, para cada j = 1, . . . , n , a coluna j de A .
Resolucao do Problema 111. O vector (1, 1, α, β) pertence ao sub-espaco gerado pelos vectores
(1, 0, 2, 1), (1,−1, 2, 2) se existirem escalares γ, δ tais que (1, 1, α, β) = γ (1, 0, 2, 1) + δ (1,−1, 2, 2) , i.e.
se o sistema de equacoes lineares γ + δ = 1 , −δ = 1 , 2γ + 2δ = α , γ + 2δ = β . Das primeiras duas
equacoes obtemos γ = 2 , δ = −1 ; pelo que α = 2 , β = 0 .
Resolucao do Problema 119. Basta determinar µ ∈ R tal que a unica combinacao linear nula
dos vectores (1,−2,−5, 8) , (−1, 1, 1, 5) , (1, 2, 11, µ) , e a que tem todos os escalares iguais a zero, i.e.
α (1,−2,−5, 8)+β (−1, 1, 1, 5)+γ (1, 2, 11, µ) = (0, 0, 0, 0) somente se, α = β = γ = 0 . Ve-se facilmente
que o sistema dado e equivalente a (α− β + γ,−β + 4γ, 0, (µ− 44)γ) = (0, 0, 0, 0) , que tem uma unica
solucao, (α, β, γ) = (0, 0, 0) , se, e somente se, µ 6= 44 ; logo {(1,−2,−5, 8), (−1, 1, 1, 5), (1, 2, 11, µ)} e,
para µ 6= 44 , um conjunto de vectores linearmente independente.
29-10-2013 | T.
Realizacao da primeira Frequencia.
Problema 1. Considere as seguintes matrizes: AAA =
1
−1
1
, BBB =
1 −2
2 1
1 −3
, CCC =
[2 3 −1
1 −1 −1
].
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
a) Ordene as matrizes de forma que o produto das tres matrizes esteja definido e calcule-o.
b) Analise se as matrizes BBBCCC e CCCBBB sao invertıveis, e em caso afirmativo calcule a sua inversa.
c) Indique um sistema de equacoes lineares tendo CCC como matriz do sistema e AAA como solucao.
Indique a solucao geral desse sistema.
d) Seja SSS uma matriz simetrica 2 × 2 ; mostre, sem calcular o produto de matrizes, que BBBSSSBBBT e
uma matriz simetrica.
Problema 2. Sejam βββ um parametro real e AAA a matriz 3× 3 dada por AAA =
1 4 2
−1 −1 1
1 3 + βββ 3
.
a) Determine uma decomposicao LLLUUU para AAA .
b) Diga, justificando convenientemente, para que valores de βββ ∈ R e unica a decomposicao LLLUUU
de AAA ?
c) Para βββ = 2 resolva o sistema AAAxxx = bbb , com bbb =[1 2 2
]T.
d) Para βββ = 2 identifique explicitamente o sub-espaco gerado pelos vectores coluna da matriz AAA .
Resolucao do Problema 1. a) BBBCCCAAA =
1 −2
2 1
1 −3
[
2 3 −1
1 −1 −1
]1
−1
1
=
−4
−3
−5
.
b) Calculemos BBBCCC =
0 5 1
5 5 −3
−1 6 2
e CCCBBB =
[7 2
−2 0
]. Agora det(BBBCCC) = 0 e det(CCCBBB) = 4 ,
pelo que BBBCCC nao e invertıvel e CCCBBB e; alem disso, (CCCBBB)−1 =
[0 −1/2
1/2 7/4
].
c) Ve-se facilmente que CCCAAA =[−2 1
]T= ddd , pelo que xxx =
[x1 x2 x3
]T: CCC xxx = ddd e o sistema
procurado. A solucao geral do sistema vem dada por xxx = AAA + αxxx0 , α ∈ R onde xxx0 : CCC xxx0 = 000 . Pode
verificar-se que CCC tem caracterıstica 2, e variavel livre x3 , pelo que tomando x3 = 1 em CCC xxx0 = 000 ,
obtemos x2 = −1/5 e x1 = 4/5 , logo xxx0 =[4/5 −1/5 1
]T.
d) (BBBSSSBBBT )T = (BBBT )T SSST BBBT e como SSST = SSS temos que (BBBSSSBBBT )T = BBBSSSBBBT .
Resolucao do Problema 2. a) AAA = LLLUUU onde LLL =
1 0 0
−1 1 0
1 (−1 + βββ)/3 1
e UUU =
1 4 2
0 3 3
0 0 2− βββ
.
b) Sabemos que esta decomposicao e unica se AAA for invertıvel, i.e. βββ 6= 2 .
c) Efectuando as operacoes indicadas na matriz LLL ao vector bbb obtemos eee =[1 3 0
]T. Temos assim
que o sistema UUUxxx = eee , equivalente ao inicial, e possıvel e indeterminado (com variavel livre x3 ). Logo,
tomando x3 = 0 no sistema completo, obtemos como solucao xxxp =[−3 1 0
]T; tomando x3 = 1 no
sistema homogeneo, temos como solucao xxx0 =[2 −1 1
]T. Logo xxx = xxxp + αxxx0 , α ∈ R .
d) O sub-espaco procurado e dado por
U = {α[1 −1 1
]T+ β
[4 −1 5
]T+ γ
[2 1 3
]T, α, β, γ ∈ R} .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Trata-se pois do sub-espaco formado pelas combinacoes lineares dos vectores coluna da matriz AAA . As-
sim, www =[w1 w2 w3
]T∈ U se ∃α, β, γ ∈ R : www = α
[1 −1 1
]T+ β
[4 −1 5
]T+ γ
[2 1 3
]T;
ou em notacao matricial AAA[α β γ
]T= www e um sistema possıvel; aplicando operacoes elementares
por linhas sobre a matriz ampliada[AAA www
]temos
1 4 2 w1
−1 −1 1 w2
1 5 3 w3
→
`1 + `2
−`1 + `3
1 4 2 w1
0 3 3 w2 + w1
0 1 1 w3 − w1
→
−`2/3 + `3
1 4 2 w1
0 3 3 w2 + w1
0 0 0 (3w3 − 4w1 − w2)/3
.
Obtemos assim que U = {[w1 w2 w3
]T∈ R3 : w2 = −4w1 + 3w3} .
31-10-2013 | T.
Propriedades da dependencia e independencia linear de um conjunto de vectores. Teorema fun-
damental da independencia linear. Definicao de base de um espaco vectorial de tipo finito.
Consideracoes sobre a dependencia e independencia linear de um conjunto de vectores.
• Um conjunto de vectores que contenha o vector nulo e linearmente dependente.
• O conjunto singular {uuu} com uuu 6= 000 e linearmente independente. Alem disso, um conjunto de dois
vectores e linearmente dependente se, e somente se, um deles for um multiplo do outro.
• Se um conjunto de vectores e linearmente dependente, entao o mesmo acontece a um conjunto de
vectores que o contenha.
• Se um conjunto de vectores e linearmente independente, entao o mesmo acontece a um seu sub-
-conjunto.
Propriedades da dependencia e independencia linear. Os vectores aqui considerados pertencem
todos a um mesmo espaco vectorial V .
1. Um conjunto de vectores, S = {uuu1, . . . ,uuup} , e linearmente dependente se, e somente se, algum
dos vectores de S , uuuj , depende linearmente dos demais vectores de S , i.e. de S \ {uuuj} .
2. Se um vector www e combinacao linear dos vectores uuu1, . . . ,uuup e estes sao combinacao linear dos
vectores vvv1, . . . , vvvq , entao www e combinacao linear dos vectores vvv1, . . . , vvvq .
3. Dois conjuntos de vectores sao equivalentes se, e somente se, todo o vector de um dos conjuntos
e combinacao linear dos vectores do outro, e reciprocamente.
4. Se S e um conjunto de vectores linearmente independente e vvv e um vector que nao e combinacao
linear dos vectores de S , entao o conjunto S ∪ {vvv} e linearmente independente.
Demonstracao. Vamos fazer somente a demonstracao de 1 e de 4, pois 3 e uma consequencia directa da
definicao de conjuntos equivalente de vectores e da propriedade 2 (cf. aula T | 22-10-2013). Por outro
lado 2 e um lema tecnico, que voltaremos a aplicar ao longo do curso. De facto, seja www for um vector do
sub-espaco L({uuu1, . . . ,uuup}) , i.e. existem escalares α1, . . . , αp tais que www = α1uuu1 + · · · + αpuuup . Agora,
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
como uuuj ∈ L({vvv1, . . . , vvvq}) , j = 1, . . . , p , i.e. existem escalares βj1, . . . , β
jq tais que uj = βj
1 vvv1+· · ·+βjq vvvq
para j = 1, . . . , p ; entao, temos, www = α1(β11 vvv1 + · · ·+ β1
q vvvq) + · · ·+ αp(βp1 vvv1 + · · ·+ βp
q vvvq) ;
e, portanto, www e uma combinacao linear dos vectores vvv1, . . . , vvvp , i.e. www ∈ L({vvv1, . . . , vvvq}) . Mais ainda,
www =
q∑j=1
γj vvvj , com γj =
p∑k=1
αk βkj , j = 1, . . . , q .
Para demonstrarmos 1 comecemos por analisar a implicacao directa: supomos que o conjunto S =
{uuu1, . . . ,uuup} e linearmente dependente, i.e. existem escalares α1, . . . , αp nao todos nulos (i.e. αj 6= 0
para algum j ∈ {1, . . . , p}) tais que α1uuu1 + · · ·+αpuuup = 000 . Podemos supor, sem perda de generalidade,
s.p.g., que α1 6= 0 o que nos permite escrever uuu1 = −α2/α1uuu2 − · · · − αp/α1uuup ; logo um dos vectores
de S depende linearmente dos demais.
Reciprocamente, se um dos vectores de S , que podemos considerar s.p.g. uuu1 depende linearmente dos
demais, i.e. existem escalares β2, . . . , βp tais que u1 = β2uuu2 + · · ·+ βpuuup ; e, portanto,
−uuu1 + β2uuu2 + · · ·+ βpuuup = 000 ,
que e uma combinacao linear nula de vectores de S , com coeficientes nao todos nulos, i.e. o conjunto
de vectores S e linearmente dependente.
Analisemos agora 4. Seja S = {uuu1, . . . ,uuup} e considere-se uma combinacao linear nula de elementos
de S ∪ {uuu} , i.e. α1uuu1 + · · · + αpuuup + αuuu = 000 . Se α 6= 0 , terıamos uuu = −α1/αuuu1 − · · · − αp/αuuup ,
o que e falso pois por hipotese uuu nao depende linearmente dos vectores de S . Concluımos assim
que α = 0 . A combinacao linear nula considerada toma a forma α1uuu1 + · · ·+ αpuuup = 000 , o que implica
que α1 = · · · = αp = 0 (pois o conjunto de vectores S e linearmente independente). c.q.d.
Teorema fundamental da independencia linear. Seja V um espaco vectorial gerado por um con-
junto finito de vectores, S = {uuu1, . . . ,uuuq} , i.e. V = L(S) . Se T = {vvv1, . . . , vvvp} e um conjunto de
vectores linearmente independente, entao p ≤ q .
Demonstracao. Vamos proceder por reducao ao absurdo, i.e. supomos que p > q e procuramos uma
contradicao. Como S e um conjunto gerador do espaco vectorial V , vvv1 ∈ T e combinacao linear dos
vectores de S , i.e. vvv1 = α1uuu1 + · · ·+ αq uuuq , com algum dos escalares αj nao nulo (note-se que nenhum
dos vectores de T e nulo). Vamos supor s.p.g que α1 6= 0 , pelo que uuu1 = (vvv1 − α2uuu2 − · · · − αquuuq)/α1 ,
i.e. uuu1 ∈ L({vvv1,uuu2, . . . ,uuuq}) = V . Agora, como vvv2 ∈ L({vvv1,uuu2, . . . ,uuuq}) existem escalares βj nao todos
nulos: vvv2 = β1 vvv1 + β2uuu2 + · · ·+ βq uuuq . Podemos supor s.p.g. que β2 6= 0 , pelo que uuu2 = (−β1vvv1 + vvv2 −β3uuu3 − · · · − βquuuq)/β2 , i.e. uuu2 ∈ L({vvv1, vvv2,uuu3, . . . ,uuuq}) = V . Continuando o processo descrito obtemos
que {vvv1, . . . , vvvq} e um conjunto gerador do espaco vectorial V . Mas entao o vector vq+1 que pertence
a T (pois p > q ) pertence ao espaco gerado pelos vectores {vvv1, . . . , vvvq} , logo {vvv1, . . . , vvvq, vvvq+1} nao e
um conjunto de vectores linearmente independente! c.q.d.
Definicao. Um espaco vectorial, V , sobre K, e dito finito, se tem um conjunto finito de vectores
geradores de V , i.e. se em V existe um conjunto de vectores S = {uuu1, . . . ,uuup} tal que V = L(S) .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Se V e de tipo finito, dizemos que um conjunto de vectores B = {fff 1, . . . , fffn} e uma base de V se, B e
um conjunto gerador de V linearmente independente.
Teorema de caracterizacao de base. Num espaco vectorial de tipo finito, V , um conjunto de vecto-
res, B = {fff 1, . . . , fffn} , e uma base de V se, e somente se, todo o vector uuu de V admitir uma unica
representacao como combinacao linear dos vectores de B .
Demonstracao. Como B e um conjunto gerador do espaco vectorial V , um vector vvv ∈ V admite uma
representacao como combinacao linear dos vectores de B . Vamos supor que admite mais do que uma
tal representacao, i.e. existem escalares αj e βj tais que
vvv = α1 fff 1 + · · ·+ αn fffn e vvv = β1 fff 1 + · · ·+ βn fffn ; logo, (α1 − β1)fff 1 + · · ·+ (αn − βn)fffn = 000
e como B e um conjunto de vectores linearmente independente temos que αj = βj , j = 1, . . . , n .
Vejamos agora que se tem o recıproco, i.e. suponhamos que todo o vector de V admite uma representacao
unica como combinacao linear de vectores de B e provemos que entao B e um conjunto de vectores
linearmente independente. De facto, como 000 ∈ V temos que este vector admite representacao unca
como combinacao linear dos vectores de B (que e obviamente a combinacao linear dos vectores de B
com escalares todos nulos), pelo que B e um conjunto de vectores linearmente independente. c.q.d.
Exemplos.
1. O conjunto de vectores {eee1, . . . , eeen} com
eee1 = (1, 0, . . . , 0) , eee2 = (0, 1, 0, . . . , 0) , . . . , eeen = (0, . . . , 0, 1) ,
formam uma base de Kn , designada por base canonica de Kn .
2. O conjunto das matrizes Ei,j com i = 1, . . . ,m e j = 1, . . . , n , onde Ei,j e a matriz m× n com
todos os elementos iguais a 0 com excepcao do que se encontra posicao i, j que vale 1, e a base
canonica de Mm,n .
3. O conjunto B = {1, x, . . . , xn} e a base canonica do espaco vectorial dos polinomios de grau
menor do que ou igual a n, Pn[x] .
31-10-2013 | TP.
Resolucao dos problemas 104, 122, 123 e 138 do caderno de exercıcios.
Resolucao do problema 104. Sendo A e B matrizes reais m × n e p × m , respectivamente; os
espacos nulos de A e de BA sao, respectivamente N(A) = {xxx ∈ Rn : Axxx = 000} e N(BA) = {xxx ∈Rn : (BA)xxx = 000} . Assim, se xxx ∈ N(A) , i.e. Axxx = 000 entao B(Axxx) = 000 , logo xxx ∈ N(BA) ; e, portanto,
N(A) ⊂ N(BA) .
Tendo em atencao este resultado temos quando B = AT que N(A) ⊂ N(AT A) . Verifiquemos que
N(AT A) ⊂ N(A) . De facto, se xxx ∈ N(AT A) , entao (AT A)xxx = 000 ; e multiplicando a equerda por xxxT
obtemos xxxT (AT A)xxx = (Axxx)T (Axxx) = 0 i.e. tomando yyy = Axxx , yyyT yyy = y21 + · · · + y2
n = 0 ; logo
y1 = · · · = yn = 0 , i.e. yyy = 000 , ou ainda Axxx = 000 , i.e. xxx ∈ N(A) . c.q.d.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Resolucao do problema 122. Seja {vvv1, . . . , vvvp} um conjunto de vectores linearmente independente,
i.e. α1 vvv1 + · · ·+ αp vvvp = 000 se, e somente se, α1 = · · · = αn = 0 .
Entao, tomando 0 6= β ∈ K o conjunto de vectores {βββ v1, . . . , vvvp} e ainda linearmente independente,
pois α1(β vvv1) + · · · + αp vvvp = (α1 β)vvv1 + · · · + αp vvvp , e a condicao α1 β = 0 e equivalente a α1 = 0 .
Para β ∈ K , o conjunto de vectores {vvv1 + β vvv2, vvv2 . . . , vvvp} e linearmente independente. De facto,
α1(vvv1 + β vvv2) + α2 vvv2 + · · · + αp vvvp = α1 vvv1 + (α1 β + α2)vvv2 · · · + αp vvvp , e esta combinacao linear de
vectores e nula se, e somente se,
α1 = 0 = α3 = · · · = αp = 0 e α1 β + α2 = 0 , i.e. para α1 = 0 = α2 = · · · = αp .
Resolucao do problema 123. Ve-se facilmente que F = L({(−2, 1, 0), (−1, 0, 1)}) , logo trata-se de
um sub-espaco vectorial de R3 . Como o conjunto de vectores que gera F e linearmente independente,
e uma base de F e, portanto, dimF = 2 .
Resolucao do problema 138. Considere-se a matriz A =[ccc1 · · · cccn
]definida por colunas e tambem
a matriz AT =[`T1 · · · `Tm
]definita por linhas. Sejam ainda, carA = r e carAT = r′ e mostremos
que r = r′ . Se carAT = r′ , sabemos existir um subconjunto de r′ vectores de {`T1 , . . . , `Tm} linearmente
independente. Alterando a ordem dos vectores neste conjunto, podemos supor s.p.g. que os primeiros r′
vectores formam um conjunto linearmente independente e os demais vectores sao combinacao linear
destes, i.e. existem escalares αjk tais que `Tj =
r′∑k=1
αjk `k , j = r′ + 1, . . . ,m , ou ainda, para j =
r′ + 1, . . . ,m , aj,s =r′∑
k=1
αjk ak,s , s = 1, . . . , n .
Agora a coluna j da matriz A , admite a seguinte representacao
(a1,j, . . . , ar′,j,r′∑
k=1
αr′+1k ak,j, . . . ,
r′∑k=1
αmk ak,j)
= a1,j (1, 0, . . . , 0, αr′+11 , . . . , αm
k ) + · · ·+ ar′,j(0, . . . , 0, 1, αr′+1r′ , . . . , αm
r′ ) , j = 1 . . . , n .
Assim, as n colunas da matriz A escrevem-se como combinacao linear de r′ vectores pelo que r ≤ r′ .
Para mostramos que r′ ≤ r , partimos de carA = r , e de r vectores de {ccc1, . . . , cccn} linearmente
independente...
Quanto a segunda questao basta considerar a matriz A =
[1 0 1
0 1 0
]que tem espaco o N(A) =
L({[1 0 −1
]T}) , enquanto que N(AT ) = {000} . Logo,
dim N(A) = nulA 6= nulAT = dim N(AT ) .
05-11-2013 | T.
Aplicacoes das nocoes de base e dimensao de um espaco vetorial. Mudanca de base num espaco
vetorial. Matriz de mudanca de base. Aplicacoes.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Existencia de bases. Todo o conjunto de vectores gerador de um espaco vectorial de tipo finito,
V 6= {000} contem uma base de V . Logo, todo o espaco vectorial de tipo finito tem uma base.
Ideia da demonstracao. Basta notar que se T for um conjunto gerador de V , entao se for linearmente
independente e uma base de V e o teorema fica provado. Em caso contrario, existe um vector vvv de T que
e combinacao linear dos restantes vectores de T . Retiramo-lo de T e voltamos a analisar a independencia
linear do conjunto de vectores T \{vvv} . Se T \{vvv} for um conjunto de vectores linearmente independente
o processo termina, pois T \ {vvv} e uma base de V , caso contrario continuamos com o processo descrito.
Este processo termina ao fim de um numero finito de passos, pois no pior dos casos concluımos que V
e gerado por um so vector nao nulo de T . c.q.d.
Teorema da dimensao. Toda a base de um espaco vectorial de tipo finito, V 6= {000} , tem o mesmo
numero de vectores. A este numero designamos por dimensao do espaco vectorial V e denotamo-lo por
dimV . Convencionamos ainda que o espaco vectorial nulo, V = {000} tem dimensao zero. (A partir de
agora os espacos vectoriais de tipo finito serao designados por espacos vectoriais de dimensao finita.)
Demonstracao. Temos somente que provar que qualquer se sejam as bases B e B′ de V , o seu cardinal
coincide. Suponhamos que o cardinal de B e B′ e igual a m e n , respectivamente; entao, como B e
um conjunto de vectores que gera V e B′ e um conjunto de vectores linearmente independente em V
temos que m ≥ n . Por outro lado sabemos tambem que B e um conjunto de vectores linearmente
independente em V e B′ e um conjunto de vectores que gera V pelo que n ≥ m . Logo m = n . c.q.d.
Consequencias. A dimensao de um espaco vectorial, V , e o numero maximo de vectores de V que
formam um conjunto linearmente independente; e tambem e o numero mınimo de vectores de V que
formam um conjunto gerador de V .
Teorema de completacao da base. Seja V e um espaco vectorial de dimensao finita n. Se S =
{uuu1, . . . ,uuup} e um conjunto de vectores linearmente independente com p < n ; entao existe um conjun-
to S ′ de n− p vectores de V linearmente independente tal que S ∪ S ′ e uma base de V .
Mais ainda, os vectores de S ′ podem tomar-se dentre os elementos de uma base qualquer de V .
Ideia da demonstracao. Basta analisar que pelo menos um dos vectores de uma base B de V , que
denotamos por vvv , nao e combinacao linear dos vectores de S (pois, caso contrario, S serıa uma base
de V !). Completamos S com esse vector e analisamos se existe algum vector B \{vvv} que e combinacao
linear dos vectores de S ∪ {vvv} , recomecando assim o processo que nos leva a construcao de uma base a
partir de um conjunto de vectores linearmente independente. c.q.d.
Exemplo. Considere os seguintes vectores do espaco vectorial R3 , aaa = (1,−1, 2) e bbb = (0, 1,−2) .
Como nenhum deles e mutiplo escalar do outro o conjunto {aaa, bbb} e linearmente independente. Pelo
teorema anterior, como dimR3 = 3 , sabemos existir um vector ccc ∈ R3 tal que {aaa, bbb, ccc} e uma base de R3 .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Alem disso, ccc pode ser escolhido de entre os vectores da base canonica de R3 , i.e. {eee1 = (1, 0, 0), eee2 =
(0, 1, 0), eee3 = (0, 0, 1)} . Ve-se facilmente que eee1 = aaa+ bbb , pelo que nao podemos tomar o vector eee1 para
completar a base; no entanto, {aaa, bbb, eee2} e um conjunto de vectores linearmente independente, pelo que
este conjunto de vectores pode ser tomado como base de R3 .
Teorema da dimensao de um sub-espaco. Se U e um sub-espaco vectorial de um espaco vectorial V
de dimensao finita, entao U tem dimensao finita e tem-se dimU ≤ dimV . Mais ainda, dimU = dimV
somente se U = V .
Demonstracao. Se U = {000} o resultado e evidente. Suponhamos entao que existe 000 6= uuu ∈ U .
Em U existem conjuntos de vectores linearmente independentes com cardinal m ≤ n (note-se que
estes conjuntos sao linearmente independentes em V ). Se m for o cardinal do maior conjunto de
vectores linearmente independente em U , temos que dimU = m , pelo que dimU ≤ dimV . Agora
dimU = dimV se, e somente se, U contem um conjunto de n vectores linearmente independente, que
sera por isso uma base de V , logo U = V .
Definicao. Sejam V um espaco vectorial sobre K de dimensao finita, B = {fff 1, . . . , fffn} uma base
de V e vvv um qualquer vector de V . Dizemos que vvv tem coordenas (α1, . . . , αn) na base B de V se
vvv = α1 fff 1 + · · ·+ αn fffn .
Exemplo. O conjunto de vectores {uuu1 = (1, 0, 0),uuu2 = (1, 1, 0),uuu3 = (1, 1, 1)} , e linearmente indepen-
dente em R3 e dimR3 = 3 , logo {uuu1,uuu2,uuu3} e uma base de R3 . Nesta base as coordenadas do vector
(x, y, z) sao (x− y, y − z, z) , pois (x, y, z) = (x− y)uuu1 + (y − z)uuu2 + z uuu3 .
Teorema de mudanca de base. Sejam V um espaco vectorial sobre K de dimensao n , B =
{fff 1, . . . , fffn} uma base de V , e xxx = (x1, . . . , xn) as coordenadas do vector vvv ∈ V na base B . Considere-
-se ainda uma base B′ = {ggg1, . . . , gggn} de V e xxx′ = (x′1, . . . , x′n) as coordenadas do vector vvv na base B′ .
Se g1 = α11 fff 1 + · · ·+α1
n fffn , . . ., gn = αn1 fff 1 + · · ·+αn
n fffn , entao xxx′ e a solucao do sistema de equacoes
lineares Axxx′ = xxx com A =
α1
1 · · · αn1
......
α1n · · · αn
n
. A matriz A e designada por matriz de mudanca de coor-
denadas da base B para a base B′ . A matriz A e invertıvel e a sua inversa e a matriz de mudanca de
coordenadas da base B′ para a base B .
Ideia da Demonstracao. Basta aplicar a propriedade 2 da dependencia e independencia linear. De
facto, como xxx′ = (x′1, . . . , x′n) sao as coordenadas do vector vvv na base B′ temos que vvv =
n∑j=1
x′j gggj ; e
aplicando a hipotese temos que vvv =n∑
j=1
x′j
(n∑
k=1
αjk fffk
)=
n∑k=1
(n∑
j=1
αjk x′j
)fffk . Como dos dados do
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
teorema temos que vvv =n∑
k=1
xk fffk concluımos (da unicidade da representacao de um vector por elementos
de uma mesma base) que xk =n∑
j=1
αjk x′j , k = 1, . . . , n . c.q.d.
Problema. Determinar as coordenadas do vector uuu de R3 na base {eee′1, eee′2, eee′3} , onde eee′1 = (1, 2, 0) ,
eee′2 = (−3,−7, 1) , eee′3 = (0,−2, 1) .
Resolucao. Ve-se facilmente que
eee′1 = eee1 + 2eee2 , eee′2 = −3eee1 − 7eee2 + eee3 , eee′3 = −2eee2 + eee3 ,
onde {eee1, eee2, eee3} e a base canonica de R3 . Assim, do teorema anterior concluımos que as coordenadas
de um vector arbitrario (x, y, z) ∈ R3 , na base {eee′1, eee′2, eee′3} e o vector (x1, y1, z1) solucao do sistema de
equacoes lineares1 −3 0
2 −7 −2
0 1 1
x1
y1
z1
=
x
y
z
, ou equivalentemente,
x1
y1
z1
=
−5 3 6
−2 1 2
2 −1 −1
x
y
z
.
Assim, (x, y, z) = (−5x+ 3 y + 6 z)eee′1 + (−2x+ y + 2 z)eee′2 + (2x− y − z)eee′3 .
Exercıcio. Considere o espaco vectorial das matrizes 2 × 2 com escalares reais, i.e. M2,2(R) , e o
conjunto S = {E1, E2, E3, E4} , com
E1 =
[0 0
0 1
], E2 =
[0 1
0 1
], E3 =
[1 1
0 0
]E4 =
[1 0
1 0
].
Mostre que S e uma base de M2,2(R) e determine as coordenadas na base S de uma matriz generica
M ∈M2,2(R) .
07-11-2013 | T.
Isomorfismo entre um espaco vectorial de dimensao finita n , V , e o espaco vectorial Kn . Analise
da independencia linear de um conjunto de vectores de V a partir dos vectores coordenadas em Kn .
Aplicacoes.
Definicao (Identificacao de um espaco vectorial de dimensao finita). Sejam V um espaco
vectorial sobre K de dimensao n e B = {fff 1, . . . , fffn} uma base de V . A transformacao coor : V→ Kn
que a cada vector vvv ∈ V faz corresponder o vector das coordenadas de vvv na base B de V , i.e. se
vvv = β1 fff 1 + · · · + βn fffn , entao coor(vvv) = (β1, . . . , βn) , e tal que, para todo o uuu,vvv ∈ V e α ∈ K se tem
coor(vvv + αuuu) = coor(vvv) + α coor(uuu) , i.e. a transformacao coor e linear.
Alem disso, a transformacao inversa de coor e tambem linear e bijectiva, pelo que dizemos que coor e
um isomorfismo (“iso”≡“igual”; “morfo”≡“forma”) de V em Kn .
Algumas consideracoes. Da definicao de funcao coor temos que se coor(vvv) = (β1, . . . , βn) entao
vvv = β1 fff 1 + · · ·+ βn fffn , e tambem que se coor(uuu) = (γ1, . . . , γn) entao uuu = γ1 fff 1 + · · ·+ γn fffn . Assim,
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
vvv + αuuu =n∑
j=1
βj fff j + α
n∑k=1
γk fffk =n∑
j=1
(βj + α γj)fff j ;
e, portanto a coordenada j-esima do vector vvv+ αuuu e βj + α γj , pelo que se tem a desejada linearidade
para a funcao coor , i.e. coor(vvv + αuuu) = coor(vvv) + α coor(uuu), α ∈ K , vvv,uuu ∈ V .
Teorema. Sejam V um espaco vectorial sobre Kn de dimensao n e B uma base de V . Dado um
conjunto de vectores S = {uuu1, . . . ,uuup} de V com vectores de coordenadas na base B , S∗ = {uuu∗1, . . . ,uuu∗p}em Kn , entao tem-se:
1. α1uuu1 + · · ·+ αpuuup = 000 e equivalente a α1uuu∗1 + · · ·+ αpuuu
∗p = 000 , com αj ∈ K para j = 1, . . . , p ;
2. dimL(S) = dimL(S∗) .
Demonstracao. Basta notar que como o espaco vectorial V tem dimensao n e isomorfo a Kn , pela
transformacao linear coor que a cada vector vvv ∈ V faz corresponder o vector de coordenadas de vvv na
base B de V . Agora da linearidade de coor temos
coor(α1uuu1 + · · ·+ αpuuup) = α1uuu∗1 + · · ·+ αpuuu
∗p .
Vemos assim que os vectores
α1uuu1 + · · ·+ αpuuup e α1uuu∗1 + · · ·+ αpuuu
∗p
tem o mesmo vector de coordenadas, o primeiro relativamente a uma base B de V e o segundo relativa-
mente a base canonica de Kn , i.e. se considerarmos que o vector de coordenadas de uuuj e (uj1, . . . , ujn) ,
j = 1, . . . , p temos que tanto a condicao
α1uuu1 + · · ·+ αpuuup = 000 como α1uuu∗1 + · · ·+ αpuuu
∗p = 000
sao equivalente as condicoes
p∑j=1
αj ujk = 0 , k = 1, . . . , n .
Acabamos de mostrar que entre os vectores de S existem as mesmas relacoes de dependencia e inde-
pendencia linear que entre os vectores de S∗ , pelo que dimL(S) = dimL(S∗) . c.q.d.
Exemplo. No espaco vectorial das matrizes 2×3 com escalares reais, M2,3(R) considere o conjunto S =
{M1,M2,M3,M4} onde M1 =
[1 0 0
2 1 −1
], M2 =
[2 −1 0
3 0 1
], M3 =
[3 1 2
4 2 0
], M4 =
[0 3 2
0 3 −3
].
Como dimM2,3(R) = 6 estabelecemos um isomorfismo entre M2,3(R) , considerado com a base canonica,
i.e. {E1, E2, E3, E4, E5, E6} , com E1 =
[1 0 0
0 0 0
], E2 =
[0 1 0
0 0 0
], E3 =
[0 0 1
0 0 0
], E4 =
[0 0 0
1 0 0
],
E5 =
[0 0 0
0 1 0
], E6 =
[0 0 0
0 0 1
], e R6 de forma que
coor(M1) = (1, 0, 0, 2, 1,−1) , coor(M2) = (2,−1, 0, 3, 0, 1) , coor(M3) = (3, 1, 2, 4, 2, 0) , coor(M4) =
(0, 3, 2, 0, 3,−3) .
Tendo em atencao ultimo teorema vemos que
dimL(S) = dimL({coor(M1), coor(M2), coor(M3), coor(M4)})
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
= car
1 2 3 0
0 −1 1 3
0 0 2 2
2 3 4 0
1 0 2 3
−1 1 0 −3
operacoes
elementares
=
por
linhas
car
1 2 3 0
0 −1 1 3
0 0 2 2
0 0 −3 −3
0 0 −3 −3
0 0 6 6
Donde se conclui que o sub-espaco linear de M2,3(R) gerado pelas matrizes {M1,M2,M3,M4} , L(S) ,
tem dimensao tres, e tambem que uma sua base e dada por {M1,M2,M3} . Verifique (exercıcio) que
uma qualquer matriz de L(S) tem a forma[x1 x2 x3
2x1 + x2 − 3x3/2 x1 + 2x2 − 3x3/2 −x1 − 3x2 + 3x3
], x1, x2, x3 ∈ R .
Observacao. Para a analise da dimensao do espaco L(S) podıamos ter estudado a caractarıstica da
matriz transposta, i.e. car
1 0 0 2 1 −1
2 −1 0 3 0 1
3 1 2 4 2 0
0 3 2 0 3 −3
operacoes elementares
=
por linhas
car
1 0 0 2 1 −1
0 −1 0 3 0 1
0 0 2 −3 −3 6
0 0 2 −3 −3 6
(cf. problema 123 resolvido na aula T | 31-10-203) concluindo assim que a dimensao de L(S) e 3 ; no
entanto, o espaco gerado pelos vectores
T = {(1, 2, 3, 0), (0,−1, 1, 3), (0, 0, 2, 2), (2, 3, 4, 0), (1, 0, 2, 3), (−1, 1, 0,−3)}ainda que de dimensao tres (justifique) pode ver-se que L(S) 6= L(T ) . De facto,
L(T ) = L({(1, 2, 3, 0), (0,−1, 1, 3), (0, 0, 2, 2)}) = {(y1, y2, y3, y4) ∈ R4 : 3 y1 + 2 y2 − y3 + y4 = 0} e
L(S) = L({coor(M1), coor(M2), coor(M3)})= {(x1, x2, x3, x4, x5, x6) ∈ R6 : 2x4 = 4x1 +2x2−3x3, 2x5 = 2x1 +4x2−3x3, x6 = −x1−3x2 +3x3} .
07-11-2013 | TP.
Resolucao dos problemas 135, 139 e 142 do caderno de exercıcios. Formula de Grassman sobre as
dimensoes de sub-espacos F , G , F +++ G , F ∩ G de um mesmo espaco vectorial.
Problema. Seja P4[x] o espaco vectorial dos polinomios de coeficientes reais de grau menor do que,
ou igual a 4. Considere o conjunto S = {ppp1, ppp2, ppp3} ⊂ P4[x] , com ppp1(x) = 3 − 2x + x2 + 4x3 + x4 ,
ppp2(x) = 4 − x + x2 + 6x3 − 2x4 e ppp3(x) = 7 − 8x + 3x2 + αx3 + β x4 , onde α, β sao numeros reais
fixos. Determinar α, β de forma que L(S) , i.e. o sub-espaco vectorial gerado por S , tenha dimen-
sao 2. Identifique explicitamente L(S) , indique uma base (diferente de {ppp1, ppp2}) para este sub-espaco,
e expresse os vectores ppp1, ppp2, ppp3 nessa base.
Resolucao. O espaco vectorial dos polinomios com coeficientes reais P4[x] tem dimensao cinco, logo e
ismorfo a R5 . Considerando o isomrfismo relativamente a base canonica de P4[x] , i.e. {1, x, x2, x3, x4} ,
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
temos como vectores imagem dos vectores de S pela transformacao coor :
coor(ppp1) = (3,−2, 1, 4, 1) , coor(ppp2) = (4,−1, 1, 6,−2) , coor(ppp3) = (7,−8, 3, α, β) .
Do teorema anterior, sabemos que
dimL(S) = dimL({coor(ppp1), coor(ppp2), coor(ppp3), coor(ppp4)})
= car
3 4 7
−2 −1 −8
1 1 3
4 6 α
1 −2 β
operacoes
elementares
=
por
linhas
car
1 1 3
0 1 −2
0 0 0
0 0 α− 8
0 0 β − 9
.
Assim, dimL(S) = 2 se, e somente se, α = 8 e β = 9 ; alem disso {ppp1, ppp2} e uma base de L(S) .
Para encontrar outra base de L(S) basta considerar diferentes combinacoes lineares de ppp1, ppp2 (diferen-
tes da combinacao linear nula) das quais resultem polinomios nao proporcionais, como por exemplo
{ppp1,−ppp1 + ppp2} ≡ {ppp1, ppp4 = 1 + x+ 2 x3 − 3x4} . Nesta base os polinomios ppp1, ppp2 tem coordendas (1, 0)
e (1, 1) , i.e. ppp1 = ppp1 + 0ppp4 e ppp2 = ppp1 + ppp4 .
Como exercıcio determine explicitamente L(S) quando α = 8 e β = 9 , e tambem quando α = 9 e
β = 7 , indicando em cada um dos casos um conjunto gerador natural diferente de S para L(S) .
Resolucao do problema 135. A matriz A1 =[1 0 −1
]nao cumpre o pretendido, pois ainda que
A1
[1 0 1
]T= 0 , o N(A) = L({
[1 0 1
]T,[0 1 0
]T}). Ja A2 =
[1 0 −1
−1 1 1
]e uma matriz nas
condicoes do problema. Por exemplo a matriz A3 =
[1 0 −1
−1 0 1
]tem como sub-espaco nulo associado
N(A3) = {xxx ∈ R3 : A3xxx = 000} = L({[1 0 1
]T,[0 1 0
]T}) 6= L({
[1 0 1
]T}) ; logo nao esta nas
condicoes do problema.
Formula de Grassman. Sejam U1 e U2 sub-espacos de um mesmo espaco vectorial V de dimensao
finita; entao, dimU1 + dimU2 = dim(U1 +++ U2) + dim(U1 ∩ U2) .
Demonstracao. Seja B0 = {eee1, eee2, . . . , eeem} uma base de U1 ∩ U2 . Pelo teorema da completacao da
base, podemos completar B0 por forma a obter uma base de U1 , B1 = B0 ∪ {fff 1, . . . , fff r} bem como
de U2 , B2 = B0 ∪ {ggg1, . . . , gggs} . Vejamos agora que B1 ∪ B2 = B0 ∪ {fff 1, . . . , fff r} ∪ {ggg1, . . . , gggs} e uma
base de U1 +++ U2 . Vemos facilmente que e um conjunto gerador, pois todo o vector uuu de U1 +++ U2 se
pode representar na forma uuu1 + uuu2 com uuu1 ∈ U1 e uuu2 ∈ U2 . Como B1 e B2 sao bases de U1 e U1 ,
respectivamente temos o pretendido. Analisemos agora que e um conjunto linearmente independente.
Para tal considere-se uma combinacao linear do vector nulo por vectores do conjunto B1 ∪B2 , i.e.m∑j=1
αj eeej +r∑
k=1
βk fffk +s∑
i=1
γi gggi = 000 . Designando www =m∑j=1
αj eeej +r∑
k=1
βk fffk que pertence ao espaco
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
gerado por B1 , i.e. U1 , vemos que www = −s∑
i=1
γi gggi que pertence ao espaco gerado por B2 , i.e. U2 .
Logo www ∈ U1 ∩U2 , e portanto e combinacao linear de vectores de B0 , i.e. existem escalares µj tais que
www =m∑l=1
µl eeel ; assim,m∑l=1
µl eeel +s∑
i=1
γi gggi = 000 ,
e como B2 e uma base de U2 temos que µ1 = · · · = µm = 0 , bem como γ1 = · · · = γs = 0 . Como
os βj’s sao todos nulos obtemosm∑l=1
αl eeel +r∑
i=1
βi fff i = 000 e como B1 e uma base de U1 temos que
α1 = · · · = αm = 0 , bem como β1 = · · · = βr = 0 .
Desta forma fica provado que
(m+ r) + (m+ s) = dimU1 + dimU2 = dim(U1 +++ U2) + dim(U1 ∩ U2) = (m+ r + s) +m . c.q.d.
Resolucao do problema 139. Pode ver-se que F = L({(1, 0, 1, 0), (0, 1, 0, 2)}) (justifique que este con-
junto gerador e linearmente independente) e sabe-se que G = L({(1, 0, 1, 0), (0, 2, 0, 1), (−1, 2,−1, 1)}) .
Por outro lado (−1, 2,−1, 1) = −(1, 0, 1, 0) + (0, 2, 0, 1) , pelo que G = L({(1, 0, 1, 0), (0, 2, 0, 1)}) (jus-
tifique que este conjunto gerador e linearmente independente). Assim, dimF = 2 e dimG = 2 . Para
determinar F ∩ G basta ver que o conjunto de vectores {(1, 0, 1, 0), (0, 2, 0, 1), (0, 1, 0, 2)} , que e dado
pela caractarıstica da matriz
car =
1 0 0
0 2 1
1 0 0
0 1 2
operacoes elementares
=
por linhas
car
1 0 0
0 2 1
0 0 3/2
0 0 0
= 3 .
Logo F ∩ G = L({(1, 0, 1, 0)}) e tambem F +++ G = L({(1, 0, 1, 0), (0, 2, 0, 1), (0, 1, 0, 2)}) .
Como exercıcio identifique estes sub-espacos vectoriais de R4 .
Resolucao do problema 142. A alınea b) e uma consequencia directa do problema 104 e do teorema
da dimensao de um sub-espaco (cf. aula T | 5-11-2013).
Para a alınea a) e c) basta ter em atencao que
BA =[· · · combinacao linear dos vectores coluna de B · · ·
]e tambem
BA =
...
combinacao linear dos vectores linha de A...
,
o resultado do problema 138 resolvido na aula TP | 31-10-2013, a definicao de caractrıstica de uma
matriz e a sua relacao com a dimensao do espaco vectorial gerado pelas colunas dessa matriz.
Exercıcios.
1. Seja P2[x] o espaco vectorial dos polinomios de grau menor do que ou igual a 2 . O conjunto
S = {ppp0, ppp1ppp2} , com ppp0 = 1 , ppp1 = x − 1 e ppp2 = (x − 1)2 e uma base de P2[x] . Determine as
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
coordenadas do polinomio ppp = 2t2 − 5t+ 6 na base S . Mais geralmente, determine as coordenadas
de um qualquer polinomio qqq ∈ P2[x] na base S .
2. Considere em R3 a base T = {uuu1,uuu2,uuu3} , com uuu1 = (1,−1, 0) , uuu2 = (1, 1, 0) e uuu3 = (0, 1, 1) . Deter-
mine as coordenadas do vector vvv = (5, 3, 4) na base T . Mais geralmente, determine as coordenadas
de um vector generico de R3 , www , na base T .
3. Analise a dependencia linear do conjunto de matrizes reais 2× 3 , G = {A,B,C} , com
A =
[1 2 −1
4 0 1
], B =
[1 3 −4
6 5 4
], C =
[3 8 −11
16 10 9
],
identifique L(G) e determine a sua dimensao.
4. Mostre que o seguinte conjunto de matrizes reais 2× 2 , {A,B,C,D} , com
A =
[1 1
0 0
], B =
[0 1
1 0
], C =
[0 0
1 1
], D =
[0 0
0 1
],
e uma base de M2,2(R) . Indique as coordenadas de uma qualquer matriz real 2× 2 nessa base.
12-11-2013 | T.
Transformacoes lineares. Consideracoes sobre a nocao e exemplos.
Definicao. Sejam V , W dois espacos vectoriais sobre K e T : V → W . Dizemos que T e uma
transformacao linear se para todo o vvv,www ∈ V , e α ∈ K se tem T(αvvv +www) = α T(vvv) + T(www) .
Observacao. Obviamente que a condicao T(αvvv+www) = α T(vvv)+T(www) , vvv,www ∈ V , e α ∈ K e equivalente
a T(vvv +www) = T(vvv) + T(www) , T(αvvv) = α T(vvv) , vvv,www ∈ V .
Exemplos.
1. A transformacao f : R3 → R2 defnida por f(x, y, z) = (2x − y + 4z,−3x + 5y + 6z) e linear do
espaco vectorial R3 no espaco vectorial R2 (verifique). Mais geralmente, a transformacao g : Rn →
Rm definida por g(x1, . . . , xn) = (n∑
j=1
a1j xj, . . . ,
n∑j=1
amj xj ) e uma transformacao linear do espaco
vectorial Rn no espaco vectorial Rm ; de facto, considerem-se os vectores Rn, vvv = (x1, . . . , xn) e
www = (y1, . . . , yn) , e o escalar α , arbitrarios em Rn e R , respectivamente. Entao
g(αvvv +www) = g(αx1 + y1, . . . , α xn + yn) = (n∑
j=1
a1j(αxj + yj), . . . ,
n∑j=1
amj (αxj + yj) )
= α (n∑
j=1
a1j xj, . . . ,
n∑j=1
amj xj ) + (n∑
j=1
a1j yj, . . . ,
n∑j=1
amj yj ) = α g(vvv) + g(www) .
2. Seja C∞(R) e o espaco vectorial das funcoes reais de variavel real, infinitamente diferenciaveis. Entao,
D : C∞(R) → C(R) definida por D(f) = f ′ e uma transformacao linear entre os espacos vectoriais
C∞(R) e R ; de facto, basta notar que (α f + g)′ = α f ′ + g′ , f, g ∈ C∞(R) e α ∈ R .
3. Seja C([0, 1]) o espaco vectorial das funcoes reais de variavel real, contınuas em [0, 1] . A trans-
formacao I : C([0, 1]) → R definida por I(f) =
∫ 1
0
f(t) dt e linear do espaco do espaco vectorial
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
C([0, 1]) no espaco vectorial R ; de facto,
I(α f + g) =
∫ 1
0
(α f(t) + g(t))dt = α
∫ 1
0
f(t) dt+
∫ 1
0
g(t) dt = α I(f) + I(g) .
4. Temos ainda as transformacoes lineares que podemos denominar de triviais, i.e. O : V → W com
O(vvv) = 000 e a id : V → V com id(vvv) = v , que designaremos por transformacao nula e identidade,
respectivamente.
Propriedades. Seja T : V→W uma transformacao linear estre os espaco vectoriais sobre K , V e W .
Entao tem-se:
1. T(
p∑j=1
αj vvvj) =
p∑j=1
αj T(vvvj) , vvvj ∈ V , αj ∈ K , j = 1, . . . , p . Em particular, T(000) = 000 e tambem
T(−vvv) = −T (vvv) , vvv ∈ V .
2. Se {vvv1, . . . , vvvp} e um conjunto linearmente dependente de vectores de V entao {T(vvv1), . . . ,T(vvvp)}e um conjunto linearmente dependente de vectores de W .
3. Se R : W→ U e uma transformacao linear e U um espaco vectorial sobre K , entao R ◦T : V→ U
e uma transformacao linear entre os espacos vectoriais V e U .
Demonstracao. A aplicacao reiterada da definicao demonstra a afirmacao 1. Por outro lado, tomando
os αj’s todos igual a 0 prova que T(000) = 000 . Mais ainda, tomando α1 = −1 e os demais αj’s iguais a 0
da-nos T(−vvv) = −T(vvv) .
Para provar 2 basta notar que se {vvv1, . . . , vvvp} ⊂ V e um conjunto linearmente dependente de vectores,
entao existem escalares, nao todos nulos, αj’s em K tais que α1 vvv1+· · ·+αp vvvp = 000 ; e portanto, de 1 temos
α1 T(vvv1) + · · · + αp T(vvvp) = 000 , que e uma combinacao linear nula dos vectores T(vvv1), . . . ,T(vvvp) com
escalares nao todos nulos, i.e. {T(vvv1), . . . ,T(vvvp)} e um conjunto linearmente dependente de vectores
em W .
Ja 3 e uma consequencia directa de
R ◦T(αvvv +www) = R(T(αvvv +www))T e linear
= R(α T(vvv) + T(www))R e linear
= α R(T(vvv)) + R(T(www))
= α R ◦T(vvv) + R ◦T(www) .
Exemplo. Considere a transformacao linear T : R3 → R2 definida por T(x, y, z) = (x, y) . Vemos que
conjunto de vectores {uuu,vvv} , dados por uuu = (1, 0, 0) e vvv = (0, 1, 0) , e linearmente independente e tambem
se tem que {T(uuu),T(vvv)} e um conjun to de vectores linearmente independente, pois T(uuu) = (1, 0) e
T(vvv) = (0, 1) . No entanto o conjunto de vectores linearmente independente {aaa, bbb} , dados por aaa =
(1, 0, 1) , bbb = (2, 0, 0) , mas {T(aaa),T(bbb)} e linearmente dependente, pois T(aaa) = (1, 0) e T(bbb) = (2, 0) .
Vemos assim que a independencia linear nao se conserva por aplicacao de transformacoes lineares.
14-11-2013 | T.
Sub-espacos Imagem e Nucleo de uma transformacao linear. Determinacao de uma transformacao
linear. Exemplos.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Teorema. Seja T : V→W uma transformacao linear entre espacos vectoriais sobre K . Entao:
1. O conjunto imagem T(V) e um sub-espaco vectorial de W que se designa por espaco imagem
de T e denota-se por Im(T) .
2. Se {uuu1, . . . ,uuup} e um conjunto gerador de V , entao {T(uuu1), . . . ,T(uuup)} e um conjunto gerador
de Im(T) .
3. O conjunto T−1({000}) = {uuu ∈ V : T(uuu) = 000} e um sub-espaco vectorial de V que designamos por
nucleo da transformacao linear T ou sub-espaco nulo de T , e denotamos por N(T) .
4. Se o espaco vectorial V tem dimensao finita tem-se dim N(T) + dim Im(T) = dimV .
Demonstracao. Verifiquemos que Im(T) e um sub-espaco vectorial de W . De facto, considerando α
arbitrario em K e www1,www2 dois quaiquer vectores de Im(T) , i.e. existem vvv1, vvv2 ∈W tais que www1 = T(vvv1)
e www2 = T(vvv2) . Entao, aplicando a linearidade da transformacao T, temos αwww1 +www2 = T(αvvv1 + vvv2) , e
como V e um espaco vectorial sobre K , αvvv1 + vvv2 ∈ V , pelo que αwww1 +www2 ∈W .
Para provar 2 considere-se vvv ∈ V escrito como combinacao linear dos vectores de {uuu1, . . . ,uuup} , i.e.
vvv = α1uuu1 + · · ·+ αpuuup . Da linearidade de T temos que T(vvv) = α1 T(uuu1) + · · ·+ αp T(uuup) .
Sejam agora uuu1,uuu2 dois quaisquer vectores de N(T) e α um qualquer escalar, entao da linearidade
de T temos T(αuuu1 + uuu2) = αT(uuu1) + T(uuu2) = α000 + 000 = 000 ; e, portanto, αuuu1 + uuu2 ∈ N(T) , i.e. 3 fica
provado.
Para demonstrar 4 e como V tem dimensao finita, concluımos que N(T) tambem e de dimensao fi-
nita. Seja B = {fff 1, . . . , fffp} uma base de N(T) . Sabemos (do teorema da completacao da base)
que podemos completar a base B com um conjunto S = {ggg1, . . . , gggq} de vectores de forma que
B ∪ S seja uma base de V . Agora, como B ∪ S e um conjunto gerador de V , temos por 2 que
{T(fff 1), . . . ,T(fffp),T(ggg1), . . . ,T(gggq)} e um conjunto gerador de Im(T) . Mas como T(fff j) = 000 , j =
1, . . . , p , {T(ggg1), . . . ,T(gggq)} e um conjunto gerador de Im(T) . Analisemos a independencia linear deste
conjunto de vectores, i.e. considere-se a combinacao linear nula α1 T(ggg1)+· · ·+αq T(gggq) = 000 para alguns
escalares α1, . . . , αq . Da linearidade de T temos T(α1 ggg1+· · ·+αq gggq) = 000 , logo α1 ggg1+· · ·+αq gggq ∈ N(T)
pelo que α1 ggg1 + · · ·+αq gggq e combinacao linear dos vectores de B , i.e. existem escalares β1, . . . βp tais
que α1 ggg1 + · · ·+ αq gggq = β1 fff 1 + · · ·+ βp fffp ; e, portanto, −β1 fff 1− · · · − βp fffp + α1 ggg1 + · · ·+ αq gggq = 000 ,
e como B ∪S e uma base de V temos que αj = 0 , j = 1, . . . , q (e tambem βk = 0 , k = 1, . . . , p ). Con-
cluımos assim que {T(ggg1), . . . ,T(gggq)} e um conjunto de vectores linearmente independente, e portanto
uma base de Im(T) , i.e. dim N(T) + dim Im(T) = p+ q = dimV . c.q.d.
Exemplos.
1. Sejam P3[x] e F(R,R) os espacos vectoriais dos polinomios de grau menor do que ou igual a 3,
e das funcoes reais de variavel real sobre R , respectivamente. Considere-se a transformacao linear
T : P3[x]→ F(R,R) definida por T(p) = p′(x) , i.e. T(a+ b x+ c x2 + d x3) = b+ 2c x+ 3d x2 . Vemos
assim que o sub-espaco imagem de T e P2[x] , i.e., e espaco vectorial dos polinomios de graus menor do
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
que ou igual a 2 ; o nucleo de T e constituıdo pelos polinomios de grau 0 , i.e. N(T) = L({1}) . Como
exercıcio verifique que se tem a alınea 4 do ultimo teorema (i.e. faca a analise das dimensoes destes
sub-espacos).
2. Seja T : R3 → R4 a transformacao linear definida por T(x, y, z) = (x + z, y − z, x + y, x− y + 2z) .
Como {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e um conjunto gerador de R3 , {T(1, 0, 0),T(0, 1, 0),T(0, 0, 1)} e um
conjunto gerador de Im(T) , i.e. {(1, 0, 1, 1), (0, 1, 1,−1), (1,−1, 0, 2)} e um conjunto gerador de Im(T) ;
e como (1,−1, 0, 2) = (1, 0, 1, 1)− (0, 1, 1,−1) , concluımos que
Im(T) = L({(1, 0, 1, 1), (0, 1, 1,−1)}) (= {(x, y, z, w) ∈ R4 : z = x+ y , w = x− y} confirmar)
e que dim Im(T) = 2 .
O nucleo de T e dado por
N(T) = {(x, y, z) ∈ R3 : x+ z = y − z = x+ y = x− y + 2z = 0} = {(x, y, z) ∈ R3 : y = −x = z} ,
i.e. N(T) = L({(−1, 1, 1)}) , pelo que dim N(T) + dim Im(T) = dimR3 .
Determinacao de uma transformacao linear. Sejam V e W dois espacos vectoriais sobre K . Se
B = {fff 1, . . . , fffn} e uma base de V e S = {www1, . . . ,wwwn} e um qualquer conjunto de vectores de W ,
entao existe uma unica transformacao linear T : V→W tal que T(fff 1) = www1, . . . ,T(fffn) = wwwn .
Demonstracao. Seja xxx um qualquer vector de V , de coordenadas (x1, . . . , xn) na base B de V , i.e.
xxx = x1 fff 1 + · · ·+ xn fffn . Entao da linearidade de T tem-se
T(xxx) = T(x1 fff 1 + · · ·+ xn fffn) = x1 T(fff 1) + · · ·+ xn T(fffn) = x1www1 + · · ·+ xnwwwn .
Desta forma se ve que a existir uma transformacao linear nas condicoes do enunciado tera de ser a que
acabamos de indicar. Vejamos entao que a transformacao linear assim definida e linear. Para tal basta
considerar dois quaisquer vectores xxx,xxx′ ∈ V de coordenadas (x1, . . . , xn) e (x′1, . . . , x′n) , respectivamente,
e α ∈ K , entao
T(αxxx+xxx′) = (αx1 + x′1)www1 + · · ·+ (αxn + x′n)wwwn = α(x1www1 + · · ·+ xnwwwn) + (x′1www1 + · · ·+ x′nwwwn)
= αT(xxx) + T(xxx′) . c.q.d.
Exemplo. Seja T : R3 →M2,2, uma transformacao linear tal que
T(1, 0, 0) =
[3 1
2 4
], T(0, 1, 0) =
[1 −1
−5 5
]e T(0, 0, 1) =
[2 −2
−3 4
].
Entao, a imagem por T de um qualquer vector de R3 , xxx = (x, y, z) vem dada por
T(xxx) = xT(1, 0, 0) + yT(0, 1, 0) + zT(0, 0, 1) =
[3x+ y + 2z x− y − 2z
2x− 5y − 3z 4x+ 5y + 4z
].
Mais ainda,
Im(T) = L({T(1, 0, 0),T(0, 1, 0),T(0, 0, 1)}) = {
[3x+ y + 2z x− y − 2z
2x− 5y − 3z 4x+ 5y + 4z
], x, y, z ∈ R3} .
Verifiquemos que {T(1, 0, 0),T(0, 1, 0),T(0, 0, 1)} e um conjunto linearmente independente em M2,2 ,
i.e. αT(1, 0, 0) + β T(0, 1, 0) + γ T(0, 0, 1) = 000 entao α = β = γ = 0 . De facto, a condicao indicada
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
toma a forma[3α + β + 2γ α− β − 2γ
2α− 5β − 3γ 4α + 5β + 4γ
]=
[0 0
0 0
], i.e. α = β + 2γ , β = −2γ , γ = 0 , logo α = β = γ = 0 .
Assim dim Im(T) = 3 e do ponto 4 teorema anterior tiramos que dim N(T) = 0 , i.e. N(T) = {000} , pois
dimR3 = 3 .
Como exercıcio verifique que Im(T) = {
[a1,1 a1,2
a2,1 a2,2
]∈M2,2(R) : 28 a2,2 = 45 a1,1 + 25 a1,2 − 24 a2,1} .
14-11-2013 | TP.
Matriz de uma transformacao linear. Interpretacao dos sub-espacos imagem e nucleo de uma
transformacao linear a partir da matriz da transformacao linear. Exemplos.
Definicao. Uma transformacao linear, T : V→W , entre espacos vectoriais sobre K diz-se sobrejectiva
se Im(T) = W .
Injectividade de uma transformacao linear. Seja T : V → W uma transformacao linear entre
espacos vectoriais sobre K ; entao, T e injectiva se, e somente se, N(T) = {000} .
Demonstracao. Se T e injectiva se existir uuu ∈ V tal que T(uuu) = 000 , como sabemos que T(000) = 000 ,
temos que uuu = 000 . Concluımos assim que caso T seja linear e injectiva se tem que N(T) = {000} . Vejamos
agora que, se T e linear e N(T) = {000} , entao T e injectiva. De facto, se uuu,www sao dois vectores de V
tais que T(uuu) = T(www) , entao da linearidade de T , temos T(uuu −www) = 000 , e da hipotese sobre o nucleo
concluımos que uuu = www , i.e. T e injectiva. c.q.d.
Observacao. Uma transformacao linear T : V → W entre espacos vectoriais sobre K e injectiva se,
e somente se, dado um qualquer conjunto de vectores em V linearmente independente o conjunto de
vectores imagem por T desses vectores, e linearmente independente em W, i.e. para todo o conjunto de
vectores {vvv1, . . . , vvvn} ⊂ V linearmente independente se tem que {T(vvv1), . . . ,T(vvvn)} ⊂W e linearmente
independente.
Exemplo. A transformacao linear T : R3 → R4 definida por T(x, y, z) = (x, x + y, y + z, x + y + z) e
injectiva, pois
N(T) = {(x, y, z) ∈ R3 : x = x+ y = y + z = x+ y + z = 0} = {(x, y, z) ∈ R3 : x = y = z = 0} .
Pode ainda verificar-se (cf. exercıcio) que se tem a ultima caracterizacao; por exemplo, partindo da
base canonica de R3 , {(1, 0, 0), (0, 1, 0), (0, 0, 1)} , entao {T(1, 0, 0),T(0, 1, 0),T(0, 0, 1)} e um conjunto
linearmente independente de R4 .
Matriz de uma transformacao linear. Sejam V e W espacos vectoriais de dimensao finita sobre K .
Sejam ainda as bases B = {fff 1, . . . , fffn} e S = {ggg1, . . . , gggm} de V e W , respectivamente. Se T : V→W e
a transformacao linear tal que T(fff j) =m∑k=1
ajk gggk , j = 1, . . . , n , entao as coordenadas do vector yyy = T(xxx)
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
na base S e dado por
a1
1 · · · an1...
...
a1m · · · anm
x1
...
xn
, xxx ∈ V ; e a matriz A =
a1
1 · · · an1...
...
a1m · · · anm
, e designada por
matriz da transformacao linear T relativamente as bases B e S de V e W , respectivamente.
Demonstracao. Como T e linear e tendo em atencao que as coordenadas do vector xxx na base B e
(x1, . . . , xn) , temos
yyy = T(xxx) = T(n∑
j=1
xj fff j) =n∑
j=1
xj T(fff j) =n∑
j=1
xj
m∑k=1
ajk gggk =n∑
j=1
m∑k=1
xj ajk gggk =
m∑k=1
(n∑
j=1
xj ajk)gggk ;
assim, yyy =m∑k=1
yk gggk com yk =n∑
j=1
ajk xj , k = 1, . . . ,m . c.q.d.
Problema*. Considere-se a transformacao linear T : R3 → R4 tal que T(1, 0, 0) = (3, 2,−1, 1) ,
T(1, 1, 0) = (5,−4, 1,−2) , e T(1, 1, 1) = (2, 1,−6, 3) . Determine as matrizes que representam T rela-
tivamente as bases B = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} de R3 e canonica de R4 e relativamente as bases
canonicas de R3 e de R4 , respectivamente. Identifique os espacos imagem e nucleo da transformacao
linear T .
Resolucao. As matrizes procuradas sao respectivamente
A =
3 5 2
2 −4 1
−1 1 −6
1 −2 3
e A′ =
3 2 −3
2 −6 5
−1 2 −7
1 −3 5
,
pois o vector (1, 0, 0) pertence a base canonica de R3 e a base B , T(0, 1, 0) = T(1, 1, 0)− T(1, 0, 0) =
(2,−6, 2,−3) e T(0, 0, 1) = T(1, 1, 1) − T(1, 1, 0) = (−3, 5,−7, 5) . Podemos ainda determinar a ex-
pressao analıtica da transformacao linear T , i.e. T(x, y, z) = (3x + 2y − 3z, 2x − 6y + 5z,−x + 2y −7z, x−3y+5z) , (x, y, z) ∈ R3 . O espaco Im(T) = L{T(1, 0, 0),T(0, 1, 0),T(0, 0, 1)} = {A′xxx , xxx ∈ R3} .
Pode ver-se que carA′ = 3 e, portanto, dim Im(T) = 3 , logo dim N(T) = 0 , i.e. N = {000} .
Problema. Determinar os sub-espacos nucleo e imagem da transformacao linear T : R4 → R3 tal que
T(1, 0, 0, 0) = (1,−1, 2) , T(0, 1, 0, 0) = (2, 1, 1) , T(0, 0, 1, 0) = (4,−1, 5) , T(0, 0, 0, 1) = (−1,−5, 4) .
Indicar ainda uma base para cada um dos sub-espacos determinados.
Resolucao. A expressao analıtica da transformacao linear e
T(x, y, z, w) = xT(1, 0, 0, 0) + yT(0, 1, 0, 0) + zT(0, 0, 1, 0) + wT(0, 0, 0, 1)
= (x+ 2y + 4z − w,−x+ y − z − 5w, 2x+ y + 5z + 4w)
= Axxx com A =
1 2 4 −1
−1 1 −1 −5
2 1 5 4
e xxx =
x
y
z
.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Pode verificar-se (cf. como exercıcio) que
carA = 2 , e que Im(T) = L({T(1, 0, 0),T(0, 1, 0)}) = {(y1, y2, y3) ∈ R3 : y1 = y2 + y3} .
Assim, dim Im(T) = 2 e {T(1, 0, 0),T(0, 1, 0)} e uma base de Im(T) .
Justifique ainda que {(1, 1, 0), (1, 0, 1)} e tambem uma base de Im(T) .
O nucleo e dado por N(T) = {xxx ∈ R4 : T(xxx) = 000} = {xxx ∈ R4 : Axxx = 000} . Vemos facilmente
que aplicando operacoes elementares por linhas sobre a matriz A obtemos o sistema equivalente x1 +
2x2 + 4x3 − x4 = 0 , 3x2 + 3x3 − 6x4 = 0 , i.e. xxx = αxxx10 + β xxx2
0 , α, β ∈ R , com xxx10 = (−2,−1, 1, 0) e
xxx20 = (−3, 2, 0, 1) . Assim, N(T) = L({xxx1
0,xxx20}) e {xxx1
0,xxx20} e uma base de N(T) , pelo que dim N(T) = 2 .
Verifique (como exercıcio) que N(T) = {(x1, x2, x3, x4) ∈ R4 : x1 = −2x3 − 3x4 , x2 = −x3 + 2x4} .
19-11-2013 | T.
Matrizes associadas a uma mesma transformacao linear. Matrizes equivalentes. Resolucao do
problema 153 do caderno de exercıcios.
Teorema. Seja T : V→W uma transformacao linear entre espacos vectoriais de dimensao finita, n e
m , respectivamente, sobre K . Seja A a matriz da transformacao linear T relativamente as bases B
de V e S de W . Se P e Q sao as matrizes de mudanca de base, respectivamente da base B para
a base B′ de V e da base S para a base S ′ de W , entao a matriz A′ = Q−1AP e a matriz que
representa T relativamente as bases B′ de V e S ′ de W .
As matrizes m×n, A e A′ dizem-se equivalentes se existem matrizes invertıveis P ∈Mn,n e Q ∈Mm,m
tais que A′ = Q−1AP .
Demonstracao. Sejam (x1, . . . , xn) as coordenadas de xxx ∈ V na base B , e (y1, . . . , ym) as coordenadas
do vector yyy = T(xxx) na base S , i.e.[y1 · · · ym
]T= A
[x1 · · · xn
]T. Sejam ainda (x′1, . . . , x
′n) as
coordenadas de xxx ∈ V na base B′ , e (y′1, . . . , y′m) as coordenadas do vector yyy = T(xxx) na base S ′ , i.e.[
y′1 · · · y′m
]T= A′
[x′1 · · · x′n
]T. Da hipotese sabemos que[
x1 · · · xn
]T= P
[x′1 · · · x′n
]Te[y1 · · · ym
]T= Q
[y′1 · · · y′m
]T; e, portanto,
Q[y′1 · · · y′m
]T= AP
[x′1 · · · x′n
]T, i.e.
[y′1 · · · y′m
]T= Q−1AP
[x′1 · · · x′n
]T. c.q.d.
Exemplo. Retomando o problema* da aula anterior, vemos que as matrizes A e A′ sao equivamentes;
de facto, como (1, 0, 0) = eee1 , (1, 1, 0) = eee1 + eee2 e (1, 1, 1) = eee1 + eee2 + eee3 , temos que A = A′ P , onde
P =
1 1 1
0 1 1
0 0 1
e a matriz de mudanca da base {eee1, eee2, eee3} para {(1, 0, 0), (1, 1, 0), (1, 1, 1)} em R3 .
Exemplo. Seja T : R3 → R2 uma transformacao linear cuja matriz que a representa relativamente as
bases canonicas {eee1, eee2, eee3} , {fff 1, fff 2} , de R3 e R2 , respectivamente, e
[3 0 −2
−1 4 5
]. Considere as bases
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
{(1, 3, 0), (1, 0, 2), (0, 4,−2)} e {(2, 1), (4, 3)} de R3 e R2 , respectivamente. Como (1, 3, 0) = eee1 + 3eee2 ,
(1, 0, 2) = eee1 + 2eee3 , (0, 4,−2) = 4eee2 − 2eee3 , (2, 1) = 2fff 1 + fff 2 e (4, 3) = 4fff 1 + 3fff 2 , as matrizes de
mudanca de base sao P =
1 1 0
3 0 4
0 2 −2
e Q =
[2 4
1 3
]; assim, Q−1AP =
[4 −6 3
5 11 −2
]e a matriz que
representa T relativamente as novas bases.
Resolucao do Problema 153. A matriz que representa a transformacao linear T relativamente as
bases {aaa, bbb, ccc} de R3 e canonica, {(1, 0), (0, 1)} , de R2 e dada por A =
[4 8 3
6 6 3
].
P =
1 0 1
1 1 0
0 1 1
e a matriz de mudanca da base {aaa, bbb, ccc} para a base {aaa′, bbb′, ccc′} ; e Q =
[1 0
2 1
]e a matriz
de mudanca da base {(1, 0), (0, 1)} para a base {(1, 2), (0, 1)} . Pelo que a matriz que representa T nas
bases {aaa′, bbb′, ccc′} e {(1, 2), (0, 1)} e Q−1AP =
[12 11 7
−12 −13 −5
].
Como exercıcio determine a matriz que representa a transformacao linear T relativamente as bases
canonicas de R3 e R2 . Note que deve comecar por representar os vectores da base canonica de R3
como combinacao linear dos vectores da base {aaa, bbb, ccc} . Para tal pode provar que
(x, y, z) = (3x/2− y − z/2)aaa+ (x/2− y/2)bbb+ (z + 3y − 3x)ccc .
Agora pode calcular T(1, 0, 0) , T(0, 1, 0) e T(0, 0, 1) tendo em atencao que T(aaa),T(bbb),T(ccc) sao dados.
Como processo alternativo, pode determinar a matriz de mudanca da base {aaa, bbb, ccc} para a base canonica
de R3 , que denotamos por P ′ . Assim a matriz que representa a transformacao linear T relativamente
as bases canonicas de R3 e R2 vem dada por A(P ′)−1 .
21-11-2013 | T.
Produto interno em Rn. Distancia entre dois vectores, norma de um vector, angulo entre dois
vectores e projeccao de um vector sobre outro. Desigualdades fundamentais.
Definicao. Seja V um espaco vectorial sobre R . A aplicacao 〈..., ...〉 : V × V → R diz-se um produto
interno ou um produto escalar se para todo o xxx,xxx′, yyy ∈ V e α ∈ R se tem:
1. 〈xxx,yyy〉 = 〈yyy,xxx〉 ; (simetria)
2. 〈αxxx+ xxx′, yyy〉 = α 〈xxx,yyy〉+ 〈xxx′, yyy〉 ; (linearidade “na primeira componente”)
3. 〈xxx,xxx〉 > 0 , xxx 6= 000 ; (positividade).
O espaco vectorial V sobre R com o produto interno 〈..., ...〉 diz-se um espaco vectorial Euclidiano.
Exemplos. A aplicacao 〈..., ...〉 : Rn × Rn → R , definida por 〈xxx,yyy〉 = xxxT yyy = x1 y1 + · · · + xn yn , onde
xxx = (x1, . . . , xn) e yyy = (y1, . . . , yn) e um produto interno.
De facto, foi este exemplo que usamos como definicao de produto interno em Rn . Mostramos ainda que
esta aplicacao satisfaz as condicoes 1, 2, 3 da definicao de produto interno.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Observacao. Da simetria do produto interno temos a linearidade relativamente a segunda componente,
i.e. 〈xxx, αyyy+yyy′〉 = α 〈xxx,yyy〉+ 〈xxx,yyy′〉 . Mais ainda, 〈xxx,000〉 = 0 , e tambem, da simetria do produto interno,
temos 〈000,xxx〉 = 0 , xxx ∈ V . Esta propriedade sai directamente da propriedade 2 de produto interno
aplicada aos vectores xxx,xxx′ tais que xxx′ = −αxxx ; de facto, 〈000, yyy〉 = 〈αxxx,yyy〉+ 〈xxx′, yyy〉 = −〈xxx′, yyy〉+ 〈xxx′, yyy〉 =
0 . A terceira condicao na definicao de produto interno pode ser enunciada de modo equivalente por
〈xxx,xxx〉 ≥ 0 , xxx ∈ V e 〈xxx,xxx〉 = 0 se, e somente se, xxx = 000 .
Exemplo. No espaco vectorial real das funcoes reais de variavel real contınuas em [0, 1] podemos definir
produto interno como a aplicacao 〈f, g〉 =
∫ 1
0
f(t) g(t) dt . De facto,
〈f, g〉 =
∫ 1
0
f(t) g(t) dt =
∫ 1
0
g(t) f(t) dt = 〈g, f〉 , pelo que se tem 1.
Para provar 2 basta notar que
∫ 1
0
(α f(t) + g(t))h(t) dt = α
∫ 1
0
f(t)h(t) dt +
∫ 1
0
g(t)h(t) dt . Ja a
positividade sai da propriedade
∫ 1
0
f 2(t) dt > 0 , f 6= 0 contınua (logo f 2 e uma funcao contınua e
estritamente positiva em [0, 1] , de onde se conclui o resultado).
Definicao. Seja V um espaco vectorial Euclidiano. Dizemos que xxx,yyy sao vectores ortogonais se
〈xxx,yyy〉 = 0 , e denotamo-lo por xxx ⊥ yyy ;
os vectores xxx,yyy dizem-se orto-normais se xxx ⊥ yyy e ‖xxx‖ = 1 = ‖yyy‖ .
Em R esta condicao le-se 〈xxx,yyy〉 = x1 y1+· · ·+xn yn = 0 , e ‖xxx‖ =√x2
1 + · · ·+ x2n = 1 =
√y2
1 + · · ·+ y2n
onde xxx = (x1, . . . , xn) e yyy = (y1, . . . , yn) .
Definicao. Seja V um espaco vectorial Euclidiano. Definimos a funcao norma em V como a aplicacao
‖...‖ : V→ R+ com ‖xxx‖ =√〈xxx,xxx〉 .
Para o nosso exemplo em Rn , temos ‖xxx‖ =√〈xxx,xxx〉 =
√x2
1 + · · ·+ x2n .
Propriedades da norma. Sejam xxx,yyy ∈ V e α ∈ R ; entao:
1. ‖xxx‖ > 0 , xxx 6= 0 ; alem disso, ‖000‖ = 0 ;
2. ‖αxxx‖ = |α| ‖xxx‖ ;
3. |〈xxx,yyy〉| ≤ ‖xxx‖ ‖yyy‖ ; (desigualdade de Cauchy-Schwarz)
4. ‖xxx+ yyy‖ ≤ ‖xxx‖+ ‖yyy‖ . (desigualdade triangular ou de Minkowsky)
Demonstracao. Da definicao de produto interno sabemos que se xxx 6= 000 , 〈xxx,xxx〉 > 0 , pelo que a
norma esta bem definita e tem-se ‖xxx‖ =√〈xxx,xxx〉 > 0 . Note-se tambem que ‖000‖ =
√〈000,000〉 = 0 ,
pelo que 1 fica provado. Para analisarmos 2 basta aplicar as propriedades de produto interno, i.e.
‖αxxx‖ =√〈αxxx, αxxx〉 =
√α2 〈xxx,xxx〉 = |α| ‖xxx‖ . Vemos tambem que 3 e trivialmente verificado se xxx ou yyy
e o vector nulo de V . Logo vamos supor que xxx 6= 000 e yyy 6= 000 e considere-se vvv = xxx/‖xxx‖ ± yyy/‖yyy‖ . Entao
0 ≤ ‖vvv‖2 = 〈xxx/‖xxx‖ ± yyy/‖yyy‖,xxx/‖xxx‖ ± yyy/‖yyy‖〉 = 〈xxx,xxx〉/(‖xxx‖)2 ± 2〈xxx,yyy〉/(‖xxx‖ ‖yyy‖) + 〈yyy,yyy〉/(‖yyy‖)2 .
Obtemos assim que 2± 2〈xxx,yyy〉/(‖xxx‖ ‖yyy‖) ≥ 0 , i.e. ±〈xxx,yyy〉 ≤ ‖xxx‖ ‖yyy‖ , pelo que 3 fica provado.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Paa demonstrar 4 basta aplicar a desigualdade de Cauchy-Schwarz ao calculo de
‖xxx+ yyy‖2 = 〈xxx+ yyy,xxx+ yyy〉 = ‖xxx‖2 + 2〈xxx,yyy〉+ ‖yyy‖2 ≤ ‖xxx‖2 + 2‖xxx‖ ‖yyy‖+ ‖yyy‖2 = (‖xxx‖+ ‖yyy‖)2 . c.q.d.
Observacao. O conjunto de vectores, {xxx,yyy} , de um espaco vectorial Euclidiano e linearmente depen-
dente se, e somente se, |〈xxx,yyy〉| = ‖xxx‖ ‖yyy‖ , i.e. a desigualdade de Cauchy-Schwarz reduz-se a uma
identidade. De facto, {xxx,yyy} e linearmente dependente se, e somente se, ‖yyy‖xxx = ±‖xxx‖yyy , i.e. se, e
somente se, ‖yyy‖xxx∓ ‖xxx‖yyy = 000 ; assim,
0 = 〈‖yyy‖xxx∓ ‖xxx‖yyy, ‖yyy‖xxx∓ ‖xxx‖yyy〉 = 2‖xxx‖2‖yyy‖2 ∓ 2‖xxx‖2‖yyy‖2〈xxx,yyy〉 , i.e. ‖xxx‖ ‖yyy‖ = ±〈xxx,yyy〉 .Note-se que em Rn e para o produto interno definido as desigualdades de Cauchy-Schwarz e triangular
expressam-se, respectivamente, por:
|x1 y1 + · · ·+ xn + yn| ≤√x2
1 + · · ·+ x2n
√y2
1 + · · ·+ y2n
e (x1 +y1)2 + · · ·+(xn+yn)2 ≤ (x21 + · · ·+x2
n)+(y21 + · · ·+y2
n) , onde xxx = (x1, . . . , xn) e yyy = (y1, . . . , yn) .
Definicao. Seja V um espaco vectorial Euclidiano; definimos distancia como a aplicacao d : V×V→ R+
com d(xxx,yyy) = ‖xxx− yyy‖ .
Em Rn e para a funcao norma definida a partir do produto interno indicado, a funcao distancia vem
dada por d(xxx,yyy) =√
(x1 − y1)2 + · · ·+ (xn − yn)2 , onde xxx = (x1, . . . , xn) e yyy = (y1, . . . , yn) .
Propriedades da distancia (cf. problema 168 do caderno de exercıcios). Sejam xxx,yyy,zzz ∈ V ;
entao:
1. d(xxx,yyy) > 0 se xxx 6= yyy ; alem disso, d(xxx,xxx) = 0 ;
2. d(xxx,yyy) = d(yyy,xxx) ;
3. d(xxx,zzz) ≤ d(xxx,yyy) + d(yyy,zzz) . (desigualdade triangular)
Demonstracao. Tomando uuu = xxx − yyy 6= 000 , logo d(xxx,yyy) = ‖uuu‖ ; e da positividade da funcao norma
temos 1. Para verificar 2 basta ter em atencao que ‖xxx− yyy‖ = ‖ − (yyy − xxx)‖ = | − 1| ‖yyy − xxx‖ = ‖yyy − xxx‖ .
A desigualdade triangular e consequencia da desigualdade triangular para a norma; de facto,
d(xxx,zzz) = ‖xxx− zzz‖ = ‖(xxx− yyy) + (yyy − zzz)‖ ≤ ‖xxx− yyy‖+ ‖yyy − zzz‖ = d(xxx,yyy) + d(yyy,zzz) . c.q.d.
Definicoes. Sejam xxx,yyy dois vectores nao nulos do espaco vectorial Euclidiano V . O angulo entre os
vectores xxx,yyy , ∠ (xxx,yyy) = θ + 2kπ , k ∈ Z , θ ∈ [0, π] , fica caracterizado pelo cos θ = 〈xxx,yyy〉/(‖xxx‖ ‖yyy‖) .
Sendo xxx 6= 000 , definimos projeccao ortogonal de yyy sobre xxx e denotamo-la por projxxx yyy como
projxxx yyy = 〈xxx,yyy〉/(‖xxx‖2)xxx .
Observacao. Note-se que supondo xxx,yyy 6= 000 da desigualdade de Cauchy-Schwarz temos que
〈xxx,yyy〉/(‖xxx‖ ‖yyy‖) ∈ [−1, 1] ,
pelo que existe um e um so θ ∈ [0, π] tal que cos θ = 〈xxx,yyy〉/(‖xxx‖ ‖yyy‖) , i.e., 〈xxx,yyy〉 = ‖xxx‖ ‖yyy‖ cos θ .
Dois vectores nao nulos, xxx,yyy , sao ortogonais se, e somente se, formam um angulo recto, pois nesse caso
cos θ = 0 , logo 〈xxx,yyy〉 = ‖xxx‖ ‖yyy‖ cos θ = 0 .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
21-11-2013 | TP.
Resolucao dos problemas 154, 155, 156, 158, 159, 165 e 172 do caderno de exercıcios.
Resolucao do problema 154. Comecemos por notar que a alınea a) foi ja analisada no seguimento
da definicao de produto interno. A alınea b) sai do facto de que se 〈uuu,vvv〉 = 0 , vvv ∈ R , entao 〈uuu,eeej〉 = 0 ,
j = 1, . . . , n , onde {eee1, . . . , eeen} e a base canonica de Rn . Assim, obtemos que sao nulas as coordenadas
de xxx na base canonca de Rn . Para analisar a alınea c) basta notar que 〈uuu,vvv〉 = 〈uuu′, vvv〉 , vvv ∈ Rn e
equivalente a 〈uuu− uuu′, vvv〉 = 0 , vvv ∈ Rn e da alınea b) temos que uuu = uuu′ . c.q.d.
Resolucao do problema 155. Sabemos por hipotese que 〈vvvj, vvvl〉 = 0 , j 6= l ∈ {1, . . . , k} ; entao
〈αj vvvj, αl vvvl〉 = αj 〈vvvj, αl vvvl〉 = αj αl 〈vvvj, vvvl〉 = 0 , j 6= l ∈ {1, . . . , k} . c.q.d.
Resolucao do problema 158. Os vectores uuu = (1, 2, 3) e vvv = (−3, 0, 1) tem norma 14 e 10 , res-
pectivamente, sao ortogonais, pois 〈uuu,vvv〉 = −3 + 3 = 0 . Assim, os vectores uuu/‖uuu‖ = (1/14, 1/7, 3/14)
e vvv/‖vvv‖ = (−3/10, 0, 1/10) tem norma igual a 1 .
Resolucao do problema 159. Os vectores yyy = (0,−2, 4, 1) e zzz = (3, 7, 3, 2) sao ortogonais pois
〈yyy,zzz〉 = −14 + 12 + 2 = 0 . Mais ainda ‖xxx‖ =√〈(1, 2, 3, 5), (1, 2, 3, 5)〉 =
√12 + 22 + 32 + 52 =
√39 , ‖yyy‖ =
√(−2)2 + 42 + 12 =
√21 , ‖zzz‖ =
√32 + 72 + 32 + 22 =
√71 ; d(xxx,yyy) = ‖xxx − yyy‖ =√
12 + 42 + (−1)2 + 42 =√
34 .
Definicao. Um conjunto de vectores {uuu1, . . . ,uuup} ⊂ V , diz-se ortogonal se 〈uuui,uuuj〉 = 0 , para i 6= j ∈{1, . . . , p} ; e diz-se orto-normal se
〈uuui,uuuj〉 = δi,j , onde δi,j e a delta de Kronecker para i, j ∈ {1, . . . , p} , i.e. δi,j =
1 , i = j
0 , i 6= j.
Observacao. Se {uuu1, . . . ,uuup} e um conjunto ortogonal de vectores nao nulos de um espaco vectorial
Euclidiano, V ; entao o conjunto de vectores {uuu1/‖uuu1‖, . . . ,uuup/‖uuup‖} e orto-normal em V .
Resolucao do problema 156. Para n = 1 o resultado e obviamente verdadeiro. Suponhamos como
hipotese de inducao que
〈α1xxx1 + · · ·+ αk xxxk, yyy〉 = α1 〈xxx1, yyy〉+ · · ·+ αk 〈xxxk, yyy〉 , k = 1, . . . , p ;
e analisemos o que se passa com
〈(α1xxx1 + · · ·+ αpxxxp) + αp+1xxxp+1, yyy〉 = 〈α1xxx1 + · · ·+ αk xxxk, yyy〉+ αp+1 〈xxxp+1, yyy〉(da linearidade do produto interno relativamente a primeira componente); aplicando agora a hipotese
de inducao temos, 〈α1xxx1 + · · ·+αpxxxp +αp+1xxxp+1, yyy〉 = α1 〈xxx1, yyy〉+ · · ·+αp 〈xxxp, yyy〉+αp+1 〈xxxp+1, yyy〉 . c.q.d.
Resolucao do problema 165 (interpretacao matricial da definicao). Tome-seQ =[uuu1 · · · uuun
]onde uuuj =
[αj
1 · · · αjn
]T, j = 1, . . . , n =⇒ QTQ =
uuuT1...
uuuTn
[uuu1 · · · uuun
]=
〈uuu1,uuu1〉 · · · 〈uuu1,uuun〉
......
〈uuun,uuu1〉 · · · 〈uuun,uuun〉
.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Assim, a orto-normalidade do conjunto de vectores {uuu1, . . . ,uuun} e equivalente a dizer que a matriz Q
e ortogonal , i.e. QTQ = In .
Resolucao do problema 172. Aqui vamos supor que estamos a considerar o exemplo de produto
interno em Rn . Para a alınea a) temos 〈Qxxx,Qyyy〉 = (Qxxx)T (Qyyy) = xxxT (QTQ)yyy = xxxTyyy = 〈xxx,yyy〉 ; da
definicao de co-seno do angulo dos vectores Qxxx e Qyyy , i.e. 〈Qxxx,Qyyy〉/(‖Qxxx‖‖Qyyy‖) temos o pretendido,
pois ‖Qxxx‖ =√
(Qxxx)T (Qxxx) =√xxxT (QTQ)xxx =
√xxxTxxx = ‖xxx‖ .
Teorema de Pitagoras. Num espaco vectorial Euclidiano, dois vectores, xxx,yyy , sao ortogonais se, e
somente se, ‖xxx+ yyy‖2 = ‖xxx‖2 + ‖yyy‖2 .
Demonstracao. Comecemos por analisar
‖xxx+ yyy‖2 = 〈xxx+ yyy,xxx+ yyy〉 = 〈xxx,xxx〉+ 2 〈xxx,yyy〉+ 〈yyy,yyy〉 = ‖xxx‖2 + 2 〈xxx,yyy〉+ ‖yyy‖2 .
Assim, temos a identidade ‖xxx+ yyy‖2 = ‖xxx‖2 + ‖yyy‖2 se, e somente se, xxx ⊥ yyy .
Lei do paralelogramo. No seguimento do teorema de Pitagoras, calcule-se ‖xxx− yyy‖2 , i.e.
‖xxx− yyy‖2 = 〈xxx− yyy,xxx− yyy〉 = 〈xxx,xxx〉 − 2 〈xxx,yyy〉+ 〈yyy,yyy〉 = ‖xxx‖2 − 2 〈xxx,yyy〉+ ‖yyy‖2 .
Assim, ‖xxx+ yyy‖2 + ‖xxx− yyy‖2 = 2 ‖xxx‖2 + 2 ‖yyy‖2 . (identidade do paralelogramo)
26-11-2013 | T.
Processo de ortogonalizacao de Gram-Schmidt. Decomposicao QR de uma matriz. Projeccao
ortogonal de um vector sobre um subespaco. Resolucao de problemas do caderno de exercıcios.
Teorema. Se {uuu1, . . . ,uuup} e um conjunto de vectores nao nulos de um espaco vectorial Euclidiano, V
(ou um conjunto orto-normal de de vectores), entao e linearmente independente.
Demonstracao. Analisemos a combinacao linear nula dos vectores {uuu1, . . . ,uuup} , i.e.
α1uuu1 + · · ·+ αpuuup = 000 .
Multiplicando escalarmente por uuuj , para j = 1, . . . , p temos
α1〈uuu1,uuuj〉+ · · ·+ αj〈uuuj,uuuj〉+ · · ·+ αp〈uuup,uuuj〉 = 0 ,
e da ortogonalidade concluımos que αj〈uuuj,uuuj〉 = 0 , i.e. αj = 0 , j = 1, . . . , p . c.q.d.
Processo de orto-normalizacao de Gram-Schmidt. Seja B = {uuu1, . . . ,uuun} uma base do espaco
vectorial Euclidiano, V . Entao {eee1, . . . , eeen} tal que
eee1 = uuu1 , eeej = uuuj − (αj1 eee1 + · · ·+ αj
j−1 eeej−1) , com αjk = 〈uuuj, eeek〉/(‖eeek‖2) ,
k = 1, . . . , j − 1 , j = 2, . . . , n , e uma base ortogonal de V . Pelo que {eee1/‖eee1‖, . . . , eeen/‖eeen‖} e uma
base orto-normal de V e {eee1, . . . , eeen} e uma base ortogonal de V .
Observacao. Do algoritmo de Gram-Schmidt vemos que
eee1 = uuu1 , eeej = uuuj − (projeee1 uuuj + · · ·+ projeeej−1uuuj) , j = 2, . . . , n .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Demonstracao. A demonstracao vai ser feita por inducao. Para n = 1 a propriedade e trivial-
mente verdadeira, pois L({uuu1}) = L({eee1}) . Suponhamos que a propriedade e verdadeira para p , i.e.
L({uuu1, . . . ,uuup}) = L({eee1, . . . , eeep}) e {eee1, . . . , eeep} e um conjunto ortogonal de vectores, e mostremos que
o vector eeep definido pelo algoritmo e ortogonal a L({eee1, . . . , eeep}) , i.e. L({eee1, . . . , eeep}) e um conjunto
ortogonal de vectores, e L({uuu1, . . . ,uuup,uuup+1}) = L({eee1, . . . , eeep, eeep+1}) . Analise da ortogonalidade:
〈eeep+1, eeej〉 = 〈uuup+1, eeej〉 − 〈αp+11 eee1 + · · ·+ αp+1
p eeep, eeej〉 = 〈uuup+1, eeej〉 − αp+1j 〈eeej, eeej〉
= 〈uuup+1, eeej〉 − 〈uuup+1, eeej〉 〈eeej, eeej〉/(‖eeej‖2) = 0 , j = 1, . . . , p .
Por definicao de eeep+1 vemos que os sub-espacos vectoriais L({uuu1, . . . ,uuup,uuup+1}) e L({eee1, . . . , eeep, eeep+1})coincidem. c.q.d.
Resolucao do problema 175. Ve-se facilmente que (0, 3, 3, 7) = 2 (1, 1,−1,−2) + (−2, 1, 5, 11) e
como nao existe α ∈ R tal que (1, 1,−1,−2) = α(−2, 1, 5, 11) , pelo que {(1, 1,−1,−2), (−2, 1, 5, 11)}e uma base de L({(1, 1,−1,−2), (−2, 1, 5, 11), (0, 3, 3, 7)}) (que e, por isto, um sub-espaco vectorial
de R4 de dimensao 2). Aplicando o processo de ortogonalizacao de Gram-Schmidt obtemos como
base ortogonal {fff 1, fff 2} com fff 1 = (1, 1,−1,−2) e fff 2 = (−2, 1, 5, 11)− 〈(−2, 1, 5, 11), fff 1〉fff 1/(‖fff 1‖2) =
(−2, 1, 5, 11)+4fff 1 = (2, 5, 1, 3) . Assim, {(1, 1,−1,−2), (2, 5, 1, 3)} e uma base ortogonal do sub-espaco
dado.
Teorema de completacao de bases ortogonais. Se V e um espaco vectorial Euclidiano de dimensao
finita, n e B = {uuu1, . . . ,uuup} e um conjunto ortogonal de vectores nao nulos em V , com p < n , entao
existe um conjunto, B′ = {uuup+1, . . . ,uuun} de n− p vectores em V , tal que B ∪B′ e uma base ortogonal
de V .
Ideia da demonstracao. Pelo teorema da completacao da base dado na aula T | 5-11-2013 existe
um vector eee ∈ V tal que B ∪ {eee} e um conjunto linearmente independente de vectores em V . Entao o
conjunto de vectores {uuu1, . . . ,uuup,uuup+1} e ortogona, onde
uuup+1 = eee− (α1uuu1 + · · ·+ αpuuup) , com αj = 〈eee,uuuj〉/(‖uuuj‖2) , j = 1, . . . , p
(note-se que eee foi definido a partir do algoritmo de Gram-Schmidt). Repetindo este processo n − p
vezes obtemos uma base ortogonal de V . c.q.d.
Factorizacao QR de uma matriz. Se A ∈Mn,k(R) tem caracterıstica k , entao A pode representar-
-se na forma QR onde R ∈ Mk,k(R) e uma matriz triangular superior e Q ∈ Mn.k(R) e tal que
QTQ = Ik .
Demonstracao. Este resultado e a reescrita matricial do processo de orto-normalizacao de Gram-
-Schmidt, considerando os vectores intervenientes representados pelo vector coluna da coordenadas na
base canonica de Rn , i.e. uuuj = (uj1, . . . , ujn) e eeej = (ej1, . . . , e
jn) , = 1, . . . , k . De facto, reescrevendo
matricialmente o algoritmo de Gram-Schmidt, i.e.
uuuj = αj1 eee1 + · · ·+ αj
j−1 eeej−1 + eeej , k = 1, . . . , j − 1 , j = 1, . . . , n , temos
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
[uuu1 uuu2 · · · uuuk
]=[eee1 eee2 · · · eeek
]
1 α21 · · · αk
1
0 1 · · · αk2
......
. . ....
0 0 · · · 1
; pelo que tomando A =[uuu1 · · · uuuk
],
Q =[eee1 eee2 · · · eeek
]diag{1/‖eee1‖, 1/‖eee2‖, . . . , 1/‖eeek‖} =
[eee1/‖eee1‖ eee2/‖eee2‖ · · · eeek/‖eeek‖
]e
R = diag{‖eee1‖, ‖eee2‖, . . . , ‖eeek‖}
1 α2
1 · · · αk1
0 1 · · · αk2
......
. . ....
0 0 · · · 1
=
‖eee1‖ α2
1‖eee1‖ · · · αk1‖eee1‖
0 ‖eee2‖ · · · αk2‖eee2‖
......
. . ....
0 0 · · · ‖eeek‖
,
se tem a decomposicao procurada, A = QR , pois QTQ =[〈eeej/‖eeej‖, eeel/‖eeel‖〉
]l=1,...,k
j=1,...,k=[δj,l
]l=1,...,k
j=1,...,k= Ik
e R e, por construcao, uma matriz triangular superior. c.q.d.
Coordenadas numa base ortogonal. Seja V um espaco vectorial Euclidiano de dimensao finita,
com base orto-nornal {eee1, . . . , eeen} . Entao, as coordenadas de um qualquer vector xxx ∈ V , i.e. xxx =
(x1, . . . , xn) e dado por xj = 〈xxx,eeej〉 , j = 1, . . . , n ; e, portanto, xxx = 〈xxx,eee1〉eee1 + · · ·+ 〈xxx,eeen〉eeen , ou ainda
xxx = ‖xxx‖((cos θ1)eee1 + · · ·+ (cos θn)eeen) , onde ∠(xxx,eeej) = θj , j = 1, . . . , n .
Demonstracao. Como {eee1, . . . , eeen} e uma base orto-normal de V , existem escalares αj ∈ R tais que
xxx = α1 eee1 + · · ·+ αn eeen . Multiplicando escalarmente por eeej a alterior identidade obtemos,
〈xxx,eeej〉 = α1 〈eee1, eeej〉+ · · ·+ αn 〈eeen, eeej〉 = αj 〈eeej, eeej〉 = αj , j = 1, . . . , n .
Mais ainda, 〈xxx,eeej〉 = ‖xxx‖ ‖eeej‖ cos∠(xxx,eeej) = ‖xxx‖ cos∠(xxx,eeej) , j = 1, . . . , n . c.q.d.
Resolucao do problema 166. No anterior teorema, se a base considerada for somente ortogonal,
entao
xxx = 〈xxx,eee1〉eee1/(‖eee1‖2) + · · ·+ 〈xxx,eeen〉eeen/(‖eeen‖2) , i.e. xxx = projeee1 xxx+ · · ·+ projeeen xxx ,
ou ainda,
xxx/‖xxx‖ = (cos θ1)eee1/‖eee1‖+ · · ·+ (cos θn)eeen/‖eeen‖ ,
onde ∠(xxx,eeej) = θj , j = 1, . . . , n . Assim, o vector coordanadas de xxx/‖xxx‖ na base orto-normal,
{eee1/‖eee1‖, . . . , eeen/‖eeen‖} , e dado por (cos θ1, . . . , cos θn) , onde cos θj , j = 1, . . . , n sao designados por
co-senos directores de xxx . Alem disso, como, xxx , tem norma 1 ,
cos2 θ1 + · · ·+ cos2 θn = 1 .
Exemplo. As coordenadas de um qualquer vector, xxx de
L({(1, 1,−1,−2), (−2, 1, 5, 11), (0, 3, 3, 7)}) = L({(1, 1,−1,−2), (−2, 1, 5, 11)}) ,
i.e. (α, β) onde xxx = α (1, 1,−1,−2) + β (−2, 1, 5, 11) , descrito na base ortogonal, {fff 1, fff 2} , fff 1 =
(1, 1,−1,−2) e fff 2 = (2, 5, 1, 3) , determinada no exercıcio 175 e dado por (α− 4β, β) , i.e.
(α− 2β, α + β,−α + 5β,−2α + 11β) = (α− 4β)fff 1 + β fff 2 .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
De facto, basta ter em atencao que aplicando o proceso de ortogonalizacao de Gram-Schmidt ao con-
junto de vectores {(1, 1,−1,−2), (−2, 1, 5, 11)} , obtemos {fff 1, fff 2} com (−2, 1, 5, 11) = fff 2 − 4fff 1 ; logo
α (1, 1,−1,−2) + β (−2, 1, 5, 11) = (α− 4β)fff 1 + β fff 2 . (Confira, como exercıcio, que
〈α (1, 1,−1,−2) + β (−2, 1, 5, 11), fff 1〉/(‖fff 1‖2) = α− 4β
e tambem 〈α (1, 1,−1,−2) + β (−2, 1, 5, 11), fff 2〉/(‖fff 2‖2) = β .)
Definicao. Sejam V um espaco vectorial Euclidiano, U um seu sub-espaco e xxx ∈ V . Dizemos que
xxxU := projUxxx e o vector projeccao ortogonal de xxx sobre U se xxxU ∈ U e xxx − xxxU e ortogonal a todo o
vector de U .
Teorema de caracterizacao. Sejam V um espaco vectorial Euclidiano, U um seu sub-espaco e xxx ∈ V .
Um vector xxxU e a projeccao ortogonal de xxx sobre U se, e somente se, xxxU e o vector de U mais proximo
de xxx no sentido da distancia definida em termos do produto interno em V , i.e.
‖xxx− xxxU‖ := min{dist(xxx,uuu) , uuu ∈ U} = min{‖xxx− uuu‖ , uuu ∈ U} .
Ideia da demonstracao. Sejam xxx um vector dado em V e uuu um qualquer vector de U . Tome-se,
xxx−uuu = (xxx−xxxU)+(xxxU−uuu) , pelo que ‖xxx−uuu‖2 = ‖xxx−xxxU‖2 +‖xxxU−uuu‖2 (pois, por definicao de projeccao
xxx− xxxU e ortogonal a todo o vector de U e xxxU − uuu ∈ U , e portanto, estamos nas condicoes do teorema
de Pitagoras). Assim, ‖xxx− xxxU‖ ≤ ‖xxx− uuu‖ , uuu ∈ U; com identidade se, e somente se, uuu = xxxU . c.q.d.
28-11-2013 | T.
Metodo dos mınimos quadrados. Resolucao do problema 178 do caderno de exercıcios.
Teorema (coeficientes de Fourier). Sejam V um espaco vectorial Euclidiano, U um seu sub-espaco
e xxx um vector dado em V . Se U tem dimensao finita e B = {uuu1, . . . ,uuup} e uma base ortogonal de U ,
entao a projeccao ortogonal de xxx sobre U expressa-se na base B de U , como
projUxxx = α1uuu1 + · · ·+ αpuuup , com αj = 〈xxx,uuuj〉/(‖uuuj‖2) , j = 1, . . . , p .
Os escalares αj designam-se por coeficientes de Fourier de xxx na base B .
Ideia da demonstracao. Por definicao xxx − projUxxx e ortogonal a todos os vectores de U , logo e
ortogonal a todos os vectores da base B de U , i.e.
0 = 〈xxx− projUxxx,uuuj〉 = 〈xxx,uuuj〉 − α1 〈uuu1,uuuj〉 − · · · − αj 〈uuuj,uuuj〉 − αp 〈uuup,uuuj〉 = 〈xxx,uuuj〉 − αj ‖uuuj‖2
pelo que, αj = 〈xxx,uuuj〉/(‖uuuj‖2) j = 1, . . . , p . c.q.d.
Resolucao do problema 176. O conjunto de vectores {vvv1, vvv2} com vvv1 = (1, 0, 0) e vvv2 = (1, 1, 0) e li-
nearmente independente. Vamos ortogonaliza-lo pelo processo de ortogonalizacao de Gram-Schmidt, i.e.
construımos um conjunto ortogonal de vectores {uuu1,uuu2} , com uuu1 = vvv1 e uuu2 = vvv2−〈vvv2,uuu1〉uuu1/(‖uuu1‖2) =
(1, 1, 0)−(1, 0, 0) = (0, 1, 0) . Assim, a projeccao ortogonal de bbb = (1, 3, 2) sobre o sub-espaco gerado por
{vvv1, vvv2} ou, o que e equivalente, sobre o sub-espaco gerado por {uuu1,uuu2} e o vector (1, 3, 0) . De facto,
projL({vvv1,vvv2})(1, 3, 2) = α1uuu1 +α2uuu2 , com α1 = 〈(1, 3, 2),uuu1〉/‖uuu1‖2 = 1 e α2 = 〈(1, 3, 2),uuu2〉/‖uuu2‖2 = 3 .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Interpretacao matricial do teorema anterior. Seja V um espaco vectorial Euclidiano de dimensao
finita, n . Assim podemos identificar os vectores de V com as correspondentes coordenadas numa deter-
minada base de V . Fixada a base as identidades matriciais que escrevermos serao nela interpretadas.
Agora, da representacao do vector projeccao de xxx sobre um sub-espaco, U , de V e dada por
projUxxx = 〈xxx,uuu1/‖uuu1‖〉uuu1/‖uuu1‖+ · · ·+ 〈xxx,uuup/‖uuup‖〉uuup/‖uuup‖ .
Assim, projUxxx = QQT xxx pois QT xxx =[uuuT1xxx · · · uuuTpxxx
]. Mais ainda, A = QR e vimos ja que
QTQ = Ip , logo ATA = RT (QTQ)R = RTR . Assim,
QQT = (AR−1) (AR−1)T = AR−1(R−1)TAT = A (RTR)−1AT = A (ATA)−1AT ;
e, portanto, projUxxx = A (ATA)−1AT xxx .
Mınimos quadrados. Seja A ∈Mm,n(R) e bbb ∈ Rm dados. Um vector xxx ∈ R diz-se solucao do sistema
Axxx = b no sentido dos mınimos quadrados se ‖Axxx− bbb‖ = min{‖Axxx− b‖ , xxx ∈ R} .
Caracterizacao. As solucoes no sentido dos mınimos quadrados do sistema Axxx = bbb sao as solucoes, xxx ,
do sitema Axxx = projC(A) bbb .
Ideia da demonstracao. Basta escrever Axxx−bbb = (Axxx−projC(A) bbb)+(projC(A) bbb−bbb) e ter em atencao
que por definicao de projeccao de um vector sobre um sub-espaco vectorial, temos que projC(A) bbb − bbbe ortogonal a C(A) e, portanto, a Axxx − projC(A) bbb , pelo que podemos aplicar o teorema de Pitagoras
obtendo ‖Axxx− bbb‖2 = ‖Axxx− projC(A) bbb‖2 + ‖ projC(A) bbb− bbb‖2 ; pelo que (como Axxx = projC(A) bbb)
‖Axxx− bbb‖ ≤ ‖Axxx− bbb‖ ,
tendo-se igualdade se, e somente se, xxx : Axxx = projC(A) bbb . c.q.d.
Resolucao do problema 178. Sabemos que o sub-espaco das colunas de A e o sub-espaco gerado
pelos vectores {xxx,yyy} , com xxx = (1, 0, 1) e yyy = (0,−1, 2) , que tem dimensao dois pois nao existe α ∈ Rtal que xxx = αyyy . Vamos determinar, usando o processo de ortogonalizacao de Gram-Schmidt, um
conjunto ortogonal de vectores, {uuu,vvv} , com L({xxx,yyy}) = L({uuu,vvv}) , i.e.
uuu = xxx e vvv = yyy − 〈yyy,uuu〉uuu/(‖uuu‖2) = yyy − uuu = (−1,−1, 1) .
Agora, projC(A) bbb = projuuu bbb+projvvv bbb = 〈bbb,uuu〉uuu/(‖uuu‖2)+〈bbb,vvv〉vvv/(‖vvv‖2) = 0uuu+(4/3)vvv = (−4/3,−4/3, 4/3).
Determinar, no sentido dos mınimos quadrados, a solucao de zzz ∈ R2 : Azzz = bbb e equivalente a deter-
minar zzz ∈ R2 : Azzz = projC(A) bbb . Vemos assim que a solucao vem dada por zzz = (−4/3, 4/3) .
28-11-2013 | TP.
Resolucao do problema 181 do caderno de exercıcios. Complemento ortogonal de um sub-espaco
vectorial de dimensao finita. Aplicacoes.
Consideracoes sobre os mınimos quadrados. Vemos do teorema de caracterizacao que xxx e solucao
no sentido dos mınimos quadrados de Axxx = bbb se, e somente se, Axxx for a projeccao ortogonal de bbb
sobre C(A) , i.e. bbb− Axxx for ortogonal aos vectores de C(A) = {Ayyy : yyy ∈ Rn} , ou ainda
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
0 = 〈Ayyy, bbb− Axxx〉 = (Ayyy)T (bbb− Axxx) = yyyT (ATbbb− ATAxxx) = 〈yyy, ATbbb− ATAxxx〉 , yyy ∈ Rn ;
logo ATbbb − ATAxxx e ortogonal a todos os vectores de Rn , pelo que so pode ser o vector nulo, i.e.
ATAxxx = ATbbb .
Em conclusao. O vector xxx e uma solucao no sentido dos mınimos quadrados do sistema Axxx = bbb se,
e somente se, xxx ∈ Rn : ATAxxx = ATbbb .
Resolucao do problema 178 (outro processo). Acabamos de ver que a solucao no sentido dos
mınimos quadrados de zzz ∈ R2 : Azzz = bbb e equivalente a determinar zzz ∈ R2 : ATAzzz = ATbbb , i.e.
zzz ∈ R2 :
[2 2
2 5
]zzz =
[0
4
]; logo zzz = (−4/3, 4/3) .
Resolucao do problema 181. O determinante da matriz A e zero, pois
(2,−4, 2) = −2 (0, 1,−1) + 2(1,−1, 0) ,
logo o conjunto de vectores que compoem as colunas de A , i.e. o conjunto de vectores
{(0, 1,−1), 2(1,−1, 0), (2,−4, 2)} e linearmente dependente.
Mais ainda, como nao existe α ∈ R tal que (0, 1,−1) = α (1,−1, 0) , temos que
C(A) = L({(0, 1,−1), (1,−1, 0)}) .
Determinemos uma base ortogonal para C(A) utilizando o processo de ortogonalizacao de Gram-
-Schmidt, i.e.
xxx = (0, 1,−1) e yyy = (1,−1, 0)− projxxx(1,−1, 0) = (1,−1, 0) + (0, 1,−1)/2 = (1,−1/2,−1/2) ;
pelo que {xxx,yyy} sao ortogonais e C(A) = L({xxx,yyy}) .
Assim, projC(A)(0, 1, 3) = projxxx(0, 1, 3) + projyyy(0, 1, 3) = −xxx− 4/3yyy = (−4/3,−1/3, 5/3) .
A solucao, no sentido dos mınimos quadrados do sistema zzz ∈ R3 : Azzz = bbb , e a solucao do sistema
Azzz = projC(A) bbb , i.e. zzz = (−5/3,−4/3, 0) + α (2,−2, 1) , α ∈ R .
Complemento ortogonal. Seja V um espaco vectorial Euclidiano. Dizemos que dois sub-espacos
de V sao ortogonais se, qualquer vector de um deles for ortogonal a todos os vectores do outro.
Dado um sub-espaco, U , de V ; o conjunto U⊥ = {xxx ∈ V : 〈xxx,uuu〉 = 0, uuu ∈ U} e o maior sub-espaco
de V que e ortogonal a U ; alem disso, U ∩ U⊥ = {000} .
Alem disso, se V tem dimensao finita entao U⊕ U⊥ = V .
Demonstracao. Ve-se facilmente que U⊥ 6= ∅ pois 000 ∈ U⊥ . Considere-se agora xxx,yyy ∈ U⊥ e α ∈ K ;
entao, por definicao de U⊥ e das propriedades de produto interno,
〈αxxx+ yyy uuu〉 = α〈xxx,uuu〉+ 〈yyy,uuu〉 = α 0 + 0 = 0 , i.e. αxxx+ yyy ∈ U⊥ .
Concluımos assim, que U⊥ e um sub-espaco vectorial de U .
A intersecao dos sub-espacos U e U⊥ e {000} , pois se xxx ∈ U e xxx ∈ U⊥ entao 〈xxx,xxx〉 = 0 , pelo que xxx = 000 .
Como U e um sub-espaco vectorial de V que e um espaco vectorial Euclidiano de dimensao finita, n ,
entao existe uma base ortogonal de U , {fff 1, . . . , fffp} , com p < n . Pelo teorema da completude da base
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
ortogonal sabemos existir vectores fffp+1, . . . , fffn ∈ U⊥ (pois estes vectores vao ser escolhidos dois a dois
ortogonais e ortogonais a todos os vectores do conjunto de partida) tais que {fff 1, . . . , fffp, fffp+1, . . . , fffn}e uma base ortogonal de V . Agora todo o vector vvv ∈ V se expressa na forma
vvv = uuu+uuu′ , com uuu = α1 fff 1 + · · ·+αp fffp ∈ U e uuu′ = αp+1 fffp+1 + · · ·+αn fffn ∈ U⊥ ; logo, V = U+U⊥ ,
e como U ∩ U⊥ = {000} temos que V = U⊕ U⊥ .
Vejamos, independentemente, que {fffp+1, . . . , fffn} ⊂ U⊥ e uma base ortogonal de ∈ U⊥ . De facto, se
tal nao se tivesse, existiria um verctor 0 6= fff ∈ U⊥ ortogonal a todos os vectores de {fffp+1, . . . , fffn} ,
pelo que fff teria de estar em U , pelo que fff = 000 ! Assim, {fffp+1, . . . , fffn} e uma base ortogonal de ∈ U⊥ .
Exemplo. Em R4 (que e um espaco vectorial Euclidiano com o produto interno de dois vectores xxx,yyy
dado por 〈xxx,yyy〉 = xxxTyyy) considere-se o sub-espaco de dimensao 2 ,
U = {(a, a, b, b) , a, b ∈ R} = L({(1, 1, 0, 0), (0, 0, 1, 1)}) (verificar); logo o sub-espaco
U⊥ = {xxx : 〈xxx, (1, 1, 0, 0)〉 = 0 = 〈xxx, (0, 0, 1, 1)〉} = {(x, y, z, w) ∈ R4 : x+ y = 0 , z + w = 0}= L({(1,−1, 0, 0), (0, 0, 1,−1)}) .
Neste caso, temos dimU + dimU⊥ = 4 = dimR4 ; alem disso,
{(1, 1, 0, 0), (0, 0, 1, 1), (1,−1, 0, 0), (0, 0, 1,−1)} e uma base ortogonal de R4 .
Problema. Se U e um sub-espaco vectorial de um espaco vectorial Euclidiano, V de dimensao finita, n ,
entao (U⊥)⊥ = U .
Resolucao. Sendo {fff 1, . . . , fffp} uma base ortogonal de U , podemos completa-la ate obtermos uma
base ortogonal para V , i.e. {fff 1, . . . , fffp, fffp+1, . . . , fffn} , com U⊥ = L({fffp+1, . . . , fffn}) . Logo, (U⊥)⊥ =
L({fff 1, . . . , fffp}) = U .
03-12-2013 | T.
Valores e vectores proprios de transformacoes lineares entre um mesmo espaco vectorial.Valores e
vectores proprios de matrizes. Aplicacao a diagonalizacao de matrizes.
Definicao. Sejam V 6= {000} um espaco vectorial sobre K e T : V → V uma transformacao linear.
Dizemos que o escalar λ ∈ K e um valor proprio de T se existe um vector nao nulo, vvv ∈ V tal que
T(vvv) = λvvv , i.e. se a transformacao linear T−λ I nao e injectiva. Se λ e um valor proprio de T , os
vectores vvv tais que T(vvv) = λvvv dizem-se proprios de T associados ao valor proprio λ . Estes vectores
(proprios) formam um sub-espaco, N(λ) , que e o sub-espaco nulo ou nucleo da transformacao T−λ I ,
i.e. N(λ) = N(T−λ I) = {vvv ∈ V : T(vvv) = λvvv} . Designamos N(λ) como sub-espaco proprio de T
associado ao valor proprio λ .
Observacoes.
1. Se na definicao de valor proprio, λ , nao se tivesse exigido a existencia de um vector nao nulo, vvv , tal
que T(vvv) = λvvv , entao terıamos que todo o escalar em K seria valor proprio, pois T(000) = 000 = λ000 , λ ∈ K .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
2. O escalar λ = 0 e valor proprio de T se, e somente se, T−0 I nao e injectiva, i.e. T nao e injectiva.
3. Uma transformacao linear, T , de um espaco vectorial, V , nele mesmo, nao tem de ter forcosamente
valores proprios; por exemplo a transformacao linear T : P → P , definida por T(p) = x p(x) , nao
tem valores proprios; outro exemplo e dado pela transformacao linear T : R2 → R2 , definida por
T(x, y) = (−y, x) ; de facto, se λ ∈ R e valor proprio de T , existe (0, 0) 6= (x, y) tal que T(x, y) =
(−y, x) = λ (x, y) , i.e. y = −λx e x = λ y , pelo que y = −λ2y e y 6= 0 , logo λ2 = −1 e nao existe
λ ∈ R que verifique esta condicao!
Definicao. Seja A uma matriz quadrada n×n , com escalares em K . Dizemos que λ ∈ K e uma valor
proprio de A se existe um vector nao nulo vvv ∈ Kn tal que Avvv = λvvv . Se λ e um valor proprio de A ,
os vectores vvv ∈ Kn tais que Avvv = λvvv dizem-se proprios de A associados a λ . Os vectores proprios de
A , associados a cada valor proprio, λ , formam um sub-espaco de Kn que designaremos por sub-espaco
proprio de A associado ao valor proprio λ , i.e. N(λ) = N(A− λ I) = {vvv ∈ Kn : Avvv = λvvv}.
Teorema. Sejam V um espaco vectorial de dimensao finita, n , sobre K , T : V→ V uma transformacao
linear e A a matriz que representa T nalguma base de V . Entao,
1. λ ∈ K e um valor proprio de T se, e somente se, λ ∈ K e um valor proprio de A , ou equivalente-
mente, λ ∈ K e tal que A− λ I e uma matriz nao invertıvel;
2. λ ∈ K e um valor proprio de T e vvv ∈ Kn um vector na base dada; entao, vvv e vector proprio
de T associado a λ se, e somente se, vvv e vector proprio de A associado a λ , ou equivalentemente,
(A− λ I)vvv = 000 ;
3. a dimensao do sub-espaco proprio de T associado a λ , dim N(T−λ I) = n− car(A− λ I) .
Ideia da demonstracao. Para provar 1 e 2 basta notar que a identidade T(vvv) = λvvv se le em notacao
matrcial na base considerada como Avvv = λvvv . Para analisar 3 basta ver que o sub-espaco proprio de
T associado a λ ,
N(T−λ I) = {vvv ∈ V : (A− λ I)vvv = 000}e o sub-espaco nulo de A , logo tem dimensao n− carA . c.q.d.
Exemplo. Considere a transformacao linear T : R3 → R3 definida por T(x, y, z) = (3x, x+2y, 4x+2z) .
Determinar os valores proprios de A e respectivos espacos proprios.
Resolucao. A matriz que representa T relativamente a base canonica de R3 e A =
3 0 0
1 2 0
4 0 2
, i.e.
T(xxx) = Axxx com xxx = (x, y, z) . Assim, os valores proprios de T sao os λ ∈ R tais que A − λ I =3− λ 0 0
1 2− λ 0
4 0 2− λ
e nao invertıvel, i.e λ = 2 (com multiplicidade 2) ou λ = 3 . Agora determine-
mos os espacos proprios associados aos valores proprios λ = 2 e λ = 3 ; para tal determinemos a solucao
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
geral dos sistemas homogeneos com matriz do sistema
A− 2 I =
1 0 0
1 0 0
4 0 0
e A− 3 I =
0 0 0
1 −1 0
4 0 −1
, respectivamente.
Logo, N(2) = L({(0, 1, 0), (0, 0, 1)}) e N(3) = L({(1, 1, 4)}) .
Interpretacao matricial do exemplo. Acabamos de mostrar que
A
1 0 0
1 1 0
4 0 1
=
1 0 0
1 1 0
4 0 1
3 0 0
0 2 0
0 0 2
, ou ainda A =
1 0 0
1 1 0
4 0 1
3 0 0
0 2 0
0 0 2
1 0 0
1 1 0
4 0 1
−1
.
Dizemos entao que a matriz A dada e diagonalizavel, i.e. existe uma matriz, P , invertıvel (matriz dos
vectores proprios) e uma matriz diagonal, D (matriz dos valores proprios), tal que A = P DP−1 .
Teorema. Seja A uma matriz quadrada n× n com escalares em K . Os valores proprios de A sao os
escalares λ ∈ K tais que det(A− λ I) = 0 (equacao caracterıstica), onde det(A− λ I) e designado por
polinomio caracterıstico (na variavel λ).
Demonstracao. A primeira afirmacao do teorema decorre directamente da definicao de valor proprio
de uma matriz A =[ai,j
]j=1,...,n
i=1,...,n. Mais ainda,
det(A− λ I) = (−1)nλn + (−1)n−1(a1,1 + a2,2 + · · ·+ an,n)λn−1 + · · ·+ detA ,
pois o coeficente das potencias n e n− 1 de λ coincidem com os coeficientes de
(a1,1 − λ)(a2,2 − λ) · · · (an,n − λ) = (−1)nλn + (−1)n−1(a1,1 + a2,2 + · · ·+ an,n)λn−1 + · · ·e o termo independente coincide com det(A− 0 I) = detA . c.q.d.
Observacao. Para o caso das matrizes A ∈ M2,2(K) , os valores proprios, λ1, λ2 estao determinados
pelas identidades λ1 + λ2 = a1,1 + a2,2 = TrA e por λ1 λ2 = a1,1 a2,2 − a1,2 a2,1 = detA .
Problema. Mostre que se λ e valor proprio de A entao λ2 e valor proprio de A2
Resolucao. Sabemos que det(A− λ I) = 0 , e queremos provar que entao det(A2− λ2 I) = 0 . De facto,
(A2−λ2 I) = (A−λ I)(A+λ I) , pelo que det(A2−λ2 I) = det(A−λ I) det(A+λ I) = 0 det(A+λ I) = 0 .
Problema. De um exemplo de uma matriz A para a qual λ2 e valor proprio de A2 sem que λ seja
valor proprio de A .
Resolucao. Por exemplo, A =
[−3 0
1 −3
]e A2 =
[9 0
−6 9
]. Vemos entao que os valores proprios
de A2 sao 3 e o −3 , no entanto −3 nao e valor proprio de A .
Problema. De um exemplo de uma matriz A com escalares reais que nao tenha valores proprios em
R , e em que A2 tenha valores proprios reais.
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Resolucao. Basta considerar a matriz A =
[0 1
−1 0
], e A2 =
[−1 0
0 −1
]. Vemos que os valores
proprios de A estao em C , mas A2 tem como valor proprio duplo −1 .
05-12-2013 | T.
Independencia linear do conjunto de vectores proprios associados a valores proprios distintos.
Consequencias. Propriedades dos valores e vectores proprios de matrizes simetricas. Resolucao do
problema 188. f) do caderno de exercıcios.
Teorema. Sejam V um espaco vectorial sobre R e T : V→ V uma transformacao linear com p valores
proprios distintos λ1, . . . , λp ∈ K ; entao, se 000 6= xxxj e um vector proprio de T associado ao valor
proprio λj para j = 1, . . . , p , entao {xxx1, . . . ,xxxp} e um conjunto linearmente independente de vectores.
Alem disso, o sub-espaco proprio soma dos sub-espacos, N(λj) , j = 1, . . . , p , e soma directa, i.e.
N(λ1) + · · ·+ N(λp) = N(λ1)⊕ · · · ⊕ N(λp) .
Demonstracao. Suponhamos que nao, i.e. o conjunto de vectores {xxx1, . . . ,xxxp} e linearmente depen-
dente. Seja xxxr+1 o primeiro vector que depende linearmente dos que o precedem, i.e. {xxx1, . . . ,xxxr} e
um conjunto linearmente independente, mas {xxx1, . . . ,xxxr,xxxr+1} e um conjunto linearmente dependente;
logo, existem escalares, α1, . . . , αr, αr+1 ∈ K nao todos nulos tais que
αr+1xxxr+1 = α1xxx1 + · · ·+ αr xxxr .
Aplicando T a esta identidade obtemos, tendo em atencao que T(xxxj) = λj xxxj , j = 1, . . . , r + 1 ,
αr+1λr+1xxxr+1 = α1λ1xxx1 + · · ·+ αrλr xxxr .
Multiplicando a primeira das identidades por λr+1 e subtraindo a segunda encontramos
α1(λr+1 − λ1)xxx1 + · · ·+ αr(λr+1 − λr)xxxr = 000 ;
e como o conjunto de vectores {xxx1, . . . ,xxxr} e linearmente independente, os coeficientes αj(λr+1−λj) = 0 ,
j = 1, . . . , r , i.e. como os valores proprios sao todos distintos, temos que α1 = · · · = αr = 0 ! (pois, por
hipotese {xxx1, . . . ,xxxr} e um conjunto linearmente independente de vectores).
Para mostrar que a soma dos sub-espacos proprios e directa, supomos que tal nao e verdade, i.e.
podemos obter o vector nulo como como soma de p vectores nao todos nulos cada um num N(λj) ,
j = 1, . . . , p . Mas tal nao se pode verificar pela primeira parte do teorema. c.q.d.
Observacoes.
1. Se λ1, λ2 sao valores proprios distintos de uma transformacao linear T entre um mesmo espaco
vectorial V sobre K , entao os sub-espacos proprios associados a λ1, λ2 , i.e. N(λ1) e N(λ2) tem como
interseccao {000} .
2. Se T : V→ V e uma transformacao linear e V tem dimensao finita, entao T nao pode ter mais de n
valores proprios distintos. Pois, caso contrario, em V existiria um conjunto com mais de n vectores
linearmente independente (o que e obviamente impossıvel).
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
Matrizes semelhantes. Sejam A,B duas matrizes n × n com escalares em K . Dizemos que A,B
sao semelhantes se existe uma matriz invertıvel, P , tal que A = P B P−1 . Entao A,B tem o mesmo
polinomio caracaterıstico.
Se T : V → V e uma transformacao linear entre um mesmo espaco vectorial V 6= {000} de dimensao
finita, n , sobre K , entao as matrizes que representam T relativamente a uma base de V sao semelhantes.
Demonstracao. De A−λ I = P B P−1−λP P−1 = P (B−λ I)P−1 e aplicando determinante obtemos
det(A−λ I) = det(B−λ I) ; pelo que A,B tem o mesmo polinomio caractarıstico. Para demonstrarmos a
segunda parte do teorema, basta ter em atencao que denotando por A a representacao T relativamente
uma base S de V , e sendo P a matriz de mudanca da base S para a base S ′ (que e obviamente
invertıvel), entao pelo primeiro Teorema dado na aula T | 19-11-2013 temos que B = P−1AP ou
equivalentemente A = P B P−1 , i.e. A,B sao semelhantes. c.q.d.
Definicao. Seja T : V → V uma transformacao linear entre um mesmo espaco vectorial V 6= {000}de dimensao finita, n , sobre K . Seja A a matriz que representa T relativamente a uma base de V .
Se λ ∈ K e um valor proprio de T (ou equivalentemente, valor proprio de A), designamos por:
a) multiplicidade algebrica de λ , a multiplicidade de λ como solucao da equacao caracterıstica.
b) multiplicidade geometrica de λ , a dimensao do sub-espaco proprio associado a λ , N(A−λ I) = N(λ) .
Se A e a matriz de T relativamente a uma base de V , entao os valores proprios de T e de A coincidem
e cada um deles tem em A ou em T a mesma multiplicidade algebrica e a mesma multiplicidade
geometrica.
Teorema. No seguimento da definicao anterior, temos que
1 ≤ multiplicidade geometrica de λ = dim N(λ) ≤ multiplicidade algebrica de λ .
Exemplo. Considere a seguinte matriz com escalares reais, A =
1 2 c
0 1 0
0 4 3
. Entao a equacao caracte-
rıstica, i.e. det(A− λ I) = 0 e dada por (1− λ)2(3− λ) = 0 ; logo a multiplicidade algebrica de λ1 = 1
e dois e de λ2 = 3 e um. Determinemos os espacos proprios associados aos valores proprios 1, 3 , i.e.
N(1) = {vvv ∈ R3 : Avvv = vvv} = {vvv ∈ R3 :
0 2 c
0 0 0
0 4 2
vvv = 000} =
L({(1, 0, 0), (0, 1,−2)}) , se c = 1
L({(1, 0, 0)}) , se c 6= 1e
N(3) = {vvv ∈ R3 : Avvv = 3vvv} = {vvv ∈ R3 :
−2 2 c
0 −2 0
0 4 0
vvv = 000} = L({(c, 0, 2)}) .
Assim, a multiplicidade geometrica de 1 como valor proprio de A e 2 se c = 1 e 1 se c 6= 1 e a
multiplicidade geometrica de 3 como valor proprio de A e 1 ; pelo que, se c = 1 temos R3 = N(1)⊕N(3)
e, portanto, a matriz A e diagonalizavel, i.e. semelhante a uma matriz diagonal, pois
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
A
1 0 1
0 1 0
0 −2 2
=
1 0 1
0 1 0
0 −2 2
1 0 0
0 1 0
0 0 3
, ou ainda A =
1 0 1
0 1 0
0 −2 2
1 0 0
0 1 0
0 0 3
1 0 1
0 1 0
0 −2 2
−1
.
Caso c 6= 1 a matriz A nao e semelhante a uma matriz diagonal; no entanto, podemos ver que e
semelhante a uma matriz triangular. De facto, completando a base dos vectores proprios, i.e. por
exemplo R3 = L({(1, 0, 0), (c, 0, 2), (0, 1, 0)}) , temos
A
1 c 0
0 0 1
0 2 0
=
1 c 0
0 0 1
0 2 0
1 0 2(1− c)0 3 2
0 0 1
, pois A
0
1
0
= 2(1− c)
1
0
0
+ 2
c
0
2
+
0
1
0
; logo,
A =
1 c 0
0 0 1
0 2 0
1 0 2(1− c)0 3 2
0 0 1
1 c 0
0 0 1
0 2 0
−1
, i.e. A e semelhante a matriz T =
1 0 2(1− c)0 3 2
0 0 1
.
Numero de vectores proprios. Sejam V 6= {000} um espaco vectorial sobre K de dimensao finita, n ,
e T : V → V uma transformacao linear. Seja A ∈ Mn,n(K) a matriz da transformacao linear relativa-
mente a uma base de V . Se T (respectivamente, A) tem p valores proprios distintos, λ1, . . . , λp ∈ K ,
entao o numero de vectores proprios de T (respectivamente, de A) e igual a soma das multiplicidades
geometricas dos valores proprios λj , j = 1, . . . , p , i.e. e igual a dim N(λ1) + · · ·+ dim N(λp) .
Demonstracao. Como os sub-espacos proprios associados a cada um dos valores proprios distintos, λj ,
j = 1, . . . , p , sao independentes, uma base de N(λ1)⊕ · · · ⊕N(λp) e constituıda pelos vectores proprios
que geram cada um dos espacos N(λj) , j = 1, . . . , p , pelo que sao em numero de
dim N(λ1) + · · ·+ dim N(λp) . c.q.d.
Corolario. A matriz A ∈ Mn,n(K) e diagonalizavel se, e somente se, a soma das multiplicidades
geometricas dos seus valores proprios distintos, λ1, . . . , λp , for igual a n , i.e.
dim N(λ1) + · · ·+ dim N(λp) = n .
Em particular, se A tiver n valores proprios distintos e diagonalizavel.
Teorema. Seja A ∈Mn,n(R) simetrica; entao:
1. a matriz A tem n valores proprios reais contando estes tantas vezes quanto as suas multiplicidades
algebricas.
2. se λ 6= µ sao dois valores proprios de A , entao os sub-espacos proprios que lhes estao associados
sao ortogonais, i.e. N(λ) ⊥ N(µ) .
Demonstracao. Verifiquemos que os valores proprios sao reais. De facto, ve-se facilmente que xxxTAxxx =
λxxxTxxx e, portanto, λ = (xxxTAxxx)/(xxxTxxx) , com xxxTxxx = |x1|2 + · · · + |xn|2 ∈ R e xxxTAxxx = xxxTAT xxx =
(xxxTAxxx)T = xxxTAxxx ∈ R .
Como A e uma matriz real simetrica, e sendo λ 6= µ dois quaiquer valores proprios de A , sabemos
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
existir 000 6= xxx,yyy tal que Axxx = λxxx , xxxTA = λxxxT e Ayyy = µyyy , yyyTA = µyyyT ; logo xxxTAyyy = λxxxTyyy e tambem
xxxTAyyy = µxxxTyyy , pelo que (λ− µ)xxxTyyy = 0 . Agora, como µ 6= λ , temos que xxx,yyy sao ortogonais. c.q.d.
05-12-2013 | TP.
Resolucao dos problemas 188. c), 190, 192, 194 e 195 do caderno de exercıcios.
Teorema Espectral. Se A ∈Mn,n(R) e simetrica, entao existe uma base orto-normal de Rn formada
por vectores proprios de A . Alem disso, A e diagonalizavel por uma matriz ortogonal, i.e. existe Q ∈Mn,n(R) ortogonal tal que A = QDQT , com D a matriz dos valores proprios de A contados tantas
vezes quanto a sua multiplicidade algebrica.
Resolucao do problema 188. c’). Para determinar os valores proprios de A′ =
[0 1
1 0
], resolvemos
em λ ∈ R a equacao caracterıstica, det(A′ − λ I) = 0 , com A′ − λ I =
[−λ 1
1 −λ
], logo λ ∈ R :
λ2 − 1 = 0 , i.e. λ = 1 ou λ = −1 . Agora para determinar os sub-espacos proprios de A′ , i.e.
N(1) = {vvv ∈ R2 : A′ vvv = vvv} e N(−1) = {vvv ∈ R2 : A′ vvv = −vvv} , temos de resolver dois sistemas
homogeneos com matriz do sistema
[−1 1
1 −1
]e
[1 1
1 1
], respectivamente.
Assim, N(1) = L({(1, 1)}) e N(−1) = L({(1,−1)}) . Do teorema espectral tiramos que
{(1, 1)/√
2, (1,−1)/√
2}e uma base orto-normal de R2 constituıda por vectores proprios de A′ , pelo que
A′Q = Q
[1 0
0 −1
], com Q =
[√2/2
√2/2
√2/2 −
√2/2
]; e, portanto, A′ = Q
[1 0
0 −1
]QT .
Resolucao do problema 190. Os valores proprios de A sao os elementos diagonais de A . Este facto
foi ja observado para matrizes triangulares no primeiro exemplo dado na aula de 03-12-2013 | T. Neste
caso os vectores proprios associados sao valores proprios 3,−1, 1 de A sao os vectores da base canonica
de R3 , pois Aeee1 = 3eee1 , Aeee2 = −eee2 , Aeee3 = eee3 , com eee1 = (1, 0, 0) , eee2 = (0, 1, 0) , eee3 = (0, 0, 1) .
Resolucao do problema 192. Os valores proprios de A =
4 1 0
0 3 1
0 0 2
e de B =
α 1 0
0 α 1
0 0 β
sao,
no caso da matriz A , 4, 3, 2 e no caso da matriz B , α (com multiplicidade algebrica 2) e β . Para
determinarmos os espacos proprios associados a cada uma destas matrizes e aos seus valores proprios
temos de resolver sistemas homogeneos com matrizes do sistema dadas, respectivamente, por:
A− λ I =
4− λ 1 0
0 3− λ 1
0 0 2− λ
, λ ∈ {4, 3, 2} e B − µ I =
α− µ 1 0
0 α− µ 1
0 0 β − µ
, µ ∈ {α, β} .
Assim, N(A − 4 I) = L({(1, 0, 0)}) , N(A − 3 I) = L({(−1, 1, 0)}) , N(A − 2 I) = L({(1,−2, 2)}) ; e,
portanto, {(1, 0, 0), (−1, 1, 0), (1,−2, 2)} e uma base de R3 constituıda por vectores proprios de A ;
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
logo A e diagonalizavel, tendo-se A = P diag{4, 3, 2}P−1, com P =
1 −1 1
0 1 −2
0 0 2
. Para B temos
se α 6= β , N(B − α I) = L({(1, 0, 0)}) e N(B − β I) = L({(1, β − α, (β − α)2)}) ;
se α = β , N(B − α I) = L({(1, 0, 0)}) .
Assim, a matriz B nao e diagonalizavel. No entanto, caso α 6= β , podemos completar o conjunto dos
vectores proprios de B por forma a determinar uma base de R3 , por exemplo
{(1, 0, 0), (1, β − α, (β − α)2), (0, 0, 1)} , e uma base de R3 , tendo-se
B = S T S−1 com S =
1 1 0
0 β − α 0
0 (β − α)2 1
e T =
a 0 1/(α− β)
0 b 1/(β − α)
0 0 α
, pois
B[0 0 1
]T= 1/(α− β)
[1 0 0
]T+ 1/(β − α)
[1 β − α (β − α)2
]T+ α
[0 0 1
]T.
Como exercıcio mostre que a matriz B e semelhante a uma matriz triangular no caso em que α = β .
Resolucao do problema 194. Seja A =
[1 1
3 2
]e B =
[1 0
−1 1
]A =
[1 1
2 1
]. Entao os valores
proprios de A sao λ± = (3±√
13)/2 e os valores proprios de B sao µ± = 1±√
2 .
Considere-se agora a matriz C = P1,2B =
[2 1
1 1
]que tem como valores proprios γ± = (3±
√5)/2 .
Resolucao do problema 195. Basta ver que (A − λ I)T = AT − λ I e como o determinante de uma
matriz coincide, a menos do sinal, com o da sua transposta, temos que a equacao caracterıstica de A e
de AT coincidem, pelo que A e AT tem os mesmos valores proprios considerados tantas vezes quantas
a as respectivas multiplicidades algebricas.
10-12-2013 | T.
Aplicacoes do teorema espectral: Curvas (em R2) e superfıcies (em R3) de segundo grau.
Definicao. Em R2 designamos por conica o lugar geometrico dos pontos cujas coordenadas (x, y)
relativamente a um referencial ortogonal satisfazem uma equacao do tipo
a1,1 x2 + 2a1,2 xy + a2,2 y
2 + 2b1 x+ 2b2 y + c = 0 ,
ou equivalentemente,[x y
] [a1,1 a1,2
a1,2 a2,2
][x
y
]+ 2
[b1 b2
] [xy
]+ c = 0 . Designamos A =
[a1,1 a1,2
a1,2 a2,2
]por matriz da forma quadratica.
Exemplos. Como exemplos canonicos temos as equacoes
(x/a)2 + (y/b)2 = 1 , (x/a)2 − (y/b)2 = 1 e y = 2p x2 , a, b, p ∈ R \ {0} ,
que representam elipses, hiperboles e parabolas, respectivamente (cf. figura seguinte). Temos ainda
casos degenerados, como x2−y2 = 0 (duas rectas y = x ou y = −x), ou x2 +y2 = 0 (um ponto, (0, 0)),
ou ainda uma condicao impossıvel, por exemplo x2 + 1 = 0 .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
x
y
Elipse
x
y
Hiperbole
x
y
Parabola
Reducao da equacao do segundo grau a forma canonica. Como A e simetrica existe uma matriz
ortogonal Q (matriz dos vectores proprios normalizados ou dos vectores resultantes de aplicar o processo
de orto-normalizacao de Gram-Schmidt a cada uma das bases dos espacos proprios associadas a um
mesmo valor proprio) tal que A = QDQT , onde D e a matriz dos valores proprios de A . Assim, a
forma canonica toma a forma[x′ y′
] [λ1 0
0 λ2
][x′
y′
]+ 2
[b1 b2
]Q
[x′
y′
]+ c = 0 com
[x′
y′
]= QT
[x
y
],
i.e. λ1(x′)2 + λ2(y′)2 + 2αx′ + 2β y′ + c = 0 , onde[α β
]=[b1 b2
]Q ;
(esta transformacao de coordenadas designa-se por reducao as direccoes principais da conica).
Agora, se λ1 λ2 6= 0 , entao λ1(x′ + α/λ1)2 + λ2(y′ + β/λ2)2 + c− α2/λ1 − β2/λ2 = 0 ; logo reduzimos a
equacao de segundo grau a forma
λ1X2 + λ2 Y
2 + C = 0 , com X = x′ + α/λ1 , Y = y′ + β/λ2 e C = c− α2/λ1 − β2/λ2 ;
(esta transformacao de coordenadas designa-se por reducao ao centro da conica).
Estamos pois em presenca de uma elipse se λ1, λ2 tiverem o mesmo sinal e sinal contrario ao de C .
Sera uma hiperbole se, λ1 λ2 < 0 e C 6= 0 . Nos demais casos temos situacoes degeneradas.
Se λ1 λ2 = 0 e supondo s.p.g. λ2 = 0 , temos λ1(x′+α/λ1)2 +2β y′+c−α2/λ1 = 0 ; e se β 6= 0 podemos
escrever
λ1X2 + 2β Y = 0 , com X = x′ + α/λ1 e Y = y′ + (c− α2/λ1)/(2β) ;
(esta transformacao de coordenadas designa-se por reducao ao centro da conica). .
Estamos em presenca de uma parabola e nos demais casos temos situacoes degeneradas.
Resolucao do problema 204. a) Comecemos por escrever matricialmente a equacao da conica, i.e.[x y
] [1 1
1 1
][x
y
]= 1 ; e como A =
[1/√
2 −1/√
2
1/√
2 1/√
2
][2 0
0 0
][1/√
2 1/√
2
−1/√
2 1/√
2
], podemos reescrever
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
a equacao da conica como[X Y
] [2 0
0 0
][X
Y
]= 1 , i.e. 2X2 = 1 , ou ainda X = ±
√2/2 , onde
[X
Y
]=
[1/√
2 1/√
2
−1/√
2 1/√
2
][x
y
].
Assim, estamos num caso degenerado x + y = ±1 , pois da reducao as direccoes principais temos que
X = (x+ y)/√
2 .
b) Comecemos por escrever matricialmente a equacao da conica, i.e.[x y
] [ 1 −2
−2 −2
][x
y
]= 1 ; e como A =
[1/√
5 −2/√
5
2/√
5 1/√
5
][−3 0
0 2
][1/√
5 2/√
5
−2/√
5 1/√
5
], podemos
reescrever a equacao da conica como[X Y
] [−3 0
0 2
][X
Y
]= 1 , i.e. −3X2 + 2Y 2 = 1 , ou ainda −(X/(1/
√3))2 + (Y/(1/
√2))2 = 1 , onde[
X
Y
]=
[1/√
5 2/√
5
−2/√
5 1/√
5
][x
y
]. Assim, estamos em presenca de uma hiperbole de equacao
−((x+ 2y)/(√
5/√
3))2 + ((−2x+ y)/(√
5/√
2))2 = 1 .
e) Comecemos por escrever matricialmente a equacao da conica, i.e.[x y
] [ 1 1/2
1/2 1
][x
y
]+ 2
[−3/2 −3/2
] [xy
]= 0 ; e como
A =
[1/√
2 −1/√
2
1/√
2 1/√
2
][3/2 0
0 1/2
][1/√
2 1/√
2
−1/√
2 1/√
2
],
podemos reescrever a equacao da conica como[X Y
] [3/2 0
0 1/2
][X
Y
]+ 2
[−3/√
2 0] [X
Y
]= 0 , i.e. (3/2)X2 + (1/2)Y 2 − 6/
√2X = 0 , ou ainda
((X −√
2)/(√
2))2 + (Y/√
6)2 = 1 , onde
[X
Y
]=
[1/√
2 1/√
2
−1/√
2 1/√
2
][x
y
]. Assim, estamos em presenca
de uma elipse de equacao ((x+ y − 2)/2)2 + ((−x+ y)/√
12)2 = 1 .
f) Comecemos por escrever matricialmente a equacao da conica, i.e.[x y
] [6 2
2 3
][x
y
]+ 2
[1 −1/2
] [xy
]= 1 ; e como A =
[2/√
5 −1/√
5
1/√
5 2/√
5
][7 0
0 2
][2/√
5 1/√
5
−1/√
5 2/√
5
],
podemos reescrever a equacao da conica como[X Y
] [7 0
0 2
][X
Y
]+ 2
[3/(2√
5) −2/√
5] [X
Y
]= 1 , i.e. 7X2 + 2Y 2 + (3/
√5)X − 4/
√5Y = 1 , ou
ainda ((X − 3/(14√
5))/a)2 + ((Y − 1/√
5)/b)2 = 1 , onde[X
Y
]=
[2/√
5 1/√
5
−1/√
5 2/√
5
][x
y
], e a, b ∈ R a determinar.
Estamos pois em presenca de uma elipse (determine a sua equacao como exercıcio).
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
12-12-2013 | T.
Revisao sobre a materia dada.
12-12-2013 | TP.
Revisao sobre a materia dada.
17-12-2013 | T.
Realizacao da segunda Frequencia.
Problema 1. Considere as matrizes A =
0 1 2 1
4 5 2 0
7 3 0 0
4 0 0 0
e B =
0 5 1 3
1 8 0 2
0 0 0 1
0 0 1 3
.
a) Calcule det(AB) .
b) Mostre que, se C e uma matriz anti-simetrica entao C2 e simetrica.
Resolucao. a) Sabemos que det(AB) = detA detB . Agora, trocando em A a linha 1 com a 4 e
a linha 2 com a 3 , vemos que detA e igual ao determinante de uma matriz triangular com escalares
1, 2, 3, 4 na diagonal, logo detA = 24 (ou equivalentemente, aplicando o teorema de Laplace da coluna 4
ate a coluna 1). Ja o determinante da matriz B coincide com o determinante da matriz que resulta
de B por troca das linhas 1 com a 2 e das linhas 3 com a 4 . Esta matriz e triangular superior com
escalares 1, 5, 1, 1 na diagonal, pelo que detB = 5 . Assim, det(AB) = 5! = 120 .
b) Uma matriz, C ∈ Mn,n(R) diz-se anti-simetrica se A = −AT . Assim, A2 = (−AT ) (−AT ) = (A2)T ,
i.e. A2 e simetrica.
Problema 2. Considere a matriz A =
0 −1 −1
α 1 −2
2 5 α
.
a) Determine α ∈ R que torna A uma matriz nao invertıvel.
b) Determine a matriz inversa de A quando α = 1 .
c) Determine a decomposicao P A = LU quando α = 2 .
d) Para α = 2, identifique explicitamente o sub-espaco nulo de A .
e) Para α = 2, identifique explicitamente o sub-espaco gerado pelos vectores coluna da matriz A .
f) Para α = 2, indique a solucao do sistema AX = b , com b =[1 0 −4
]T.
Resolucao. a) Basta determinar α ∈ R : detA = 0 , i.e. α ∈ R : α2 − 5α + 6 = 0 ; logo α ∈ {2, 3} .
b) Aplicando o teorema de Laplace, vemos que A−1 =1
2
11 −5 3
−4 2 −2
3 −1 1
T
=
11/2 −2 3/2
−5/2 1 −1/2
3/2 −1 1/2
.
c) Como o elemento na possicao 1, 1 da matriz A e 0 , multiplicamos a matriz A pela matriz de per-
mutacao P1,2 e pivotando, temos, P1,2A =
2 1 −2
0 −1 −1
2 5 2
→
−`1 + `3
2 1 −2
0 −1 −1
0 4 4
→
4`2 + `3
2 1 −2
0 −1 −1
0 0 0
;
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
logo P1,2A = LU com L =
1 0 0
0 1 0
1 −4 1
e U =
2 1 −2
0 −1 −1
0 0 0
(cf. L−1 =
1 0 0
0 1 0
−1 4 1
).
d) Tendo em atencao a decomposicao LU de A encontrada na alınea anterior, temos que
N(A) = {xxx ∈ R3 : U xxx = 000} = {(x1, x2, x3) ∈ R3 : 3x2 = −3x3 = −2x1} = L({(3,−2, 2)}) .
e) Como C(A) = {xxx ∈ R3 : ∃vvv ∈ R3 com Avvv = xxx} . Pelo que, efectuando sobre o vector (x, y, z) , as
mesmas operacoes por linha que efectuamos na resolucao da alınea c), obtemos que
C(A) = {(x, y, z) ∈ R3 : z − y + 4x = 0} .
f) Comecemos por ver que bbb ∈ C(A) ; de facto (−4) − 0 + 4(1) = 0 , logo o sistema e possıvel. Assim,
a solucao vem dada por xxx = xxxp + αxxx0 , α ∈ R , onde xxxp e uma solucao de Axxx = bbb e xxx0 = (3,−2, 2)
(solucao do sistema homogeneo). Para determinar xxxp resolvemos o sistema
U[x y 0
]T= L−1bbb =
[0 1 −0
]T, i.e. xxxp = (1/2,−1, 0) .
Note que podıamos ter determinado bbb como combinacao linear dos dois primeiros vectores coluna da
matriz A =[ccc1 ccc2 ccc3
], i.e. bbb = ccc1/2 − ccc2 ; obtendo-se, como solucao particular do sistema Axxx = bbb ,
xxxp = (1/2,−1, 0) .
Problema 3. Seja S = {vvv1, vvv2, vvv3, vvv4} com vvv1 = (1, 1, 2, 3) , vvv2 = (0, 1, 2, 2) , vvv3 = (2,−1,−1, 0) e
vvv4 = (3, 1, 2, 5) .
a) Indique um sub-conjunto U de S com tres vectores, tal que U e linearmente dependente.
b) Indique uma base do sub-espaco vectorial L(S) e determine as coordenadas do vector vvv1 +vvv2−vvv4
nessa base.
c) Determine o sub-espaco L(S)⊥ e mostre que L(S)⊕ L(S)⊥ = R4 .
Resolucao. a) Como sabemos para analisar a dependencia ou indepenencia linear de um conjunto
de vectores em R4 podemos faze-lo dispondo as componentes desses vectores (na base canonica) nas
colunas (ou nas linhas) de uma matriz e analisar a dependencia ou independencia linear dos conjuntos
dessas colunas (ou linhas). O metodo de eliminacao de Gauss fornece um criterio para essa analise. No
presente caso, optando pela representacao por colunas temos:1 0 2 3
1 1 −1 1
2 2 −1 2
3 2 0 5
→
−`1 + `2
−2`1 + `3
−3`1 + `4
1 0 2 3
0 1 −3 −2
0 2 −5 −4
0 2 −6 −4
→
−2`2 + `3
−2`2 + `4
1 0 2 3
0 1 −3 −2
0 0 1 0
0 0 0 0
;
o conjunto formado pelas 3 primeiros vectores coluna e linearmente independente e o conjunto formado
pelos 4 vectores coluna e linearmente dependente, pois temos somente 3 pivots. Efectivamente, a quarta
coluna e uma combinacao linear das duas primeiras, i.e. vvv4 = 3vvv1 − 2vvv2 . Assim U = {vvv1, vvv2, vvv4} e um
conjunto de 3 vectores linearmente dependente e tambem L(S) = L({vvv1, vvv2, vvv3}) .
b) Na alınea a) vimos que L(S) = L({vvv1, vvv2, vvv3}) e tambem vvv4 = 3vvv1 − 2vvv2 , logo vvv = vvv1 + vvv2 − vvv4 =
−2vvv1 + 3vvv2 e as coordenadas vvv na base {vvv1, vvv2, vvv3} de L(S) sao dadas pelo vector (−2, 3, 0) .
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica
c) Comecemos por identificar
L(S) = {(x, y, z, w) ∈ R4 : ∃α, β, γ ∈ R tais que (x, y, z, w) = αvvv1 + β vvv2 + γ vvv3} ;
para tal basta efectuar sobre o vector (x, y, z, w) as mesmas operacoes por linhas efectuadas na resolucao
da alınea a), e usar o facto de que o sistema[vvv1 vvv2 vvv3
] [α β γ
]T=[x y z w
]Te possıvel e
determinado, quando e so quando w = x+ 2 y ; assim,
L(S) = {(x, y, z, w) ∈ R4 : w = x+ 2 y} = {(x, y, z, w) ∈ R4 :[x y z w
] [−1 −2 0 1
]T= 0} .
Concluımos assim que L(S)⊥ = L({uuu}) , com uuu =[−1 −2 0 1
]T. Como uuu 6∈ L(S) , temos que
L(S) ∩ L(S)⊥ = {000} e tambem L(S)⊕ L(S)⊥ = R4 , pois dimL(S) + dimL(S)⊥ = 4 .
Problema 4. Considere a transformacao linear T : R3 → R3 definida por
T(x, y, z) = (2x+ 2y + 2z,−x+ 3y, x− 3y) .
a) Determine a imagem pela transformacao linear, T , dos vectores (1, 0, 0), (0, 1, 0), (0, 0, 1) , e ob-
tenha a matriz, A , que representa T relativamente a base canonica de R3 .
b) Mostre que {(1, 1,−1), (0, 1,−1), (3, 1,−4)} e uma base de R3 formada por vectores proprios
de A . Diga, justificando, que A e uma matriz nao-invertıvel.
c) Mostre que A e diagonalizavel, identificando uma matriz invertıvel, S , e uma matriz diagonal, Λ ,
tais que Λ = S−1 AS .
d) Determine a projeccao do vector bbb = (4, 3, α) , com α ∈ R , sobre o sub-espaco imagem de T , e
determine a solucao, no sentido dos mınimos quadrados, de xxx ∈ R3 : T(xxx) = bbb .
Resolucao. a) Como T(1, 0, 0) = (2,−1, 1) , T(0, 1, 0) = (2, 3,−3) e T(0, 0, 1) = (2, 0, 0) , temos que
T (x, y, z) = A[x y z
]Tonde A =
2 2 2
−1 3 0
1 −3 0
. b) Assim, T(1, 1,−1) = A[1 1 −1
]T=
2[1 1 −1
]T= 2 T(1, 1,−1) , T(0, 1,−1) = A
[0 1 −1
]T= 3
[0 1 −1
]T= 3 T(0, 1,−1) ,
T(3, 1,−4) = A[3 1 −4
]T= 0
[3 1 −4
]T= 0 T(3, 1,−4) ; e, como, vectores proprios de uma
mesma matriz associados a valores proprios distintos sao linearmente independentes, temos que o con-
junto dos vectores dados e uma base de R3. Mais ainda, como 0 e um valor proprio de A , temos que
A e nao invertıvel. c) Reescrevendo as identidades anteriores em notacao matricial temos,
AS = S Λ, onde S =
1 0 3
1 1 1
−1 −1 −4
e Λ =
2 0 0
0 3 0
0 0 0
.
Como S e nao-singular temos que A e diagonalizavel i.e. A = S ΛS−1.
Para a alınea d) comece por identificar o espaco imagem de T , com o espaco das colunas de A , i.e.
Im T = C(A) = L({(2, 0, 0), (2,−1, 1)}) . Como esta base nao e ortogonal, vamos ortogonaliza-la
usando o processo de Gram-Schmidt, i.e. u1 =[2 0 0
]Te u2 =
[2 −1 1
]T− 4/4
[2 0 0
]T=
Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica[0 −1 1
]T, com L({(2, 0, 0), (2,−1, 1)}) = L({uuu1,uuu2}) e uuu1 ⊥ uuu2 . Assim,
projImT bbb = projuuu1bbb+ projuuu2
bbb = (8/4)uuu1 + (α− 3)/(2)uuu2 =[4 (3− α)/2 (α− 3)/2
]T.
Note que, caso α = −3 , projImT bbb = bbb , pelo que se α = −3 , bbb ∈ Im T ; de facto, bbb = 5[2 0 0
]T−
3[2 −1 1
]T. Vemos assim que a solucao de xxx ∈ R3 : (T(xxx) = Axxx) = bbb , caso α = −3 vem dada por
xxx =[5 −3 0
]T+ β xxx0 , β ∈ R , para algum xxx0 ∈ R3 \ {000} : Axxx0 = 000 , por exemplo xxx0 =
[3 1 −4
]T.
Para α 6= −3 , nao existe xxx ∈ R3 : T(xxx) = bbb , pelo que a solucao no sentido dos mınimos quadrados vem
dada como xxx ∈ R3 : (T(xxx) = Axxx) = projImT bbb , cuja solucao e
xxx =[(α− 3)/2 0 (7− α)/2
]T+ β
[3 1 −4
]T, β ∈ R .
19-12-2013 | T.
Superfıcies (em R3) de segundo grau.
19-12-2013 | TP.
Resolucao de problemas sobre quadricas.
Top Related