Álgebra Linear e Geometria Analítica - Universidade de Coimbra

80
SUM ´ ARIOS ALARGADOS DE ´ ALGEBRA LINEAR E GEOMETRIA ANAL ´ ITICA AM ´ ILCAR BRANQUINHO 17-09-2013 | T. Informa¸c˜ ao sobre a disciplina de ´ Algebra Linear e Geometria Anal´ ıtica quanto, aos temas de estudo, referˆ encias bibliogr´ aficas,avalia¸c˜ ao, hor´ario de atendimento e contactos. Hor´ ario de D´ uvidas. Ter¸ca-feira das 11:30 ` as 13:30 e quinta-feira das 12 ` as 13 no Gabinete 4.5. Plano do curso. 1. Matrizes: ´ Algebra e propriedades. 2. Sistemas de equa¸ c˜oes lineares - M´ etodo de elimina¸c˜ ao de Gauss. 3. Invers˜ ao de matrizes - Algoritmo de Gauss-Jordan. 4. Determinantes. 5. Espa¸cos e sub-espa¸ cos vectoriais. 6.Transforma¸c˜oeslineares. 7. Espa¸cos Vectoriais com produto interno. M´ etodo dos m´ ınimos quadrados. 8.Diagonaliza¸c˜ ao de matrizes. 9.Aplica¸c˜ oes geom´ etricas em R 2 e em R 3 : curvas e superf´ ıcies de segunda ordem. Referˆ encias Bibliogr´ aficas. Introdu¸c˜ ao`a ´ Algebra Linear - Ana Paula Santana e Jo˜ aoQueir´o; Ref. 15-01/SAN.Int/ex. 2 c.17 ´ Algebra Linear - Seymour Lipschutz; Ref. 15-01/LIP/3.ed. Avalia¸ ao na disciplina de ´ Algebra Linear e Geometria Anal´ ıtica. Todos os alunos tˆ em direito a fazer exame. Os alunos que frequentem 75% das aulas te´ oricas e 75% das aulas te´orico-pr´ aticas poder˜ao efectuar outrotipodeavalia¸c˜ao: Duas frequˆ encias de 10 valores. Os alunos dever˜ ao obter um m´ ınimo de 3 valores, para poderem realizar a segunda frequˆ encia. Os alunos que num dos tipos de avalia¸c˜ ao anterior tenham obtido classifica¸c˜ ao superior a 17 valores ser˜ ao submetidos a uma prova complementar. 1

description

Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Transcript of Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Page 1: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

SUMARIOS ALARGADOS DE ALGEBRA LINEAR E GEOMETRIA ANALITICA

AMILCAR BRANQUINHO

17-09-2013 | T.

Informacao sobre a disciplina de Algebra Linear e Geometria Analıtica quanto, aos temas de

estudo, referencias bibliograficas, avaliacao, horario de atendimento e contactos.

Horario de Duvidas. Terca-feira das 11:30 as 13:30 e quinta-feira das 12 as 13 no Gabinete 4.5.

Plano do curso.

1. Matrizes: Algebra e propriedades.

2. Sistemas de equacoes lineares - Metodo de eliminacao de Gauss.

3. Inversao de matrizes - Algoritmo de Gauss-Jordan.

4. Determinantes.

5. Espacos e sub-espacos vectoriais.

6. Transformacoes lineares.

7. Espacos Vectoriais com produto interno. Metodo dos mınimos quadrados.

8. Diagonalizacao de matrizes.

9. Aplicacoes geometricas em R2 e em R3 : curvas e superfıcies de segunda ordem.

Referencias Bibliograficas.

• Introducao a Algebra Linear - Ana Paula Santana e Joao Queiro;

Ref. 15-01/SAN.Int/ex. 2 c.17

• Algebra Linear - Seymour Lipschutz;

Ref. 15-01/LIP/3.ed.

Avaliacao na disciplina de Algebra Linear e Geometria Analıtica.

• Todos os alunos tem direito a fazer exame.

• Os alunos que frequentem 75% das aulas teoricas e 75% das aulas teorico-praticas poderao efectuar

outro tipo de avaliacao:

• Duas frequencias de 10 valores.

•Os alunos deverao obter um mınimo de 3 valores, para poderem realizar a segunda frequencia.

• Os alunos que num dos tipos de avaliacao anterior tenham obtido classificacao superior a 17 valores

serao submetidos a uma prova complementar.

1

Page 2: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

• Frequencia I: 29/10/2013 das 10h as 11h30m

• Frequencia II: 17/12/2013 das 10h as 11h30m

19-09-2013 | T.

Introducao ao estudo de matrizes. Exemplos e operacoes.

Matrizes. Sao muitos os exemplos de dados numericos apresentados em forma de tabelas bi-dimen-

sionais. Para tal basta consultar jornais, revistas ou livros. Por exemplo, na seguinte tabela podemos

ver um balanco de vendas de duas livrarias nos meses de Julho e Agosto:

Julho

Loja 1 2

Jornais 6 8

Revistas 15 20

Livros 45 64

e

Agosto

Loja 1 2

Jornais 7 9

Revistas 18 31

Livros 52 68

Podemos apresentar os dados destas tabelas de forma simples, respectivamente como6 8

15 50

45 64

e

7 9

18 31

52 68

.

Este tipo de tabela rectangular sera designada por matriz e os seus elementos por escalares.

Definicoes. Uma matriz de tipo m × n com elementos, que designaremos por escalares, em R (ou C)

e uma tabela rectangular que se obtem dispondo os escalares segundo m linhas e n colunas, i.e.

A =

a1,1 a1,2 · · · a1,n

a2,1 a2,2 · · · a2,n

......

...

am,1 am,2 · · · am,n

ou, abreviadamente, A =[ai,j

]j=1,...,n

i=1,...,m, ou ainda, A =

[ai,j

],

sendo ai,j o escalar na linha i coluna j da matriz.

Denotamos o conjunto das matrizes de tipo m×n em R ou C por Mm,n(R) ou Mm,n(C), respectivamente.

As matrizes coluna serao designadas por vectores, e os conjuntos Mm,1(R) e Mm,1(C) sao identificados

com Rm e Cm , respectivamente.

Usaremos letras maiusculas para designar matrizes, exceptuando-se o caso das matrizes coluna que

serao designadas por letras minusculas.

Se m = n (respectivamente, m 6= n) dizemos que a matriz A e quadrada (respectivamente, rectangular).

Se para i > j, ai,j = 0 (respectivamente, i < j, ai,j = 0) dizemos que a matriz A e triangular superior

(respectivamente, triangular inferior).

[email protected] 2

Page 3: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Se para i 6= j, ai,j = 0, a matriz A diz-se diagonal.

Numa matriz quadrada, A, designamos por diagonal principal de A (respectivamente, secundaria) a

sucessao a1,1, a2,2,, . . . , am,m, (respectivamente, a1,m, a2,m−1, . . . , am,1); dizemos que a matriz diagonal A

e escalar se os seus elementos diagonais forem todos iguais. A matriz escalar com todos os elementos

diagonais iguais a 1 designa-se por matriz identidade e sera denotada por Im.

A matriz nula, 000 , e a matriz em que todos os escalares sao iguais a 0 .

A matriz quadrada, A, diz-se simetrica (respectivamente, anti-simetrica) se ai,j = aj,i (respectivamente,

ai,j = −aj,i).

Problema. Seja A =

x x+ y x− z

x− y y y + z

x+ z − 2 z − y z

, com x, y, z ∈ R .

Analise separadamente os casos em que A e triangular superior, triangular inferior ou simetrica.

Resolucao. Para que A seja triangular superior, temos que x − y = z − y = x + z − 2 = 0 , i.e.

x = y = z = 1 . A matriz A sera triangular inferior se x + y = y + z = x − z = 0 e, portanto,

x = −y = z . A matriz A e simetrica se x+ y = x− y , x− z = x+ z − 2 e y + z = z − y, logo y = 0 e

z = 1 . Temos assim, que a matriz A e dada, respectivamente por1 2 0

0 1 2

0 0 1

,

x 0 0

2x −x 0

2(x− 1) 2x x

,

x x x− 1

x 0 1

x− 1 1 1

, x ∈ R .

Soma de matrizes e produto de uma matriz por um escalar. Dadas duas matrizes m × n,

A =[ai,j

]e B =

[bi,j

], designamos por matriz soma, A+B, a matriz m× n, A+B =

[ai,j + bi,j

].

Para α ∈ R ou C designamos por matriz produto de α por A, a matriz m × n, αA definida por

αA =[α ai,j

].

Propriedades das operacoes com matrizes. Sejam A,B,C matrizes m× n e α, β escalares, entao:

(soma de matrizes) (produto por um esacalar)1. (A+B) + C = A+ (B + C) ;

2. A+ 000 = 000 + A = A ;

3. A+ (−A) = (−A) + A = 000 ;

4. A+B = B + A .

a) (α + β)A = αA+ βA;

b) α(A+B) = αA+ β B;

c) α(βA) = (αβ)A;

d) 1A = A.

Note-se que a matriz −A com A =[ai,j

]e por definicao a matriz oposta de A, i.e −A =

[−ai,j

].

Demonstracao. Estas propriedades tem uma demonstracao imediata basta para tal recorrer a definicao

de matriz e as propriedades que os escalares verificam.

Problema. Determine as matrizes X, Y ∈M2,3(C) tais que 3X + Y = A , 4X + 2Y = B com

A =

[3/2 1 0

2 1/2 5

]e B =

[3 4 2

2 1 8

].

[email protected] 3

Page 4: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Resolucao. Tendo em atencao as propriedades anteriores, o sistema dado e equivalente a 6X + 2Y =

2A , 4X + 2Y = B , ou ainda, 2X = 2A−B , 2Y = −4A+ 3B ; logo

X = A− 1/2B =

[0 −1 −1

1 0 1

]e Y = −2A+ 3/2B =

[−3/2 0 1

−3 −1/2 −6

].

Produto de matrizes. Sejam A,B matrizes m×n e n× p, respectivamente. Designamos por produto

AB da matriz A pela matriz B, a matriz C =[ci,j

], m× p com

ci,j = ai,1b1,j + ai,2b2,j + · · ·+ ai,nbn,j =n∑

k=1

ai,kbk,j, i.e.

AB =

a1,1 a1,2 · · · a1,n

......

...

ai,1 ai,2 · · · ai,n...

......

am,1 am,2 · · · am,n

b1,1 · · · b1,j · · · b1,p

b2,1 · · · b2,j · · · b2,p

......

...

bn−1,1 · · · bn−1,j · · · bn−1,p

bn,1 · · · bn,j · · · bn,p

=

c1,1 · · · c1,p

ci,j

cm,1 · · · cm,p

= C .

Exemplo. Calcule a matriz produto

[2 −1 5 −3

4 2 −3 −5

]1 −2 −3

3 6 −1

2 7 −2

4 1 5

=

[2− 3 + 10− 12 −4− 6 + 35− 3 −6 + 1− 10− 15

4 + 6− 6− 20 −8 + 12− 21− 5 −12− 2 + 6− 25

]

Casos particulares de produto de matrizes, AB (Exemplos).

[a1 a2 · · · an

]b1

b2

...

bn

=n∑

k=1

akbk .

[a1 · · · an

] b1,1 · · · b1,p

......

bn,1 · · · bn,p

=[c1 · · · cp

]com cj =

n∑k=1

akbk,j, j = 1, . . . , p .

a1,1 · · · a1,n

......

am,1 · · · am,n

b1

...

bn

=

c1

...

cn

, com cj =n∑

k=1

aj,kbk, que e ainda igual a

a1,1

...

am,1

b1 + · · ·+

a1,n

...

am,n

bn,

que designamos por combinacao linear dos vectores coluna da matriz A.a1

...

am

[b1 · · · bn

]=

a1b1 · · · a1b,n

......

amb1 · · · ambn

.

[email protected] 4

Page 5: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısicaa1,1 · · · a1,m

a2,1 · · · a2,m

......

an,1 · · · an,m

b1 0 · · · 0

0 b2 · · · 0...

.... . .

...

0 0 · · · bm

=

a1,1b1 a1,1b2 · · · a1,mbn

a2,1b1 a2,2b2 · · · a2,mbn...

......

an,1b1 an,2b2 · · · an,mbn

.

b1 0 · · · 0

0 b2 · · · 0...

.... . .

...

0 0 · · · bn

a1,1 · · · a1,m

a2,1 · · · a2,m

......

an,1 · · · an,m

=

a1,1b1 a1,1b1 · · · a1,mb1

a2,1b2 a2,2b2 · · · a2,mb2

......

...

an,1bn an,2bn · · · an,mbn

.

19-09-2013 | TP.

Exercıcios sobre matrizes elementares, produtos de matrizes, propriedades da inversa de uma

matriz.

Propriedades do produto de matrizes. Supondo que as operacoes seguintes tem sentido:

1. (AB)C = A(B C) (propriedade associativa)

2. A(B +B′) = AB + AB′ e (A+ A′)B = AB + A′B (propriedade distributiva)

3. AI = A e I B = B (I e a matriz identidade)

4. AB 6= BA (o produto de matrizes nao e comutativo)

5. Existem matrizes A,B nao nulas tais que AB = 000 (divisores de zero)

Demonstracao. Designando por A =[ai,h

], B =

[bh,j

]e C =

[cj,k

]temos:

(AB)C =[∑

h ai,hbh,j

] [cj,k

]=[∑

j(∑

h(ai,hbh,j)cj,k)]

=[∑

j,h ai,hbh,jcj,k

]A(BC) =

[ai,h

] [∑j bh,jaj,k

]=[∑

h(∑

j ai,h(bh,jcj,k))]

=[∑

j,h ai,hbh,jcj,k

]Determinamos o escalar na posicao i, k de (AB)C e de A(B C) que sao, como vimos, iguais. Pelo que

a identidade e valida para todo o i e k, logo temos a identidade 1.

Para a identidade 2 vamos somente verificar que: A(B+B′) =[ai,h

] [bh,j + b′h,j

]=[∑

h ai,h(bh,j + b′h,j)]

=[∑

h ai,hbh,j +∑

h ai,hb′h,j

]=[∑

h ai,hbh,j

]+[∑

h ai,hb′h,j

]= AB + AB′.

Para verificar 3 basta tomar nos dois ultimos exemplos de produtos de matrizes os bj = 1, para termos

o pretendido.

Para 4 e 5 considerem-se os seguintes exemplos:

A =

1 2 5

−2 1 3

1 0 −1

e B =

−3 0 2

4 3 −3

−1 −1 1

; entao AB =

0 1 1

7 0 −4

−2 1 1

e BA =

−1 −6 −17

−5 11 32

2 −3 −9

;

e, portanto, AB 6= BA ;

e os divisores de zero:

[email protected] 5

Page 6: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

[1 0 −2 1

3 −1 0 2

] 2 1 −3

2 1 −7

−1 0 −1

−4 −1 1

=

[0 0 0

0 0 0

]; e tambem,

[1 −3

2 −6

] [3 9

1 3

]=

[0 0

0 0

]. c.q.d.

Definicao. Uma matriz quadrada n × n, A, diz-se invertıvel se existir uma matriz n × n, X, tal que

AX = X A = In .

Propriedades das matrizes invertıveis. Sejam A e B matrizes n× n. Entao:

• Se A e invertıvel, entao A tem uma unica inversa.

• Se A e B sao invertıveis (e denotando por A−1, B−1 a matriz inversa de A,B, respectivamente), a

sua inversa e dada por (AB)−1 = B−1A−1.

Demonstracao. Para a primeira propriedade basta supor que existem matrizes X, Y , n × n tais que

AX = Y A = In. Entao, Y = Y In = Y (AX) = (Y A)X = InX = X. Logo X = Y .

Para demonstrar a segunda propriedade, usaremos o facto de que a inversa de uma matriz invertıvel e

unica. Temos, por isso, somente que verificar que (AB)(B−1A−1) = In = (B−1A−1)(AB). De facto,

(AB)(B−1A−1) = A(BB−1)A−1 = AInA−1 = AA−1 = In,

e tambem (B−1A−1)(AB) = B−1(A−1A)B = B−1 InB = B−1B = In. c.q.d.

Problema. Analise a existencia de inversa de uma matriz 2× 2.

Resolucao sumaria. Seja A =

[a b

c d

], com a, b, c, d ∈ C; entao, a matriz A e invertıvel se, e somente

se, a d− b c 6= 0 . Mais ainda, a matriz inversa de A−1 e dada por A−1 =1

a d− b c

[d −b−c a

].

Problema. Analise a existencia de uma matriz 2× 2, A, tal que A2 = I2.

Demonstracao. Ve-se facilmente que a propriedade indicada para A e equivalente a A−1 = A. Usando

a expressao da matriz inversa de uma matriz invertıvel, A =

[a b

c d

], temos que

b = 0 ou a d− b c = −1; c = 0 ou a d− b c = −1; a = d/(a d− b c) e (d = 0 ou a d− b c = ±1).

Se a d−b c = 1, temos de imediato que b = c = 0 e a = d, pelo que a d = 1; logo a = d = ±1 e b = c = 0.

Se a d− b c = −1, entao d = −a e b c = 1− a2 . Se a = 0, entao d = 0, e b, c sao tais que b c = 1 .

Temos assim como solucao do problema as matrizes[±1 0

0 ±1

];

[a b

c −a

], com bc = 1− a2;

[0 b

1/b 0

], com b 6= 0. c.q.d.

Exercıcio. Analise a existencia de uma matriz 2× 2, A, tal que A2 = −I2 .

Aplicacao do produto de matrizes. Considere quatro cidades com aeroporto. Defina-se a matriz

A =[ai,j

]com ai,j =

1 se existe um voo comercial directo entre as cidades i e j

0 caso contrario.

[email protected] 6

Page 7: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Supondo que A e a matriz de 0’s e 1’s dada por A =

0 1 1 0

1 0 0 1

1 0 0 0

0 1 0 0

, calcule as matrizes A2 e A3:

1. indique quantos voos com uma unica escala existem entre as cidades 2 e 3.

2. indique quantos voos com duas unicas escalas existem entre as cidades 1 e 3.

3. analise se e possıvel voar entre cada uma das cidades?

Resolucao. O escalar na posicao 2, 3 de A2 e dado por a2,1a1,3 +a2,2a2,3 +a2,3a3,3 +a2,4a4,3. Mais ainda,

cada termo da forma a2,jaj,3, com j = 1, 2, 3, 4 e igual a 1 se a2,j = aj,3 = 1 , i.e. existe um voo directo

entre as cidades 2 e j e entre as j e 3, i.e. existe um voo com uma unica escala j entre as cidades 2 e 3.

Desta forma vemos que o escalar na posicao 2, 3 de A2 nos da o numero de voos com uma unica escala

entre as cidades 2 e 3 .

Como A2 =

2 0 0 1

0 2 1 0

0 1 1 0

1 0 0 1

e A3 =

0 3 2 0

3 0 0 2

2 0 0 1

0 2 1 0

vemos que o escalar na posicao 2, 3 de A2 e 1, pelo que existe um voo com uma unica escala entre as

cidades 2 e 3; mais ainda como a posicao 1, 3 da matriz A3 nos da o numero de voos com duas escalas

entre as cidades 1 e 3, vemos que a resposta a questao 2 e 2 .

Para a questao 3 basta considerar a matriz A+ A2 + A3 e verificar que esta nao tem escalares nulos.

24-09-2013 | T.

Matrizes elementares. Aplicacao a resolucao de sistemas lineares e decomposicao LU de uma

matriz.

Definicao. Um sistema de m equacoes lineares a n incognitas, x1, . . . , xn e todo o conjunto de relacoes

do tipo

a1,1x1 + a1,2x2 + · · ·+ a1,nxn = b1 (primeira equacao)

a2,1x1 + a2,2x2 + · · ·+ a2,nxn = b2 (segunda equacao)...

am,1x1 + am,2x2 + · · ·+ am,nxn = bm (m-esima equacao)

A ai,j e bi, com i = 1, . . . ,m e j = 1, . . . , n designamos respectivamente por coeficientes e termo

independente, do sistema.

Dizemos ainda que (α1, . . . , αn) e uma solucao do sistema dado, se ao tomarmos x1 = α1, . . . , xn = αn,

as m equacoes se convertem em identidades. Resolver o sistema e determinar o conjunto de solucoes do

sistema. Discutir o sistema e analisar se o sistema e compatıvel (caso em que dizemos que o sistema

[email protected] 7

Page 8: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

e possıvel) ou incompatıvel (caso em que dizemos que o sistema e impossıvel). Quando o sistema e

possıvel, diz-se determinado se tiver solucao unica, e indeterminado se tiver mais do que uma solucao.

Exemplos.

1. O sistema x+ y + z = 6 , x+ y − z = 0 , x+ z = 4 , x+ y = 3 de quatro equacoes nas incognitas

x, y, z, tem solucao unica (x, y, z) = (1, 2, 3) ; logo e possıvel e determinado.

2. O sistema x+y+z = 6 , x+y−z = 0 , x+y = 3 , x+y+2z = 9 de quatro equacoes nas incognitas

x, y, z, tem infinitas solucoes (x, y, z) = (α, 3− α, 3), α ∈ R; logo e possıvel e indeterminado.

3. O sistema x + y + z = 6 , x + y − z = 0 , −2x − 2y = 1 de tres equacoes nas incognitas x, y, z,

nao tem solucoes; de facto, ao somar as tres equacoes obtemos 0 = 7(!), logo as equacoes nao sao

compatıveis.

Para resolver um sistema de equacoes e aconselhavel reduzi-lo a outros sistemas mais simples que lhe

sejam equivalentes, i.e. que tenham o mesmo conjunto solucao.

Propriedade fundamental de equivalencia de sistemas. Um sistema de equacoes lineares e equiva-

lente a qualquer dos sistemas que resultam de realizar nele alguma das seguintes operacoes elementares:

• Mudar a ordem das equacoes;

• Multiplicar uma das das equacoes por qualquer escalar nao nulo;

• Somar algebricamente, a uma das equacoes, outra delas;

• Aplicar reiteradamente qualquer das operacoes anteriores.

Demonstracao. Ve-se facilmente que as primeiras duas operacoes nao alteram a natureza o sistema.

Pela natureza da quarta operacao resta analisar a terceira operacao. Para tal, considere-se o sistema

de m equacoes a n incognitas (x1, . . . , xn):a1,1x1 + a1,2x2 + · · ·+ a1,nxn = b1

...

am,1x1 + am,2x2 + · · ·+ am,nxn = bm

,

i.e. `j(x1, . . . , xn) = 0, com `j(x1, . . . , xn) = aj,1x1 + aj,2x2 + · · ·+ aj,nxn − bj , para j = 1, . . . ,m.

Suponhamos agora que ααα = (α1 . . . αn) e uma solucao do sistema; entao `j(ααα) = 0, para j = 1, . . . ,m;

e, portanto, por exemplo, `1(ααα) + `2(ααα) = 0 , `2(ααα) = 0, . . ., `m(ααα) = 0 . Concluımos assim que ααα e

solucao do sistema `1(xxx) + `2(xxx) = 0 , `2(xxx) = 0 , . . ., `m(xxx) = 0 , com xxx = (x1, . . . , xn) . c.q.d.

Exemplo. Resolva o sistema x+ y + 2z = 9 , 3x+ 6y − 5z = 0 , 2x+ 4y − 3z = 1 .

Resolucao. Este sistema e equivalente a:

`1(x, y, z) = 0 , `2(x, y, z)− 3`1(x, y, z) = 0 , `3(x, y, z)− 2`1(x, y, z) = 0 ,

onde `1 ≡ x+ y + 2z − 9 , `2 ≡ 3x+ 6y − 5z e `3 ≡ 2x+ 4y − 3z − 1 , i.e.

x+ y + 2z = 9 , 3y − 11z = −27 , 2y − 7z = −17 ,

[email protected] 8

Page 9: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

que passaremos a denotar por `′j(x, y, z) = 0 , j = 1, 2, 3 .

O sistema encontrado e ainda equivalente a:

`′1(x, y, z) = 0 , `′2(x, y, z) = 0 , `′3(x, y, z)− 2/3 `′2(x, y, z) = 0 ,

i.e., x+ y + 2z = 9 , 3y − 11z = −27 , 1/3z = 1 ; logo x = 1 , y = 2 , z = 3 e a solucao procurada.

Interpretacao matricial. O sistema dado admite a seguinte representacao matricial:

Axxx = b , onde A =

1 1 2

3 6 −5

2 4 −3

e b =

9

0

1

.

Considere-se o sistema na forma[A b

], i.e.

1 1 2 9

3 6 −5 0

2 4 −3 1

`2 − 3`1

`3 − 2`1

1 1 2 9

0 3 −11 −27

0 2 −7 −17

`3 − 2/3`2

1 1 2 9

0 3 −11 −27

0 0 1/3 1

Obtemos assim como unica solucao x = 1 , y = 2 , z = 3 .

Exercıcio. Determine a matriz inversa de U =

1 1 2

0 3 −11

0 0 1/3

.

Indicacao. Considere a matriz U ampliada com a matriz identidade de ordem 3, I3 i.e.[U I3

]e

efectue operacoes elementares por linhas por forma a transformar a matriz U na matriz I3.

Observacao. Note ao considerar a matriz U ampliada pela matriz identidade I3, esta na verdade a

considerar os seguintes sistemas lineares em simultaneo:

U xxx1 =

1

0

0

, U xxx2 =

0

1

0

, U xxx3 =

0

0

1

, pelo que U−1 =[xxx1 xxx2 xxx3

].

26-09-2013 | T.

Matrizes elementares. Aplicacao ao calculo da matriz inversa de uma matriz invertıvel.

Na aula passada deixamos como exercıcio a analise da invertibilidade da matriz triangular superior U

e em caso afirmativo o seu calculo.

Para tal vamos usar a indicacao deixada na aula anterior, i.e. comecamos com[U I3

]:

1 1 2 1 0 0

0 3 −11 0 1 0

0 0 1/3 0 0 1

3`3→

1 1 2 1 0 0

0 3 −11 0 1 0

0 0 1 0 0 3

`1 − 2`3

`2 + 11`3

1 1 0 1 0 −6

0 3 0 0 1 33

0 0 1 0 0 3

1/3`2

1 1 0 1 0 −6

0 1 0 0 1/3 11

0 0 1 0 0 3

`1 − `2

1 0 0 1 −1/3 −17

0 1 0 0 1/3 11

0 0 1 0 0 3

.

[email protected] 9

Page 10: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Obtemos assim, U−1 =

1 −1/3 −17

0 1/3 11

0 0 3

. (Como facilmente se pode comprovar.)

Definicao. Designamos por matriz elementar as matrizes quadradas que se obtenham ao aplicar a

matriz identidade, com o mesmo numero de linhas, as operacoes elementares dadas na aula passada, i.e.

• Mudar a ordem das equacoes;

• Multiplicar uma das das equacoes por qualquer escalar nao nulo;

• Somar algebricamente, a uma das equacoes, outra delas.

Assim, obtemos as seguintes matrizes:

Pi,j =

1

0 · · · 1...

...

1 · · · 0

1

i

j

que e a matriz de permutacao das linhas i e j;

i j

Di(α) =

1...

· · · α · · ·...

1

i

que e a matriz que multiplica a linha i por α;

i

Ei,j(α) =

1

1 · · · α. . .

...

1

1

i

j

que e a matriz que soma a linha i, α `j.

i j

Assim, se A =

`1

...

`n

, entao Pi,j A =

...

`j...

`i...

, Di(α)A =

...

`i−1

α `i

`i+1

...

, Ei,j(α)A =

...

`i−1

`i + α `j

`i+1

...

.

Relacao entre as operacoes elementares e o produto de matrizes no sistema dado na aula

passada. As operacoes realizadas correspondem a multiplicacao da matriz A, sucessivamente pelas

matrizes elementares E2,1(−3) , E3,1(−2) , E3,2(−2/3), i.e. o sistema dado e equivalente ao sistema

[email protected] 10

Page 11: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

E3,2(−2/3)E3,1(−2)E2,1(−3)Axxx = E3,2(−2/3)E3,1(−2)E2,1(−3) b,

ou ainda

1 1 2

0 3 −11

0 0 1/3

x

y

z

=

9

−27

1

, cuja solucao e obviamente

x

y

z

=

1

2

3

.

Observacao. Na resolucao do problema anterior obtivemos ainda a seguinte identidade:1 0 0

−3 1 0

0 −2/3 1

A =

1 1 2

0 3 −11

0 0 1/3

, pois E3,2(−2/3)E3,1(−2)E2,1(−3) =

1 0 0

−3 1 0

0 −2/3 1

.

Como

1 0 0

−3 1 0

0 −2/3 1

−1

=

1 0 0

3 1 0

2 2/3 1

, A = LU onde L =

1 0 0

3 1 0

2 2/3 1

e U =

1 1 2

0 3 −11

0 0 1/3

.

Note-se que a matriz L reproduz, a menos do sinal, as operacoes realizadas em A para chegar a U .

Verifiquemos agora que a matriz das operacoes elementares por linhas, E3,2(−2/3)E3,1(−2)E2,1(−3), e

a inversa de L, i.e.1 0 0

3 1 0

2 2/3 1

1 0 0

−3 1 0

0 −2/3 1

=

1 0 0

−3 1 0

0 −2/3 1

1 0 0

3 1 0

2 2/3 1

=

1 0 0

0 1 0

0 0 1

.

Alem disso, o sistema Axxx = b ou, equivalentemente, (LU)xxx = b (atendendo a que A = LU) transforma-

-se (por operacoes elementares) no sistema equivalente

U xxx = L−1 b, com L−1

9

0

1

=

9

−27

1

.

Observacao. Conhecida a matriz inversa de U , U−1, podemos determinar a matriz inversa de A, i.e.

A−1 = U−1 L−1 (pois A = LU).

Definicao. Seja A uma matriz m× n. Designamos por matriz transposta de A, a matriz n×m que se

obtem de A colocando o escalar ai,j na linha j coluna i, para i = 1, . . . ,m, j = 1, . . . , n.

Designamos por AT =[aj,i

]i=1,...,m

j=1,...,na matriz transposta de A =

[ai,j

]j=1,...,n

i=1,...,m.

Propriedades. Sejam A, B e C tres matrizes e α um escalar. Entao:

• (AT )T = A (a transposicao e uma involucao);

• (A+B)T = AT +BT (A e B sao ambas m× n);

• (αA)T = αAT ;

• (AC)T = CT AT (C e uma matriz n× p).

[email protected] 11

Page 12: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Observacao. Se A e uma matriz quadrada, entao:

• A e simetrica se, e somente se, A = AT ;

• A e anti-simetrica se, e somente se, a A = −AT ;

• A + AT e simetrica e A − AT e anti-simetrica. Alem disso, A = (A + AT )/2 + (A − AT )/2 ; e,

portanto, toda a matriz quadrada se pode representar como a soma de uma matriz simetrica com

uma anti-simetrica.

Demonstracao. Vamos somente verificar que se tem a identidade (AC)T = CT AT . Comparemos

entao, os elementos situados na linha i coluna j da matriz

(AC)T , i.e.n∑

k=1

aj,k ck,i (linha j, coluna i de AC)

com o situado na mesma posicao da matriz

CT AT , i.e.n∑

k=1

ck,i aj,k ; logo (AC)T = CT AT . c.q.d.

Propriedades das matrizes invertıveis (continuacao). Seja A uma matriz quadrada n× n. Se A

e invertıvel, entao AT tambem e invertıvel e tem-se (AT )−1 = (A−1)T .

Demonstracao. Para tal basta analisar os produtos de matrizes:

AT (A−1)Tdef.= (A−1A)T = IT = I e (A−1)T AT def.

= (AA−1)T = IT = I . c.q.d.

26-09-2013 | TP.

Resolucao dos problemas 30, 31, 32, 33, 42, 47, 48 e 53 do caderno de exercıcios.

Resolucao do problema 30.

[cosα − sinα

sinα cosα

][cos β − sin β

sin β cos β

]

=

[cosα cos β − sinα sin β − cosα sin β − sinα cos β

sinα cos β + cosα sin β − sinα sin β + cosα cos β

]=

[cos(α + β) − sin(α + β)

sin(α + β) cos(α + β)

]Resolucao do problema 31. Temos somente que efectuar os produtos indicados e nos casos em que o

expoente e variavel tem de formular uma hipotese e prova-la usando o metodo de inducao matematica.

Por exemplo, pode provar-se que[1 1

0 1

]k=

[1 k

0 1

], e que

[cosα − sinα

sinα cosα

]k=

[cos(kα) − sin(kα)

sin(kα) cos(kα)

], k ∈ N e α ∈ R .

Resolucao do problema 32. Facilmente se ve que Ak = diag{µk1, µ

k2, . . . , µ

kn} .

Resolucao do problema 33. (A+B)2 = (A+B)(A+B) = A2 + AB +BA+B2,

(A+B)(A−B) = A2 − AB +BA−B2 e tambem (AB)2 = A(BA)B;

logo (A + B)2 = A2 + 2AB + B2, (A + B)(A − B) = A2 − B2 e (AB)2 = A2B2 (como se diz no

enunciado) se, e somente se, AB = BA.

Resolucao do problema 42. Pode verificar-se para estes exemplos AB = I = BA, tendo-se portanto,

A−1 = B em cada um dos casos considerados.

[email protected] 12

Page 13: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Resolucao do problema 47. Basta verificar que nas condicoes do problema

(I − A)(I + A+ · · ·+ Ak−1) = I = (I + A+ · · ·+ Ak−1)(I − A) .

Assim, (I −A)(I +A+ · · ·+Ak−1) = (I +A+ · · ·+Ak−1)− (A+ · · ·+Ak−1 +Ak) = I −Ak , e como

Ak = 000 temos (I − A)(I + A+ · · ·+ Ak−1) = I .

Por outro lado,

(I + A+ · · ·+ Ak−1)(I − A) = (I + A+ · · ·+ Ak−1)− (A+ · · ·+ Ak−1 + Ak) = I − Ak ,

e como Ak = 000 temos (I + A+ · · ·+ Ak−1)(I − A) = I . c.q.d.

Resolucao do problema 48. Basta tomar para matriz A =

0 1 0

0 0 1

0 0 0

no exercıcio anterior; pois

A2 =

0 0 1

0 0 0

0 0 0

e An =

0 0 0

0 0 0

0 0 0

, n = 3, . . .; pelo que

(I − A)−1 =

1 −1 0

0 1 −1

0 0 1

−1

= I + A+ A2 =

1 1 1

0 1 1

0 0 1

.

Problema. Aplique o resultado do problema 47 para calcular a inversa de B =

2 2 1

0 3 −1

0 0 −1

.

Resolucao. Multiplique B a esquerda pela matriz

(diag{2, 3,−1})−1 = diag{1/2, 1/3,−1} = D1(1/2)D2(1/3)D3(−1), (produto de matrizes diagonais)

obtendo B1 =

1 1 1/2

0 1 −1/3

0 0 1

. Agora, B1 = I − A , com A =

0 −1 −1/2

0 0 1/3

0 0 0

.

Aplique o problema 47 para calcular a matriz B−11 (i.e. B−1

1 = I +A+A2 , pois A3 = 000 ), e determine

a inversa de B a partir da identidade (diag{2, 3,−1})−1B = B1 , i.e. B−11 = B−1 diag{2, 3,−1}; e,

portanto, B−1 = B−11 diag{1/2, 1/3,−1} .

Exercıcio. Aplique o resultado do problema 47 para calcular a inversa de C =

2 0 0

−5 7 0

4 2 1

.

Resolucao do problema 53. Basta efectuar os produtos de matrizes e verificar as identidades indi-

cadas[cosα − sinα

sinα cosα

][cosα sinα

− sinα cosα

]=

[cosα sinα

− sinα cosα

][cosα − sinα

sinα cosα

]= I2

e tambem[cosα sinα

sinα − cosα

][cosα sinα

sinα − cosα

]=

[cosα sinα

sinα − cosα

][cosα sinα

sinα − cosα

]= I2

01-10-2013 | T.

Caracterıstica de uma matriz. Criterio de invertibilidade de uma matriz quadrada. Discussao de

sistemas.

[email protected] 13

Page 14: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Vamos ver alguns sistemas de equacoes lineares que facilmente se podem resolver.

Definicao. As matrizes que verifiquem:

• Cada linha (a partir da segunda) comeca com uma sucessao de zeros que tem pelo menos um zero

mais que a linha anterior. Note que, caso haja linhas constituıdas somente por zeros, estas terao

de ocorrer nas ultimas linhas;

• Nas linhas em que existe algum elemento nao nulo, o primeiro escalar nao nulo sera designado

por “pivot”;

sao designadas por matrizes em escada.

Um sistema de equacoes lineares diz-se em escada se a matriz do sistema estiver em escada.

Exemplo de matriz em escada.

d1 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗0 0 d2 ∗ ∗ ∗ ∗ ∗ ∗0 0 0 d3 ∗ ∗ ∗ ∗ ∗0 0 0 0 0 d4 ∗ ∗ ∗0 0 0 0 0 0 d5 ∗ ∗0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0

, dj 6= 0, j = 1, 2, 3, 4, 5.

Discussao de sistemas em escada. Considere o sistema M xxx = b , com M uma matriz em escada

m× n com r “pivots” (logo M tem as ultimas m− r linhas de zeros). Entao:

• o sistema e possıvel se, e somente se, os ultimos m− r escalares do termos independente sao todos

nulos;

• supondo que os ultimos m − r escalares do termo independente sao zero, o sistema e possıvel e

determinado se r = n e e indeterminado se r < n (note que nao e possıvel que se tenha r > n).

Metodo de eliminacao de Gauss. E o processo que nos permite reduzir, por operacoes elementares

por linhas, um sistema de equacoes lineares, Axxx = b , a um sistema de equacoes lineares em escada

(equivalente ao inicial).

Definicao. Ao numero de “pivots”, r, da matriz em escada obtida de A por operacoes elementares por

linhas, designa-se por caracterıstica de A, e sera denotado por carA .

Exemplos. Considere os sistemas em escada, M xxx = b :

x+ 3z − v = 2

y + 5z = 7

u+ 2v = −1

, descrito matricialmente como[M b

]≡

1 0 3 0 −1 2

0 1 5 0 0 7

0 0 0 1 2 −1

;

[email protected] 14

Page 15: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

A solucao vem dada por x = 2 − 3α + β , y = 7 − 5α , z = α , u = −1 − 2β , v = β , α, β ∈ R , ou

vectorialmente,

X =

2

7

0

−1

0

+ α

−3

−5

1

0

0

+ β

1

0

0

−2

1

, onde M

2

7

0

−1

0

=

2

7

−1

, M

−3

−5

1

0

0

=

0

0

0

e M

1

0

0

−2

1

=

0

0

0

.

x+ 3z − v = 2

y + 5z = 7

u+ 2v = −1

0 = 0

, descrito matricialmente como[M b

]≡

1 0 3 0 −1 2

0 1 5 0 0 7

0 0 0 1 2 −1

0 0 0 0 0 0

;

A solucao coincide com a do sistema anteriormente estudado.

x+ 3z − v = 2

y + 5z = 7

u+ 2v = −1

0 = 4

, descrito matricialmente como

1 0 3 0 −1 2

0 1 5 0 0 7

0 0 0 1 2 −1

0 0 0 0 0 4

;

e um sistema impossıvel.

x+ 4y + z + u = 1

y + 2z − u = 4

z − 4u = 9

u = −2

, descrito matricialmente como[M b

]≡

1 4 1 1 1

0 1 2 −1 4

0 0 1 −4 9

0 0 0 1 −2

;

A solucao vem dada por u = −2 , z = 1 , y = 0 , x = 2 .

Criterio de invertibilidade. Se M e a matriz em escada que se obtem aplicando certas operacoes

elementares por linhas a uma matriz quadrada A, entao uma condicao necessaria e suficiente para que A

seja invertıvel e que todos os elementos da diagonal de M sejam nao nulos.

Calculo da inversa de uma matriz quadrada invertıvel. A matriz A−1, de uma matriz in-

vertıvel, A, pode determinar-se da seguinte forma: realizam-se as adequadas operacoes elementares

sobre as linhas da matriz A, e simultaneamente sobre as linhas da matriz identidade, I, ate conseguir

que A se transforme na matriz identidade (o que e sempre possıvel, pois A e invertıvel e temos tantos

“pivots” como linhas da matriz A); neste momento, a transformada da matriz identidade pelas mesmas

operacoes e a matriz A−1.

[email protected] 15

Page 16: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Problema. Analisar se A =

1 3 −2

2 4 0

3 5 −1

e invertıvel e, em caso afirmativo, calcular a sua inversa.

Resolucao. Considere-se[A I

], i.e.

1 3 −2 1 0 0

2 4 0 0 1 0

3 5 −1 0 0 1

−2`1 + `2

−3`1 + `3

1 3 −2 1 0 0

0 −2 4 −2 1 0

0 −4 5 −3 0 1

−2`2 + `3

1 3 −2 1 0 0

0 −2 4 −2 1 0

0 0 −3 1 −2 1

(existe A−1)

−1/2 `1

−1/3 `3

1 3 −2 1 0 0

0 1 −2 1 −1/2 0

0 0 1 −1/3 2/3 −1/3

2`3 + `1

2`3 + `2

1 3 0 1/3 4/3 −2/3

0 1 0 1/3 5/6 −2/3

0 0 1 −1/3 2/3 −1/3

−3`2 + `1

1 0 0 −2/3 −7/6 4/3

0 1 0 1/3 5/6 −2/3

0 0 1 −1/3 2/3 −1/3

. Logo A−1 =1

6

-4 -7 8

2 5 -4

-2 4 -2

.

Teorema de Rouche. Considere-se um sistema de equacoes lineares Axxx = b, com A matriz m×n e b

vector m× 1 dados. Entao:

• Axxx = bbb e possıvel se, e somente se, car[A bbb

]= carA ;

• Axxx = bbb e possıvel e determinado se, e somente se, car[A bbb

]= carA = n ;

• Axxx = bbb e possıvel e indeterminado se, e somente se, car[A bbb

]= carA < n .

03-10-2013 | T.

Discussao de Sistemas. Aplicacoes.

Definicao. Um sistema de equacoes lineares, Axxx = b , diz-se homgeneo se o termo indepenedente for 000 ,

i.e., for do tipo Axxx = 000 .

Lema. Um sistema homgeneo e sempre possıvel (pois admite, pelo menos, como solucao a nula, i.e.

xxx = 000 e solucao). Mais ainda, se xxx1 e xxx2 sao duas quaisquer solucoes do sistema homgoeneo, Axxx = 000 ,

entao αxxx1 + β xxx2 e ainda uma solucao qualquer que sejam os escalares α, β .

Definicao. Seja A ∈Mm,n . O conjunto de solucoes do sistema Axxx = 000 designa-se por nucleo de A, ou

sub-espaco nulo de A e representa-se por N(A) = {xxx ∈ Rn : Axxx = 000} .

Teorema de representacao da solucao. Seja A uma matriz m × n de coeficientes em C e bbb um

vector de Cm. Se o sistema Axxx = bbb e possıvel, e yyy e uma sua solucao, entao o conjunto solucao, sol ,

de Axxx = bbb e dado por sol = {yyy + yyy0 , yyy0 ∈ N(A)} .

Demonstracao. Verifiquemos primeiro que xxx = yyy+yyy0 e de facto uma solucao do sistema Axxx = bbb , i.e.,

A(yyy + yyy0) = Ayyy + Ayyy0 = bbb+ 000 = bbb .

[email protected] 16

Page 17: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Suponhamos agora que zzz e uma outra solucao de Axxx = bbb entao A(zzz−yyy) = Azzz−Ayyy = bbb− bbb = 000 ; logo

zzz − yyy ∈ N(A) e, portanto, sol 3 zzz = yyy + yyy0 com yyy0 ∈ N(A) . c.q.d.

Determinacao do nucleo de A. Considere-se o sistema Axxx = 000 com A matriz m× n . Este sistema

e sempre possıvel, sendo determinado caso, carA = n , e indeterminado caso carA < n .

Neste ultimo caso comecamos por identificar as variaveis livres em numero igual a n − carA , corres-

pondentes as variaveis sem “pivot” da matriz U na decomposicao P A = LU . Designamos por nulidade

de A o numeros de variaveis livres, n− carA e denotamo-la por nulA .

Determinamos, de seguida, a solucao dos sistemas Axxxj0 = 000 onde xxxj0 , com j = 1, . . . ,nulA e o vector

resultante de tomar todas as variaveis livres iguais a zero menos a j-esima variavel, que e igual a 1 .

Desta forma encontramos que yyy ∈ N(A) representa-se como combinacao linear dos vectores xxxj0 , i.e.

yyy = α1xxx10 + · · ·+ αnulAxxx

nulA0 .

Aplicacao. Discuta em termos do parametro α ∈ R o sistema de equacoes lineares Axxx = bbb com

A =

1 2 4 −3

3 7 5 −5

5 12 6 −7

, bbb =

2

3

α

e xxx =

x

y

z

w

;

e resolva o sistema dado para os valores de α que o tornem possıvel.

Resolucao. Considere-se a matriz do sistema ampliada[A bbb

], i.e.

1 2 4 −3 2

3 7 5 −5 3

5 12 6 −7 α

−3`1 + `2

−5`1 + `3

1 2 4 −3 2

0 1 −7 4 −3

0 2 −14 8 α− 10

−2`2 + `3

1 2 4 −3 2

0 1 −7 4 −3

0 0 0 0 α− 4

;

logo se α 6= 4 o sistema e impossıvel, e caso α = 4 o sistema e possıvel e indeterminado.

Vamos agora resolver o sistema quando α = 4 . Comecemos por indicar que a caracterıstica da matriz

do sistema e 2 (tem como “pivots” os escalares assinalados nas posicoes (1, 1) e (2, 2)) e a nulidade e 2

(o sistema dado tem como variaveis livres z, w ).

Comecemos por determinar uma solucao do sistema com z = w = 0 ; logo y = 7 e x = 6 , i.e.

xxxp =[8 −3 0 0

]T; e resolvamos o sistema homogeneo associado primeiro com z = 1 e w = 0,

e depois com z = 0 e w = 1, determinando, respectivamente, os vectores xxx10 =

[−18 7 1 0

]Te

xxx20 =

[11 −4 0 1

]T.

A solucao geral do sistema de equacoes lineares com α = 4 vem dado por

xxx = xxxp + β xxx10 + γ xxx2

0 , com β, γ ∈ R .

[email protected] 17

Page 18: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Teorema. Sejam A e B matrizes quadradas n × n. Se a matriz AB for invertıvel, entao A e B sao

matrizes invertıveis. Em particular, se AB = In entao B = A−1 .

Demonstracao. Suponhamos que AB e uma matriz invertıvel e que B nao e invertıvel. Entao o

sistema Bxxx = 000 e possıvel e indeterminado, pelo que o sistema (AB)xxx = 000 e tambem possıvel e

indeterminado (pois uma solucao do primeiro sistema e tambem solucao deste sistema), o que e absurdo.

Temos entao que B e invertıvel. Mais ainda, como A = (AB)B−1 temos que a matriz A e invertıvel

(pois esta descrita como o produto de duas matrizes invertıveis).

Suponhamos agora que AB = In . Da primeira parte do teorema concluımos que tanto A como B sao

matrizes invertıveis; e, portanto, das propriedades elementares do produto de matrizes temos

A−1 = A−1In = A−1(AB) = (A−1A)B = InB = B . c.q.d.

Definicao. Seja A uma matriz m × n. Dizemos que o produto de uma matriz triangular inferior, L,

por uma triangular superior, U , e uma decomposicao LU de A se A coincidir com LU a menos de

mudanca da ordem das linhas de A , i.e. existe uma matriz de permutacao, P , tal que P A = LU .

Decomposicao LU de uma matriz (algoritmo). Use operacoes elementares por linhas, i.e.

Ek · · · E2E1

sobre a matriz A por forma a transforma-la numa matriz em escada, U , (que e sempre possıvel ainda

que para tal se tenha de multiplicar por matrizes de permutacao) i.e. (Ek · · ·E2E1)A = U ; e, portanto,

A = (Ek · · ·E2E1)−1U = LU , com L = E−11 · · ·E−1

k .

Resumidamente temos.[A I

]→[U L−1

], e L e a matriz triangular inferior com 1’s na

diagonal que regista as operacoes elementares por linhas efectuadas, com sinal contrario.

Exemplo. Determinar a decomposicao LU da matriz A =

0 2 2 4

0 2 2 2

1 2 2 1

2 6 7 5

. Comecamos por multipli-

car A pela matriz P1,4 , i.e. vamos efectuar operacoes elementares sobre P1,4A

[P1,4A I4

]≡

2 6 7 5 1 0 0 0

0 2 2 2 0 1 0 0

1 2 2 1 0 0 1 0

0 2 2 4 0 0 0 1

−1/2`1 + `3

2 6 7 5 1 0 0 0

0 2 2 2 0 1 0 0

0 −1 −3/2 −3/2 −1/2 0 1 0

0 2 2 4 0 0 0 1

1/2`2 + `3

−`2 + `4

2 6 7 5 1 0 0 0

0 2 2 2 0 1 0 0

0 0 −1/2 −1/2 −1/2 1/2 1 0

0 0 0 2 0 −1 0 1

≡[U L−1

].

[email protected] 18

Page 19: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Assim, P1,4A = LU , com L =

1 0 0 0

0 1 0 0

1/2 −1/2 1 0

0 1 0 1

e U =

2 6 7 5

0 2 2 2

0 0 −1/2 −1/2

0 0 0 2

.

Teorema de unicidade da factorizacao LU . Se A e uma matriz n×n invertıvel, entao a factorizacao

P A = LU unica.

Demonstracao. Suponhamos que existem L1, L2 e U1, U2 , pares de matrizes quadradas n×n , respecti-

vamente triangulares inferiores (com 1’s na diagonal) e triangulares superiores tais que que P A = L1U1

e tambem P A = L2U2 ; entao como Lj Uj sao invertıveis temos tambem L−11 L2 = U1U

−12 , logo terao

de ser iguais a matriz identidade, In , i.e. L−11 L2 = In = U1U

−12 , e do teorema anterior tiramos que

L1 = L2 e que U1 = U2 . c.q.d.

Calculo da inversa de uma matriz quadrada invertıvel (continuacao). A matriz A−1 , de uma

matriz invertıvel, A , pode determinar-se da seguinte forma: realizam-se as adequadas operacoes elemen-

tares sobre as linhas da matriz A, e simultaneamente sobre as linhas da matriz identidade, I , ate

conseguir que A se transforme numa matriz em escada (o que e sempre possıvel); neste momento,

acabamos de levar a matriz[A I

]a[U L−1

]; efectuando agora as operacoes elementares por

linhas a matriz U ampliada com a matriz I ate que a primeira se transforme na matriz identidade,

obtemos como transformada de I a matriz U−1. Agora, da representacao A = LU , temos que A−1 =

U−1 L−1.

03-10-2013 | TP.

Resolucao dos problemas 29, 31. e), 60, 61, 63. g) e 65.

Resolucao do problema 29. a) Sendo A =[ai,j

]e B =

[Bi,j

], matrizes n × n, entao o elemento

situado na linha i, coluna j da matriz A2 +B en∑

k=1

ai,kak,j + bi,j , para i, j = 1, . . . , n.

Para a alınea b) temos que o elemento situado na linha i, coluna j de A−BA+ 2In, e

ai,j −

(n∑

k=1

bi,kak,j

)+ 2δi,j , onde δi,j =

1 se i = j

0 se i 6= j(delta de Kronecker) i, j = 1, . . . , n .

Resolucao do problema 31. e) Ve-se facilmente que sendo A =

[2 −1

3 −2

], se tem A2 =

[1 0

0 1

]; e,

portanto, A2n = I2 e A2n+1 = A , n ∈ N .

Resolucao do problema 60. a)

1 2 4

3 −1 −2

1 −5 3

1

1

1

=

7

0

−1

; b)

1 3 1

−2 2 6

1 1 1

−2

1

−1

=

0

0

−2

;

[email protected] 19

Page 20: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

c)

1 1

2 3

1 1

[

1

2

]=

3

8

3

; d)

[1 2 3

−1 4 1

]1

−1

0

=

[−1

−5

].

Resolucao do problema 61. a)

1 3 1

−2 2 6

1 1 1

x

y

z

=

0

0

−2

; b)

[1 2 3

−1 4 1

]x

y

z

=

[−1

−5

];

c)

1 2 4

3 −1 −2

1 −5 3

x

y

z

=

7

0

−1

; d)

1 1

2 3

1 1

[x

y

]=

3

8

3

.

Resolucao do problema 63. g) Para resolver o sistema Axxx = bbb , com A =

1 1 1 1

1 1 3 2

3 5 7 3

e bbb =

1

3

0

,

considere-se[A bbb

]=

1 1 1 1 1

1 1 3 2 3

3 5 7 3 0

`2 ↔ `3

1 1 1 1 1

3 5 7 3 0

1 1 3 2 3

−3`1 + `3

−`1 + `2

1 1 1 1 1

0 2 4 0 −3

0 0 2 1 2

.

Vemos assim que o sistema dado e possıvel e indeterminado, e x4 e uma variavel livre; a solucao geral

do sistema sera dada por xxx = αxxx0 +xxxp, α ∈ R, tais que Axxx0 = 000 , e Axxxp = bbb , com xxx0 =[x y z 1

]Te xxxp =

[x1 x2 x3 0

]T. Obtemos xxxp =

[7/2 −7/2 1 0

]Te xxx0 =

[−3/2 2 −1/2 1

]T.

Observacao. A decomposicao P2,3A = LU tem L =

1 0 0

3 1 0

1 0 1

e U =

1 1 1 1

0 2 4 0

0 0 2 1

.

Resolucao do problema 65. Consideramos a matriz ampliada do sistema depois de multiplicada pela

matriz de permutacao P2,3 , i.e.[P2,3A b

], com A =

1 β β

1 1 β

β 1 1

e b =

0

β2

0

, i.e. depois de aplicar

as transformacoes por linhas `′2 = −`1 + `2 e `′3 = −β`1 + `3 temos1 β β 0

0 1− β 0 β2

0 1− β2 1− β2 0

.

Agora, se β = 1 o sistema e impossıvel (pois a linha `′2 le-se 0 = 1 ); se β = −1 o sistema e possıvel

e indeterminado (pois a linha `′3 le-se 0 = 0 ); caso β 6= ±1 entao o sistema e possıvel e determinado;

efectuando a operacao `′′3 = −(1 + β)`′2 + `′31 β β 0

0 1− β 0 β2

0 0 1− β2 −β(1 + β)

, obtemos como solucao

0

β2/(1− β)

−β2/(1− β)

.

[email protected] 20

Page 21: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Exercıcio. Identifique as matrizes L e U da decomposicao P2,3A para os casos β = −1 , β = 1 , ou

β 6= ±1 .

08-10-2013 | T.

Determinante de uma matriz quadrada de ordem n. Aplicacoes.

Definicao. Determinante de uma matriz de ordem n e uma funcao det : Mn×n(K)→ K , com K ≡ Rou C , verificando as seguintes condicoes:

1• para cada i = 1, . . . , n e α ∈ K , tem-se

det[· · · cccj + bbb · · ·

]= det

[· · · cccj · · ·

]+ det

[· · · bbb · · ·

],

onde cccj e bbb sao vectores coluna[a1,j · · · an,j

]T, j = 1, . . . , n e

[b1 · · · bn

]T, respectivamente;

2• para cada i = 1, . . . , n e α ∈ K , tem-se det[· · · αcccj · · ·

]= α det

[· · · cccj · · ·

];

3• Se a matriz A tiver duas colunas iguais, tem-se detA = det[· · · cccj · · · cccj · · ·

]= 0 ;

4• det In = 1 .

Notacao.

• O determinante de uma matriz A , detA , pode denotar-se como det[ai,j

]ou ainda

∣∣∣ai,j∣∣∣ ou |A| .• As propriedades 1 e 2 expressam a linearidade por colunas da funcao determinante.

• A definicao anterior nao se altera substituindo o termo “coluna” por “linha” (cf. texto de apoio).

No estudo que agora iniciamos vamos supor que existe uma unica funcao satisfazendo as condicoes 1

a 4, i.e. vamos considerar que a defincao dada e consistente.

Propriedades dos determinantes. Seja A uma matriz n× n; entao tem-se:

a. se uma coluna de A for multipla de uma outra, entao detA = 0 . Em particular, detA = 0 se a

matriz A tiver uma linha nula;

b. o determinante muda de sinal quando se trocam entre si duas colunas de A ;

c. se P e uma matriz de permutacao tem-se detP = ±1 ;

d. O determinante de uma matriz A nao se altera se a uma coluna de A adicionarmos um multiplo

de uma outra coluna.

Demonstracao. Vamos denotar a matriz A por colunas, i.e. A =[· · · ccci · · · cccj · · ·

]. Entao,

det[· · · αcccj · · · cccj · · ·

]2= α det

[· · · cccj · · · cccj · · ·

]3= 0 ,

pelo que a fica provado.

Para demonstrarmos b comecemos por considerar

det[· · · ccci + cccj · · · ccci + cccj · · ·

]3= 0 .

Aplicando a linearidade (i.e. as propriedades 1 e 2) a este determinante, podemos escrever

det[· · · ccci · · · ccci · · ·

]+ det

[· · · ccci · · · cccj · · ·

]+ det

[· · · cccj · · · ccci · · ·

]+ det

[· · · cccj · · · cccj · · ·

]= 0 .

[email protected] 21

Page 22: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Mas da propriedade 3 temos que det[· · · ccci · · · cccj · · ·

]+ det

[· · · cccj · · · ccci · · ·

]= 0 .

Por definicao de matriz de permutacao, e aplicacao reiterada de b concluımos que detP = ±1 .

Para demonstrarmos d basta ver que

det[· · · ccci · · · cccj + αccci · · ·

]1= det

[· · · ccci · · · cccj · · ·

]+ det

[· · · ccci · · · αccci · · ·

]a= det

[· · · ccci · · · cccj · · ·

]. c.q.d.

Observacao. As propriedades que acabamos de estabelecer admitem uma leitura em termos de deter-

minantes de produtos de matrizes, i.e. sendo A =[· · · ccci · · · cccj · · ·

]uma matriz n× n, entao:

•[· · · cccj · · · ccci · · ·

]= APi,j ,

•[· · · ccci · · · cccj + αccci · · ·

]= AEi,j(α) ,

•[· · · ccci · · · αcccj · · ·

]= ADj(α) .

Agora, detPi,j = det[· · · eeej · · · eeei · · ·

], onde eeej e o vector coluna que tem todos os escalares

nulos com excepcao que que esta na posicao j que e igual a 1. Assim, pela propriedade b temos que

detPi,j = −1 .

Mais ainda,

detEi,j(α) = det[· · · eeei · · · eeej + αeeei · · ·

]= det

[· · · eeei · · · eeej · · ·

]+ det

[· · · eeei · · · αeeei · · ·

]a= det In = 1 .

Temos ainda que detDj(α) = det[· · · eeei · · · αeeej · · ·

]2= α det In = α .

Assim, podemos escrever para qualquer matriz A ∈Mn×n :

• det(APi,j) = (detA) (detPi,j) ,

• det(AEi,j(α)) = (detA) (detEi,j(α)) ,

• det(ADj(α)) = (detA) (detDj(α)) .

Exemplo. Calcule o determinante das matrizes A =

1 2 3

0 4 5

0 0 7

e B =

2 0 0

3 4 0

−1 0 5

.

Resolucao. Ve-se facilmente que

AD2(1/4)D3(1/7) =

1 1/2 3/7

0 1 5/7

0 0 1

;

mais ainda, AD2(1/4)D3(1/7)E1,2(−1/2)E1,3(−3/7)E2,3(−5/7) = I .

Assim, A = E2,3(5/7)E1,3(3/7)E1,2(1/2)D3(7)D2(4) ; pelo que

detA = |E2,3(5/7)| |E1,3(3/7)| |E1,2(1/2)| |D3(7)| |D2(4)| = 28 .

[email protected] 22

Page 23: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Para a matriz B comecamos por multiplicar a direita pela matriz D1(1/2)D2(1/4)D3(1/5) , i.e.

B transforma-se em

1 0 0

3/2 1 0

−1/2 0 1

; assim, BD1(1/2)D2(1/4)D3(1/5)E2,1(−3/2)E3,1(1/2) = I .

Logo B = E3,1(−1/2)E2,1(3/2)D3(5)D2(4)D1(2) ; e, portanto, detA = 40 .

Determinantes de matrizes especiais.

• det(D1(α1) · · ·Dn(αn)) = detD1(α1) · · · detDn(αn) =n∏

j=1

αj , i.e. o determinante de uma matriz

diagonal e o produto dos seus elementos diagonais.

• o determinante de uma matriz triangular superior (respectivamente, triangular inferior) e o produto

dos seus elementos diagonais.

Demonstracao. De facto, sendo T+ =[· · · tj · · ·

]uma matriz triangular superior temos que

T+ =

[α1eee1 α2eee2 + ∗eee1 · · · αneeen +

n−1∑j=1

∗eeej

], onde eeej e, como anteriormente, o vector coluna

que tem todos os escalares nulos com excepcao que que esta na posicao j que e igual a 1.

Se algum dos elementos diagonais for nulo, i.e. αk = 0 , para algum k = 1, . . . , n entao, a coluna k

de T+, tttk =k−1∑j=1

∗eeej , admite a representacao tttk =k−1∑j=1

βkj tttj , com βk

j , j = 1, . . . , k−1 bem determinados.

Agora, aplicando a propriedade 1 temos

detT = det[ttt1 · · · tttk−1 tttk tttk+1 · · ·

]=

k−1∑j=1

det[ttt1 · · · tttk−1 ∗ tttj tttk+1 · · ·

]e da propriedade d temos que detT+ = 0 .

Vamos supor agora quen∏

j=1

αj 6= 0 . Mutiplicando a matriz T+ pela matriz D1(1/α1) · · ·Dn(1/αn) ,

obtemos T+D1(1/α1) · · ·Dn(1/αn) =

[eee1 eee2 + ∗eee1 eee3 + (∗eee1 + ∗eee2) · · · eeen +

n−1∑j=1

∗eeej

].

Agora, adicionando a segunda coluna da matriz que obtivemos pelo processo anterior, eee2 +∗eee1 , (−∗)eee1

transforma-mo-la em eee2 , e pela propriedade d o valor do determinante nao se altera. Como sabemos

esta operacao corresponde a multiplicar a matriz T+D1(1/α1) · · ·Dn(1/αn) por E1,2(−∗) , pelo que a

matriz inicial foi transformada em

T+D1(1/α1) · · ·Dn(1/αn)E1,2(−∗) =

[eee1 eee2 eee3 + (∗eee1 + ∗eee2) · · · eeen +

n−1∑j=1

∗eeej

].

Multiplicando sucessivamente matrizes do tipo E1,j(∗) eliminamos a dependencia do vector eee1 de todas

a colunas de T+ com a excepcao da primeira coluna. Continuando a aplicar este processo, eliminamos,

primeiro a dependencia de eee2 em todas as colunas de T+ com a excepcao da segunda coluna, ate chegar

a eliminar a dependencia de eeen−1 da ultima coluna, i.e. multiplicando cuidadosamente por matrizes

[email protected] 23

Page 24: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

elementares do tipo Ei,j(∗) levamos a nossa matriz T+ a matriz In , i.e.

T+D1(1/α1) · · ·Dn(1/αn) (produto de matrizes Ei,j(∗) pela ordem que indicamos) = In .

Como (Ei,j(∗))−1 = Ei,j(−∗) e (D1(1/α1))−1 = D1(α1) , T+ pode representar-se na forma

T+ = (produto de matrizes Ei,j(−∗) pela ordem inversa)Dn(αn) · · ·D1(α1)

Concluımos assim que (aplicando as formulas para o determinante do produto por matrizes elementares)

detT+ = detDn(αn) · · · detD1(α1) =n∏

j=1

αj , pois detEi,j(−∗) = 1 .

Para matrizes triangulares inferiores T− pode provar-se da mesma forma tendo em atencao que

T− =

[α1 eee1 +

n∑j=2

∗eeej α2 eee2 +n∑

j=3

∗eeej · · · αn eeen

],

e, portanto T− pode representar-se na forma

T− = (produto de matrizes Ei,j(−∗) – ordem a determinar)Dn(αn) · · ·D1(α1) .

Como conhecemos o determinante do produto de matrizes elementares temos detT+ =n∏

j=1

αj . c.q.d.

10-10-2013 | T.

Determinantes de matrizes quadradas: Teorema de Laplace.

Teorema. Considere a decomposicao LU para uma matriz A quadrada n× n, i.e. A = P TLU (pois,

P TP = I ); entao, detA = detP detU , e tambem detAT = detA .

Demonstracao. Basta notar que P TP = In ; e, portanto, detP T detP = 1 , ou ainda, tendo em

atencao a propriedade c, detP T = detP . Agora pela decomposicao LU de A temos o resultado

procurado para o determinante da matriz A .

Para mostrar que detAT = detA basta notar que o determinante de uma matriz triangular e o produto

dos seus elementos diagonais, pelo que detUT = detU . c.q.d.

Teorema. Sejam A,B matrizes quadradas n × n . Entao, det(AB) = detA detB . Alem disso, se A

e invertıvel, entao detA−1 = (detA)−1 .

Demonstracao. A primeira identidade e consequencia da representacao LU para as matrizes A e B ,

quando estas sao invertıveis, e de que tanto L como U admitem uma representacao como produto de

matrizes elementares. Quando A ou B nao sao invertıveis, temos tambem que AB nao e invertıvel,

pelo que det(AB) = 0 = detA detB .

Para a segunda identidade basta notar que pela definicao de matriz invertıvel A−1A = In , e da propri-

edade anterior temos det(A−1A) = detA−1 detA = 1 , de onde se obtem o resultado procurado. c.q.d.

Problema. Analise a existencia de uma matriz quadrada A , n× n invertıvel e tal que AT = −A3 .

Resolucao. Das hipoteses temos detA = (−1)n(detA)3 , i.e. (1− (−1)n(detA)2) detA = 0 .

[email protected] 24

Page 25: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Agora, como detA 6= 0 , concluımos que (detA)2 = (−1)n , i.e. se n e par (detA)2 = 1 e se n e ımpar

(detA)2 = −1 ; logo, caso n seja para, detA = ±1 , e caso n seja ımpar detA = ±i .

Por exemplo, as matrizes A =

i 0 0

0 −i 0

0 0 −i

e A =

[i 0

0 −i

]satisfazem a condicoes do enunciado.

Note-se que caso n = 3 nao existe uma matriz com escalares reais satisfazendo a condicao do enunciado.

Definicao. Seja A =[ai,j

]uma matriz n × n . Designamos por complemento algebrico de ai,j a

(−1)i,j detAi,j onde Ai,j e a matriz que se obtem de A por supressao da linha i e da coluna j .

Teorema de Laplace. O determinante de uma matriz quadrada e igual a soma dos produtos dos

elementos de uma coluna (respectivamente, linha) pelos respectivos complementos algebricos, i.e. sendo

A =[ai,j

]e denotando por (−1)i+j detAi,j o complemento algebrico de ai,j para i, j = 1, . . . , n , tem-se

detA =n∑

i=1

(−1)i+jai,j detAi,j , j = 1, . . . , n

(analogamente para linhas, detA =n∑

j=1

(−1)i+jai,j detAi,j , i = 1, . . . , n ).

Demonstracao. Escrevendo a coluna j da matriz A na forma cccj =n∑

i=1

ai,j eeei , onde eeei e, para cada

i = 1, . . . , n , o vector coluna que tem todos os escalares nulos com excepcao do que esta na posicao i

que e igual a 1 . Desta forma escrevemos A por colunas como[· · · cccj−1

n∑i=1

ai,j eeei cccj+1 · · ·]

.

Aplicando a linearidade do determinante concluımos que,

detA =n∑

i=1

det[· · · cccj−1 ai,j eeei cccj+1 · · ·

]=

n∑i=1

ai,j det[· · · cccj−1 eeei cccj+1 · · ·

].

Acabamos de expressar o determinante de A em termos de n determinantes das matrizes

· · · a1,j−1 0 a1,j+1 · · ·...

......

· · · ai−1,j−1 0 ai−1,j+1 · · ·· · · ai,j−1 1 ai,j+1 · · ·· · · ai+1,j−1 0 ai+1,j+1 · · ·

......

...

i = 1, . . . , n.

O determinante destas matrizes coincidem a menos de (−1)j com o determinante das matrizes que

resultam delas por troca da coluna j sucessivamente com as colunas j − 1 ate a coluna 1 , i.e. com o

determinante das matrizes

[email protected] 25

Page 26: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

0 · · · a1,j−1 a1,j+1 · · ·...

......

0 · · · ai−1,j−1 ai−1,j+1 · · ·1 · · · ai,j−1 ai,j+1 · · ·0 · · · ai+1,j−1 ai+1,j+1 · · ·...

......

i = 1, . . . , n.

Mais ainda, o determinante destas matrizes coincidem a menos de (−1)i com o determinante das

matrizes que resultam delas por troca da linha i sucessivamente com as linhas i− 1 ate ate a linha 1 ,

i.e. com o determinante das matrizes

1 · · · ai,j−1 ai,j+1 · · ·0 · · · a1,j−1 a1,j+1 · · ·...

......

0 · · · ai−1,j−1 ai−1,j+1 · · ·0 · · · ai+1,j−1 ai+1,j+1 · · ·...

......

i = 1, . . . , n.

Mas o determinante desta matriz e igual ao determinante da matriz que se obtem da matriz A por

supressao da linha i e da coluna j, i.e. podemos escrever

detA =n∑

i=1

det[· · · cccj−1 ai,j eeei cccj+1 · · ·

]=

n∑i=1

ai,j(−1)i+j detAi,j .

Da mesma forma se demonstra a formula de calculo do determinante segundo os escalares de uma

mesma linha. c.q.d.

Exemplos.

• Seja A =

[a b

c d

]; detA = a detA1,1 − b detA1,2 = −c detA2,1 + d detA2,2 = a detA1,1 −

c detA2,1 = −b detA1,2 + d detA2,2 ,

onde A1,1 = d , A1,2 = c , A2,1 = b e A2,2 = a , i.e. detA = a d− b c .

• Seja A =

a b c

d e f

g h i

; detA = a detA1,1 − b detA1,2 + c detA1,3

onde A1,1 =

[e f

h i

], A1,2 =

[d f

g i

], A1,3 =

[d e

g h

];

e do caso analisado anteriormente temos que detA1,1 = e i− f h , detA1,2 = d i− f g e detA1,3 =

d h− g e . Assim, detA = a e i− a f h− b d i+ b f g + c d h− c g e .

Observacao. No primeiro exemplo, observe-se a posicao na matriz A dos escalares (que agora identi-

ficamos com 1’s) que aparecem nos produtos duplos da formula de calculo do determinante, i.e.

[email protected] 26

Page 27: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica[1 0

0 1

]↔ a d e

[0 1

1 0

]↔ b c ,

cujos determinantes valem, respectivamente 1 e −1 (pois coincidem com a matriz identidade e com a

matriz de permutacao), que e o sinal de a d e b c na formula do determinante.

No segundo exemplo, observe-se a posicao na matriz A dos escalares (que agora identificamos com 1’s)

que aparecem nos produtos triplos da formula de calculo do determinante, i.e.1 0 0

0 0 1

0 1 0

↔ a f h ,

0 1 0

1 0 0

0 0 1

↔ b d i ,

0 0 1

0 1 0

1 0 0

↔ c g e , cujos determinantes valem −1

1 0 0

0 1 0

0 0 1

↔ a e i ,

0 1 0

0 0 1

1 0 0

↔ b f g ,

0 0 1

1 0 0

0 1 0

↔ c d h , cujos determinantes valem 1

(pois coincidem com a matriz identidade, ou com matrizes de permutacao ou com produtos de matrizes

de permutacao). Obtemos assim a regra de Sarrus, i.e. detA = (a e i+b f g+d h c)−(c e g+b d i+f h a) .

10-10-2013 | TP.

Determinantes de matrizes quadradas: Regra de Cramer. Resolucao de Exercıcios.

Definicao. Seja A =[ai,j

]uma matriz n× n . Definimos matriz adjunta como a matriz transposta da

matriz dos complementos algebricos de A, i.e.

adj A =[(−1)i+j detAi,j

]T=

(−1)1+1 detA1,1 · · · (−1)n+1 detA1,n

......

(−1)1+n detAn,1 · · · (−1)n+n detAn,n

T

=

(−1)1+1 detA1,1 · · · (−1)n+1 detAn,1

......

(−1)1+n detA1,n · · · (−1)n+n detAn,n

.

Como consequencia directa do teorema de Laplace temos:

Formula explıcita para o calculo da inversa de uma matriz invertıvel. Seja A uma matriz

quadrada invertıvel. Entao A−1 = (detA)−1 adj A .

Indicacao. Basta notar quen∑

k=1

(−1)k+jak,i detAk,j = (detA) δi,j , j = 1, . . . , n, onde δi,j e a delta de

Kronecker. De facto,n∑

k=1

(−1)k+jak,i detAk,j = det[· · · ci · · · ci · · ·

]; e, portanto, (adj A)A = (detA)In .

i j

Aplicacao a resolucao de sistemas (Regra de Cramer). Seja A =[ai,j

]uma matriz n × n e

bbb =[bi

]um vector n×1 . O sistema Axxx = bbb diz-se de Cramer se a matriz do sistema, A , for invertıvel.

[email protected] 27

Page 28: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Um sistema de Cramer tem solucao unica xxx =[x1 · · · xn

]Tdada por

xj = δj/(detA) ,

onde δj e para cada j = 1, . . . , n, o determinante da matriz que se obtem de A por substituicao da

coluna j (de A) pelo vector bbb , i.e.

xj = det[· · · cccj−1 bbb cccj+1 · · ·

]/detA , j = 1, . . . , n .

Indicacao. Basta notar que (adj A)bbb =

[n∑

i=1

(−1)i+j(detAi,j) bi

]e (adj A)A = (detA) In . Pelo

que, do teorema de Laplace, obtemos quen∑

i=1

(−1)i+j(detAi,j) bi = det[· · · cccj−1 bbb cccj+1 · · ·

].

Assim, (detA) bj = det[· · · cccj−1 bbb cccj+1 · · ·

], j = 1, . . . , n . c.q.d.

Problemas. Determinar a solucao do sistema de equacoes lineares

2x+ y − 3 z = 1 , −x+ 5 y + z = 4 , 3x− 2 y − 4 z = −1 .

Resolucao. Em notacao matricial o sistema dado le-se

Axxx = bbb , com A =

2 1 −3

−1 5 1

3 −2 −4

e bbb =

1

4

−1

e xxx =

x

y

z

.

Como detA = 2 , sabemos que A e invertıvel, pelo que o sistema dado e de Cramer. Mais ainda,

A−1 =1

detA

|A1,1| −|A1,2| |A1,3|−|A2,1| |A2,2| −|A2,3||A3,1| −|A3,2| |A3,3|

T

,

com |A1,1| = −18 , |A1,2| = 1 , |A1,3| = −13 , |A2,1| = −10 , |A2,2| = 1 , |A2,3| = −7 , |A3,1| = 16 ,

|A3,2| = −1 , |A3,3| = 11 ; e, portanto, A−1 =1

2

−18 10 16

−1 1 1

−13 7 11

, pelo que xxx = A−1 bbb =

3

1

2

.

Aplicando directamente a regra de Cramer temos:

x =

∣∣∣∣∣∣∣∣1 1 −3

4 5 1

−1 −2 −4

∣∣∣∣∣∣∣∣detA

=6

2= 3 , y =

∣∣∣∣∣∣∣∣2 1 −3

−1 4 1

3 −1 −4

∣∣∣∣∣∣∣∣detA

=2

2= 1 , z =

∣∣∣∣∣∣∣∣2 1 1

−1 5 4

3 −2 −1

∣∣∣∣∣∣∣∣detA

=4

2= 2 .

Resolucao do problema 83. a)

∣∣∣∣∣ 1 3

−2 4

∣∣∣∣∣ = 1 4− 3 (−2) = 10 ; f)

∣∣∣∣∣∣∣∣2 1 3

1 0 2

1 4 2

∣∣∣∣∣∣∣∣ = (2 + 12)− (16 + 2) = 4 ;

k)

∣∣∣∣∣∣∣∣∣∣a 0 0 0

0 0 0 b

0 c 0 0

0 0 d 0

∣∣∣∣∣∣∣∣∣∣c3↔c4= −

∣∣∣∣∣∣∣∣∣∣a 0 0 0

0 0 b 0

0 c 0 0

0 0 0 d

∣∣∣∣∣∣∣∣∣∣c2↔c3=

∣∣∣∣∣∣∣∣∣∣a 0 0 0

0 b 0 0

0 0 c 0

0 0 0 d

∣∣∣∣∣∣∣∣∣∣= a b c d ;

[email protected] 28

Page 29: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

l)

∣∣∣∣∣∣∣∣∣∣0 1 0 0

1 0 1 0

0 1 0 1

0 0 1 0

∣∣∣∣∣∣∣∣∣∣`1↔`2= −

∣∣∣∣∣∣∣∣∣∣1 0 1 0

0 1 0 0

0 1 0 1

0 0 1 0

∣∣∣∣∣∣∣∣∣∣`3↔`4=

∣∣∣∣∣∣∣∣∣∣1 0 1 0

0 1 0 0

0 0 1 0

0 1 0 1

∣∣∣∣∣∣∣∣∣∣−`2+`4=

∣∣∣∣∣∣∣∣∣∣1 0 1 0

0 1 0 0

0 0 1 0

0 0 0 1

∣∣∣∣∣∣∣∣∣∣= 1 .

15-10-2013 | T.

Resolucao dos problemas 64, 93 e 96 do caderno de exercıcios.

Resolucao do problema 64. Pode ver-se que o determinante da matriz do sistema

A =

[i 1 + i

1− i −6 + i

]e igual a −3− 6 i , logo A e invertıvel e A−1 =

[(4− 13 i)/15 (3− i)/15

−(1 + 3i)/15 −(2 + i)/15

],

pelo que a solucao do sistema vem dada por

A−1 bbb =

[(4− 13 i)/15 (3− i)/15

−(1 + 3i)/15 −(2 + i)/15

] [3 + i

4

]=

[(37− 39 i)/15

−(8 + 14i)/15

].

Outro processo: A partir do momento que verificamos que a matriz do sistema, A , e invertıvel, podemos

aplicar directamente a Regra de Cramer para resolver o sistema dado, obtendo-se

z =

∣∣∣∣∣3 + i 1 + i

4 −6 + i

]detA

=−23− 7 i

−3− 6 ie w =

∣∣∣∣∣ i 3 + i

1− i 4

]detA

=−4 + 6 i

−3− 6 i,

que e a solucao do sistema (confirmar).

Podemos ainda, como processo alternativo determinar a decomposicao LU da matriz A :[i 1 + i

1− i −6 + i

]→

(1 + i)`1 + `2

[i 1 + i

0 −6 + 3 i

], i.e. A =

[1 0

−(1 + i) 1

] [i 1 + i

0 −6 + 3 i

].

Agora, temos somente que resolver o seguinte sistema em escada (exercıcio),[i 1 + i

0 −6 + 3 i

] [z

w

]=

[1 0

−(1 + i) 1

]−1 [3 + i

4

]=

[1 0

1 + i 1

] [3 + i

4

]=

[3 + i

6 + 4 i

].

Resolucao do problema 93. Seja A =

1 1 α

1 α 1

α 1 1

, e calculemos o seu determinante, i.e. detA =

−2 + 3α−α3 = −(α− 1)2(α+ 2) . Assim, se a ∈ R \ {−2, 1} a matriz A e invertıvel. Mais ainda, para

α 6= −2, 1 , a sua inversa vem dada por A−1 =1

detA

|A1,1| −|A1,2| |A1,3|−|A2,1| |A2,2| −|A2,3||A3,1| −|A3,2| |A3,3|

T

,

com |A1,1| = α−1 , |A1,2| = 1−α , |A1,3| = 1−α2 , |A2,1| = 1−α , |A2,2| = 1−α2 , |A2,3| = 1−α , |A3,1| =

1−α2 , |A3,2| = 1−α , |A3,3| = α−1 ; e, portanto, A−1 = − 1

(α− 1)2(α + 2)

α− 1 α− 1 1− α2

α− 1 1− α2 α− 1

1− α2 α− 1 α− 1

.

Resolucao do problema 96. Como A = T B T−1 e det(T B T−1) = detT det(B T−1)

= detT detB detT−1 = detT detB (detT )−1 obtemos detA = detB .

[email protected] 29

Page 30: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

17-10-2013 | T.

Espaco vectorial. Exemplos. Sub-espaco vectorial. Exemplos.

Conceito de Espaco Vectorial. Seja V um conjunto dado cujos elementos serao designados por vecto-

res. Consideremos tambem o conjunto K (que sera sempre R ou C ) cujos elementos serao designados

por escalares. Diremos que V e um espaco vectorial sobre K se as operacoes soma e produto por um

escalar, satisfazem as seguintes propriedades, para todo o ~u,~v, ~w ∈ V , α, β ∈ K :

+++ : V× V→ V ... : K× V→ V

1. (~u+++ ~v) +++ ~w = ~u+++ (~v+++ ~w) ;

2. ∃~0 : ~u+++~0 = ~0 +++ ~u = ~u ;

3. ∃ − ~u : ~u+++ (−~u) = (−~u) +++ ~u = ~0 ;

4. ~u+++ ~v = ~u+++ ~v;

a) (α + β) ... ~u = α... ~u+++ β ... ~u ;

b) α... (~u+++ ~v) = α... ~u+++ β ... ~v ;

c) α(β ... ~u) = (αβ) ... ~u ;

d) 1 ... ~u = ~u .

Observacao. Caso K seja C o espaco vectorial V diz-se complexo; e caso K = R , V diz-se um espaco

vectorial real.

No que se segue vamos aligeirar a notacao e denotar os vectores de ~u de V por uuu .

Exemplos. Alem dos espacos Kn , ou mesmo Mm,n(K) com K = R ou C que nos serviram como

modelo (cf. aula T | 19-09-2013 em Propriedades das operacoes com matrizes) convem citar os

seguintes exemplos de espacos vectoriais:

• O conjunto das funcoes definidas num mesmo conjunto D com valores em K , que denotamos por

F(D,K) , com as operacoes adicao de funcoes e produto de uma funcao por um escalar, i.e.

+++ : F(D,K)×F(D,K)→ F(D,K) sendo f+++g a funcao definida em D por (f+g)(x) = f(x)+g(x);

... : K× F(D,K)→ F(D,K) sendo α... f a funcao definida em D por (α... f)(x) = α f(x) .

• O conjunto dos polinomios com coeficientes em K na variavel x, que denotaremos por P[x] e um

espaco vectorial sobre K , relativamente as operacao usuais de soma de polinomios e do produto

de um escalar por um polinomio.

Definicao. Seja V um espaco vectorial sobre K e seja U um subconjunto de V . Dizemos que U e um

sub-espaco vectorial de V se as operacoes sobre V estiverem bem definidas sobre U ; e, portanto, U e

tambem um espaco vectorial sobre K .

Teorema de caracterizacao. U e um sub-espaco vectorial do espaco vectorial V se, e somente se,

sendo ∅ 6= U ⊂ V se tem

uuu+++ vvv ∈ U e α...uuu ∈ U , para todo o uuu,vvv ∈ U e α ∈ K . Propriedade (*)

Observacao. As condicoes anteriores de caracaterizacao de um sub-espaco podem ser substituidas por

α...uuu+++ β ... vvv ∈ U , uuu,vvv ∈ U e α, β ∈ K , Propriedade (**)

i.e. as combinacoes lineares dos vectores de U estao em U .

[email protected] 30

Page 31: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Demonstracao. Nao vamos demonstrar que a carcaterizacao de sub-espacos mas somente indicar que o

enunciado na observacao e natural. De facto, se se verificam as condicoes (*) entao α...uuu ∈ U e β ... vvv ∈ U ,

pelo que de (*) temos que α...uuu+++ β ... vvv ∈ U . Agora, se (**) se tem, entao, tomando α = β = 1 , por um

lado e β = 0 por outro obtemos (*). c.q.d.

Observacao. O vector nulo, 000 , pertence a todos os sub-espacos vectoriais de um dado espaco vecto-

rial V . Alem disso, o espaco vectorial V tem como sub-espacos V e {000} . Os demais sub-espacos de V

dizem-se proprios.

Exemplos.

1. O conjunto U = {(x, y, z) ∈ R3 : 3x− 2 y + 4 z = 0} e um sub-espaco vectorial de R3 .

(Basta verificar que o vector nulo de R3 esta em U e que toda a combinacao linear de vectores

de U e ainda um vector de U .)

2. O conjunto dos polinomios complexos cujo grau e menor do que ou igual a 5, P5[x] , e um sub-

-espaco vectorial de P[x] .

(Basta justificar que o polinomio zero esta em P5[x] e que toda a soma algebrica de polinomios

de grau menor do que, ou igual a, 5 e ainda um polinomio de P5[x] .)

3. O conjunto das matrizes 7×7 de escalares reais e simetricas, e um sub-espaco vectorial de M7(R) .

(Basta verificar que a matriz nula 7 × 7 e simetrica, que a soma de matrizes simetricas e ainda

uma matriz simetrica e que o produto de uma matriz simetrica por um escalar e tambem uma

matriz simetrica.)

17-10-2013 | TP.

Sub-espaco linear gerado por um conjunto de vectores. Resolucao do problema 99 do caderno de

exercıcios.

Interseccao de sub-espacos. A intersecao de sub-espacos de um mesmo espaco vectorial V e ainda

um sub-espaco vectorial de V .

Demonstracao. Designemos por U a interseccao dos sub-espacos Uj , j = 1, 2 . Note-se que o vector

nulo pertence a cada um destes sub-espacos Uj , pelo que tambem pertence a U ; logo U 6= ∅ . Tomem-se

agora uuu,vvv quaisquer vectores em U e α, β ∈ K , entao por hipotese (U1,U1 , sao sub-espacos)

α...uuu+++ β ... vvv ∈ Uj , j = 1, 2; logo α...uuu+++ β ... vvv ∈ U1 ∩ U2 = U . c.q.d.

Observacao. A uniao de sub-espacos de um mesmo espaco vectorial V nao e, em geral, um sub-espaco

vectorial de V . Por exemplo, considere os seguintes sub-espacos vectoriais de R2

U1 = {(x, 0) : x ∈ R} e U2 = {(0, y) : y ∈ R} . (verificar que sao sub-espacos vectoriais)

Justificacao. Basta notar que o vector soma dos vectores (1, 0) ∈ U1 e (0, 1) ∈ U2 , (logo pertencem a

U1 ∪ U2 ), e o vector (1, 1) = (1, 0) + (0, 1) que nao pertence a U1 ∪ U2 .

[email protected] 31

Page 32: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Definicao. Seja V um espaco vectorial sobre K ; seja S = {uuu1, . . . ,uuun} um conjunto de vectores de V .

Designam-se por combinacoes lineares de vectores de S os vectores

vvv = α1 ...uuu1 +++ · · ·+++ αn ...uuun , onde αj ∈ K , j = 1, . . . , n .

Exemplos. Considere os vectores aaa = (1, 0, 1) , bbb = (0, 1, 1) e ccc = (1, 1, 2) . Verifique que

L({aaa, bbb, ccc}) = {α...aaa+++ β ... bbb+++ γ ... ccc , α, β, γ ∈ R} e um sub-espaco vectorial de R3 , e identifique-o.

Resolucao. O vector nulo pertence ao espaco; para tal basta tomar α = β = γ = 0 . Considere agora

os vectores arbitrarios uuu,vvv ∈ L({aaa, bbb, ccc}) , i.e. ∃αj, βj, γj ∈ R , com j = 1, 2 tais que

uuu = α1 ... aaa+++ β1 ... bbb+++ γ1 ... ccc = (α1 + γ1 , β1 + γ1 , α1 + β1 + 2γ1 ) e

vvv = α2 ... aaa+++ β2 ... bbb+++ γ2 ... ccc = (α2 + γ2 , β2 + γ2 , α2 + β2 + 2γ2 ) .

Entao para todo o α, β ∈ R temos α...uuu+++ β ... vvv = (αα1 + βα2) ... aaa+ (αβ1 + ββ2) ... bbb+ (αγ1 + βγ2) ... ccc ; logo

α...uuu+++ β ... vvv ∈ L({aaa, bbb, ccc}) .

Vamos passar a identificacao do sub-espaco L({aaa, bbb, ccc}) , i.e. que propriedade intrınseca e satisfeita pelos

vectores que o compoem. Vimos ja que uuu ∈ L({aaa, bbb, ccc}) , se existem escalares α, β, γ ∈ R tais que

uuu = (u1, u2, u3) := α...aaa+++ β ... bbb+++ γ ... ccc = (α + γ , β + γ , α + β + 2γ) .

Em notacao matricial este identidade le-se:1 0 1

0 1 1

1 1 2

α

β

γ

=

u1

u2

u3

,

que sabemos ser um sistema possıvel (pois, por definicao de L({aaa, bbb, ccc}) , sabemos que existem para cada

uuu ∈ L({aaa, bbb, ccc}) escalares α, β, γ ∈ R tais que uuu = α...aaa+++ β ... bbb+++ γ ... ccc ). Discutindo o sistema obtemos1 0 1 u1

0 1 1 u2

1 1 2 u3

−`1 + `3

1 0 1 u1

0 1 1 u2

0 1 1 u3 − u1

−`2 + `3

1 0 1 u1

0 1 1 u2

0 0 0 u3 − u1 − u2

;

logo u3−u1−u2 = 0 , e a condicao procurada, i.e. L({aaa, bbb, ccc}) = {uuu := (u1, u2, u3) ∈ R3 : u3 = u1 +u2} .

Teorema. O conjunto de todas as combinacoes lineares de vectores de S e um sub-espaco vectorial

de V , que se designa por espaco vectorial gerado por S , que denotaremos por L(S) , i.e.

L(S) = {α1 ...uuu1 +++ · · ·+++ αn ...uuun : αj ∈ K , j = 1, . . . , n} .

Alem disso, L(S) e o menor, no sentido da inclusao, sub-espaco de V que contem S .

Demonstracao. Confirmemos primeiro que L(S) se trata de um sub-espaco vectorial, i.e. L(S) 6= ∅e que α...uuu+ β ... vvv ∈ L(S) sempre que uuu,vvv ∈ L(S) , α, β ∈ K . De facto, por definicao

uuu,vvv ∈ L(S) ≡ ∃αj, βj ∈ K : uuu =n∑

j=1

αj ...uuuj e vvv =n∑

j=1

βj ...uuuj ; logo α...uuu+++β ... vvv =n∑

j=1

(ααj+β βj) ...uuuj ;

pelo que α...uuu+++ β ... vvv ∈ L(S) . Por outro lado, todo o sub-espaco que contenha S tera de conter todas

as combinacoes lineares de vectores de S , logo tera de conter L(S) . Como por, definicao, L(S) e um

sub-espaco vectorial que contem S , concluımos que L(S) e o menor sub-espaco que contem S . c.q.d.

[email protected] 32

Page 33: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Resolucao do problema 99.

a) Comece por verificar que o vector (0, 0, 0, 0) esta em

U = {(x1, x2, x3, x4) ∈ R4 : x1 = −x2 , x3 = x4} ;

mais ainda, a soma de dois vectores uuu := (u1, u2, u3, u4) e vvv := (v1, v2, v3, v4) de U e um vector

de U , pois u1 + v1 = −(u2 + v2) e u3 + v3 = u4 + v4 ; e tambem para todo o escalar real α se

tem que αuuu ∈ U , pois αu1 = −αu2 e tambem αu3 = αu4 .

b) Nao e um sub-espaco vectorial real pois tomando α = 1/2 e (1, 0,−1, 1) ∈ U = {(x1, x2, x3, x4) ∈R4 : x1 + x2 + x3 = 0 , x4 inteiro} temos que o vector (1/2, 0,−1/2, 1/2) 6∈ U .

c) Trata-se de um sub-espaco vectorial de R4 (verificar).

d) Nao e sub-espaco pois (0, 0, 0, 0) 6∈ U = {(x1, x2, x3, x4) ∈ R4 : x1 + x2 + x3 + x4 = 1} .

e) Comecemos por notar que x1 x2 = 0 se, e somente se, x1 = 0 ou x2 = 0 ; assim

U = {(x1, x2, x3, x4) ∈ R4 : x3 = x4 = 0 , x1 = 0 ou x2 = 0}= {(x1, 0, 0, 0), x1 ∈ R} ∪ {(0, x2, 0, 0), x2 ∈ R} .

Ve-se facilmente, que o vector (1, 1, 0, 0) = (1, 0, 0, 0) + (0, 1, 0, 0) , nao esta em U no entanto

(1, 0, 0, 0) , (0, 1, 0, 0) ∈ U .

f) Comecemos por identificar U = {(x1, x2, x3, x4) ∈ R4 : x21 = x2

3} como a uniao dos sub-espacos

U1 = {(x1, x2, x3, x4) ∈ R4 : x1 = x3} e U2 = {(x1, x2, x3, x4) ∈ R4 : x1 = −x3} , i.e. U = U1 ∪ U2 .

Verifique que o vector soma dos vectores (0, 0, 1, 1) e (0, 0, 1,−1) de U, i.e. o vector (0, 0, 1, 0) nao

esta em U .

22-10-2013 | T.

Conjuntos equivalentes de vectores. Soma de sub-espacos vectoriais. Dependencia e independencia

linear.

Definicao. Sejam S = {uuu1, . . . ,uuup} e T = {vvv1, . . . , vvvq} dois conjuntos de vectores num mesmo

espaco vectorial V . Dizemos que os conjuntos S e T sao equivalentes se geram o mesmo sub-espaco,

i.e. L(S) = L(T ) , ou ainda, todo o vector de qualquer dos conjuntos S ou T se escreve como combinacao

linear dos vectores do outro (conjunto).

Esta relacao entre conjuntos de vectores e de equivalencia, i.e. e reflexiva, simetrica e transitiva.

Exemplo. Mostre que os conjuntos {aaa, bbb, ccc} , definido na aula TP | 17-10-2013, e {uuu,vvv} , com uuu =

(2, 1, 3) , vvv = (1, 2, 3) , sao equivalentes.

Basta verificar que existem αj, βj, γj ∈ R , com j = 1, 2 tais que uuu = α1 aaa + β1 bbb + γ1 ccc e vvv =

α2 aaa + β2 bbb + γ2 ccc . De facto, tomando α1 = γ1 = 1 , β1 = 0 , e α2 = 1 , β2 = 2 , γ2 = 0 obtemos as

identidades procuradas.

Outro processo: Podemos identificar o sub-espaco gerado pelo conjunto {uuu,vvv} , i.e. L({uuu,vvv}) = {www :=

(w1, w2, w3) := αuuu + β vvv , α, β ∈ R} ; logo o sistema de equacoes lineares 2α + β = w1 , α + 2β = w2 ,

[email protected] 33

Page 34: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

3α+3β = w3 , e possıvel (em α, β, γ ); donde se conclui, somando as duas primeiras equacoes a simetrica

da terceira, que w3 = w1 + w2 , i.e. L({uuu,vvv}) = {(w1, w2, w3) ∈ R3 : w3 = w1 + w2} = L({aaa, bbb, ccc}) .

Soma de sub-espacos vectoriais. Sejam U1,U1 sub-espacos vectoriais de um mesmo espaco vecto-

rial V . Definimos o conjunto soma de U1 com U2 , como

U1 +++ U2 = {uuu1 + uuu2 , uuu1 ∈ U1,uuu2 ∈ U2} .

Este conjunto e um sub-espaco vectorial de V .

Alem disso, e o menor, no sentido da inclusao, sub-espaco de V que contem U1,U2 .

Demonstracao. O conjunto U1 +++U2 e um sub-espaco de V pois considerando uuu,vvv ∈ U1 +++U2 existem

uuu1, vvv1 ∈ U1 e uuu2, vvv2 ∈ U2 tais que uuu = uuu1 +uuu2 e vvv = vvv1 +vvv2 . Assim, uuu+vvv = (uuu1 +vvv1) + (uuu2 +vvv2) com

uuu1 + vvv1 ∈ U1 (pois U1 e sub-espaco vectorial) e uuu2 + vvv2 ∈ U2 (pois U2 e sub-espaco vectorial); logo

uuu + vvv ∈ U1 +++ U2 . Mais ainda, sendo α um escalar, temos αuuu = αuuu1 + αuuu2 ∈ U1 +++ U2 (isto porque

αuuu1 ∈ U1 , pois U1 e sub-espaco vectorial, e αuuu2 ∈ U2 , pois U2 e sub-espaco vectorial).

Analisemos agora a ultima afirmacao. Todo o vector uuu1 ∈ U1 esta em U1 +++ U2 , pois como o vector

nulo esta em U2 , temos que uuu1 = uuu1 +000 ∈ U1 +++U2 ; logo U1 ⊂ U1 +++U2 . Analogamente concluımos que

U2 ⊂ U1 +++ U2 . Ja so falta mostrar que

se U for um sub-espaco de V com U1 ⊂ U e U2 ⊂ U , entao U1 +++ U2 ⊂ U .

De facto, sendo u ∈ U1 +++ U2 , existem uuu1 ∈ U1 e uuu2 ∈ U2 tais que uuu = uuu1 + uuu2 ; mas por hipotese

U1,U2 ⊂ U , pelo que uuu ∈ U . c.q.d.

Resolucao do problema 101. Os conjuntos M = {α (1, 1), α ∈R} e N = {α (1, 2), α ∈ R} representam respectivamente, rec-

tas que passam pela origem que tem a direccao do vector

(1, 1) e (1, 2) (cf. figura ao lado). Sao obviamente sub-es-

pacos de R2 , pois tratam-se de rectas que passam pela ori-

gem. Temos ainda que M ∩ N = {000 = (0, 0)} e tambem

M ∪ N = {uuu ∈ R2 : uuu ∈ M ou uuu ∈ N }; o primeiro e o sub-

-espaco nulo e o segundo nao e sub-espaco, pois o vector soma

-1 1 2 3 4x

-1

1

2

3

4

y

Graficos de M e de N

(1, 1) + (1, 2) = (2, 3) 6∈ M ∪N , no entanto (1, 1) ∈ M ⊂ M ∪N e (1, 2) ∈ N ⊂ M ∪N . Temos ainda

que M +++ N = {uuu ∈ R2 : uuu = mmm + nnn com mmm ∈ M e nnn ∈ N} que e um sub-espaco de R2 , que coincide

com R2 (verificar).

Problema. Em R4 considere os sub-espacos U1 e U2 , definidos por

U1 = {(α, β, 0, 0), α, β ∈ R } e U2 = {(0, α, β, 0), α, β ∈ R } .

Os sub-espacos soma e interseccao de U1 com U2 sao dados, respectivamente, por

U1 +++ U2 = {(α, β, γ, 0), α, β, γ ∈ R } e U1 ∩ U2 = {(0, α, 0, 0), α ∈ R } .

[email protected] 34

Page 35: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Note que o sub-espaco U1 = L({(1, 0, 0, 0), (0, 1, 0, 0)}) e tambem U2 = L({(0, 1, 0, 0), (0, 0, 1, 0)}) ;

mais ainda U1 +++ U2 = L({(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)}) e U1 ∩ U2 = L({(0, 1, 0, 0)}) .

Definicao. Sejam U1,U2 , sub-espacos vectoriais de um mesmo espaco vectorial V . Dizemos que a

soma dos sub-espaco U1 , U2 e directa, e escrevemos U1⊕U2 se todo o vector de U1⊕U2 admitir uma

unica representacao com soma de vectores de U1 e de U2 , i.e. se uuu1 + uuu2 = vvv1 + vvv2 , com uuu1, vvv1 ∈ U1 ,

uuu2, vvv2 ∈ U2 , entao uuu1 = vvv1 e uuu2 = vvv2 .

Caracterizacao. Sejam U1,U2 , sub-espacos vectoriais de um mesmo espaco vectorial V . A soma

U1 +++ U2 e directa se, e somente se, uuu1 + uuu2 = 000 , com uuu1 ∈ U1 , uuu2 ∈ U2 , entao uuu1 = uuu2 = 000 .

Demonstracao. A implicacao directa e imediata, pois se todo o elemento de U1 ⊕U2 tem uma repre-

sentacao unica como soma de um elemento de U1 com um de U2 , em particular tal e verdadeiro para

o vector nulo (que esta obviamente em U1 ⊕ U2 ).

Para analisar a implicacao recıproca, basta supor que uuu1 + uuu2 = vvv1 + vvv2 , para algum uuu1, vvv1 ∈ U1 , e

uuu2, vvv2 ∈ U2 ; entao (uuu1 − vvv1) + (uuu2 − vvv2) = 000 ; mas, por hipotese, a unica representacao do vector nulo

como soma de vectores de U1 e U2 e como soma de vectores nulos, temos que uuu1 = vvv1 e uuu2 = vvv2 . c.q.d.

Observacao. Pode ver-se a soma dos sub-espacos U1,U2 e directa se, e somente se, U1 ∩ U2 = {000} .

De facto, se uuu e um vector de U1 ∩ U2 , entao como uuu + (−uuu) = 000 e uuu ∈ U1 , −uuu ∈ U2 , temos que

uuu = −uuu = 000 ; pelo que U1 ∩ U2 = {000} .

Agora, se U1 ∩ U2 = {000} temos que uuu1 + uuu2 = 000 , com uuu1 ∈ U1 , uuu2 ∈ U2 , entao uuu1 = −uuu2 e como

−uuu2 ∈ U2 , temos que uuu1,uuu2 ∈ U1 ∩ U2 ; logo uuu1 = uuu2 = 000 , i.e. a unica representacao do vector nulo

como soma de um vector de U1 com um vector de U2 e 000 + 000 = 000 . c.q.d.

Dependencia e independencia linear. Seja S = {uuu1, . . . ,uuup} um conjunto de vectores num espaco

vectorial V sobre K . Dizemos que S e um conjunto de vectores linearmente independente se a unica

combinacao linear do vector nulo e a que tem todos os coeficientes iguais a zero, i.e. se αj ∈ K , com

j = 1, . . . , p sao tais que α1uuu1 + · · ·+ αpuuup = 000 , entao α1 = · · · = αp = 0 .

Em contraposicao, dizemos que S e um conjunto linearmente dependente se nao for independente, i.e.

existem escalares α1, . . . αp nao todos nulos tais que α1uuu1 + · · ·+ αpuuup = 000 .

Dizemos ainda que um vector depende linearmente de um conjunto de vectores, se ele se puder repre-

sentar como combinacao linear desse conjunto de vectores.

Exemplos.

• Em R3 , o conjunto de vectores {uuu,vvv,www} dados por uuu = (2, 1,−5) , vvv = (1,−4, 2) , www = (1, 2,−4) ,

e linearmente dependente. (De facto, 2uuu− vvv − 3www = 000 .)

• Em R3 , o conjunto de vectores {uuu,vvv,www} dados por uuu = (1, 0, 0) , vvv = (1, 1, 0) , uuu = (1, 1, 1) , e

linearmente independente.

[email protected] 35

Page 36: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

(De facto, αuuu + β vvv + γwww = 000 , e equivalente a α + β + γ = 0 , β + γ = 0 e γ = 0 , i.e.

α = β = γ = 0 .)

• Mostre que o conjunto {aaa, bbb, ccc} , aaa = (1, 0, 1) , bbb = (0, 1, 1) e ccc = (1, 1, 2) , e linearmente dependente,

enquanto o conjunto {uuu,vvv} , com uuu = (2, 1, 3) , vvv = (1, 2, 3) , e linearmente independente.

(De facto como ccc = aaa + bbb , concluımos que aaa + bbb − ccc = 000 , logo o conjunto {aaa, bbb, ccc} e linearmente

dependente; por outro lado vemos que nao existe α ∈ R tal que uuu = αvvv , logo o conjunto {uuu,vvv}e linearmente independente.)

24-10-2013 | T, TP.

Revisao sobre a materia dada.

Resolucao do Problema 46. Sejam A,B matrizes invertıveis; entao A−1(A + B)B−1 = (A−1A +

A−1B)B−1 = (I + A−1B)B−1 = I B−1 + A−1BB−1 = B−1 + A−1 I = A−1 + B−1 . Verifique tambem

que B−1(A+B)A−1 = A−1 +B−1 .

Resolucao do Problema 50. Sendo A uma matriz m× n , entao B = AT A e uma matriz m×m e

C = AAT e uma matriz n×n . Para verificar que estes dois produtos de matrizes nao coincidem basta

tomar A uma qualquer matriz rectangular. Verifiquemos que os produtos de matrizes dados definem

uma matriz simetrica, i.e. BT = B e CT = C . De facto, BT = (AT A)T = AT (AT )T = AT A = B e

CT = (AAT )T = (AT )T AT = AAT = C .

Resolucao do Problema 63. e), f), h). Vemos facilmente que o sistema de equacoes lineares

da alınea e) e impossıvel. De facto, se somarmos a linha 3 com o simetrico da linha 1, obtemos

x2 − x3 + x4 − 2x5 = 12 que nao e compatıvel com a quarta linha, i.e. x2 − x3 + x4 − 2x5 = −5 .

Para a alınea f) temos que o sistema de equacoes lineares e equivalente a x1 + x2 + x3 + x4 = 1 ,

2x2 + 4x3 = −3 , 2x3 +x4 = 2 , que e possıvel e indeterminado com variavel livre x4 . Agora, resolvendo

o sistema com x4 = 0 , obtemos como solucao xxxp = (7/2,−7/2, 1, 0) ; e resolvendo o sistema homgeneo

associado com x4 = 1 obtemos xxx0 = (−3/2, 1,−1/2, 1) . Pelos teoremas da aula T | 3-10-2013

concluımos que a solucao geral do sistema de equacoes lineares dado e xxx = xxxp + αxxx0 , α ∈ R .

O sistema de equacoes lineares da alınea h) e possıvel e determinado com solucao xxx = (−37/2,−27/2, 6)

(exercıcio). Se lhe acrescentarmos uma equacao na variavel xxx = (x1, x2, x3) obtemos um sistema possıvel,

caso a equacao seja compatıvel com as restantes (por exemplo, para a equacao x1 + 2x2 + 3x3 = 19/2 –

verificar); ou impossıvel caso a equacao seja incompatıvel com as restantes (por exemplo, para a equacao

x3 = 5 – verificar).

Como exercıcio determine uma representacao P A = LU para as matrizes dos sistemas de equacoes

lineares considerados.

Resolucao do Problema 87. Sendo A uma matriz n × n , det(2A) = 2n detA (basta aplicar a

condicao 2 da definicao de determinante a cada uma das colunas de A ). Da mesma forma se conclui que

[email protected] 36

Page 37: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

det(−A) = (−1)n detA . Sabemos tambem que det(AB) = detA detB , pelo que det(A2) = (detA)2 ,

det(Ek,l(α)A) = det(Ek,l(α)) detA = detA , e det(Pk,lA) = detPk,l detA = − detA .

Resolucao do Problema 95. Se A = −AT , entao detA = (−1)n detA (ver problema anterior, tendo

em atencao que detA = detAT ). Entao, (1− (−1)n) detA = 0 , pelo que se n e ımpar, concluımos que

detA = 0 . Caso n seja par nada se pode concluir.

Resolucao do Problema 37. Tendo em atencao o produto de matrizes apresentado na pagina 4

deste texto, temos que, sendo A uma matriz m × n definida por colunas, i.e. A =[ccc1 · · · cccn

],

com cccj =[a1,j · · · am,j

]T, j = 1, . . . , n e vvv =

[v1 · · · vn

]T, entao Avvv = v1 ccc1 + · · · + vn cccn . Da

mesma forma se ve que sendo B =[ddd1 · · · dddn

], com dddj =

[b1,j · · · bm,j

]T, j = 1, . . . , n , se tem

Bvvv = v1 ddd1 + · · ·+ vn dddn .

Por hipotese sabemos que Avvv = Bvvv , v ∈ Rn . Em particular, esta identidade verifica-se para

vvv = `j com `j =[0 · · · 0 1 0 · · · 0

]T, j = 1, . . . , n .

jAssim, A`j = B `j , para j = 1, . . . , n e equivalente a cccj = dddj para j = 1, . . . , n , i.e. para A = B .

Resolucao do Problema 112. Sendo A uma matriz m × n o conjunto U = {www = Avvv , v ∈ R} e

um sub-espaco vectorial de Rm , que designaremos por espaco das colunas de A . De facto, como ficou

expresso no problema anterior www e combinacao linear das colunas de A , logo U = L({ccc1, . . . , cccn}) , onde

cccj e, para cada j = 1, . . . , n , a coluna j de A .

Resolucao do Problema 111. O vector (1, 1, α, β) pertence ao sub-espaco gerado pelos vectores

(1, 0, 2, 1), (1,−1, 2, 2) se existirem escalares γ, δ tais que (1, 1, α, β) = γ (1, 0, 2, 1) + δ (1,−1, 2, 2) , i.e.

se o sistema de equacoes lineares γ + δ = 1 , −δ = 1 , 2γ + 2δ = α , γ + 2δ = β . Das primeiras duas

equacoes obtemos γ = 2 , δ = −1 ; pelo que α = 2 , β = 0 .

Resolucao do Problema 119. Basta determinar µ ∈ R tal que a unica combinacao linear nula

dos vectores (1,−2,−5, 8) , (−1, 1, 1, 5) , (1, 2, 11, µ) , e a que tem todos os escalares iguais a zero, i.e.

α (1,−2,−5, 8)+β (−1, 1, 1, 5)+γ (1, 2, 11, µ) = (0, 0, 0, 0) somente se, α = β = γ = 0 . Ve-se facilmente

que o sistema dado e equivalente a (α− β + γ,−β + 4γ, 0, (µ− 44)γ) = (0, 0, 0, 0) , que tem uma unica

solucao, (α, β, γ) = (0, 0, 0) , se, e somente se, µ 6= 44 ; logo {(1,−2,−5, 8), (−1, 1, 1, 5), (1, 2, 11, µ)} e,

para µ 6= 44 , um conjunto de vectores linearmente independente.

29-10-2013 | T.

Realizacao da primeira Frequencia.

Problema 1. Considere as seguintes matrizes: AAA =

1

−1

1

, BBB =

1 −2

2 1

1 −3

, CCC =

[2 3 −1

1 −1 −1

].

[email protected] 37

Page 38: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

a) Ordene as matrizes de forma que o produto das tres matrizes esteja definido e calcule-o.

b) Analise se as matrizes BBBCCC e CCCBBB sao invertıveis, e em caso afirmativo calcule a sua inversa.

c) Indique um sistema de equacoes lineares tendo CCC como matriz do sistema e AAA como solucao.

Indique a solucao geral desse sistema.

d) Seja SSS uma matriz simetrica 2 × 2 ; mostre, sem calcular o produto de matrizes, que BBBSSSBBBT e

uma matriz simetrica.

Problema 2. Sejam βββ um parametro real e AAA a matriz 3× 3 dada por AAA =

1 4 2

−1 −1 1

1 3 + βββ 3

.

a) Determine uma decomposicao LLLUUU para AAA .

b) Diga, justificando convenientemente, para que valores de βββ ∈ R e unica a decomposicao LLLUUU

de AAA ?

c) Para βββ = 2 resolva o sistema AAAxxx = bbb , com bbb =[1 2 2

]T.

d) Para βββ = 2 identifique explicitamente o sub-espaco gerado pelos vectores coluna da matriz AAA .

Resolucao do Problema 1. a) BBBCCCAAA =

1 −2

2 1

1 −3

[

2 3 −1

1 −1 −1

]1

−1

1

=

−4

−3

−5

.

b) Calculemos BBBCCC =

0 5 1

5 5 −3

−1 6 2

e CCCBBB =

[7 2

−2 0

]. Agora det(BBBCCC) = 0 e det(CCCBBB) = 4 ,

pelo que BBBCCC nao e invertıvel e CCCBBB e; alem disso, (CCCBBB)−1 =

[0 −1/2

1/2 7/4

].

c) Ve-se facilmente que CCCAAA =[−2 1

]T= ddd , pelo que xxx =

[x1 x2 x3

]T: CCC xxx = ddd e o sistema

procurado. A solucao geral do sistema vem dada por xxx = AAA + αxxx0 , α ∈ R onde xxx0 : CCC xxx0 = 000 . Pode

verificar-se que CCC tem caracterıstica 2, e variavel livre x3 , pelo que tomando x3 = 1 em CCC xxx0 = 000 ,

obtemos x2 = −1/5 e x1 = 4/5 , logo xxx0 =[4/5 −1/5 1

]T.

d) (BBBSSSBBBT )T = (BBBT )T SSST BBBT e como SSST = SSS temos que (BBBSSSBBBT )T = BBBSSSBBBT .

Resolucao do Problema 2. a) AAA = LLLUUU onde LLL =

1 0 0

−1 1 0

1 (−1 + βββ)/3 1

e UUU =

1 4 2

0 3 3

0 0 2− βββ

.

b) Sabemos que esta decomposicao e unica se AAA for invertıvel, i.e. βββ 6= 2 .

c) Efectuando as operacoes indicadas na matriz LLL ao vector bbb obtemos eee =[1 3 0

]T. Temos assim

que o sistema UUUxxx = eee , equivalente ao inicial, e possıvel e indeterminado (com variavel livre x3 ). Logo,

tomando x3 = 0 no sistema completo, obtemos como solucao xxxp =[−3 1 0

]T; tomando x3 = 1 no

sistema homogeneo, temos como solucao xxx0 =[2 −1 1

]T. Logo xxx = xxxp + αxxx0 , α ∈ R .

d) O sub-espaco procurado e dado por

U = {α[1 −1 1

]T+ β

[4 −1 5

]T+ γ

[2 1 3

]T, α, β, γ ∈ R} .

[email protected] 38

Page 39: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Trata-se pois do sub-espaco formado pelas combinacoes lineares dos vectores coluna da matriz AAA . As-

sim, www =[w1 w2 w3

]T∈ U se ∃α, β, γ ∈ R : www = α

[1 −1 1

]T+ β

[4 −1 5

]T+ γ

[2 1 3

]T;

ou em notacao matricial AAA[α β γ

]T= www e um sistema possıvel; aplicando operacoes elementares

por linhas sobre a matriz ampliada[AAA www

]temos

1 4 2 w1

−1 −1 1 w2

1 5 3 w3

`1 + `2

−`1 + `3

1 4 2 w1

0 3 3 w2 + w1

0 1 1 w3 − w1

−`2/3 + `3

1 4 2 w1

0 3 3 w2 + w1

0 0 0 (3w3 − 4w1 − w2)/3

.

Obtemos assim que U = {[w1 w2 w3

]T∈ R3 : w2 = −4w1 + 3w3} .

31-10-2013 | T.

Propriedades da dependencia e independencia linear de um conjunto de vectores. Teorema fun-

damental da independencia linear. Definicao de base de um espaco vectorial de tipo finito.

Consideracoes sobre a dependencia e independencia linear de um conjunto de vectores.

• Um conjunto de vectores que contenha o vector nulo e linearmente dependente.

• O conjunto singular {uuu} com uuu 6= 000 e linearmente independente. Alem disso, um conjunto de dois

vectores e linearmente dependente se, e somente se, um deles for um multiplo do outro.

• Se um conjunto de vectores e linearmente dependente, entao o mesmo acontece a um conjunto de

vectores que o contenha.

• Se um conjunto de vectores e linearmente independente, entao o mesmo acontece a um seu sub-

-conjunto.

Propriedades da dependencia e independencia linear. Os vectores aqui considerados pertencem

todos a um mesmo espaco vectorial V .

1. Um conjunto de vectores, S = {uuu1, . . . ,uuup} , e linearmente dependente se, e somente se, algum

dos vectores de S , uuuj , depende linearmente dos demais vectores de S , i.e. de S \ {uuuj} .

2. Se um vector www e combinacao linear dos vectores uuu1, . . . ,uuup e estes sao combinacao linear dos

vectores vvv1, . . . , vvvq , entao www e combinacao linear dos vectores vvv1, . . . , vvvq .

3. Dois conjuntos de vectores sao equivalentes se, e somente se, todo o vector de um dos conjuntos

e combinacao linear dos vectores do outro, e reciprocamente.

4. Se S e um conjunto de vectores linearmente independente e vvv e um vector que nao e combinacao

linear dos vectores de S , entao o conjunto S ∪ {vvv} e linearmente independente.

Demonstracao. Vamos fazer somente a demonstracao de 1 e de 4, pois 3 e uma consequencia directa da

definicao de conjuntos equivalente de vectores e da propriedade 2 (cf. aula T | 22-10-2013). Por outro

lado 2 e um lema tecnico, que voltaremos a aplicar ao longo do curso. De facto, seja www for um vector do

sub-espaco L({uuu1, . . . ,uuup}) , i.e. existem escalares α1, . . . , αp tais que www = α1uuu1 + · · · + αpuuup . Agora,

[email protected] 39

Page 40: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

como uuuj ∈ L({vvv1, . . . , vvvq}) , j = 1, . . . , p , i.e. existem escalares βj1, . . . , β

jq tais que uj = βj

1 vvv1+· · ·+βjq vvvq

para j = 1, . . . , p ; entao, temos, www = α1(β11 vvv1 + · · ·+ β1

q vvvq) + · · ·+ αp(βp1 vvv1 + · · ·+ βp

q vvvq) ;

e, portanto, www e uma combinacao linear dos vectores vvv1, . . . , vvvp , i.e. www ∈ L({vvv1, . . . , vvvq}) . Mais ainda,

www =

q∑j=1

γj vvvj , com γj =

p∑k=1

αk βkj , j = 1, . . . , q .

Para demonstrarmos 1 comecemos por analisar a implicacao directa: supomos que o conjunto S =

{uuu1, . . . ,uuup} e linearmente dependente, i.e. existem escalares α1, . . . , αp nao todos nulos (i.e. αj 6= 0

para algum j ∈ {1, . . . , p}) tais que α1uuu1 + · · ·+αpuuup = 000 . Podemos supor, sem perda de generalidade,

s.p.g., que α1 6= 0 o que nos permite escrever uuu1 = −α2/α1uuu2 − · · · − αp/α1uuup ; logo um dos vectores

de S depende linearmente dos demais.

Reciprocamente, se um dos vectores de S , que podemos considerar s.p.g. uuu1 depende linearmente dos

demais, i.e. existem escalares β2, . . . , βp tais que u1 = β2uuu2 + · · ·+ βpuuup ; e, portanto,

−uuu1 + β2uuu2 + · · ·+ βpuuup = 000 ,

que e uma combinacao linear nula de vectores de S , com coeficientes nao todos nulos, i.e. o conjunto

de vectores S e linearmente dependente.

Analisemos agora 4. Seja S = {uuu1, . . . ,uuup} e considere-se uma combinacao linear nula de elementos

de S ∪ {uuu} , i.e. α1uuu1 + · · · + αpuuup + αuuu = 000 . Se α 6= 0 , terıamos uuu = −α1/αuuu1 − · · · − αp/αuuup ,

o que e falso pois por hipotese uuu nao depende linearmente dos vectores de S . Concluımos assim

que α = 0 . A combinacao linear nula considerada toma a forma α1uuu1 + · · ·+ αpuuup = 000 , o que implica

que α1 = · · · = αp = 0 (pois o conjunto de vectores S e linearmente independente). c.q.d.

Teorema fundamental da independencia linear. Seja V um espaco vectorial gerado por um con-

junto finito de vectores, S = {uuu1, . . . ,uuuq} , i.e. V = L(S) . Se T = {vvv1, . . . , vvvp} e um conjunto de

vectores linearmente independente, entao p ≤ q .

Demonstracao. Vamos proceder por reducao ao absurdo, i.e. supomos que p > q e procuramos uma

contradicao. Como S e um conjunto gerador do espaco vectorial V , vvv1 ∈ T e combinacao linear dos

vectores de S , i.e. vvv1 = α1uuu1 + · · ·+ αq uuuq , com algum dos escalares αj nao nulo (note-se que nenhum

dos vectores de T e nulo). Vamos supor s.p.g que α1 6= 0 , pelo que uuu1 = (vvv1 − α2uuu2 − · · · − αquuuq)/α1 ,

i.e. uuu1 ∈ L({vvv1,uuu2, . . . ,uuuq}) = V . Agora, como vvv2 ∈ L({vvv1,uuu2, . . . ,uuuq}) existem escalares βj nao todos

nulos: vvv2 = β1 vvv1 + β2uuu2 + · · ·+ βq uuuq . Podemos supor s.p.g. que β2 6= 0 , pelo que uuu2 = (−β1vvv1 + vvv2 −β3uuu3 − · · · − βquuuq)/β2 , i.e. uuu2 ∈ L({vvv1, vvv2,uuu3, . . . ,uuuq}) = V . Continuando o processo descrito obtemos

que {vvv1, . . . , vvvq} e um conjunto gerador do espaco vectorial V . Mas entao o vector vq+1 que pertence

a T (pois p > q ) pertence ao espaco gerado pelos vectores {vvv1, . . . , vvvq} , logo {vvv1, . . . , vvvq, vvvq+1} nao e

um conjunto de vectores linearmente independente! c.q.d.

Definicao. Um espaco vectorial, V , sobre K, e dito finito, se tem um conjunto finito de vectores

geradores de V , i.e. se em V existe um conjunto de vectores S = {uuu1, . . . ,uuup} tal que V = L(S) .

[email protected] 40

Page 41: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Se V e de tipo finito, dizemos que um conjunto de vectores B = {fff 1, . . . , fffn} e uma base de V se, B e

um conjunto gerador de V linearmente independente.

Teorema de caracterizacao de base. Num espaco vectorial de tipo finito, V , um conjunto de vecto-

res, B = {fff 1, . . . , fffn} , e uma base de V se, e somente se, todo o vector uuu de V admitir uma unica

representacao como combinacao linear dos vectores de B .

Demonstracao. Como B e um conjunto gerador do espaco vectorial V , um vector vvv ∈ V admite uma

representacao como combinacao linear dos vectores de B . Vamos supor que admite mais do que uma

tal representacao, i.e. existem escalares αj e βj tais que

vvv = α1 fff 1 + · · ·+ αn fffn e vvv = β1 fff 1 + · · ·+ βn fffn ; logo, (α1 − β1)fff 1 + · · ·+ (αn − βn)fffn = 000

e como B e um conjunto de vectores linearmente independente temos que αj = βj , j = 1, . . . , n .

Vejamos agora que se tem o recıproco, i.e. suponhamos que todo o vector de V admite uma representacao

unica como combinacao linear de vectores de B e provemos que entao B e um conjunto de vectores

linearmente independente. De facto, como 000 ∈ V temos que este vector admite representacao unca

como combinacao linear dos vectores de B (que e obviamente a combinacao linear dos vectores de B

com escalares todos nulos), pelo que B e um conjunto de vectores linearmente independente. c.q.d.

Exemplos.

1. O conjunto de vectores {eee1, . . . , eeen} com

eee1 = (1, 0, . . . , 0) , eee2 = (0, 1, 0, . . . , 0) , . . . , eeen = (0, . . . , 0, 1) ,

formam uma base de Kn , designada por base canonica de Kn .

2. O conjunto das matrizes Ei,j com i = 1, . . . ,m e j = 1, . . . , n , onde Ei,j e a matriz m× n com

todos os elementos iguais a 0 com excepcao do que se encontra posicao i, j que vale 1, e a base

canonica de Mm,n .

3. O conjunto B = {1, x, . . . , xn} e a base canonica do espaco vectorial dos polinomios de grau

menor do que ou igual a n, Pn[x] .

31-10-2013 | TP.

Resolucao dos problemas 104, 122, 123 e 138 do caderno de exercıcios.

Resolucao do problema 104. Sendo A e B matrizes reais m × n e p × m , respectivamente; os

espacos nulos de A e de BA sao, respectivamente N(A) = {xxx ∈ Rn : Axxx = 000} e N(BA) = {xxx ∈Rn : (BA)xxx = 000} . Assim, se xxx ∈ N(A) , i.e. Axxx = 000 entao B(Axxx) = 000 , logo xxx ∈ N(BA) ; e, portanto,

N(A) ⊂ N(BA) .

Tendo em atencao este resultado temos quando B = AT que N(A) ⊂ N(AT A) . Verifiquemos que

N(AT A) ⊂ N(A) . De facto, se xxx ∈ N(AT A) , entao (AT A)xxx = 000 ; e multiplicando a equerda por xxxT

obtemos xxxT (AT A)xxx = (Axxx)T (Axxx) = 0 i.e. tomando yyy = Axxx , yyyT yyy = y21 + · · · + y2

n = 0 ; logo

y1 = · · · = yn = 0 , i.e. yyy = 000 , ou ainda Axxx = 000 , i.e. xxx ∈ N(A) . c.q.d.

[email protected] 41

Page 42: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Resolucao do problema 122. Seja {vvv1, . . . , vvvp} um conjunto de vectores linearmente independente,

i.e. α1 vvv1 + · · ·+ αp vvvp = 000 se, e somente se, α1 = · · · = αn = 0 .

Entao, tomando 0 6= β ∈ K o conjunto de vectores {βββ v1, . . . , vvvp} e ainda linearmente independente,

pois α1(β vvv1) + · · · + αp vvvp = (α1 β)vvv1 + · · · + αp vvvp , e a condicao α1 β = 0 e equivalente a α1 = 0 .

Para β ∈ K , o conjunto de vectores {vvv1 + β vvv2, vvv2 . . . , vvvp} e linearmente independente. De facto,

α1(vvv1 + β vvv2) + α2 vvv2 + · · · + αp vvvp = α1 vvv1 + (α1 β + α2)vvv2 · · · + αp vvvp , e esta combinacao linear de

vectores e nula se, e somente se,

α1 = 0 = α3 = · · · = αp = 0 e α1 β + α2 = 0 , i.e. para α1 = 0 = α2 = · · · = αp .

Resolucao do problema 123. Ve-se facilmente que F = L({(−2, 1, 0), (−1, 0, 1)}) , logo trata-se de

um sub-espaco vectorial de R3 . Como o conjunto de vectores que gera F e linearmente independente,

e uma base de F e, portanto, dimF = 2 .

Resolucao do problema 138. Considere-se a matriz A =[ccc1 · · · cccn

]definida por colunas e tambem

a matriz AT =[`T1 · · · `Tm

]definita por linhas. Sejam ainda, carA = r e carAT = r′ e mostremos

que r = r′ . Se carAT = r′ , sabemos existir um subconjunto de r′ vectores de {`T1 , . . . , `Tm} linearmente

independente. Alterando a ordem dos vectores neste conjunto, podemos supor s.p.g. que os primeiros r′

vectores formam um conjunto linearmente independente e os demais vectores sao combinacao linear

destes, i.e. existem escalares αjk tais que `Tj =

r′∑k=1

αjk `k , j = r′ + 1, . . . ,m , ou ainda, para j =

r′ + 1, . . . ,m , aj,s =r′∑

k=1

αjk ak,s , s = 1, . . . , n .

Agora a coluna j da matriz A , admite a seguinte representacao

(a1,j, . . . , ar′,j,r′∑

k=1

αr′+1k ak,j, . . . ,

r′∑k=1

αmk ak,j)

= a1,j (1, 0, . . . , 0, αr′+11 , . . . , αm

k ) + · · ·+ ar′,j(0, . . . , 0, 1, αr′+1r′ , . . . , αm

r′ ) , j = 1 . . . , n .

Assim, as n colunas da matriz A escrevem-se como combinacao linear de r′ vectores pelo que r ≤ r′ .

Para mostramos que r′ ≤ r , partimos de carA = r , e de r vectores de {ccc1, . . . , cccn} linearmente

independente...

Quanto a segunda questao basta considerar a matriz A =

[1 0 1

0 1 0

]que tem espaco o N(A) =

L({[1 0 −1

]T}) , enquanto que N(AT ) = {000} . Logo,

dim N(A) = nulA 6= nulAT = dim N(AT ) .

05-11-2013 | T.

Aplicacoes das nocoes de base e dimensao de um espaco vetorial. Mudanca de base num espaco

vetorial. Matriz de mudanca de base. Aplicacoes.

[email protected] 42

Page 43: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Existencia de bases. Todo o conjunto de vectores gerador de um espaco vectorial de tipo finito,

V 6= {000} contem uma base de V . Logo, todo o espaco vectorial de tipo finito tem uma base.

Ideia da demonstracao. Basta notar que se T for um conjunto gerador de V , entao se for linearmente

independente e uma base de V e o teorema fica provado. Em caso contrario, existe um vector vvv de T que

e combinacao linear dos restantes vectores de T . Retiramo-lo de T e voltamos a analisar a independencia

linear do conjunto de vectores T \{vvv} . Se T \{vvv} for um conjunto de vectores linearmente independente

o processo termina, pois T \ {vvv} e uma base de V , caso contrario continuamos com o processo descrito.

Este processo termina ao fim de um numero finito de passos, pois no pior dos casos concluımos que V

e gerado por um so vector nao nulo de T . c.q.d.

Teorema da dimensao. Toda a base de um espaco vectorial de tipo finito, V 6= {000} , tem o mesmo

numero de vectores. A este numero designamos por dimensao do espaco vectorial V e denotamo-lo por

dimV . Convencionamos ainda que o espaco vectorial nulo, V = {000} tem dimensao zero. (A partir de

agora os espacos vectoriais de tipo finito serao designados por espacos vectoriais de dimensao finita.)

Demonstracao. Temos somente que provar que qualquer se sejam as bases B e B′ de V , o seu cardinal

coincide. Suponhamos que o cardinal de B e B′ e igual a m e n , respectivamente; entao, como B e

um conjunto de vectores que gera V e B′ e um conjunto de vectores linearmente independente em V

temos que m ≥ n . Por outro lado sabemos tambem que B e um conjunto de vectores linearmente

independente em V e B′ e um conjunto de vectores que gera V pelo que n ≥ m . Logo m = n . c.q.d.

Consequencias. A dimensao de um espaco vectorial, V , e o numero maximo de vectores de V que

formam um conjunto linearmente independente; e tambem e o numero mınimo de vectores de V que

formam um conjunto gerador de V .

Teorema de completacao da base. Seja V e um espaco vectorial de dimensao finita n. Se S =

{uuu1, . . . ,uuup} e um conjunto de vectores linearmente independente com p < n ; entao existe um conjun-

to S ′ de n− p vectores de V linearmente independente tal que S ∪ S ′ e uma base de V .

Mais ainda, os vectores de S ′ podem tomar-se dentre os elementos de uma base qualquer de V .

Ideia da demonstracao. Basta analisar que pelo menos um dos vectores de uma base B de V , que

denotamos por vvv , nao e combinacao linear dos vectores de S (pois, caso contrario, S serıa uma base

de V !). Completamos S com esse vector e analisamos se existe algum vector B \{vvv} que e combinacao

linear dos vectores de S ∪ {vvv} , recomecando assim o processo que nos leva a construcao de uma base a

partir de um conjunto de vectores linearmente independente. c.q.d.

Exemplo. Considere os seguintes vectores do espaco vectorial R3 , aaa = (1,−1, 2) e bbb = (0, 1,−2) .

Como nenhum deles e mutiplo escalar do outro o conjunto {aaa, bbb} e linearmente independente. Pelo

teorema anterior, como dimR3 = 3 , sabemos existir um vector ccc ∈ R3 tal que {aaa, bbb, ccc} e uma base de R3 .

[email protected] 43

Page 44: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Alem disso, ccc pode ser escolhido de entre os vectores da base canonica de R3 , i.e. {eee1 = (1, 0, 0), eee2 =

(0, 1, 0), eee3 = (0, 0, 1)} . Ve-se facilmente que eee1 = aaa+ bbb , pelo que nao podemos tomar o vector eee1 para

completar a base; no entanto, {aaa, bbb, eee2} e um conjunto de vectores linearmente independente, pelo que

este conjunto de vectores pode ser tomado como base de R3 .

Teorema da dimensao de um sub-espaco. Se U e um sub-espaco vectorial de um espaco vectorial V

de dimensao finita, entao U tem dimensao finita e tem-se dimU ≤ dimV . Mais ainda, dimU = dimV

somente se U = V .

Demonstracao. Se U = {000} o resultado e evidente. Suponhamos entao que existe 000 6= uuu ∈ U .

Em U existem conjuntos de vectores linearmente independentes com cardinal m ≤ n (note-se que

estes conjuntos sao linearmente independentes em V ). Se m for o cardinal do maior conjunto de

vectores linearmente independente em U , temos que dimU = m , pelo que dimU ≤ dimV . Agora

dimU = dimV se, e somente se, U contem um conjunto de n vectores linearmente independente, que

sera por isso uma base de V , logo U = V .

Definicao. Sejam V um espaco vectorial sobre K de dimensao finita, B = {fff 1, . . . , fffn} uma base

de V e vvv um qualquer vector de V . Dizemos que vvv tem coordenas (α1, . . . , αn) na base B de V se

vvv = α1 fff 1 + · · ·+ αn fffn .

Exemplo. O conjunto de vectores {uuu1 = (1, 0, 0),uuu2 = (1, 1, 0),uuu3 = (1, 1, 1)} , e linearmente indepen-

dente em R3 e dimR3 = 3 , logo {uuu1,uuu2,uuu3} e uma base de R3 . Nesta base as coordenadas do vector

(x, y, z) sao (x− y, y − z, z) , pois (x, y, z) = (x− y)uuu1 + (y − z)uuu2 + z uuu3 .

Teorema de mudanca de base. Sejam V um espaco vectorial sobre K de dimensao n , B =

{fff 1, . . . , fffn} uma base de V , e xxx = (x1, . . . , xn) as coordenadas do vector vvv ∈ V na base B . Considere-

-se ainda uma base B′ = {ggg1, . . . , gggn} de V e xxx′ = (x′1, . . . , x′n) as coordenadas do vector vvv na base B′ .

Se g1 = α11 fff 1 + · · ·+α1

n fffn , . . ., gn = αn1 fff 1 + · · ·+αn

n fffn , entao xxx′ e a solucao do sistema de equacoes

lineares Axxx′ = xxx com A =

α1

1 · · · αn1

......

α1n · · · αn

n

. A matriz A e designada por matriz de mudanca de coor-

denadas da base B para a base B′ . A matriz A e invertıvel e a sua inversa e a matriz de mudanca de

coordenadas da base B′ para a base B .

Ideia da Demonstracao. Basta aplicar a propriedade 2 da dependencia e independencia linear. De

facto, como xxx′ = (x′1, . . . , x′n) sao as coordenadas do vector vvv na base B′ temos que vvv =

n∑j=1

x′j gggj ; e

aplicando a hipotese temos que vvv =n∑

j=1

x′j

(n∑

k=1

αjk fffk

)=

n∑k=1

(n∑

j=1

αjk x′j

)fffk . Como dos dados do

[email protected] 44

Page 45: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

teorema temos que vvv =n∑

k=1

xk fffk concluımos (da unicidade da representacao de um vector por elementos

de uma mesma base) que xk =n∑

j=1

αjk x′j , k = 1, . . . , n . c.q.d.

Problema. Determinar as coordenadas do vector uuu de R3 na base {eee′1, eee′2, eee′3} , onde eee′1 = (1, 2, 0) ,

eee′2 = (−3,−7, 1) , eee′3 = (0,−2, 1) .

Resolucao. Ve-se facilmente que

eee′1 = eee1 + 2eee2 , eee′2 = −3eee1 − 7eee2 + eee3 , eee′3 = −2eee2 + eee3 ,

onde {eee1, eee2, eee3} e a base canonica de R3 . Assim, do teorema anterior concluımos que as coordenadas

de um vector arbitrario (x, y, z) ∈ R3 , na base {eee′1, eee′2, eee′3} e o vector (x1, y1, z1) solucao do sistema de

equacoes lineares1 −3 0

2 −7 −2

0 1 1

x1

y1

z1

=

x

y

z

, ou equivalentemente,

x1

y1

z1

=

−5 3 6

−2 1 2

2 −1 −1

x

y

z

.

Assim, (x, y, z) = (−5x+ 3 y + 6 z)eee′1 + (−2x+ y + 2 z)eee′2 + (2x− y − z)eee′3 .

Exercıcio. Considere o espaco vectorial das matrizes 2 × 2 com escalares reais, i.e. M2,2(R) , e o

conjunto S = {E1, E2, E3, E4} , com

E1 =

[0 0

0 1

], E2 =

[0 1

0 1

], E3 =

[1 1

0 0

]E4 =

[1 0

1 0

].

Mostre que S e uma base de M2,2(R) e determine as coordenadas na base S de uma matriz generica

M ∈M2,2(R) .

07-11-2013 | T.

Isomorfismo entre um espaco vectorial de dimensao finita n , V , e o espaco vectorial Kn . Analise

da independencia linear de um conjunto de vectores de V a partir dos vectores coordenadas em Kn .

Aplicacoes.

Definicao (Identificacao de um espaco vectorial de dimensao finita). Sejam V um espaco

vectorial sobre K de dimensao n e B = {fff 1, . . . , fffn} uma base de V . A transformacao coor : V→ Kn

que a cada vector vvv ∈ V faz corresponder o vector das coordenadas de vvv na base B de V , i.e. se

vvv = β1 fff 1 + · · · + βn fffn , entao coor(vvv) = (β1, . . . , βn) , e tal que, para todo o uuu,vvv ∈ V e α ∈ K se tem

coor(vvv + αuuu) = coor(vvv) + α coor(uuu) , i.e. a transformacao coor e linear.

Alem disso, a transformacao inversa de coor e tambem linear e bijectiva, pelo que dizemos que coor e

um isomorfismo (“iso”≡“igual”; “morfo”≡“forma”) de V em Kn .

Algumas consideracoes. Da definicao de funcao coor temos que se coor(vvv) = (β1, . . . , βn) entao

vvv = β1 fff 1 + · · ·+ βn fffn , e tambem que se coor(uuu) = (γ1, . . . , γn) entao uuu = γ1 fff 1 + · · ·+ γn fffn . Assim,

[email protected] 45

Page 46: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

vvv + αuuu =n∑

j=1

βj fff j + α

n∑k=1

γk fffk =n∑

j=1

(βj + α γj)fff j ;

e, portanto a coordenada j-esima do vector vvv+ αuuu e βj + α γj , pelo que se tem a desejada linearidade

para a funcao coor , i.e. coor(vvv + αuuu) = coor(vvv) + α coor(uuu), α ∈ K , vvv,uuu ∈ V .

Teorema. Sejam V um espaco vectorial sobre Kn de dimensao n e B uma base de V . Dado um

conjunto de vectores S = {uuu1, . . . ,uuup} de V com vectores de coordenadas na base B , S∗ = {uuu∗1, . . . ,uuu∗p}em Kn , entao tem-se:

1. α1uuu1 + · · ·+ αpuuup = 000 e equivalente a α1uuu∗1 + · · ·+ αpuuu

∗p = 000 , com αj ∈ K para j = 1, . . . , p ;

2. dimL(S) = dimL(S∗) .

Demonstracao. Basta notar que como o espaco vectorial V tem dimensao n e isomorfo a Kn , pela

transformacao linear coor que a cada vector vvv ∈ V faz corresponder o vector de coordenadas de vvv na

base B de V . Agora da linearidade de coor temos

coor(α1uuu1 + · · ·+ αpuuup) = α1uuu∗1 + · · ·+ αpuuu

∗p .

Vemos assim que os vectores

α1uuu1 + · · ·+ αpuuup e α1uuu∗1 + · · ·+ αpuuu

∗p

tem o mesmo vector de coordenadas, o primeiro relativamente a uma base B de V e o segundo relativa-

mente a base canonica de Kn , i.e. se considerarmos que o vector de coordenadas de uuuj e (uj1, . . . , ujn) ,

j = 1, . . . , p temos que tanto a condicao

α1uuu1 + · · ·+ αpuuup = 000 como α1uuu∗1 + · · ·+ αpuuu

∗p = 000

sao equivalente as condicoes

p∑j=1

αj ujk = 0 , k = 1, . . . , n .

Acabamos de mostrar que entre os vectores de S existem as mesmas relacoes de dependencia e inde-

pendencia linear que entre os vectores de S∗ , pelo que dimL(S) = dimL(S∗) . c.q.d.

Exemplo. No espaco vectorial das matrizes 2×3 com escalares reais, M2,3(R) considere o conjunto S =

{M1,M2,M3,M4} onde M1 =

[1 0 0

2 1 −1

], M2 =

[2 −1 0

3 0 1

], M3 =

[3 1 2

4 2 0

], M4 =

[0 3 2

0 3 −3

].

Como dimM2,3(R) = 6 estabelecemos um isomorfismo entre M2,3(R) , considerado com a base canonica,

i.e. {E1, E2, E3, E4, E5, E6} , com E1 =

[1 0 0

0 0 0

], E2 =

[0 1 0

0 0 0

], E3 =

[0 0 1

0 0 0

], E4 =

[0 0 0

1 0 0

],

E5 =

[0 0 0

0 1 0

], E6 =

[0 0 0

0 0 1

], e R6 de forma que

coor(M1) = (1, 0, 0, 2, 1,−1) , coor(M2) = (2,−1, 0, 3, 0, 1) , coor(M3) = (3, 1, 2, 4, 2, 0) , coor(M4) =

(0, 3, 2, 0, 3,−3) .

Tendo em atencao ultimo teorema vemos que

dimL(S) = dimL({coor(M1), coor(M2), coor(M3), coor(M4)})

[email protected] 46

Page 47: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

= car

1 2 3 0

0 −1 1 3

0 0 2 2

2 3 4 0

1 0 2 3

−1 1 0 −3

operacoes

elementares

=

por

linhas

car

1 2 3 0

0 −1 1 3

0 0 2 2

0 0 −3 −3

0 0 −3 −3

0 0 6 6

Donde se conclui que o sub-espaco linear de M2,3(R) gerado pelas matrizes {M1,M2,M3,M4} , L(S) ,

tem dimensao tres, e tambem que uma sua base e dada por {M1,M2,M3} . Verifique (exercıcio) que

uma qualquer matriz de L(S) tem a forma[x1 x2 x3

2x1 + x2 − 3x3/2 x1 + 2x2 − 3x3/2 −x1 − 3x2 + 3x3

], x1, x2, x3 ∈ R .

Observacao. Para a analise da dimensao do espaco L(S) podıamos ter estudado a caractarıstica da

matriz transposta, i.e. car

1 0 0 2 1 −1

2 −1 0 3 0 1

3 1 2 4 2 0

0 3 2 0 3 −3

operacoes elementares

=

por linhas

car

1 0 0 2 1 −1

0 −1 0 3 0 1

0 0 2 −3 −3 6

0 0 2 −3 −3 6

(cf. problema 123 resolvido na aula T | 31-10-203) concluindo assim que a dimensao de L(S) e 3 ; no

entanto, o espaco gerado pelos vectores

T = {(1, 2, 3, 0), (0,−1, 1, 3), (0, 0, 2, 2), (2, 3, 4, 0), (1, 0, 2, 3), (−1, 1, 0,−3)}ainda que de dimensao tres (justifique) pode ver-se que L(S) 6= L(T ) . De facto,

L(T ) = L({(1, 2, 3, 0), (0,−1, 1, 3), (0, 0, 2, 2)}) = {(y1, y2, y3, y4) ∈ R4 : 3 y1 + 2 y2 − y3 + y4 = 0} e

L(S) = L({coor(M1), coor(M2), coor(M3)})= {(x1, x2, x3, x4, x5, x6) ∈ R6 : 2x4 = 4x1 +2x2−3x3, 2x5 = 2x1 +4x2−3x3, x6 = −x1−3x2 +3x3} .

07-11-2013 | TP.

Resolucao dos problemas 135, 139 e 142 do caderno de exercıcios. Formula de Grassman sobre as

dimensoes de sub-espacos F , G , F +++ G , F ∩ G de um mesmo espaco vectorial.

Problema. Seja P4[x] o espaco vectorial dos polinomios de coeficientes reais de grau menor do que,

ou igual a 4. Considere o conjunto S = {ppp1, ppp2, ppp3} ⊂ P4[x] , com ppp1(x) = 3 − 2x + x2 + 4x3 + x4 ,

ppp2(x) = 4 − x + x2 + 6x3 − 2x4 e ppp3(x) = 7 − 8x + 3x2 + αx3 + β x4 , onde α, β sao numeros reais

fixos. Determinar α, β de forma que L(S) , i.e. o sub-espaco vectorial gerado por S , tenha dimen-

sao 2. Identifique explicitamente L(S) , indique uma base (diferente de {ppp1, ppp2}) para este sub-espaco,

e expresse os vectores ppp1, ppp2, ppp3 nessa base.

Resolucao. O espaco vectorial dos polinomios com coeficientes reais P4[x] tem dimensao cinco, logo e

ismorfo a R5 . Considerando o isomrfismo relativamente a base canonica de P4[x] , i.e. {1, x, x2, x3, x4} ,

[email protected] 47

Page 48: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

temos como vectores imagem dos vectores de S pela transformacao coor :

coor(ppp1) = (3,−2, 1, 4, 1) , coor(ppp2) = (4,−1, 1, 6,−2) , coor(ppp3) = (7,−8, 3, α, β) .

Do teorema anterior, sabemos que

dimL(S) = dimL({coor(ppp1), coor(ppp2), coor(ppp3), coor(ppp4)})

= car

3 4 7

−2 −1 −8

1 1 3

4 6 α

1 −2 β

operacoes

elementares

=

por

linhas

car

1 1 3

0 1 −2

0 0 0

0 0 α− 8

0 0 β − 9

.

Assim, dimL(S) = 2 se, e somente se, α = 8 e β = 9 ; alem disso {ppp1, ppp2} e uma base de L(S) .

Para encontrar outra base de L(S) basta considerar diferentes combinacoes lineares de ppp1, ppp2 (diferen-

tes da combinacao linear nula) das quais resultem polinomios nao proporcionais, como por exemplo

{ppp1,−ppp1 + ppp2} ≡ {ppp1, ppp4 = 1 + x+ 2 x3 − 3x4} . Nesta base os polinomios ppp1, ppp2 tem coordendas (1, 0)

e (1, 1) , i.e. ppp1 = ppp1 + 0ppp4 e ppp2 = ppp1 + ppp4 .

Como exercıcio determine explicitamente L(S) quando α = 8 e β = 9 , e tambem quando α = 9 e

β = 7 , indicando em cada um dos casos um conjunto gerador natural diferente de S para L(S) .

Resolucao do problema 135. A matriz A1 =[1 0 −1

]nao cumpre o pretendido, pois ainda que

A1

[1 0 1

]T= 0 , o N(A) = L({

[1 0 1

]T,[0 1 0

]T}). Ja A2 =

[1 0 −1

−1 1 1

]e uma matriz nas

condicoes do problema. Por exemplo a matriz A3 =

[1 0 −1

−1 0 1

]tem como sub-espaco nulo associado

N(A3) = {xxx ∈ R3 : A3xxx = 000} = L({[1 0 1

]T,[0 1 0

]T}) 6= L({

[1 0 1

]T}) ; logo nao esta nas

condicoes do problema.

Formula de Grassman. Sejam U1 e U2 sub-espacos de um mesmo espaco vectorial V de dimensao

finita; entao, dimU1 + dimU2 = dim(U1 +++ U2) + dim(U1 ∩ U2) .

Demonstracao. Seja B0 = {eee1, eee2, . . . , eeem} uma base de U1 ∩ U2 . Pelo teorema da completacao da

base, podemos completar B0 por forma a obter uma base de U1 , B1 = B0 ∪ {fff 1, . . . , fff r} bem como

de U2 , B2 = B0 ∪ {ggg1, . . . , gggs} . Vejamos agora que B1 ∪ B2 = B0 ∪ {fff 1, . . . , fff r} ∪ {ggg1, . . . , gggs} e uma

base de U1 +++ U2 . Vemos facilmente que e um conjunto gerador, pois todo o vector uuu de U1 +++ U2 se

pode representar na forma uuu1 + uuu2 com uuu1 ∈ U1 e uuu2 ∈ U2 . Como B1 e B2 sao bases de U1 e U1 ,

respectivamente temos o pretendido. Analisemos agora que e um conjunto linearmente independente.

Para tal considere-se uma combinacao linear do vector nulo por vectores do conjunto B1 ∪B2 , i.e.m∑j=1

αj eeej +r∑

k=1

βk fffk +s∑

i=1

γi gggi = 000 . Designando www =m∑j=1

αj eeej +r∑

k=1

βk fffk que pertence ao espaco

[email protected] 48

Page 49: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

gerado por B1 , i.e. U1 , vemos que www = −s∑

i=1

γi gggi que pertence ao espaco gerado por B2 , i.e. U2 .

Logo www ∈ U1 ∩U2 , e portanto e combinacao linear de vectores de B0 , i.e. existem escalares µj tais que

www =m∑l=1

µl eeel ; assim,m∑l=1

µl eeel +s∑

i=1

γi gggi = 000 ,

e como B2 e uma base de U2 temos que µ1 = · · · = µm = 0 , bem como γ1 = · · · = γs = 0 . Como

os βj’s sao todos nulos obtemosm∑l=1

αl eeel +r∑

i=1

βi fff i = 000 e como B1 e uma base de U1 temos que

α1 = · · · = αm = 0 , bem como β1 = · · · = βr = 0 .

Desta forma fica provado que

(m+ r) + (m+ s) = dimU1 + dimU2 = dim(U1 +++ U2) + dim(U1 ∩ U2) = (m+ r + s) +m . c.q.d.

Resolucao do problema 139. Pode ver-se que F = L({(1, 0, 1, 0), (0, 1, 0, 2)}) (justifique que este con-

junto gerador e linearmente independente) e sabe-se que G = L({(1, 0, 1, 0), (0, 2, 0, 1), (−1, 2,−1, 1)}) .

Por outro lado (−1, 2,−1, 1) = −(1, 0, 1, 0) + (0, 2, 0, 1) , pelo que G = L({(1, 0, 1, 0), (0, 2, 0, 1)}) (jus-

tifique que este conjunto gerador e linearmente independente). Assim, dimF = 2 e dimG = 2 . Para

determinar F ∩ G basta ver que o conjunto de vectores {(1, 0, 1, 0), (0, 2, 0, 1), (0, 1, 0, 2)} , que e dado

pela caractarıstica da matriz

car =

1 0 0

0 2 1

1 0 0

0 1 2

operacoes elementares

=

por linhas

car

1 0 0

0 2 1

0 0 3/2

0 0 0

= 3 .

Logo F ∩ G = L({(1, 0, 1, 0)}) e tambem F +++ G = L({(1, 0, 1, 0), (0, 2, 0, 1), (0, 1, 0, 2)}) .

Como exercıcio identifique estes sub-espacos vectoriais de R4 .

Resolucao do problema 142. A alınea b) e uma consequencia directa do problema 104 e do teorema

da dimensao de um sub-espaco (cf. aula T | 5-11-2013).

Para a alınea a) e c) basta ter em atencao que

BA =[· · · combinacao linear dos vectores coluna de B · · ·

]e tambem

BA =

...

combinacao linear dos vectores linha de A...

,

o resultado do problema 138 resolvido na aula TP | 31-10-2013, a definicao de caractrıstica de uma

matriz e a sua relacao com a dimensao do espaco vectorial gerado pelas colunas dessa matriz.

Exercıcios.

1. Seja P2[x] o espaco vectorial dos polinomios de grau menor do que ou igual a 2 . O conjunto

S = {ppp0, ppp1ppp2} , com ppp0 = 1 , ppp1 = x − 1 e ppp2 = (x − 1)2 e uma base de P2[x] . Determine as

[email protected] 49

Page 50: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

coordenadas do polinomio ppp = 2t2 − 5t+ 6 na base S . Mais geralmente, determine as coordenadas

de um qualquer polinomio qqq ∈ P2[x] na base S .

2. Considere em R3 a base T = {uuu1,uuu2,uuu3} , com uuu1 = (1,−1, 0) , uuu2 = (1, 1, 0) e uuu3 = (0, 1, 1) . Deter-

mine as coordenadas do vector vvv = (5, 3, 4) na base T . Mais geralmente, determine as coordenadas

de um vector generico de R3 , www , na base T .

3. Analise a dependencia linear do conjunto de matrizes reais 2× 3 , G = {A,B,C} , com

A =

[1 2 −1

4 0 1

], B =

[1 3 −4

6 5 4

], C =

[3 8 −11

16 10 9

],

identifique L(G) e determine a sua dimensao.

4. Mostre que o seguinte conjunto de matrizes reais 2× 2 , {A,B,C,D} , com

A =

[1 1

0 0

], B =

[0 1

1 0

], C =

[0 0

1 1

], D =

[0 0

0 1

],

e uma base de M2,2(R) . Indique as coordenadas de uma qualquer matriz real 2× 2 nessa base.

12-11-2013 | T.

Transformacoes lineares. Consideracoes sobre a nocao e exemplos.

Definicao. Sejam V , W dois espacos vectoriais sobre K e T : V → W . Dizemos que T e uma

transformacao linear se para todo o vvv,www ∈ V , e α ∈ K se tem T(αvvv +www) = α T(vvv) + T(www) .

Observacao. Obviamente que a condicao T(αvvv+www) = α T(vvv)+T(www) , vvv,www ∈ V , e α ∈ K e equivalente

a T(vvv +www) = T(vvv) + T(www) , T(αvvv) = α T(vvv) , vvv,www ∈ V .

Exemplos.

1. A transformacao f : R3 → R2 defnida por f(x, y, z) = (2x − y + 4z,−3x + 5y + 6z) e linear do

espaco vectorial R3 no espaco vectorial R2 (verifique). Mais geralmente, a transformacao g : Rn →

Rm definida por g(x1, . . . , xn) = (n∑

j=1

a1j xj, . . . ,

n∑j=1

amj xj ) e uma transformacao linear do espaco

vectorial Rn no espaco vectorial Rm ; de facto, considerem-se os vectores Rn, vvv = (x1, . . . , xn) e

www = (y1, . . . , yn) , e o escalar α , arbitrarios em Rn e R , respectivamente. Entao

g(αvvv +www) = g(αx1 + y1, . . . , α xn + yn) = (n∑

j=1

a1j(αxj + yj), . . . ,

n∑j=1

amj (αxj + yj) )

= α (n∑

j=1

a1j xj, . . . ,

n∑j=1

amj xj ) + (n∑

j=1

a1j yj, . . . ,

n∑j=1

amj yj ) = α g(vvv) + g(www) .

2. Seja C∞(R) e o espaco vectorial das funcoes reais de variavel real, infinitamente diferenciaveis. Entao,

D : C∞(R) → C(R) definida por D(f) = f ′ e uma transformacao linear entre os espacos vectoriais

C∞(R) e R ; de facto, basta notar que (α f + g)′ = α f ′ + g′ , f, g ∈ C∞(R) e α ∈ R .

3. Seja C([0, 1]) o espaco vectorial das funcoes reais de variavel real, contınuas em [0, 1] . A trans-

formacao I : C([0, 1]) → R definida por I(f) =

∫ 1

0

f(t) dt e linear do espaco do espaco vectorial

[email protected] 50

Page 51: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

C([0, 1]) no espaco vectorial R ; de facto,

I(α f + g) =

∫ 1

0

(α f(t) + g(t))dt = α

∫ 1

0

f(t) dt+

∫ 1

0

g(t) dt = α I(f) + I(g) .

4. Temos ainda as transformacoes lineares que podemos denominar de triviais, i.e. O : V → W com

O(vvv) = 000 e a id : V → V com id(vvv) = v , que designaremos por transformacao nula e identidade,

respectivamente.

Propriedades. Seja T : V→W uma transformacao linear estre os espaco vectoriais sobre K , V e W .

Entao tem-se:

1. T(

p∑j=1

αj vvvj) =

p∑j=1

αj T(vvvj) , vvvj ∈ V , αj ∈ K , j = 1, . . . , p . Em particular, T(000) = 000 e tambem

T(−vvv) = −T (vvv) , vvv ∈ V .

2. Se {vvv1, . . . , vvvp} e um conjunto linearmente dependente de vectores de V entao {T(vvv1), . . . ,T(vvvp)}e um conjunto linearmente dependente de vectores de W .

3. Se R : W→ U e uma transformacao linear e U um espaco vectorial sobre K , entao R ◦T : V→ U

e uma transformacao linear entre os espacos vectoriais V e U .

Demonstracao. A aplicacao reiterada da definicao demonstra a afirmacao 1. Por outro lado, tomando

os αj’s todos igual a 0 prova que T(000) = 000 . Mais ainda, tomando α1 = −1 e os demais αj’s iguais a 0

da-nos T(−vvv) = −T(vvv) .

Para provar 2 basta notar que se {vvv1, . . . , vvvp} ⊂ V e um conjunto linearmente dependente de vectores,

entao existem escalares, nao todos nulos, αj’s em K tais que α1 vvv1+· · ·+αp vvvp = 000 ; e portanto, de 1 temos

α1 T(vvv1) + · · · + αp T(vvvp) = 000 , que e uma combinacao linear nula dos vectores T(vvv1), . . . ,T(vvvp) com

escalares nao todos nulos, i.e. {T(vvv1), . . . ,T(vvvp)} e um conjunto linearmente dependente de vectores

em W .

Ja 3 e uma consequencia directa de

R ◦T(αvvv +www) = R(T(αvvv +www))T e linear

= R(α T(vvv) + T(www))R e linear

= α R(T(vvv)) + R(T(www))

= α R ◦T(vvv) + R ◦T(www) .

Exemplo. Considere a transformacao linear T : R3 → R2 definida por T(x, y, z) = (x, y) . Vemos que

conjunto de vectores {uuu,vvv} , dados por uuu = (1, 0, 0) e vvv = (0, 1, 0) , e linearmente independente e tambem

se tem que {T(uuu),T(vvv)} e um conjun to de vectores linearmente independente, pois T(uuu) = (1, 0) e

T(vvv) = (0, 1) . No entanto o conjunto de vectores linearmente independente {aaa, bbb} , dados por aaa =

(1, 0, 1) , bbb = (2, 0, 0) , mas {T(aaa),T(bbb)} e linearmente dependente, pois T(aaa) = (1, 0) e T(bbb) = (2, 0) .

Vemos assim que a independencia linear nao se conserva por aplicacao de transformacoes lineares.

14-11-2013 | T.

Sub-espacos Imagem e Nucleo de uma transformacao linear. Determinacao de uma transformacao

linear. Exemplos.

[email protected] 51

Page 52: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Teorema. Seja T : V→W uma transformacao linear entre espacos vectoriais sobre K . Entao:

1. O conjunto imagem T(V) e um sub-espaco vectorial de W que se designa por espaco imagem

de T e denota-se por Im(T) .

2. Se {uuu1, . . . ,uuup} e um conjunto gerador de V , entao {T(uuu1), . . . ,T(uuup)} e um conjunto gerador

de Im(T) .

3. O conjunto T−1({000}) = {uuu ∈ V : T(uuu) = 000} e um sub-espaco vectorial de V que designamos por

nucleo da transformacao linear T ou sub-espaco nulo de T , e denotamos por N(T) .

4. Se o espaco vectorial V tem dimensao finita tem-se dim N(T) + dim Im(T) = dimV .

Demonstracao. Verifiquemos que Im(T) e um sub-espaco vectorial de W . De facto, considerando α

arbitrario em K e www1,www2 dois quaiquer vectores de Im(T) , i.e. existem vvv1, vvv2 ∈W tais que www1 = T(vvv1)

e www2 = T(vvv2) . Entao, aplicando a linearidade da transformacao T, temos αwww1 +www2 = T(αvvv1 + vvv2) , e

como V e um espaco vectorial sobre K , αvvv1 + vvv2 ∈ V , pelo que αwww1 +www2 ∈W .

Para provar 2 considere-se vvv ∈ V escrito como combinacao linear dos vectores de {uuu1, . . . ,uuup} , i.e.

vvv = α1uuu1 + · · ·+ αpuuup . Da linearidade de T temos que T(vvv) = α1 T(uuu1) + · · ·+ αp T(uuup) .

Sejam agora uuu1,uuu2 dois quaisquer vectores de N(T) e α um qualquer escalar, entao da linearidade

de T temos T(αuuu1 + uuu2) = αT(uuu1) + T(uuu2) = α000 + 000 = 000 ; e, portanto, αuuu1 + uuu2 ∈ N(T) , i.e. 3 fica

provado.

Para demonstrar 4 e como V tem dimensao finita, concluımos que N(T) tambem e de dimensao fi-

nita. Seja B = {fff 1, . . . , fffp} uma base de N(T) . Sabemos (do teorema da completacao da base)

que podemos completar a base B com um conjunto S = {ggg1, . . . , gggq} de vectores de forma que

B ∪ S seja uma base de V . Agora, como B ∪ S e um conjunto gerador de V , temos por 2 que

{T(fff 1), . . . ,T(fffp),T(ggg1), . . . ,T(gggq)} e um conjunto gerador de Im(T) . Mas como T(fff j) = 000 , j =

1, . . . , p , {T(ggg1), . . . ,T(gggq)} e um conjunto gerador de Im(T) . Analisemos a independencia linear deste

conjunto de vectores, i.e. considere-se a combinacao linear nula α1 T(ggg1)+· · ·+αq T(gggq) = 000 para alguns

escalares α1, . . . , αq . Da linearidade de T temos T(α1 ggg1+· · ·+αq gggq) = 000 , logo α1 ggg1+· · ·+αq gggq ∈ N(T)

pelo que α1 ggg1 + · · ·+αq gggq e combinacao linear dos vectores de B , i.e. existem escalares β1, . . . βp tais

que α1 ggg1 + · · ·+ αq gggq = β1 fff 1 + · · ·+ βp fffp ; e, portanto, −β1 fff 1− · · · − βp fffp + α1 ggg1 + · · ·+ αq gggq = 000 ,

e como B ∪S e uma base de V temos que αj = 0 , j = 1, . . . , q (e tambem βk = 0 , k = 1, . . . , p ). Con-

cluımos assim que {T(ggg1), . . . ,T(gggq)} e um conjunto de vectores linearmente independente, e portanto

uma base de Im(T) , i.e. dim N(T) + dim Im(T) = p+ q = dimV . c.q.d.

Exemplos.

1. Sejam P3[x] e F(R,R) os espacos vectoriais dos polinomios de grau menor do que ou igual a 3,

e das funcoes reais de variavel real sobre R , respectivamente. Considere-se a transformacao linear

T : P3[x]→ F(R,R) definida por T(p) = p′(x) , i.e. T(a+ b x+ c x2 + d x3) = b+ 2c x+ 3d x2 . Vemos

assim que o sub-espaco imagem de T e P2[x] , i.e., e espaco vectorial dos polinomios de graus menor do

[email protected] 52

Page 53: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

que ou igual a 2 ; o nucleo de T e constituıdo pelos polinomios de grau 0 , i.e. N(T) = L({1}) . Como

exercıcio verifique que se tem a alınea 4 do ultimo teorema (i.e. faca a analise das dimensoes destes

sub-espacos).

2. Seja T : R3 → R4 a transformacao linear definida por T(x, y, z) = (x + z, y − z, x + y, x− y + 2z) .

Como {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e um conjunto gerador de R3 , {T(1, 0, 0),T(0, 1, 0),T(0, 0, 1)} e um

conjunto gerador de Im(T) , i.e. {(1, 0, 1, 1), (0, 1, 1,−1), (1,−1, 0, 2)} e um conjunto gerador de Im(T) ;

e como (1,−1, 0, 2) = (1, 0, 1, 1)− (0, 1, 1,−1) , concluımos que

Im(T) = L({(1, 0, 1, 1), (0, 1, 1,−1)}) (= {(x, y, z, w) ∈ R4 : z = x+ y , w = x− y} confirmar)

e que dim Im(T) = 2 .

O nucleo de T e dado por

N(T) = {(x, y, z) ∈ R3 : x+ z = y − z = x+ y = x− y + 2z = 0} = {(x, y, z) ∈ R3 : y = −x = z} ,

i.e. N(T) = L({(−1, 1, 1)}) , pelo que dim N(T) + dim Im(T) = dimR3 .

Determinacao de uma transformacao linear. Sejam V e W dois espacos vectoriais sobre K . Se

B = {fff 1, . . . , fffn} e uma base de V e S = {www1, . . . ,wwwn} e um qualquer conjunto de vectores de W ,

entao existe uma unica transformacao linear T : V→W tal que T(fff 1) = www1, . . . ,T(fffn) = wwwn .

Demonstracao. Seja xxx um qualquer vector de V , de coordenadas (x1, . . . , xn) na base B de V , i.e.

xxx = x1 fff 1 + · · ·+ xn fffn . Entao da linearidade de T tem-se

T(xxx) = T(x1 fff 1 + · · ·+ xn fffn) = x1 T(fff 1) + · · ·+ xn T(fffn) = x1www1 + · · ·+ xnwwwn .

Desta forma se ve que a existir uma transformacao linear nas condicoes do enunciado tera de ser a que

acabamos de indicar. Vejamos entao que a transformacao linear assim definida e linear. Para tal basta

considerar dois quaisquer vectores xxx,xxx′ ∈ V de coordenadas (x1, . . . , xn) e (x′1, . . . , x′n) , respectivamente,

e α ∈ K , entao

T(αxxx+xxx′) = (αx1 + x′1)www1 + · · ·+ (αxn + x′n)wwwn = α(x1www1 + · · ·+ xnwwwn) + (x′1www1 + · · ·+ x′nwwwn)

= αT(xxx) + T(xxx′) . c.q.d.

Exemplo. Seja T : R3 →M2,2, uma transformacao linear tal que

T(1, 0, 0) =

[3 1

2 4

], T(0, 1, 0) =

[1 −1

−5 5

]e T(0, 0, 1) =

[2 −2

−3 4

].

Entao, a imagem por T de um qualquer vector de R3 , xxx = (x, y, z) vem dada por

T(xxx) = xT(1, 0, 0) + yT(0, 1, 0) + zT(0, 0, 1) =

[3x+ y + 2z x− y − 2z

2x− 5y − 3z 4x+ 5y + 4z

].

Mais ainda,

Im(T) = L({T(1, 0, 0),T(0, 1, 0),T(0, 0, 1)}) = {

[3x+ y + 2z x− y − 2z

2x− 5y − 3z 4x+ 5y + 4z

], x, y, z ∈ R3} .

Verifiquemos que {T(1, 0, 0),T(0, 1, 0),T(0, 0, 1)} e um conjunto linearmente independente em M2,2 ,

i.e. αT(1, 0, 0) + β T(0, 1, 0) + γ T(0, 0, 1) = 000 entao α = β = γ = 0 . De facto, a condicao indicada

[email protected] 53

Page 54: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

toma a forma[3α + β + 2γ α− β − 2γ

2α− 5β − 3γ 4α + 5β + 4γ

]=

[0 0

0 0

], i.e. α = β + 2γ , β = −2γ , γ = 0 , logo α = β = γ = 0 .

Assim dim Im(T) = 3 e do ponto 4 teorema anterior tiramos que dim N(T) = 0 , i.e. N(T) = {000} , pois

dimR3 = 3 .

Como exercıcio verifique que Im(T) = {

[a1,1 a1,2

a2,1 a2,2

]∈M2,2(R) : 28 a2,2 = 45 a1,1 + 25 a1,2 − 24 a2,1} .

14-11-2013 | TP.

Matriz de uma transformacao linear. Interpretacao dos sub-espacos imagem e nucleo de uma

transformacao linear a partir da matriz da transformacao linear. Exemplos.

Definicao. Uma transformacao linear, T : V→W , entre espacos vectoriais sobre K diz-se sobrejectiva

se Im(T) = W .

Injectividade de uma transformacao linear. Seja T : V → W uma transformacao linear entre

espacos vectoriais sobre K ; entao, T e injectiva se, e somente se, N(T) = {000} .

Demonstracao. Se T e injectiva se existir uuu ∈ V tal que T(uuu) = 000 , como sabemos que T(000) = 000 ,

temos que uuu = 000 . Concluımos assim que caso T seja linear e injectiva se tem que N(T) = {000} . Vejamos

agora que, se T e linear e N(T) = {000} , entao T e injectiva. De facto, se uuu,www sao dois vectores de V

tais que T(uuu) = T(www) , entao da linearidade de T , temos T(uuu −www) = 000 , e da hipotese sobre o nucleo

concluımos que uuu = www , i.e. T e injectiva. c.q.d.

Observacao. Uma transformacao linear T : V → W entre espacos vectoriais sobre K e injectiva se,

e somente se, dado um qualquer conjunto de vectores em V linearmente independente o conjunto de

vectores imagem por T desses vectores, e linearmente independente em W, i.e. para todo o conjunto de

vectores {vvv1, . . . , vvvn} ⊂ V linearmente independente se tem que {T(vvv1), . . . ,T(vvvn)} ⊂W e linearmente

independente.

Exemplo. A transformacao linear T : R3 → R4 definida por T(x, y, z) = (x, x + y, y + z, x + y + z) e

injectiva, pois

N(T) = {(x, y, z) ∈ R3 : x = x+ y = y + z = x+ y + z = 0} = {(x, y, z) ∈ R3 : x = y = z = 0} .

Pode ainda verificar-se (cf. exercıcio) que se tem a ultima caracterizacao; por exemplo, partindo da

base canonica de R3 , {(1, 0, 0), (0, 1, 0), (0, 0, 1)} , entao {T(1, 0, 0),T(0, 1, 0),T(0, 0, 1)} e um conjunto

linearmente independente de R4 .

Matriz de uma transformacao linear. Sejam V e W espacos vectoriais de dimensao finita sobre K .

Sejam ainda as bases B = {fff 1, . . . , fffn} e S = {ggg1, . . . , gggm} de V e W , respectivamente. Se T : V→W e

a transformacao linear tal que T(fff j) =m∑k=1

ajk gggk , j = 1, . . . , n , entao as coordenadas do vector yyy = T(xxx)

[email protected] 54

Page 55: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

na base S e dado por

a1

1 · · · an1...

...

a1m · · · anm

x1

...

xn

, xxx ∈ V ; e a matriz A =

a1

1 · · · an1...

...

a1m · · · anm

, e designada por

matriz da transformacao linear T relativamente as bases B e S de V e W , respectivamente.

Demonstracao. Como T e linear e tendo em atencao que as coordenadas do vector xxx na base B e

(x1, . . . , xn) , temos

yyy = T(xxx) = T(n∑

j=1

xj fff j) =n∑

j=1

xj T(fff j) =n∑

j=1

xj

m∑k=1

ajk gggk =n∑

j=1

m∑k=1

xj ajk gggk =

m∑k=1

(n∑

j=1

xj ajk)gggk ;

assim, yyy =m∑k=1

yk gggk com yk =n∑

j=1

ajk xj , k = 1, . . . ,m . c.q.d.

Problema*. Considere-se a transformacao linear T : R3 → R4 tal que T(1, 0, 0) = (3, 2,−1, 1) ,

T(1, 1, 0) = (5,−4, 1,−2) , e T(1, 1, 1) = (2, 1,−6, 3) . Determine as matrizes que representam T rela-

tivamente as bases B = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} de R3 e canonica de R4 e relativamente as bases

canonicas de R3 e de R4 , respectivamente. Identifique os espacos imagem e nucleo da transformacao

linear T .

Resolucao. As matrizes procuradas sao respectivamente

A =

3 5 2

2 −4 1

−1 1 −6

1 −2 3

e A′ =

3 2 −3

2 −6 5

−1 2 −7

1 −3 5

,

pois o vector (1, 0, 0) pertence a base canonica de R3 e a base B , T(0, 1, 0) = T(1, 1, 0)− T(1, 0, 0) =

(2,−6, 2,−3) e T(0, 0, 1) = T(1, 1, 1) − T(1, 1, 0) = (−3, 5,−7, 5) . Podemos ainda determinar a ex-

pressao analıtica da transformacao linear T , i.e. T(x, y, z) = (3x + 2y − 3z, 2x − 6y + 5z,−x + 2y −7z, x−3y+5z) , (x, y, z) ∈ R3 . O espaco Im(T) = L{T(1, 0, 0),T(0, 1, 0),T(0, 0, 1)} = {A′xxx , xxx ∈ R3} .

Pode ver-se que carA′ = 3 e, portanto, dim Im(T) = 3 , logo dim N(T) = 0 , i.e. N = {000} .

Problema. Determinar os sub-espacos nucleo e imagem da transformacao linear T : R4 → R3 tal que

T(1, 0, 0, 0) = (1,−1, 2) , T(0, 1, 0, 0) = (2, 1, 1) , T(0, 0, 1, 0) = (4,−1, 5) , T(0, 0, 0, 1) = (−1,−5, 4) .

Indicar ainda uma base para cada um dos sub-espacos determinados.

Resolucao. A expressao analıtica da transformacao linear e

T(x, y, z, w) = xT(1, 0, 0, 0) + yT(0, 1, 0, 0) + zT(0, 0, 1, 0) + wT(0, 0, 0, 1)

= (x+ 2y + 4z − w,−x+ y − z − 5w, 2x+ y + 5z + 4w)

= Axxx com A =

1 2 4 −1

−1 1 −1 −5

2 1 5 4

e xxx =

x

y

z

.

[email protected] 55

Page 56: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Pode verificar-se (cf. como exercıcio) que

carA = 2 , e que Im(T) = L({T(1, 0, 0),T(0, 1, 0)}) = {(y1, y2, y3) ∈ R3 : y1 = y2 + y3} .

Assim, dim Im(T) = 2 e {T(1, 0, 0),T(0, 1, 0)} e uma base de Im(T) .

Justifique ainda que {(1, 1, 0), (1, 0, 1)} e tambem uma base de Im(T) .

O nucleo e dado por N(T) = {xxx ∈ R4 : T(xxx) = 000} = {xxx ∈ R4 : Axxx = 000} . Vemos facilmente

que aplicando operacoes elementares por linhas sobre a matriz A obtemos o sistema equivalente x1 +

2x2 + 4x3 − x4 = 0 , 3x2 + 3x3 − 6x4 = 0 , i.e. xxx = αxxx10 + β xxx2

0 , α, β ∈ R , com xxx10 = (−2,−1, 1, 0) e

xxx20 = (−3, 2, 0, 1) . Assim, N(T) = L({xxx1

0,xxx20}) e {xxx1

0,xxx20} e uma base de N(T) , pelo que dim N(T) = 2 .

Verifique (como exercıcio) que N(T) = {(x1, x2, x3, x4) ∈ R4 : x1 = −2x3 − 3x4 , x2 = −x3 + 2x4} .

19-11-2013 | T.

Matrizes associadas a uma mesma transformacao linear. Matrizes equivalentes. Resolucao do

problema 153 do caderno de exercıcios.

Teorema. Seja T : V→W uma transformacao linear entre espacos vectoriais de dimensao finita, n e

m , respectivamente, sobre K . Seja A a matriz da transformacao linear T relativamente as bases B

de V e S de W . Se P e Q sao as matrizes de mudanca de base, respectivamente da base B para

a base B′ de V e da base S para a base S ′ de W , entao a matriz A′ = Q−1AP e a matriz que

representa T relativamente as bases B′ de V e S ′ de W .

As matrizes m×n, A e A′ dizem-se equivalentes se existem matrizes invertıveis P ∈Mn,n e Q ∈Mm,m

tais que A′ = Q−1AP .

Demonstracao. Sejam (x1, . . . , xn) as coordenadas de xxx ∈ V na base B , e (y1, . . . , ym) as coordenadas

do vector yyy = T(xxx) na base S , i.e.[y1 · · · ym

]T= A

[x1 · · · xn

]T. Sejam ainda (x′1, . . . , x

′n) as

coordenadas de xxx ∈ V na base B′ , e (y′1, . . . , y′m) as coordenadas do vector yyy = T(xxx) na base S ′ , i.e.[

y′1 · · · y′m

]T= A′

[x′1 · · · x′n

]T. Da hipotese sabemos que[

x1 · · · xn

]T= P

[x′1 · · · x′n

]Te[y1 · · · ym

]T= Q

[y′1 · · · y′m

]T; e, portanto,

Q[y′1 · · · y′m

]T= AP

[x′1 · · · x′n

]T, i.e.

[y′1 · · · y′m

]T= Q−1AP

[x′1 · · · x′n

]T. c.q.d.

Exemplo. Retomando o problema* da aula anterior, vemos que as matrizes A e A′ sao equivamentes;

de facto, como (1, 0, 0) = eee1 , (1, 1, 0) = eee1 + eee2 e (1, 1, 1) = eee1 + eee2 + eee3 , temos que A = A′ P , onde

P =

1 1 1

0 1 1

0 0 1

e a matriz de mudanca da base {eee1, eee2, eee3} para {(1, 0, 0), (1, 1, 0), (1, 1, 1)} em R3 .

Exemplo. Seja T : R3 → R2 uma transformacao linear cuja matriz que a representa relativamente as

bases canonicas {eee1, eee2, eee3} , {fff 1, fff 2} , de R3 e R2 , respectivamente, e

[3 0 −2

−1 4 5

]. Considere as bases

[email protected] 56

Page 57: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

{(1, 3, 0), (1, 0, 2), (0, 4,−2)} e {(2, 1), (4, 3)} de R3 e R2 , respectivamente. Como (1, 3, 0) = eee1 + 3eee2 ,

(1, 0, 2) = eee1 + 2eee3 , (0, 4,−2) = 4eee2 − 2eee3 , (2, 1) = 2fff 1 + fff 2 e (4, 3) = 4fff 1 + 3fff 2 , as matrizes de

mudanca de base sao P =

1 1 0

3 0 4

0 2 −2

e Q =

[2 4

1 3

]; assim, Q−1AP =

[4 −6 3

5 11 −2

]e a matriz que

representa T relativamente as novas bases.

Resolucao do Problema 153. A matriz que representa a transformacao linear T relativamente as

bases {aaa, bbb, ccc} de R3 e canonica, {(1, 0), (0, 1)} , de R2 e dada por A =

[4 8 3

6 6 3

].

P =

1 0 1

1 1 0

0 1 1

e a matriz de mudanca da base {aaa, bbb, ccc} para a base {aaa′, bbb′, ccc′} ; e Q =

[1 0

2 1

]e a matriz

de mudanca da base {(1, 0), (0, 1)} para a base {(1, 2), (0, 1)} . Pelo que a matriz que representa T nas

bases {aaa′, bbb′, ccc′} e {(1, 2), (0, 1)} e Q−1AP =

[12 11 7

−12 −13 −5

].

Como exercıcio determine a matriz que representa a transformacao linear T relativamente as bases

canonicas de R3 e R2 . Note que deve comecar por representar os vectores da base canonica de R3

como combinacao linear dos vectores da base {aaa, bbb, ccc} . Para tal pode provar que

(x, y, z) = (3x/2− y − z/2)aaa+ (x/2− y/2)bbb+ (z + 3y − 3x)ccc .

Agora pode calcular T(1, 0, 0) , T(0, 1, 0) e T(0, 0, 1) tendo em atencao que T(aaa),T(bbb),T(ccc) sao dados.

Como processo alternativo, pode determinar a matriz de mudanca da base {aaa, bbb, ccc} para a base canonica

de R3 , que denotamos por P ′ . Assim a matriz que representa a transformacao linear T relativamente

as bases canonicas de R3 e R2 vem dada por A(P ′)−1 .

21-11-2013 | T.

Produto interno em Rn. Distancia entre dois vectores, norma de um vector, angulo entre dois

vectores e projeccao de um vector sobre outro. Desigualdades fundamentais.

Definicao. Seja V um espaco vectorial sobre R . A aplicacao 〈..., ...〉 : V × V → R diz-se um produto

interno ou um produto escalar se para todo o xxx,xxx′, yyy ∈ V e α ∈ R se tem:

1. 〈xxx,yyy〉 = 〈yyy,xxx〉 ; (simetria)

2. 〈αxxx+ xxx′, yyy〉 = α 〈xxx,yyy〉+ 〈xxx′, yyy〉 ; (linearidade “na primeira componente”)

3. 〈xxx,xxx〉 > 0 , xxx 6= 000 ; (positividade).

O espaco vectorial V sobre R com o produto interno 〈..., ...〉 diz-se um espaco vectorial Euclidiano.

Exemplos. A aplicacao 〈..., ...〉 : Rn × Rn → R , definida por 〈xxx,yyy〉 = xxxT yyy = x1 y1 + · · · + xn yn , onde

xxx = (x1, . . . , xn) e yyy = (y1, . . . , yn) e um produto interno.

De facto, foi este exemplo que usamos como definicao de produto interno em Rn . Mostramos ainda que

esta aplicacao satisfaz as condicoes 1, 2, 3 da definicao de produto interno.

[email protected] 57

Page 58: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Observacao. Da simetria do produto interno temos a linearidade relativamente a segunda componente,

i.e. 〈xxx, αyyy+yyy′〉 = α 〈xxx,yyy〉+ 〈xxx,yyy′〉 . Mais ainda, 〈xxx,000〉 = 0 , e tambem, da simetria do produto interno,

temos 〈000,xxx〉 = 0 , xxx ∈ V . Esta propriedade sai directamente da propriedade 2 de produto interno

aplicada aos vectores xxx,xxx′ tais que xxx′ = −αxxx ; de facto, 〈000, yyy〉 = 〈αxxx,yyy〉+ 〈xxx′, yyy〉 = −〈xxx′, yyy〉+ 〈xxx′, yyy〉 =

0 . A terceira condicao na definicao de produto interno pode ser enunciada de modo equivalente por

〈xxx,xxx〉 ≥ 0 , xxx ∈ V e 〈xxx,xxx〉 = 0 se, e somente se, xxx = 000 .

Exemplo. No espaco vectorial real das funcoes reais de variavel real contınuas em [0, 1] podemos definir

produto interno como a aplicacao 〈f, g〉 =

∫ 1

0

f(t) g(t) dt . De facto,

〈f, g〉 =

∫ 1

0

f(t) g(t) dt =

∫ 1

0

g(t) f(t) dt = 〈g, f〉 , pelo que se tem 1.

Para provar 2 basta notar que

∫ 1

0

(α f(t) + g(t))h(t) dt = α

∫ 1

0

f(t)h(t) dt +

∫ 1

0

g(t)h(t) dt . Ja a

positividade sai da propriedade

∫ 1

0

f 2(t) dt > 0 , f 6= 0 contınua (logo f 2 e uma funcao contınua e

estritamente positiva em [0, 1] , de onde se conclui o resultado).

Definicao. Seja V um espaco vectorial Euclidiano. Dizemos que xxx,yyy sao vectores ortogonais se

〈xxx,yyy〉 = 0 , e denotamo-lo por xxx ⊥ yyy ;

os vectores xxx,yyy dizem-se orto-normais se xxx ⊥ yyy e ‖xxx‖ = 1 = ‖yyy‖ .

Em R esta condicao le-se 〈xxx,yyy〉 = x1 y1+· · ·+xn yn = 0 , e ‖xxx‖ =√x2

1 + · · ·+ x2n = 1 =

√y2

1 + · · ·+ y2n

onde xxx = (x1, . . . , xn) e yyy = (y1, . . . , yn) .

Definicao. Seja V um espaco vectorial Euclidiano. Definimos a funcao norma em V como a aplicacao

‖...‖ : V→ R+ com ‖xxx‖ =√〈xxx,xxx〉 .

Para o nosso exemplo em Rn , temos ‖xxx‖ =√〈xxx,xxx〉 =

√x2

1 + · · ·+ x2n .

Propriedades da norma. Sejam xxx,yyy ∈ V e α ∈ R ; entao:

1. ‖xxx‖ > 0 , xxx 6= 0 ; alem disso, ‖000‖ = 0 ;

2. ‖αxxx‖ = |α| ‖xxx‖ ;

3. |〈xxx,yyy〉| ≤ ‖xxx‖ ‖yyy‖ ; (desigualdade de Cauchy-Schwarz)

4. ‖xxx+ yyy‖ ≤ ‖xxx‖+ ‖yyy‖ . (desigualdade triangular ou de Minkowsky)

Demonstracao. Da definicao de produto interno sabemos que se xxx 6= 000 , 〈xxx,xxx〉 > 0 , pelo que a

norma esta bem definita e tem-se ‖xxx‖ =√〈xxx,xxx〉 > 0 . Note-se tambem que ‖000‖ =

√〈000,000〉 = 0 ,

pelo que 1 fica provado. Para analisarmos 2 basta aplicar as propriedades de produto interno, i.e.

‖αxxx‖ =√〈αxxx, αxxx〉 =

√α2 〈xxx,xxx〉 = |α| ‖xxx‖ . Vemos tambem que 3 e trivialmente verificado se xxx ou yyy

e o vector nulo de V . Logo vamos supor que xxx 6= 000 e yyy 6= 000 e considere-se vvv = xxx/‖xxx‖ ± yyy/‖yyy‖ . Entao

0 ≤ ‖vvv‖2 = 〈xxx/‖xxx‖ ± yyy/‖yyy‖,xxx/‖xxx‖ ± yyy/‖yyy‖〉 = 〈xxx,xxx〉/(‖xxx‖)2 ± 2〈xxx,yyy〉/(‖xxx‖ ‖yyy‖) + 〈yyy,yyy〉/(‖yyy‖)2 .

Obtemos assim que 2± 2〈xxx,yyy〉/(‖xxx‖ ‖yyy‖) ≥ 0 , i.e. ±〈xxx,yyy〉 ≤ ‖xxx‖ ‖yyy‖ , pelo que 3 fica provado.

[email protected] 58

Page 59: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Paa demonstrar 4 basta aplicar a desigualdade de Cauchy-Schwarz ao calculo de

‖xxx+ yyy‖2 = 〈xxx+ yyy,xxx+ yyy〉 = ‖xxx‖2 + 2〈xxx,yyy〉+ ‖yyy‖2 ≤ ‖xxx‖2 + 2‖xxx‖ ‖yyy‖+ ‖yyy‖2 = (‖xxx‖+ ‖yyy‖)2 . c.q.d.

Observacao. O conjunto de vectores, {xxx,yyy} , de um espaco vectorial Euclidiano e linearmente depen-

dente se, e somente se, |〈xxx,yyy〉| = ‖xxx‖ ‖yyy‖ , i.e. a desigualdade de Cauchy-Schwarz reduz-se a uma

identidade. De facto, {xxx,yyy} e linearmente dependente se, e somente se, ‖yyy‖xxx = ±‖xxx‖yyy , i.e. se, e

somente se, ‖yyy‖xxx∓ ‖xxx‖yyy = 000 ; assim,

0 = 〈‖yyy‖xxx∓ ‖xxx‖yyy, ‖yyy‖xxx∓ ‖xxx‖yyy〉 = 2‖xxx‖2‖yyy‖2 ∓ 2‖xxx‖2‖yyy‖2〈xxx,yyy〉 , i.e. ‖xxx‖ ‖yyy‖ = ±〈xxx,yyy〉 .Note-se que em Rn e para o produto interno definido as desigualdades de Cauchy-Schwarz e triangular

expressam-se, respectivamente, por:

|x1 y1 + · · ·+ xn + yn| ≤√x2

1 + · · ·+ x2n

√y2

1 + · · ·+ y2n

e (x1 +y1)2 + · · ·+(xn+yn)2 ≤ (x21 + · · ·+x2

n)+(y21 + · · ·+y2

n) , onde xxx = (x1, . . . , xn) e yyy = (y1, . . . , yn) .

Definicao. Seja V um espaco vectorial Euclidiano; definimos distancia como a aplicacao d : V×V→ R+

com d(xxx,yyy) = ‖xxx− yyy‖ .

Em Rn e para a funcao norma definida a partir do produto interno indicado, a funcao distancia vem

dada por d(xxx,yyy) =√

(x1 − y1)2 + · · ·+ (xn − yn)2 , onde xxx = (x1, . . . , xn) e yyy = (y1, . . . , yn) .

Propriedades da distancia (cf. problema 168 do caderno de exercıcios). Sejam xxx,yyy,zzz ∈ V ;

entao:

1. d(xxx,yyy) > 0 se xxx 6= yyy ; alem disso, d(xxx,xxx) = 0 ;

2. d(xxx,yyy) = d(yyy,xxx) ;

3. d(xxx,zzz) ≤ d(xxx,yyy) + d(yyy,zzz) . (desigualdade triangular)

Demonstracao. Tomando uuu = xxx − yyy 6= 000 , logo d(xxx,yyy) = ‖uuu‖ ; e da positividade da funcao norma

temos 1. Para verificar 2 basta ter em atencao que ‖xxx− yyy‖ = ‖ − (yyy − xxx)‖ = | − 1| ‖yyy − xxx‖ = ‖yyy − xxx‖ .

A desigualdade triangular e consequencia da desigualdade triangular para a norma; de facto,

d(xxx,zzz) = ‖xxx− zzz‖ = ‖(xxx− yyy) + (yyy − zzz)‖ ≤ ‖xxx− yyy‖+ ‖yyy − zzz‖ = d(xxx,yyy) + d(yyy,zzz) . c.q.d.

Definicoes. Sejam xxx,yyy dois vectores nao nulos do espaco vectorial Euclidiano V . O angulo entre os

vectores xxx,yyy , ∠ (xxx,yyy) = θ + 2kπ , k ∈ Z , θ ∈ [0, π] , fica caracterizado pelo cos θ = 〈xxx,yyy〉/(‖xxx‖ ‖yyy‖) .

Sendo xxx 6= 000 , definimos projeccao ortogonal de yyy sobre xxx e denotamo-la por projxxx yyy como

projxxx yyy = 〈xxx,yyy〉/(‖xxx‖2)xxx .

Observacao. Note-se que supondo xxx,yyy 6= 000 da desigualdade de Cauchy-Schwarz temos que

〈xxx,yyy〉/(‖xxx‖ ‖yyy‖) ∈ [−1, 1] ,

pelo que existe um e um so θ ∈ [0, π] tal que cos θ = 〈xxx,yyy〉/(‖xxx‖ ‖yyy‖) , i.e., 〈xxx,yyy〉 = ‖xxx‖ ‖yyy‖ cos θ .

Dois vectores nao nulos, xxx,yyy , sao ortogonais se, e somente se, formam um angulo recto, pois nesse caso

cos θ = 0 , logo 〈xxx,yyy〉 = ‖xxx‖ ‖yyy‖ cos θ = 0 .

[email protected] 59

Page 60: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

21-11-2013 | TP.

Resolucao dos problemas 154, 155, 156, 158, 159, 165 e 172 do caderno de exercıcios.

Resolucao do problema 154. Comecemos por notar que a alınea a) foi ja analisada no seguimento

da definicao de produto interno. A alınea b) sai do facto de que se 〈uuu,vvv〉 = 0 , vvv ∈ R , entao 〈uuu,eeej〉 = 0 ,

j = 1, . . . , n , onde {eee1, . . . , eeen} e a base canonica de Rn . Assim, obtemos que sao nulas as coordenadas

de xxx na base canonca de Rn . Para analisar a alınea c) basta notar que 〈uuu,vvv〉 = 〈uuu′, vvv〉 , vvv ∈ Rn e

equivalente a 〈uuu− uuu′, vvv〉 = 0 , vvv ∈ Rn e da alınea b) temos que uuu = uuu′ . c.q.d.

Resolucao do problema 155. Sabemos por hipotese que 〈vvvj, vvvl〉 = 0 , j 6= l ∈ {1, . . . , k} ; entao

〈αj vvvj, αl vvvl〉 = αj 〈vvvj, αl vvvl〉 = αj αl 〈vvvj, vvvl〉 = 0 , j 6= l ∈ {1, . . . , k} . c.q.d.

Resolucao do problema 158. Os vectores uuu = (1, 2, 3) e vvv = (−3, 0, 1) tem norma 14 e 10 , res-

pectivamente, sao ortogonais, pois 〈uuu,vvv〉 = −3 + 3 = 0 . Assim, os vectores uuu/‖uuu‖ = (1/14, 1/7, 3/14)

e vvv/‖vvv‖ = (−3/10, 0, 1/10) tem norma igual a 1 .

Resolucao do problema 159. Os vectores yyy = (0,−2, 4, 1) e zzz = (3, 7, 3, 2) sao ortogonais pois

〈yyy,zzz〉 = −14 + 12 + 2 = 0 . Mais ainda ‖xxx‖ =√〈(1, 2, 3, 5), (1, 2, 3, 5)〉 =

√12 + 22 + 32 + 52 =

√39 , ‖yyy‖ =

√(−2)2 + 42 + 12 =

√21 , ‖zzz‖ =

√32 + 72 + 32 + 22 =

√71 ; d(xxx,yyy) = ‖xxx − yyy‖ =√

12 + 42 + (−1)2 + 42 =√

34 .

Definicao. Um conjunto de vectores {uuu1, . . . ,uuup} ⊂ V , diz-se ortogonal se 〈uuui,uuuj〉 = 0 , para i 6= j ∈{1, . . . , p} ; e diz-se orto-normal se

〈uuui,uuuj〉 = δi,j , onde δi,j e a delta de Kronecker para i, j ∈ {1, . . . , p} , i.e. δi,j =

1 , i = j

0 , i 6= j.

Observacao. Se {uuu1, . . . ,uuup} e um conjunto ortogonal de vectores nao nulos de um espaco vectorial

Euclidiano, V ; entao o conjunto de vectores {uuu1/‖uuu1‖, . . . ,uuup/‖uuup‖} e orto-normal em V .

Resolucao do problema 156. Para n = 1 o resultado e obviamente verdadeiro. Suponhamos como

hipotese de inducao que

〈α1xxx1 + · · ·+ αk xxxk, yyy〉 = α1 〈xxx1, yyy〉+ · · ·+ αk 〈xxxk, yyy〉 , k = 1, . . . , p ;

e analisemos o que se passa com

〈(α1xxx1 + · · ·+ αpxxxp) + αp+1xxxp+1, yyy〉 = 〈α1xxx1 + · · ·+ αk xxxk, yyy〉+ αp+1 〈xxxp+1, yyy〉(da linearidade do produto interno relativamente a primeira componente); aplicando agora a hipotese

de inducao temos, 〈α1xxx1 + · · ·+αpxxxp +αp+1xxxp+1, yyy〉 = α1 〈xxx1, yyy〉+ · · ·+αp 〈xxxp, yyy〉+αp+1 〈xxxp+1, yyy〉 . c.q.d.

Resolucao do problema 165 (interpretacao matricial da definicao). Tome-seQ =[uuu1 · · · uuun

]onde uuuj =

[αj

1 · · · αjn

]T, j = 1, . . . , n =⇒ QTQ =

uuuT1...

uuuTn

[uuu1 · · · uuun

]=

〈uuu1,uuu1〉 · · · 〈uuu1,uuun〉

......

〈uuun,uuu1〉 · · · 〈uuun,uuun〉

.

[email protected] 60

Page 61: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Assim, a orto-normalidade do conjunto de vectores {uuu1, . . . ,uuun} e equivalente a dizer que a matriz Q

e ortogonal , i.e. QTQ = In .

Resolucao do problema 172. Aqui vamos supor que estamos a considerar o exemplo de produto

interno em Rn . Para a alınea a) temos 〈Qxxx,Qyyy〉 = (Qxxx)T (Qyyy) = xxxT (QTQ)yyy = xxxTyyy = 〈xxx,yyy〉 ; da

definicao de co-seno do angulo dos vectores Qxxx e Qyyy , i.e. 〈Qxxx,Qyyy〉/(‖Qxxx‖‖Qyyy‖) temos o pretendido,

pois ‖Qxxx‖ =√

(Qxxx)T (Qxxx) =√xxxT (QTQ)xxx =

√xxxTxxx = ‖xxx‖ .

Teorema de Pitagoras. Num espaco vectorial Euclidiano, dois vectores, xxx,yyy , sao ortogonais se, e

somente se, ‖xxx+ yyy‖2 = ‖xxx‖2 + ‖yyy‖2 .

Demonstracao. Comecemos por analisar

‖xxx+ yyy‖2 = 〈xxx+ yyy,xxx+ yyy〉 = 〈xxx,xxx〉+ 2 〈xxx,yyy〉+ 〈yyy,yyy〉 = ‖xxx‖2 + 2 〈xxx,yyy〉+ ‖yyy‖2 .

Assim, temos a identidade ‖xxx+ yyy‖2 = ‖xxx‖2 + ‖yyy‖2 se, e somente se, xxx ⊥ yyy .

Lei do paralelogramo. No seguimento do teorema de Pitagoras, calcule-se ‖xxx− yyy‖2 , i.e.

‖xxx− yyy‖2 = 〈xxx− yyy,xxx− yyy〉 = 〈xxx,xxx〉 − 2 〈xxx,yyy〉+ 〈yyy,yyy〉 = ‖xxx‖2 − 2 〈xxx,yyy〉+ ‖yyy‖2 .

Assim, ‖xxx+ yyy‖2 + ‖xxx− yyy‖2 = 2 ‖xxx‖2 + 2 ‖yyy‖2 . (identidade do paralelogramo)

26-11-2013 | T.

Processo de ortogonalizacao de Gram-Schmidt. Decomposicao QR de uma matriz. Projeccao

ortogonal de um vector sobre um subespaco. Resolucao de problemas do caderno de exercıcios.

Teorema. Se {uuu1, . . . ,uuup} e um conjunto de vectores nao nulos de um espaco vectorial Euclidiano, V

(ou um conjunto orto-normal de de vectores), entao e linearmente independente.

Demonstracao. Analisemos a combinacao linear nula dos vectores {uuu1, . . . ,uuup} , i.e.

α1uuu1 + · · ·+ αpuuup = 000 .

Multiplicando escalarmente por uuuj , para j = 1, . . . , p temos

α1〈uuu1,uuuj〉+ · · ·+ αj〈uuuj,uuuj〉+ · · ·+ αp〈uuup,uuuj〉 = 0 ,

e da ortogonalidade concluımos que αj〈uuuj,uuuj〉 = 0 , i.e. αj = 0 , j = 1, . . . , p . c.q.d.

Processo de orto-normalizacao de Gram-Schmidt. Seja B = {uuu1, . . . ,uuun} uma base do espaco

vectorial Euclidiano, V . Entao {eee1, . . . , eeen} tal que

eee1 = uuu1 , eeej = uuuj − (αj1 eee1 + · · ·+ αj

j−1 eeej−1) , com αjk = 〈uuuj, eeek〉/(‖eeek‖2) ,

k = 1, . . . , j − 1 , j = 2, . . . , n , e uma base ortogonal de V . Pelo que {eee1/‖eee1‖, . . . , eeen/‖eeen‖} e uma

base orto-normal de V e {eee1, . . . , eeen} e uma base ortogonal de V .

Observacao. Do algoritmo de Gram-Schmidt vemos que

eee1 = uuu1 , eeej = uuuj − (projeee1 uuuj + · · ·+ projeeej−1uuuj) , j = 2, . . . , n .

[email protected] 61

Page 62: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Demonstracao. A demonstracao vai ser feita por inducao. Para n = 1 a propriedade e trivial-

mente verdadeira, pois L({uuu1}) = L({eee1}) . Suponhamos que a propriedade e verdadeira para p , i.e.

L({uuu1, . . . ,uuup}) = L({eee1, . . . , eeep}) e {eee1, . . . , eeep} e um conjunto ortogonal de vectores, e mostremos que

o vector eeep definido pelo algoritmo e ortogonal a L({eee1, . . . , eeep}) , i.e. L({eee1, . . . , eeep}) e um conjunto

ortogonal de vectores, e L({uuu1, . . . ,uuup,uuup+1}) = L({eee1, . . . , eeep, eeep+1}) . Analise da ortogonalidade:

〈eeep+1, eeej〉 = 〈uuup+1, eeej〉 − 〈αp+11 eee1 + · · ·+ αp+1

p eeep, eeej〉 = 〈uuup+1, eeej〉 − αp+1j 〈eeej, eeej〉

= 〈uuup+1, eeej〉 − 〈uuup+1, eeej〉 〈eeej, eeej〉/(‖eeej‖2) = 0 , j = 1, . . . , p .

Por definicao de eeep+1 vemos que os sub-espacos vectoriais L({uuu1, . . . ,uuup,uuup+1}) e L({eee1, . . . , eeep, eeep+1})coincidem. c.q.d.

Resolucao do problema 175. Ve-se facilmente que (0, 3, 3, 7) = 2 (1, 1,−1,−2) + (−2, 1, 5, 11) e

como nao existe α ∈ R tal que (1, 1,−1,−2) = α(−2, 1, 5, 11) , pelo que {(1, 1,−1,−2), (−2, 1, 5, 11)}e uma base de L({(1, 1,−1,−2), (−2, 1, 5, 11), (0, 3, 3, 7)}) (que e, por isto, um sub-espaco vectorial

de R4 de dimensao 2). Aplicando o processo de ortogonalizacao de Gram-Schmidt obtemos como

base ortogonal {fff 1, fff 2} com fff 1 = (1, 1,−1,−2) e fff 2 = (−2, 1, 5, 11)− 〈(−2, 1, 5, 11), fff 1〉fff 1/(‖fff 1‖2) =

(−2, 1, 5, 11)+4fff 1 = (2, 5, 1, 3) . Assim, {(1, 1,−1,−2), (2, 5, 1, 3)} e uma base ortogonal do sub-espaco

dado.

Teorema de completacao de bases ortogonais. Se V e um espaco vectorial Euclidiano de dimensao

finita, n e B = {uuu1, . . . ,uuup} e um conjunto ortogonal de vectores nao nulos em V , com p < n , entao

existe um conjunto, B′ = {uuup+1, . . . ,uuun} de n− p vectores em V , tal que B ∪B′ e uma base ortogonal

de V .

Ideia da demonstracao. Pelo teorema da completacao da base dado na aula T | 5-11-2013 existe

um vector eee ∈ V tal que B ∪ {eee} e um conjunto linearmente independente de vectores em V . Entao o

conjunto de vectores {uuu1, . . . ,uuup,uuup+1} e ortogona, onde

uuup+1 = eee− (α1uuu1 + · · ·+ αpuuup) , com αj = 〈eee,uuuj〉/(‖uuuj‖2) , j = 1, . . . , p

(note-se que eee foi definido a partir do algoritmo de Gram-Schmidt). Repetindo este processo n − p

vezes obtemos uma base ortogonal de V . c.q.d.

Factorizacao QR de uma matriz. Se A ∈Mn,k(R) tem caracterıstica k , entao A pode representar-

-se na forma QR onde R ∈ Mk,k(R) e uma matriz triangular superior e Q ∈ Mn.k(R) e tal que

QTQ = Ik .

Demonstracao. Este resultado e a reescrita matricial do processo de orto-normalizacao de Gram-

-Schmidt, considerando os vectores intervenientes representados pelo vector coluna da coordenadas na

base canonica de Rn , i.e. uuuj = (uj1, . . . , ujn) e eeej = (ej1, . . . , e

jn) , = 1, . . . , k . De facto, reescrevendo

matricialmente o algoritmo de Gram-Schmidt, i.e.

uuuj = αj1 eee1 + · · ·+ αj

j−1 eeej−1 + eeej , k = 1, . . . , j − 1 , j = 1, . . . , n , temos

[email protected] 62

Page 63: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

[uuu1 uuu2 · · · uuuk

]=[eee1 eee2 · · · eeek

]

1 α21 · · · αk

1

0 1 · · · αk2

......

. . ....

0 0 · · · 1

; pelo que tomando A =[uuu1 · · · uuuk

],

Q =[eee1 eee2 · · · eeek

]diag{1/‖eee1‖, 1/‖eee2‖, . . . , 1/‖eeek‖} =

[eee1/‖eee1‖ eee2/‖eee2‖ · · · eeek/‖eeek‖

]e

R = diag{‖eee1‖, ‖eee2‖, . . . , ‖eeek‖}

1 α2

1 · · · αk1

0 1 · · · αk2

......

. . ....

0 0 · · · 1

=

‖eee1‖ α2

1‖eee1‖ · · · αk1‖eee1‖

0 ‖eee2‖ · · · αk2‖eee2‖

......

. . ....

0 0 · · · ‖eeek‖

,

se tem a decomposicao procurada, A = QR , pois QTQ =[〈eeej/‖eeej‖, eeel/‖eeel‖〉

]l=1,...,k

j=1,...,k=[δj,l

]l=1,...,k

j=1,...,k= Ik

e R e, por construcao, uma matriz triangular superior. c.q.d.

Coordenadas numa base ortogonal. Seja V um espaco vectorial Euclidiano de dimensao finita,

com base orto-nornal {eee1, . . . , eeen} . Entao, as coordenadas de um qualquer vector xxx ∈ V , i.e. xxx =

(x1, . . . , xn) e dado por xj = 〈xxx,eeej〉 , j = 1, . . . , n ; e, portanto, xxx = 〈xxx,eee1〉eee1 + · · ·+ 〈xxx,eeen〉eeen , ou ainda

xxx = ‖xxx‖((cos θ1)eee1 + · · ·+ (cos θn)eeen) , onde ∠(xxx,eeej) = θj , j = 1, . . . , n .

Demonstracao. Como {eee1, . . . , eeen} e uma base orto-normal de V , existem escalares αj ∈ R tais que

xxx = α1 eee1 + · · ·+ αn eeen . Multiplicando escalarmente por eeej a alterior identidade obtemos,

〈xxx,eeej〉 = α1 〈eee1, eeej〉+ · · ·+ αn 〈eeen, eeej〉 = αj 〈eeej, eeej〉 = αj , j = 1, . . . , n .

Mais ainda, 〈xxx,eeej〉 = ‖xxx‖ ‖eeej‖ cos∠(xxx,eeej) = ‖xxx‖ cos∠(xxx,eeej) , j = 1, . . . , n . c.q.d.

Resolucao do problema 166. No anterior teorema, se a base considerada for somente ortogonal,

entao

xxx = 〈xxx,eee1〉eee1/(‖eee1‖2) + · · ·+ 〈xxx,eeen〉eeen/(‖eeen‖2) , i.e. xxx = projeee1 xxx+ · · ·+ projeeen xxx ,

ou ainda,

xxx/‖xxx‖ = (cos θ1)eee1/‖eee1‖+ · · ·+ (cos θn)eeen/‖eeen‖ ,

onde ∠(xxx,eeej) = θj , j = 1, . . . , n . Assim, o vector coordanadas de xxx/‖xxx‖ na base orto-normal,

{eee1/‖eee1‖, . . . , eeen/‖eeen‖} , e dado por (cos θ1, . . . , cos θn) , onde cos θj , j = 1, . . . , n sao designados por

co-senos directores de xxx . Alem disso, como, xxx , tem norma 1 ,

cos2 θ1 + · · ·+ cos2 θn = 1 .

Exemplo. As coordenadas de um qualquer vector, xxx de

L({(1, 1,−1,−2), (−2, 1, 5, 11), (0, 3, 3, 7)}) = L({(1, 1,−1,−2), (−2, 1, 5, 11)}) ,

i.e. (α, β) onde xxx = α (1, 1,−1,−2) + β (−2, 1, 5, 11) , descrito na base ortogonal, {fff 1, fff 2} , fff 1 =

(1, 1,−1,−2) e fff 2 = (2, 5, 1, 3) , determinada no exercıcio 175 e dado por (α− 4β, β) , i.e.

(α− 2β, α + β,−α + 5β,−2α + 11β) = (α− 4β)fff 1 + β fff 2 .

[email protected] 63

Page 64: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

De facto, basta ter em atencao que aplicando o proceso de ortogonalizacao de Gram-Schmidt ao con-

junto de vectores {(1, 1,−1,−2), (−2, 1, 5, 11)} , obtemos {fff 1, fff 2} com (−2, 1, 5, 11) = fff 2 − 4fff 1 ; logo

α (1, 1,−1,−2) + β (−2, 1, 5, 11) = (α− 4β)fff 1 + β fff 2 . (Confira, como exercıcio, que

〈α (1, 1,−1,−2) + β (−2, 1, 5, 11), fff 1〉/(‖fff 1‖2) = α− 4β

e tambem 〈α (1, 1,−1,−2) + β (−2, 1, 5, 11), fff 2〉/(‖fff 2‖2) = β .)

Definicao. Sejam V um espaco vectorial Euclidiano, U um seu sub-espaco e xxx ∈ V . Dizemos que

xxxU := projUxxx e o vector projeccao ortogonal de xxx sobre U se xxxU ∈ U e xxx − xxxU e ortogonal a todo o

vector de U .

Teorema de caracterizacao. Sejam V um espaco vectorial Euclidiano, U um seu sub-espaco e xxx ∈ V .

Um vector xxxU e a projeccao ortogonal de xxx sobre U se, e somente se, xxxU e o vector de U mais proximo

de xxx no sentido da distancia definida em termos do produto interno em V , i.e.

‖xxx− xxxU‖ := min{dist(xxx,uuu) , uuu ∈ U} = min{‖xxx− uuu‖ , uuu ∈ U} .

Ideia da demonstracao. Sejam xxx um vector dado em V e uuu um qualquer vector de U . Tome-se,

xxx−uuu = (xxx−xxxU)+(xxxU−uuu) , pelo que ‖xxx−uuu‖2 = ‖xxx−xxxU‖2 +‖xxxU−uuu‖2 (pois, por definicao de projeccao

xxx− xxxU e ortogonal a todo o vector de U e xxxU − uuu ∈ U , e portanto, estamos nas condicoes do teorema

de Pitagoras). Assim, ‖xxx− xxxU‖ ≤ ‖xxx− uuu‖ , uuu ∈ U; com identidade se, e somente se, uuu = xxxU . c.q.d.

28-11-2013 | T.

Metodo dos mınimos quadrados. Resolucao do problema 178 do caderno de exercıcios.

Teorema (coeficientes de Fourier). Sejam V um espaco vectorial Euclidiano, U um seu sub-espaco

e xxx um vector dado em V . Se U tem dimensao finita e B = {uuu1, . . . ,uuup} e uma base ortogonal de U ,

entao a projeccao ortogonal de xxx sobre U expressa-se na base B de U , como

projUxxx = α1uuu1 + · · ·+ αpuuup , com αj = 〈xxx,uuuj〉/(‖uuuj‖2) , j = 1, . . . , p .

Os escalares αj designam-se por coeficientes de Fourier de xxx na base B .

Ideia da demonstracao. Por definicao xxx − projUxxx e ortogonal a todos os vectores de U , logo e

ortogonal a todos os vectores da base B de U , i.e.

0 = 〈xxx− projUxxx,uuuj〉 = 〈xxx,uuuj〉 − α1 〈uuu1,uuuj〉 − · · · − αj 〈uuuj,uuuj〉 − αp 〈uuup,uuuj〉 = 〈xxx,uuuj〉 − αj ‖uuuj‖2

pelo que, αj = 〈xxx,uuuj〉/(‖uuuj‖2) j = 1, . . . , p . c.q.d.

Resolucao do problema 176. O conjunto de vectores {vvv1, vvv2} com vvv1 = (1, 0, 0) e vvv2 = (1, 1, 0) e li-

nearmente independente. Vamos ortogonaliza-lo pelo processo de ortogonalizacao de Gram-Schmidt, i.e.

construımos um conjunto ortogonal de vectores {uuu1,uuu2} , com uuu1 = vvv1 e uuu2 = vvv2−〈vvv2,uuu1〉uuu1/(‖uuu1‖2) =

(1, 1, 0)−(1, 0, 0) = (0, 1, 0) . Assim, a projeccao ortogonal de bbb = (1, 3, 2) sobre o sub-espaco gerado por

{vvv1, vvv2} ou, o que e equivalente, sobre o sub-espaco gerado por {uuu1,uuu2} e o vector (1, 3, 0) . De facto,

projL({vvv1,vvv2})(1, 3, 2) = α1uuu1 +α2uuu2 , com α1 = 〈(1, 3, 2),uuu1〉/‖uuu1‖2 = 1 e α2 = 〈(1, 3, 2),uuu2〉/‖uuu2‖2 = 3 .

[email protected] 64

Page 65: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Interpretacao matricial do teorema anterior. Seja V um espaco vectorial Euclidiano de dimensao

finita, n . Assim podemos identificar os vectores de V com as correspondentes coordenadas numa deter-

minada base de V . Fixada a base as identidades matriciais que escrevermos serao nela interpretadas.

Agora, da representacao do vector projeccao de xxx sobre um sub-espaco, U , de V e dada por

projUxxx = 〈xxx,uuu1/‖uuu1‖〉uuu1/‖uuu1‖+ · · ·+ 〈xxx,uuup/‖uuup‖〉uuup/‖uuup‖ .

Assim, projUxxx = QQT xxx pois QT xxx =[uuuT1xxx · · · uuuTpxxx

]. Mais ainda, A = QR e vimos ja que

QTQ = Ip , logo ATA = RT (QTQ)R = RTR . Assim,

QQT = (AR−1) (AR−1)T = AR−1(R−1)TAT = A (RTR)−1AT = A (ATA)−1AT ;

e, portanto, projUxxx = A (ATA)−1AT xxx .

Mınimos quadrados. Seja A ∈Mm,n(R) e bbb ∈ Rm dados. Um vector xxx ∈ R diz-se solucao do sistema

Axxx = b no sentido dos mınimos quadrados se ‖Axxx− bbb‖ = min{‖Axxx− b‖ , xxx ∈ R} .

Caracterizacao. As solucoes no sentido dos mınimos quadrados do sistema Axxx = bbb sao as solucoes, xxx ,

do sitema Axxx = projC(A) bbb .

Ideia da demonstracao. Basta escrever Axxx−bbb = (Axxx−projC(A) bbb)+(projC(A) bbb−bbb) e ter em atencao

que por definicao de projeccao de um vector sobre um sub-espaco vectorial, temos que projC(A) bbb − bbbe ortogonal a C(A) e, portanto, a Axxx − projC(A) bbb , pelo que podemos aplicar o teorema de Pitagoras

obtendo ‖Axxx− bbb‖2 = ‖Axxx− projC(A) bbb‖2 + ‖ projC(A) bbb− bbb‖2 ; pelo que (como Axxx = projC(A) bbb)

‖Axxx− bbb‖ ≤ ‖Axxx− bbb‖ ,

tendo-se igualdade se, e somente se, xxx : Axxx = projC(A) bbb . c.q.d.

Resolucao do problema 178. Sabemos que o sub-espaco das colunas de A e o sub-espaco gerado

pelos vectores {xxx,yyy} , com xxx = (1, 0, 1) e yyy = (0,−1, 2) , que tem dimensao dois pois nao existe α ∈ Rtal que xxx = αyyy . Vamos determinar, usando o processo de ortogonalizacao de Gram-Schmidt, um

conjunto ortogonal de vectores, {uuu,vvv} , com L({xxx,yyy}) = L({uuu,vvv}) , i.e.

uuu = xxx e vvv = yyy − 〈yyy,uuu〉uuu/(‖uuu‖2) = yyy − uuu = (−1,−1, 1) .

Agora, projC(A) bbb = projuuu bbb+projvvv bbb = 〈bbb,uuu〉uuu/(‖uuu‖2)+〈bbb,vvv〉vvv/(‖vvv‖2) = 0uuu+(4/3)vvv = (−4/3,−4/3, 4/3).

Determinar, no sentido dos mınimos quadrados, a solucao de zzz ∈ R2 : Azzz = bbb e equivalente a deter-

minar zzz ∈ R2 : Azzz = projC(A) bbb . Vemos assim que a solucao vem dada por zzz = (−4/3, 4/3) .

28-11-2013 | TP.

Resolucao do problema 181 do caderno de exercıcios. Complemento ortogonal de um sub-espaco

vectorial de dimensao finita. Aplicacoes.

Consideracoes sobre os mınimos quadrados. Vemos do teorema de caracterizacao que xxx e solucao

no sentido dos mınimos quadrados de Axxx = bbb se, e somente se, Axxx for a projeccao ortogonal de bbb

sobre C(A) , i.e. bbb− Axxx for ortogonal aos vectores de C(A) = {Ayyy : yyy ∈ Rn} , ou ainda

[email protected] 65

Page 66: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

0 = 〈Ayyy, bbb− Axxx〉 = (Ayyy)T (bbb− Axxx) = yyyT (ATbbb− ATAxxx) = 〈yyy, ATbbb− ATAxxx〉 , yyy ∈ Rn ;

logo ATbbb − ATAxxx e ortogonal a todos os vectores de Rn , pelo que so pode ser o vector nulo, i.e.

ATAxxx = ATbbb .

Em conclusao. O vector xxx e uma solucao no sentido dos mınimos quadrados do sistema Axxx = bbb se,

e somente se, xxx ∈ Rn : ATAxxx = ATbbb .

Resolucao do problema 178 (outro processo). Acabamos de ver que a solucao no sentido dos

mınimos quadrados de zzz ∈ R2 : Azzz = bbb e equivalente a determinar zzz ∈ R2 : ATAzzz = ATbbb , i.e.

zzz ∈ R2 :

[2 2

2 5

]zzz =

[0

4

]; logo zzz = (−4/3, 4/3) .

Resolucao do problema 181. O determinante da matriz A e zero, pois

(2,−4, 2) = −2 (0, 1,−1) + 2(1,−1, 0) ,

logo o conjunto de vectores que compoem as colunas de A , i.e. o conjunto de vectores

{(0, 1,−1), 2(1,−1, 0), (2,−4, 2)} e linearmente dependente.

Mais ainda, como nao existe α ∈ R tal que (0, 1,−1) = α (1,−1, 0) , temos que

C(A) = L({(0, 1,−1), (1,−1, 0)}) .

Determinemos uma base ortogonal para C(A) utilizando o processo de ortogonalizacao de Gram-

-Schmidt, i.e.

xxx = (0, 1,−1) e yyy = (1,−1, 0)− projxxx(1,−1, 0) = (1,−1, 0) + (0, 1,−1)/2 = (1,−1/2,−1/2) ;

pelo que {xxx,yyy} sao ortogonais e C(A) = L({xxx,yyy}) .

Assim, projC(A)(0, 1, 3) = projxxx(0, 1, 3) + projyyy(0, 1, 3) = −xxx− 4/3yyy = (−4/3,−1/3, 5/3) .

A solucao, no sentido dos mınimos quadrados do sistema zzz ∈ R3 : Azzz = bbb , e a solucao do sistema

Azzz = projC(A) bbb , i.e. zzz = (−5/3,−4/3, 0) + α (2,−2, 1) , α ∈ R .

Complemento ortogonal. Seja V um espaco vectorial Euclidiano. Dizemos que dois sub-espacos

de V sao ortogonais se, qualquer vector de um deles for ortogonal a todos os vectores do outro.

Dado um sub-espaco, U , de V ; o conjunto U⊥ = {xxx ∈ V : 〈xxx,uuu〉 = 0, uuu ∈ U} e o maior sub-espaco

de V que e ortogonal a U ; alem disso, U ∩ U⊥ = {000} .

Alem disso, se V tem dimensao finita entao U⊕ U⊥ = V .

Demonstracao. Ve-se facilmente que U⊥ 6= ∅ pois 000 ∈ U⊥ . Considere-se agora xxx,yyy ∈ U⊥ e α ∈ K ;

entao, por definicao de U⊥ e das propriedades de produto interno,

〈αxxx+ yyy uuu〉 = α〈xxx,uuu〉+ 〈yyy,uuu〉 = α 0 + 0 = 0 , i.e. αxxx+ yyy ∈ U⊥ .

Concluımos assim, que U⊥ e um sub-espaco vectorial de U .

A intersecao dos sub-espacos U e U⊥ e {000} , pois se xxx ∈ U e xxx ∈ U⊥ entao 〈xxx,xxx〉 = 0 , pelo que xxx = 000 .

Como U e um sub-espaco vectorial de V que e um espaco vectorial Euclidiano de dimensao finita, n ,

entao existe uma base ortogonal de U , {fff 1, . . . , fffp} , com p < n . Pelo teorema da completude da base

[email protected] 66

Page 67: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

ortogonal sabemos existir vectores fffp+1, . . . , fffn ∈ U⊥ (pois estes vectores vao ser escolhidos dois a dois

ortogonais e ortogonais a todos os vectores do conjunto de partida) tais que {fff 1, . . . , fffp, fffp+1, . . . , fffn}e uma base ortogonal de V . Agora todo o vector vvv ∈ V se expressa na forma

vvv = uuu+uuu′ , com uuu = α1 fff 1 + · · ·+αp fffp ∈ U e uuu′ = αp+1 fffp+1 + · · ·+αn fffn ∈ U⊥ ; logo, V = U+U⊥ ,

e como U ∩ U⊥ = {000} temos que V = U⊕ U⊥ .

Vejamos, independentemente, que {fffp+1, . . . , fffn} ⊂ U⊥ e uma base ortogonal de ∈ U⊥ . De facto, se

tal nao se tivesse, existiria um verctor 0 6= fff ∈ U⊥ ortogonal a todos os vectores de {fffp+1, . . . , fffn} ,

pelo que fff teria de estar em U , pelo que fff = 000 ! Assim, {fffp+1, . . . , fffn} e uma base ortogonal de ∈ U⊥ .

Exemplo. Em R4 (que e um espaco vectorial Euclidiano com o produto interno de dois vectores xxx,yyy

dado por 〈xxx,yyy〉 = xxxTyyy) considere-se o sub-espaco de dimensao 2 ,

U = {(a, a, b, b) , a, b ∈ R} = L({(1, 1, 0, 0), (0, 0, 1, 1)}) (verificar); logo o sub-espaco

U⊥ = {xxx : 〈xxx, (1, 1, 0, 0)〉 = 0 = 〈xxx, (0, 0, 1, 1)〉} = {(x, y, z, w) ∈ R4 : x+ y = 0 , z + w = 0}= L({(1,−1, 0, 0), (0, 0, 1,−1)}) .

Neste caso, temos dimU + dimU⊥ = 4 = dimR4 ; alem disso,

{(1, 1, 0, 0), (0, 0, 1, 1), (1,−1, 0, 0), (0, 0, 1,−1)} e uma base ortogonal de R4 .

Problema. Se U e um sub-espaco vectorial de um espaco vectorial Euclidiano, V de dimensao finita, n ,

entao (U⊥)⊥ = U .

Resolucao. Sendo {fff 1, . . . , fffp} uma base ortogonal de U , podemos completa-la ate obtermos uma

base ortogonal para V , i.e. {fff 1, . . . , fffp, fffp+1, . . . , fffn} , com U⊥ = L({fffp+1, . . . , fffn}) . Logo, (U⊥)⊥ =

L({fff 1, . . . , fffp}) = U .

03-12-2013 | T.

Valores e vectores proprios de transformacoes lineares entre um mesmo espaco vectorial.Valores e

vectores proprios de matrizes. Aplicacao a diagonalizacao de matrizes.

Definicao. Sejam V 6= {000} um espaco vectorial sobre K e T : V → V uma transformacao linear.

Dizemos que o escalar λ ∈ K e um valor proprio de T se existe um vector nao nulo, vvv ∈ V tal que

T(vvv) = λvvv , i.e. se a transformacao linear T−λ I nao e injectiva. Se λ e um valor proprio de T , os

vectores vvv tais que T(vvv) = λvvv dizem-se proprios de T associados ao valor proprio λ . Estes vectores

(proprios) formam um sub-espaco, N(λ) , que e o sub-espaco nulo ou nucleo da transformacao T−λ I ,

i.e. N(λ) = N(T−λ I) = {vvv ∈ V : T(vvv) = λvvv} . Designamos N(λ) como sub-espaco proprio de T

associado ao valor proprio λ .

Observacoes.

1. Se na definicao de valor proprio, λ , nao se tivesse exigido a existencia de um vector nao nulo, vvv , tal

que T(vvv) = λvvv , entao terıamos que todo o escalar em K seria valor proprio, pois T(000) = 000 = λ000 , λ ∈ K .

[email protected] 67

Page 68: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

2. O escalar λ = 0 e valor proprio de T se, e somente se, T−0 I nao e injectiva, i.e. T nao e injectiva.

3. Uma transformacao linear, T , de um espaco vectorial, V , nele mesmo, nao tem de ter forcosamente

valores proprios; por exemplo a transformacao linear T : P → P , definida por T(p) = x p(x) , nao

tem valores proprios; outro exemplo e dado pela transformacao linear T : R2 → R2 , definida por

T(x, y) = (−y, x) ; de facto, se λ ∈ R e valor proprio de T , existe (0, 0) 6= (x, y) tal que T(x, y) =

(−y, x) = λ (x, y) , i.e. y = −λx e x = λ y , pelo que y = −λ2y e y 6= 0 , logo λ2 = −1 e nao existe

λ ∈ R que verifique esta condicao!

Definicao. Seja A uma matriz quadrada n×n , com escalares em K . Dizemos que λ ∈ K e uma valor

proprio de A se existe um vector nao nulo vvv ∈ Kn tal que Avvv = λvvv . Se λ e um valor proprio de A ,

os vectores vvv ∈ Kn tais que Avvv = λvvv dizem-se proprios de A associados a λ . Os vectores proprios de

A , associados a cada valor proprio, λ , formam um sub-espaco de Kn que designaremos por sub-espaco

proprio de A associado ao valor proprio λ , i.e. N(λ) = N(A− λ I) = {vvv ∈ Kn : Avvv = λvvv}.

Teorema. Sejam V um espaco vectorial de dimensao finita, n , sobre K , T : V→ V uma transformacao

linear e A a matriz que representa T nalguma base de V . Entao,

1. λ ∈ K e um valor proprio de T se, e somente se, λ ∈ K e um valor proprio de A , ou equivalente-

mente, λ ∈ K e tal que A− λ I e uma matriz nao invertıvel;

2. λ ∈ K e um valor proprio de T e vvv ∈ Kn um vector na base dada; entao, vvv e vector proprio

de T associado a λ se, e somente se, vvv e vector proprio de A associado a λ , ou equivalentemente,

(A− λ I)vvv = 000 ;

3. a dimensao do sub-espaco proprio de T associado a λ , dim N(T−λ I) = n− car(A− λ I) .

Ideia da demonstracao. Para provar 1 e 2 basta notar que a identidade T(vvv) = λvvv se le em notacao

matrcial na base considerada como Avvv = λvvv . Para analisar 3 basta ver que o sub-espaco proprio de

T associado a λ ,

N(T−λ I) = {vvv ∈ V : (A− λ I)vvv = 000}e o sub-espaco nulo de A , logo tem dimensao n− carA . c.q.d.

Exemplo. Considere a transformacao linear T : R3 → R3 definida por T(x, y, z) = (3x, x+2y, 4x+2z) .

Determinar os valores proprios de A e respectivos espacos proprios.

Resolucao. A matriz que representa T relativamente a base canonica de R3 e A =

3 0 0

1 2 0

4 0 2

, i.e.

T(xxx) = Axxx com xxx = (x, y, z) . Assim, os valores proprios de T sao os λ ∈ R tais que A − λ I =3− λ 0 0

1 2− λ 0

4 0 2− λ

e nao invertıvel, i.e λ = 2 (com multiplicidade 2) ou λ = 3 . Agora determine-

mos os espacos proprios associados aos valores proprios λ = 2 e λ = 3 ; para tal determinemos a solucao

[email protected] 68

Page 69: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

geral dos sistemas homogeneos com matriz do sistema

A− 2 I =

1 0 0

1 0 0

4 0 0

e A− 3 I =

0 0 0

1 −1 0

4 0 −1

, respectivamente.

Logo, N(2) = L({(0, 1, 0), (0, 0, 1)}) e N(3) = L({(1, 1, 4)}) .

Interpretacao matricial do exemplo. Acabamos de mostrar que

A

1 0 0

1 1 0

4 0 1

=

1 0 0

1 1 0

4 0 1

3 0 0

0 2 0

0 0 2

, ou ainda A =

1 0 0

1 1 0

4 0 1

3 0 0

0 2 0

0 0 2

1 0 0

1 1 0

4 0 1

−1

.

Dizemos entao que a matriz A dada e diagonalizavel, i.e. existe uma matriz, P , invertıvel (matriz dos

vectores proprios) e uma matriz diagonal, D (matriz dos valores proprios), tal que A = P DP−1 .

Teorema. Seja A uma matriz quadrada n× n com escalares em K . Os valores proprios de A sao os

escalares λ ∈ K tais que det(A− λ I) = 0 (equacao caracterıstica), onde det(A− λ I) e designado por

polinomio caracterıstico (na variavel λ).

Demonstracao. A primeira afirmacao do teorema decorre directamente da definicao de valor proprio

de uma matriz A =[ai,j

]j=1,...,n

i=1,...,n. Mais ainda,

det(A− λ I) = (−1)nλn + (−1)n−1(a1,1 + a2,2 + · · ·+ an,n)λn−1 + · · ·+ detA ,

pois o coeficente das potencias n e n− 1 de λ coincidem com os coeficientes de

(a1,1 − λ)(a2,2 − λ) · · · (an,n − λ) = (−1)nλn + (−1)n−1(a1,1 + a2,2 + · · ·+ an,n)λn−1 + · · ·e o termo independente coincide com det(A− 0 I) = detA . c.q.d.

Observacao. Para o caso das matrizes A ∈ M2,2(K) , os valores proprios, λ1, λ2 estao determinados

pelas identidades λ1 + λ2 = a1,1 + a2,2 = TrA e por λ1 λ2 = a1,1 a2,2 − a1,2 a2,1 = detA .

Problema. Mostre que se λ e valor proprio de A entao λ2 e valor proprio de A2

Resolucao. Sabemos que det(A− λ I) = 0 , e queremos provar que entao det(A2− λ2 I) = 0 . De facto,

(A2−λ2 I) = (A−λ I)(A+λ I) , pelo que det(A2−λ2 I) = det(A−λ I) det(A+λ I) = 0 det(A+λ I) = 0 .

Problema. De um exemplo de uma matriz A para a qual λ2 e valor proprio de A2 sem que λ seja

valor proprio de A .

Resolucao. Por exemplo, A =

[−3 0

1 −3

]e A2 =

[9 0

−6 9

]. Vemos entao que os valores proprios

de A2 sao 3 e o −3 , no entanto −3 nao e valor proprio de A .

Problema. De um exemplo de uma matriz A com escalares reais que nao tenha valores proprios em

R , e em que A2 tenha valores proprios reais.

[email protected] 69

Page 70: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Resolucao. Basta considerar a matriz A =

[0 1

−1 0

], e A2 =

[−1 0

0 −1

]. Vemos que os valores

proprios de A estao em C , mas A2 tem como valor proprio duplo −1 .

05-12-2013 | T.

Independencia linear do conjunto de vectores proprios associados a valores proprios distintos.

Consequencias. Propriedades dos valores e vectores proprios de matrizes simetricas. Resolucao do

problema 188. f) do caderno de exercıcios.

Teorema. Sejam V um espaco vectorial sobre R e T : V→ V uma transformacao linear com p valores

proprios distintos λ1, . . . , λp ∈ K ; entao, se 000 6= xxxj e um vector proprio de T associado ao valor

proprio λj para j = 1, . . . , p , entao {xxx1, . . . ,xxxp} e um conjunto linearmente independente de vectores.

Alem disso, o sub-espaco proprio soma dos sub-espacos, N(λj) , j = 1, . . . , p , e soma directa, i.e.

N(λ1) + · · ·+ N(λp) = N(λ1)⊕ · · · ⊕ N(λp) .

Demonstracao. Suponhamos que nao, i.e. o conjunto de vectores {xxx1, . . . ,xxxp} e linearmente depen-

dente. Seja xxxr+1 o primeiro vector que depende linearmente dos que o precedem, i.e. {xxx1, . . . ,xxxr} e

um conjunto linearmente independente, mas {xxx1, . . . ,xxxr,xxxr+1} e um conjunto linearmente dependente;

logo, existem escalares, α1, . . . , αr, αr+1 ∈ K nao todos nulos tais que

αr+1xxxr+1 = α1xxx1 + · · ·+ αr xxxr .

Aplicando T a esta identidade obtemos, tendo em atencao que T(xxxj) = λj xxxj , j = 1, . . . , r + 1 ,

αr+1λr+1xxxr+1 = α1λ1xxx1 + · · ·+ αrλr xxxr .

Multiplicando a primeira das identidades por λr+1 e subtraindo a segunda encontramos

α1(λr+1 − λ1)xxx1 + · · ·+ αr(λr+1 − λr)xxxr = 000 ;

e como o conjunto de vectores {xxx1, . . . ,xxxr} e linearmente independente, os coeficientes αj(λr+1−λj) = 0 ,

j = 1, . . . , r , i.e. como os valores proprios sao todos distintos, temos que α1 = · · · = αr = 0 ! (pois, por

hipotese {xxx1, . . . ,xxxr} e um conjunto linearmente independente de vectores).

Para mostrar que a soma dos sub-espacos proprios e directa, supomos que tal nao e verdade, i.e.

podemos obter o vector nulo como como soma de p vectores nao todos nulos cada um num N(λj) ,

j = 1, . . . , p . Mas tal nao se pode verificar pela primeira parte do teorema. c.q.d.

Observacoes.

1. Se λ1, λ2 sao valores proprios distintos de uma transformacao linear T entre um mesmo espaco

vectorial V sobre K , entao os sub-espacos proprios associados a λ1, λ2 , i.e. N(λ1) e N(λ2) tem como

interseccao {000} .

2. Se T : V→ V e uma transformacao linear e V tem dimensao finita, entao T nao pode ter mais de n

valores proprios distintos. Pois, caso contrario, em V existiria um conjunto com mais de n vectores

linearmente independente (o que e obviamente impossıvel).

[email protected] 70

Page 71: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

Matrizes semelhantes. Sejam A,B duas matrizes n × n com escalares em K . Dizemos que A,B

sao semelhantes se existe uma matriz invertıvel, P , tal que A = P B P−1 . Entao A,B tem o mesmo

polinomio caracaterıstico.

Se T : V → V e uma transformacao linear entre um mesmo espaco vectorial V 6= {000} de dimensao

finita, n , sobre K , entao as matrizes que representam T relativamente a uma base de V sao semelhantes.

Demonstracao. De A−λ I = P B P−1−λP P−1 = P (B−λ I)P−1 e aplicando determinante obtemos

det(A−λ I) = det(B−λ I) ; pelo que A,B tem o mesmo polinomio caractarıstico. Para demonstrarmos a

segunda parte do teorema, basta ter em atencao que denotando por A a representacao T relativamente

uma base S de V , e sendo P a matriz de mudanca da base S para a base S ′ (que e obviamente

invertıvel), entao pelo primeiro Teorema dado na aula T | 19-11-2013 temos que B = P−1AP ou

equivalentemente A = P B P−1 , i.e. A,B sao semelhantes. c.q.d.

Definicao. Seja T : V → V uma transformacao linear entre um mesmo espaco vectorial V 6= {000}de dimensao finita, n , sobre K . Seja A a matriz que representa T relativamente a uma base de V .

Se λ ∈ K e um valor proprio de T (ou equivalentemente, valor proprio de A), designamos por:

a) multiplicidade algebrica de λ , a multiplicidade de λ como solucao da equacao caracterıstica.

b) multiplicidade geometrica de λ , a dimensao do sub-espaco proprio associado a λ , N(A−λ I) = N(λ) .

Se A e a matriz de T relativamente a uma base de V , entao os valores proprios de T e de A coincidem

e cada um deles tem em A ou em T a mesma multiplicidade algebrica e a mesma multiplicidade

geometrica.

Teorema. No seguimento da definicao anterior, temos que

1 ≤ multiplicidade geometrica de λ = dim N(λ) ≤ multiplicidade algebrica de λ .

Exemplo. Considere a seguinte matriz com escalares reais, A =

1 2 c

0 1 0

0 4 3

. Entao a equacao caracte-

rıstica, i.e. det(A− λ I) = 0 e dada por (1− λ)2(3− λ) = 0 ; logo a multiplicidade algebrica de λ1 = 1

e dois e de λ2 = 3 e um. Determinemos os espacos proprios associados aos valores proprios 1, 3 , i.e.

N(1) = {vvv ∈ R3 : Avvv = vvv} = {vvv ∈ R3 :

0 2 c

0 0 0

0 4 2

vvv = 000} =

L({(1, 0, 0), (0, 1,−2)}) , se c = 1

L({(1, 0, 0)}) , se c 6= 1e

N(3) = {vvv ∈ R3 : Avvv = 3vvv} = {vvv ∈ R3 :

−2 2 c

0 −2 0

0 4 0

vvv = 000} = L({(c, 0, 2)}) .

Assim, a multiplicidade geometrica de 1 como valor proprio de A e 2 se c = 1 e 1 se c 6= 1 e a

multiplicidade geometrica de 3 como valor proprio de A e 1 ; pelo que, se c = 1 temos R3 = N(1)⊕N(3)

e, portanto, a matriz A e diagonalizavel, i.e. semelhante a uma matriz diagonal, pois

[email protected] 71

Page 72: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

A

1 0 1

0 1 0

0 −2 2

=

1 0 1

0 1 0

0 −2 2

1 0 0

0 1 0

0 0 3

, ou ainda A =

1 0 1

0 1 0

0 −2 2

1 0 0

0 1 0

0 0 3

1 0 1

0 1 0

0 −2 2

−1

.

Caso c 6= 1 a matriz A nao e semelhante a uma matriz diagonal; no entanto, podemos ver que e

semelhante a uma matriz triangular. De facto, completando a base dos vectores proprios, i.e. por

exemplo R3 = L({(1, 0, 0), (c, 0, 2), (0, 1, 0)}) , temos

A

1 c 0

0 0 1

0 2 0

=

1 c 0

0 0 1

0 2 0

1 0 2(1− c)0 3 2

0 0 1

, pois A

0

1

0

= 2(1− c)

1

0

0

+ 2

c

0

2

+

0

1

0

; logo,

A =

1 c 0

0 0 1

0 2 0

1 0 2(1− c)0 3 2

0 0 1

1 c 0

0 0 1

0 2 0

−1

, i.e. A e semelhante a matriz T =

1 0 2(1− c)0 3 2

0 0 1

.

Numero de vectores proprios. Sejam V 6= {000} um espaco vectorial sobre K de dimensao finita, n ,

e T : V → V uma transformacao linear. Seja A ∈ Mn,n(K) a matriz da transformacao linear relativa-

mente a uma base de V . Se T (respectivamente, A) tem p valores proprios distintos, λ1, . . . , λp ∈ K ,

entao o numero de vectores proprios de T (respectivamente, de A) e igual a soma das multiplicidades

geometricas dos valores proprios λj , j = 1, . . . , p , i.e. e igual a dim N(λ1) + · · ·+ dim N(λp) .

Demonstracao. Como os sub-espacos proprios associados a cada um dos valores proprios distintos, λj ,

j = 1, . . . , p , sao independentes, uma base de N(λ1)⊕ · · · ⊕N(λp) e constituıda pelos vectores proprios

que geram cada um dos espacos N(λj) , j = 1, . . . , p , pelo que sao em numero de

dim N(λ1) + · · ·+ dim N(λp) . c.q.d.

Corolario. A matriz A ∈ Mn,n(K) e diagonalizavel se, e somente se, a soma das multiplicidades

geometricas dos seus valores proprios distintos, λ1, . . . , λp , for igual a n , i.e.

dim N(λ1) + · · ·+ dim N(λp) = n .

Em particular, se A tiver n valores proprios distintos e diagonalizavel.

Teorema. Seja A ∈Mn,n(R) simetrica; entao:

1. a matriz A tem n valores proprios reais contando estes tantas vezes quanto as suas multiplicidades

algebricas.

2. se λ 6= µ sao dois valores proprios de A , entao os sub-espacos proprios que lhes estao associados

sao ortogonais, i.e. N(λ) ⊥ N(µ) .

Demonstracao. Verifiquemos que os valores proprios sao reais. De facto, ve-se facilmente que xxxTAxxx =

λxxxTxxx e, portanto, λ = (xxxTAxxx)/(xxxTxxx) , com xxxTxxx = |x1|2 + · · · + |xn|2 ∈ R e xxxTAxxx = xxxTAT xxx =

(xxxTAxxx)T = xxxTAxxx ∈ R .

Como A e uma matriz real simetrica, e sendo λ 6= µ dois quaiquer valores proprios de A , sabemos

[email protected] 72

Page 73: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

existir 000 6= xxx,yyy tal que Axxx = λxxx , xxxTA = λxxxT e Ayyy = µyyy , yyyTA = µyyyT ; logo xxxTAyyy = λxxxTyyy e tambem

xxxTAyyy = µxxxTyyy , pelo que (λ− µ)xxxTyyy = 0 . Agora, como µ 6= λ , temos que xxx,yyy sao ortogonais. c.q.d.

05-12-2013 | TP.

Resolucao dos problemas 188. c), 190, 192, 194 e 195 do caderno de exercıcios.

Teorema Espectral. Se A ∈Mn,n(R) e simetrica, entao existe uma base orto-normal de Rn formada

por vectores proprios de A . Alem disso, A e diagonalizavel por uma matriz ortogonal, i.e. existe Q ∈Mn,n(R) ortogonal tal que A = QDQT , com D a matriz dos valores proprios de A contados tantas

vezes quanto a sua multiplicidade algebrica.

Resolucao do problema 188. c’). Para determinar os valores proprios de A′ =

[0 1

1 0

], resolvemos

em λ ∈ R a equacao caracterıstica, det(A′ − λ I) = 0 , com A′ − λ I =

[−λ 1

1 −λ

], logo λ ∈ R :

λ2 − 1 = 0 , i.e. λ = 1 ou λ = −1 . Agora para determinar os sub-espacos proprios de A′ , i.e.

N(1) = {vvv ∈ R2 : A′ vvv = vvv} e N(−1) = {vvv ∈ R2 : A′ vvv = −vvv} , temos de resolver dois sistemas

homogeneos com matriz do sistema

[−1 1

1 −1

]e

[1 1

1 1

], respectivamente.

Assim, N(1) = L({(1, 1)}) e N(−1) = L({(1,−1)}) . Do teorema espectral tiramos que

{(1, 1)/√

2, (1,−1)/√

2}e uma base orto-normal de R2 constituıda por vectores proprios de A′ , pelo que

A′Q = Q

[1 0

0 −1

], com Q =

[√2/2

√2/2

√2/2 −

√2/2

]; e, portanto, A′ = Q

[1 0

0 −1

]QT .

Resolucao do problema 190. Os valores proprios de A sao os elementos diagonais de A . Este facto

foi ja observado para matrizes triangulares no primeiro exemplo dado na aula de 03-12-2013 | T. Neste

caso os vectores proprios associados sao valores proprios 3,−1, 1 de A sao os vectores da base canonica

de R3 , pois Aeee1 = 3eee1 , Aeee2 = −eee2 , Aeee3 = eee3 , com eee1 = (1, 0, 0) , eee2 = (0, 1, 0) , eee3 = (0, 0, 1) .

Resolucao do problema 192. Os valores proprios de A =

4 1 0

0 3 1

0 0 2

e de B =

α 1 0

0 α 1

0 0 β

sao,

no caso da matriz A , 4, 3, 2 e no caso da matriz B , α (com multiplicidade algebrica 2) e β . Para

determinarmos os espacos proprios associados a cada uma destas matrizes e aos seus valores proprios

temos de resolver sistemas homogeneos com matrizes do sistema dadas, respectivamente, por:

A− λ I =

4− λ 1 0

0 3− λ 1

0 0 2− λ

, λ ∈ {4, 3, 2} e B − µ I =

α− µ 1 0

0 α− µ 1

0 0 β − µ

, µ ∈ {α, β} .

Assim, N(A − 4 I) = L({(1, 0, 0)}) , N(A − 3 I) = L({(−1, 1, 0)}) , N(A − 2 I) = L({(1,−2, 2)}) ; e,

portanto, {(1, 0, 0), (−1, 1, 0), (1,−2, 2)} e uma base de R3 constituıda por vectores proprios de A ;

[email protected] 73

Page 74: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

logo A e diagonalizavel, tendo-se A = P diag{4, 3, 2}P−1, com P =

1 −1 1

0 1 −2

0 0 2

. Para B temos

se α 6= β , N(B − α I) = L({(1, 0, 0)}) e N(B − β I) = L({(1, β − α, (β − α)2)}) ;

se α = β , N(B − α I) = L({(1, 0, 0)}) .

Assim, a matriz B nao e diagonalizavel. No entanto, caso α 6= β , podemos completar o conjunto dos

vectores proprios de B por forma a determinar uma base de R3 , por exemplo

{(1, 0, 0), (1, β − α, (β − α)2), (0, 0, 1)} , e uma base de R3 , tendo-se

B = S T S−1 com S =

1 1 0

0 β − α 0

0 (β − α)2 1

e T =

a 0 1/(α− β)

0 b 1/(β − α)

0 0 α

, pois

B[0 0 1

]T= 1/(α− β)

[1 0 0

]T+ 1/(β − α)

[1 β − α (β − α)2

]T+ α

[0 0 1

]T.

Como exercıcio mostre que a matriz B e semelhante a uma matriz triangular no caso em que α = β .

Resolucao do problema 194. Seja A =

[1 1

3 2

]e B =

[1 0

−1 1

]A =

[1 1

2 1

]. Entao os valores

proprios de A sao λ± = (3±√

13)/2 e os valores proprios de B sao µ± = 1±√

2 .

Considere-se agora a matriz C = P1,2B =

[2 1

1 1

]que tem como valores proprios γ± = (3±

√5)/2 .

Resolucao do problema 195. Basta ver que (A − λ I)T = AT − λ I e como o determinante de uma

matriz coincide, a menos do sinal, com o da sua transposta, temos que a equacao caracterıstica de A e

de AT coincidem, pelo que A e AT tem os mesmos valores proprios considerados tantas vezes quantas

a as respectivas multiplicidades algebricas.

10-12-2013 | T.

Aplicacoes do teorema espectral: Curvas (em R2) e superfıcies (em R3) de segundo grau.

Definicao. Em R2 designamos por conica o lugar geometrico dos pontos cujas coordenadas (x, y)

relativamente a um referencial ortogonal satisfazem uma equacao do tipo

a1,1 x2 + 2a1,2 xy + a2,2 y

2 + 2b1 x+ 2b2 y + c = 0 ,

ou equivalentemente,[x y

] [a1,1 a1,2

a1,2 a2,2

][x

y

]+ 2

[b1 b2

] [xy

]+ c = 0 . Designamos A =

[a1,1 a1,2

a1,2 a2,2

]por matriz da forma quadratica.

Exemplos. Como exemplos canonicos temos as equacoes

(x/a)2 + (y/b)2 = 1 , (x/a)2 − (y/b)2 = 1 e y = 2p x2 , a, b, p ∈ R \ {0} ,

que representam elipses, hiperboles e parabolas, respectivamente (cf. figura seguinte). Temos ainda

casos degenerados, como x2−y2 = 0 (duas rectas y = x ou y = −x), ou x2 +y2 = 0 (um ponto, (0, 0)),

ou ainda uma condicao impossıvel, por exemplo x2 + 1 = 0 .

[email protected] 74

Page 75: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

x

y

Elipse

x

y

Hiperbole

x

y

Parabola

Reducao da equacao do segundo grau a forma canonica. Como A e simetrica existe uma matriz

ortogonal Q (matriz dos vectores proprios normalizados ou dos vectores resultantes de aplicar o processo

de orto-normalizacao de Gram-Schmidt a cada uma das bases dos espacos proprios associadas a um

mesmo valor proprio) tal que A = QDQT , onde D e a matriz dos valores proprios de A . Assim, a

forma canonica toma a forma[x′ y′

] [λ1 0

0 λ2

][x′

y′

]+ 2

[b1 b2

]Q

[x′

y′

]+ c = 0 com

[x′

y′

]= QT

[x

y

],

i.e. λ1(x′)2 + λ2(y′)2 + 2αx′ + 2β y′ + c = 0 , onde[α β

]=[b1 b2

]Q ;

(esta transformacao de coordenadas designa-se por reducao as direccoes principais da conica).

Agora, se λ1 λ2 6= 0 , entao λ1(x′ + α/λ1)2 + λ2(y′ + β/λ2)2 + c− α2/λ1 − β2/λ2 = 0 ; logo reduzimos a

equacao de segundo grau a forma

λ1X2 + λ2 Y

2 + C = 0 , com X = x′ + α/λ1 , Y = y′ + β/λ2 e C = c− α2/λ1 − β2/λ2 ;

(esta transformacao de coordenadas designa-se por reducao ao centro da conica).

Estamos pois em presenca de uma elipse se λ1, λ2 tiverem o mesmo sinal e sinal contrario ao de C .

Sera uma hiperbole se, λ1 λ2 < 0 e C 6= 0 . Nos demais casos temos situacoes degeneradas.

Se λ1 λ2 = 0 e supondo s.p.g. λ2 = 0 , temos λ1(x′+α/λ1)2 +2β y′+c−α2/λ1 = 0 ; e se β 6= 0 podemos

escrever

λ1X2 + 2β Y = 0 , com X = x′ + α/λ1 e Y = y′ + (c− α2/λ1)/(2β) ;

(esta transformacao de coordenadas designa-se por reducao ao centro da conica). .

Estamos em presenca de uma parabola e nos demais casos temos situacoes degeneradas.

Resolucao do problema 204. a) Comecemos por escrever matricialmente a equacao da conica, i.e.[x y

] [1 1

1 1

][x

y

]= 1 ; e como A =

[1/√

2 −1/√

2

1/√

2 1/√

2

][2 0

0 0

][1/√

2 1/√

2

−1/√

2 1/√

2

], podemos reescrever

[email protected] 75

Page 76: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

a equacao da conica como[X Y

] [2 0

0 0

][X

Y

]= 1 , i.e. 2X2 = 1 , ou ainda X = ±

√2/2 , onde

[X

Y

]=

[1/√

2 1/√

2

−1/√

2 1/√

2

][x

y

].

Assim, estamos num caso degenerado x + y = ±1 , pois da reducao as direccoes principais temos que

X = (x+ y)/√

2 .

b) Comecemos por escrever matricialmente a equacao da conica, i.e.[x y

] [ 1 −2

−2 −2

][x

y

]= 1 ; e como A =

[1/√

5 −2/√

5

2/√

5 1/√

5

][−3 0

0 2

][1/√

5 2/√

5

−2/√

5 1/√

5

], podemos

reescrever a equacao da conica como[X Y

] [−3 0

0 2

][X

Y

]= 1 , i.e. −3X2 + 2Y 2 = 1 , ou ainda −(X/(1/

√3))2 + (Y/(1/

√2))2 = 1 , onde[

X

Y

]=

[1/√

5 2/√

5

−2/√

5 1/√

5

][x

y

]. Assim, estamos em presenca de uma hiperbole de equacao

−((x+ 2y)/(√

5/√

3))2 + ((−2x+ y)/(√

5/√

2))2 = 1 .

e) Comecemos por escrever matricialmente a equacao da conica, i.e.[x y

] [ 1 1/2

1/2 1

][x

y

]+ 2

[−3/2 −3/2

] [xy

]= 0 ; e como

A =

[1/√

2 −1/√

2

1/√

2 1/√

2

][3/2 0

0 1/2

][1/√

2 1/√

2

−1/√

2 1/√

2

],

podemos reescrever a equacao da conica como[X Y

] [3/2 0

0 1/2

][X

Y

]+ 2

[−3/√

2 0] [X

Y

]= 0 , i.e. (3/2)X2 + (1/2)Y 2 − 6/

√2X = 0 , ou ainda

((X −√

2)/(√

2))2 + (Y/√

6)2 = 1 , onde

[X

Y

]=

[1/√

2 1/√

2

−1/√

2 1/√

2

][x

y

]. Assim, estamos em presenca

de uma elipse de equacao ((x+ y − 2)/2)2 + ((−x+ y)/√

12)2 = 1 .

f) Comecemos por escrever matricialmente a equacao da conica, i.e.[x y

] [6 2

2 3

][x

y

]+ 2

[1 −1/2

] [xy

]= 1 ; e como A =

[2/√

5 −1/√

5

1/√

5 2/√

5

][7 0

0 2

][2/√

5 1/√

5

−1/√

5 2/√

5

],

podemos reescrever a equacao da conica como[X Y

] [7 0

0 2

][X

Y

]+ 2

[3/(2√

5) −2/√

5] [X

Y

]= 1 , i.e. 7X2 + 2Y 2 + (3/

√5)X − 4/

√5Y = 1 , ou

ainda ((X − 3/(14√

5))/a)2 + ((Y − 1/√

5)/b)2 = 1 , onde[X

Y

]=

[2/√

5 1/√

5

−1/√

5 2/√

5

][x

y

], e a, b ∈ R a determinar.

Estamos pois em presenca de uma elipse (determine a sua equacao como exercıcio).

[email protected] 76

Page 77: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

12-12-2013 | T.

Revisao sobre a materia dada.

12-12-2013 | TP.

Revisao sobre a materia dada.

17-12-2013 | T.

Realizacao da segunda Frequencia.

Problema 1. Considere as matrizes A =

0 1 2 1

4 5 2 0

7 3 0 0

4 0 0 0

e B =

0 5 1 3

1 8 0 2

0 0 0 1

0 0 1 3

.

a) Calcule det(AB) .

b) Mostre que, se C e uma matriz anti-simetrica entao C2 e simetrica.

Resolucao. a) Sabemos que det(AB) = detA detB . Agora, trocando em A a linha 1 com a 4 e

a linha 2 com a 3 , vemos que detA e igual ao determinante de uma matriz triangular com escalares

1, 2, 3, 4 na diagonal, logo detA = 24 (ou equivalentemente, aplicando o teorema de Laplace da coluna 4

ate a coluna 1). Ja o determinante da matriz B coincide com o determinante da matriz que resulta

de B por troca das linhas 1 com a 2 e das linhas 3 com a 4 . Esta matriz e triangular superior com

escalares 1, 5, 1, 1 na diagonal, pelo que detB = 5 . Assim, det(AB) = 5! = 120 .

b) Uma matriz, C ∈ Mn,n(R) diz-se anti-simetrica se A = −AT . Assim, A2 = (−AT ) (−AT ) = (A2)T ,

i.e. A2 e simetrica.

Problema 2. Considere a matriz A =

0 −1 −1

α 1 −2

2 5 α

.

a) Determine α ∈ R que torna A uma matriz nao invertıvel.

b) Determine a matriz inversa de A quando α = 1 .

c) Determine a decomposicao P A = LU quando α = 2 .

d) Para α = 2, identifique explicitamente o sub-espaco nulo de A .

e) Para α = 2, identifique explicitamente o sub-espaco gerado pelos vectores coluna da matriz A .

f) Para α = 2, indique a solucao do sistema AX = b , com b =[1 0 −4

]T.

Resolucao. a) Basta determinar α ∈ R : detA = 0 , i.e. α ∈ R : α2 − 5α + 6 = 0 ; logo α ∈ {2, 3} .

b) Aplicando o teorema de Laplace, vemos que A−1 =1

2

11 −5 3

−4 2 −2

3 −1 1

T

=

11/2 −2 3/2

−5/2 1 −1/2

3/2 −1 1/2

.

c) Como o elemento na possicao 1, 1 da matriz A e 0 , multiplicamos a matriz A pela matriz de per-

mutacao P1,2 e pivotando, temos, P1,2A =

2 1 −2

0 −1 −1

2 5 2

−`1 + `3

2 1 −2

0 −1 −1

0 4 4

4`2 + `3

2 1 −2

0 −1 −1

0 0 0

;

[email protected] 77

Page 78: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

logo P1,2A = LU com L =

1 0 0

0 1 0

1 −4 1

e U =

2 1 −2

0 −1 −1

0 0 0

(cf. L−1 =

1 0 0

0 1 0

−1 4 1

).

d) Tendo em atencao a decomposicao LU de A encontrada na alınea anterior, temos que

N(A) = {xxx ∈ R3 : U xxx = 000} = {(x1, x2, x3) ∈ R3 : 3x2 = −3x3 = −2x1} = L({(3,−2, 2)}) .

e) Como C(A) = {xxx ∈ R3 : ∃vvv ∈ R3 com Avvv = xxx} . Pelo que, efectuando sobre o vector (x, y, z) , as

mesmas operacoes por linha que efectuamos na resolucao da alınea c), obtemos que

C(A) = {(x, y, z) ∈ R3 : z − y + 4x = 0} .

f) Comecemos por ver que bbb ∈ C(A) ; de facto (−4) − 0 + 4(1) = 0 , logo o sistema e possıvel. Assim,

a solucao vem dada por xxx = xxxp + αxxx0 , α ∈ R , onde xxxp e uma solucao de Axxx = bbb e xxx0 = (3,−2, 2)

(solucao do sistema homogeneo). Para determinar xxxp resolvemos o sistema

U[x y 0

]T= L−1bbb =

[0 1 −0

]T, i.e. xxxp = (1/2,−1, 0) .

Note que podıamos ter determinado bbb como combinacao linear dos dois primeiros vectores coluna da

matriz A =[ccc1 ccc2 ccc3

], i.e. bbb = ccc1/2 − ccc2 ; obtendo-se, como solucao particular do sistema Axxx = bbb ,

xxxp = (1/2,−1, 0) .

Problema 3. Seja S = {vvv1, vvv2, vvv3, vvv4} com vvv1 = (1, 1, 2, 3) , vvv2 = (0, 1, 2, 2) , vvv3 = (2,−1,−1, 0) e

vvv4 = (3, 1, 2, 5) .

a) Indique um sub-conjunto U de S com tres vectores, tal que U e linearmente dependente.

b) Indique uma base do sub-espaco vectorial L(S) e determine as coordenadas do vector vvv1 +vvv2−vvv4

nessa base.

c) Determine o sub-espaco L(S)⊥ e mostre que L(S)⊕ L(S)⊥ = R4 .

Resolucao. a) Como sabemos para analisar a dependencia ou indepenencia linear de um conjunto

de vectores em R4 podemos faze-lo dispondo as componentes desses vectores (na base canonica) nas

colunas (ou nas linhas) de uma matriz e analisar a dependencia ou independencia linear dos conjuntos

dessas colunas (ou linhas). O metodo de eliminacao de Gauss fornece um criterio para essa analise. No

presente caso, optando pela representacao por colunas temos:1 0 2 3

1 1 −1 1

2 2 −1 2

3 2 0 5

−`1 + `2

−2`1 + `3

−3`1 + `4

1 0 2 3

0 1 −3 −2

0 2 −5 −4

0 2 −6 −4

−2`2 + `3

−2`2 + `4

1 0 2 3

0 1 −3 −2

0 0 1 0

0 0 0 0

;

o conjunto formado pelas 3 primeiros vectores coluna e linearmente independente e o conjunto formado

pelos 4 vectores coluna e linearmente dependente, pois temos somente 3 pivots. Efectivamente, a quarta

coluna e uma combinacao linear das duas primeiras, i.e. vvv4 = 3vvv1 − 2vvv2 . Assim U = {vvv1, vvv2, vvv4} e um

conjunto de 3 vectores linearmente dependente e tambem L(S) = L({vvv1, vvv2, vvv3}) .

b) Na alınea a) vimos que L(S) = L({vvv1, vvv2, vvv3}) e tambem vvv4 = 3vvv1 − 2vvv2 , logo vvv = vvv1 + vvv2 − vvv4 =

−2vvv1 + 3vvv2 e as coordenadas vvv na base {vvv1, vvv2, vvv3} de L(S) sao dadas pelo vector (−2, 3, 0) .

[email protected] 78

Page 79: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica

c) Comecemos por identificar

L(S) = {(x, y, z, w) ∈ R4 : ∃α, β, γ ∈ R tais que (x, y, z, w) = αvvv1 + β vvv2 + γ vvv3} ;

para tal basta efectuar sobre o vector (x, y, z, w) as mesmas operacoes por linhas efectuadas na resolucao

da alınea a), e usar o facto de que o sistema[vvv1 vvv2 vvv3

] [α β γ

]T=[x y z w

]Te possıvel e

determinado, quando e so quando w = x+ 2 y ; assim,

L(S) = {(x, y, z, w) ∈ R4 : w = x+ 2 y} = {(x, y, z, w) ∈ R4 :[x y z w

] [−1 −2 0 1

]T= 0} .

Concluımos assim que L(S)⊥ = L({uuu}) , com uuu =[−1 −2 0 1

]T. Como uuu 6∈ L(S) , temos que

L(S) ∩ L(S)⊥ = {000} e tambem L(S)⊕ L(S)⊥ = R4 , pois dimL(S) + dimL(S)⊥ = 4 .

Problema 4. Considere a transformacao linear T : R3 → R3 definida por

T(x, y, z) = (2x+ 2y + 2z,−x+ 3y, x− 3y) .

a) Determine a imagem pela transformacao linear, T , dos vectores (1, 0, 0), (0, 1, 0), (0, 0, 1) , e ob-

tenha a matriz, A , que representa T relativamente a base canonica de R3 .

b) Mostre que {(1, 1,−1), (0, 1,−1), (3, 1,−4)} e uma base de R3 formada por vectores proprios

de A . Diga, justificando, que A e uma matriz nao-invertıvel.

c) Mostre que A e diagonalizavel, identificando uma matriz invertıvel, S , e uma matriz diagonal, Λ ,

tais que Λ = S−1 AS .

d) Determine a projeccao do vector bbb = (4, 3, α) , com α ∈ R , sobre o sub-espaco imagem de T , e

determine a solucao, no sentido dos mınimos quadrados, de xxx ∈ R3 : T(xxx) = bbb .

Resolucao. a) Como T(1, 0, 0) = (2,−1, 1) , T(0, 1, 0) = (2, 3,−3) e T(0, 0, 1) = (2, 0, 0) , temos que

T (x, y, z) = A[x y z

]Tonde A =

2 2 2

−1 3 0

1 −3 0

. b) Assim, T(1, 1,−1) = A[1 1 −1

]T=

2[1 1 −1

]T= 2 T(1, 1,−1) , T(0, 1,−1) = A

[0 1 −1

]T= 3

[0 1 −1

]T= 3 T(0, 1,−1) ,

T(3, 1,−4) = A[3 1 −4

]T= 0

[3 1 −4

]T= 0 T(3, 1,−4) ; e, como, vectores proprios de uma

mesma matriz associados a valores proprios distintos sao linearmente independentes, temos que o con-

junto dos vectores dados e uma base de R3. Mais ainda, como 0 e um valor proprio de A , temos que

A e nao invertıvel. c) Reescrevendo as identidades anteriores em notacao matricial temos,

AS = S Λ, onde S =

1 0 3

1 1 1

−1 −1 −4

e Λ =

2 0 0

0 3 0

0 0 0

.

Como S e nao-singular temos que A e diagonalizavel i.e. A = S ΛS−1.

Para a alınea d) comece por identificar o espaco imagem de T , com o espaco das colunas de A , i.e.

Im T = C(A) = L({(2, 0, 0), (2,−1, 1)}) . Como esta base nao e ortogonal, vamos ortogonaliza-la

usando o processo de Gram-Schmidt, i.e. u1 =[2 0 0

]Te u2 =

[2 −1 1

]T− 4/4

[2 0 0

]T=

[email protected] 79

Page 80: Álgebra Linear e Geometria Analítica - Universidade de Coimbra

Algebra Linear e Geometria Analıtica Licenciaturas em Fısica e Engenharia Fısica[0 −1 1

]T, com L({(2, 0, 0), (2,−1, 1)}) = L({uuu1,uuu2}) e uuu1 ⊥ uuu2 . Assim,

projImT bbb = projuuu1bbb+ projuuu2

bbb = (8/4)uuu1 + (α− 3)/(2)uuu2 =[4 (3− α)/2 (α− 3)/2

]T.

Note que, caso α = −3 , projImT bbb = bbb , pelo que se α = −3 , bbb ∈ Im T ; de facto, bbb = 5[2 0 0

]T−

3[2 −1 1

]T. Vemos assim que a solucao de xxx ∈ R3 : (T(xxx) = Axxx) = bbb , caso α = −3 vem dada por

xxx =[5 −3 0

]T+ β xxx0 , β ∈ R , para algum xxx0 ∈ R3 \ {000} : Axxx0 = 000 , por exemplo xxx0 =

[3 1 −4

]T.

Para α 6= −3 , nao existe xxx ∈ R3 : T(xxx) = bbb , pelo que a solucao no sentido dos mınimos quadrados vem

dada como xxx ∈ R3 : (T(xxx) = Axxx) = projImT bbb , cuja solucao e

xxx =[(α− 3)/2 0 (7− α)/2

]T+ β

[3 1 −4

]T, β ∈ R .

19-12-2013 | T.

Superfıcies (em R3) de segundo grau.

19-12-2013 | TP.

Resolucao de problemas sobre quadricas.

[email protected] 80