Tratado Sobre Cálculo Matricialgeocities.ws/rickrsv/teorias_arquivos/matrizes.pdf · No Cálculo...

33
Tratado Sobre Cálculo Matricial Autor: Ricardo Soares Vieira

Transcript of Tratado Sobre Cálculo Matricialgeocities.ws/rickrsv/teorias_arquivos/matrizes.pdf · No Cálculo...

Tratado

Sobre

Cálculo

Matricial

Autor:

Ricardo Soares Vieira

Primeira Parte:

TEORIA DAS MATRIZES:

§1. DEFINIÇÃO:

Uma matriz é definida como uma tabela de elementos dispostos em linhas e colunas. Representaremos uma matriz sempre entre chaves, como a matriz genérica {K}. Veremos agora algumas das principais propriedades de uma matriz.

a) Ordem De Uma Matriz: Representa o número de linhas e colunas que a

matriz possui. Abaixo temos um exemplo, a matriz {K}2×3, ou seja, uma matriz que possui duas linhas e três colunas:

2 3

1 1 11

2 2 2 2

A B C

A

K A C

B

B

C

×⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

b) Posição De Um Elemento: A cada elemento de uma matriz pode ser

associado uma posição, determinado pelo par ordenado ij, que determinam respectivamente a linha e a coluna que o elemento ocupa na matriz (que podem ser chamados também de “coordenadas do elemento”). No trabalho que se segue, para uma melhor visualização, representaremos as colunas por letras, e as linhas por números, mas temos que lembrar que i e j são números e devem ser tratados como tal quando se fizer necessário. Os elementos de uma matriz serão sempre representados pelo símbolo da matriz, em minúsculo, seguindo-se da sua posição ij em subscrito, como o elemento genérico kij da matriz {K}.

c) Paridade: A Paridade é um conceito que visa distinguir as operações pares

das ímpares. Quando a paridade tiver que ser levada em consideração, a operação estará acompanhada do sinal ± em sobrescrito. No Cálculo Matricial é necessário definirmos o conceito de paridade, pois como veremos, as operações em que ela deve ser levada em consideração, deveremos inverter o sinal da operação caso sua paridade seja ímpar, e mantê-lo caso seja par. Assim, seja n um número associado à operação em que queremos saber a paridade, então podemos definir matematicamente a paridade

como: ( )1nρ = − .Ou seja, operações pares serão multiplicadas por 1 e operações ímpares por –1. Neste artigo, a paridade vai ser empregada em duas ocasiões:

Paridade de um elemento: Podemos associar a paridade às posições ij dos

elementos de uma matriz, pela soma de i e j: a paridade do elemento deve ser considerada par quando a soma de i e j for par, e deve ser considerada ímpar, quando esta soma for ímpar. Logo, o expoente n da equação anterior se refere, neste caso a soma de i e j: (n = i + j). Deste modo, elementos pares possuirão paridade 1 e elementos ímpares possuirão paridade –1, que indica que devemos inverter o sinal do elemento caso sua posição seja ímpar, e mantê-lo inalterado caso sua posição seja par.

Paridade de uma permutação: Neste caso, o expoente n se refere ao número

de permutações realizadas em um determinado grupo. Deste modo, as permutações ímpares devem ter o seu sinal invertido, e as pares não.

§ 2. NOTA SOBRE O TRATAMENTO MATEMÁTICO

DADO AS MATRIZES NESTE ARTIGO.

Na vigente teoria, as matrizes são consideradas como tabelas “fechadas”, no sentido de que a sua constituição se restringe, ou se limita, apenas aos elementos que ela possui, assim, em uma matriz cuja ordem seja 3×2, não se admite a existência de nenhuma outra fila que não seja estas três linhas e estas duas colunas.

Porém, refletindo sobre as ambigüidades existentes no atual cálculo matricial (que

serão demonstradas no decorrer do texto), cheguei à conclusão de que devemos considerar as matrizes, de uma forma geral, como contínuas, no sentido de que poderemos adicionar determinadas filas quando e o quanto quisermos. Estas filas devem ser uma continuação da própria matriz, e serem de tal forma que satisfaça todos os postulados e teoremas do cálculo matricial; Para tal, os elementos cujas coordenadas sejam diferentes (i ≠ j) devem ser todos nulos, e aqueles cujas coordenadas sejam iguais (I = j) devem ser igual à unidade (1). Assim, toda matriz será considerada infinita, mas é claro, não é necessário representar tais filas supra mencionadas, podemos oculta-as e, quando oportuno, revelá-las. Desta forma, chamaremos estas filas simplesmente de “filas ocultas”.

Uma vez que o leitor está a par do tratamento matemático que será dado as

matrizes neste artigo, podemos dar continuidade a esta teoria.

§ 3. PRINCIPAIS CLASSIFICAÇÕES DAS MATRIZES: a) Classificações Quanto A Ordem De Uma Matriz:

Quanto a ordem de uma matriz, podemos classificá-la entre “Matriz Quadrada” e “Matriz Retangular”, caso o seu número de linhas e colunas sejam iguais ou não, respectivamente. Ainda, se a matriz possui apenas uma fila, podemos classificá-la como “Matriz Linha” ou “Matriz Coluna”. Onde nesta classificação, as filas ocultas devem ser ignoradas.

Abaixo apresentamos uma matriz quadrada de 4ª ordem, uma matriz retangular

de ordem 4×3. Creio que não há necessidade de apresentar a matriz linha ou a matriz coluna ao leitor, e em respeito a sua inteligência não o farei...

4 4

1 1 1 1

2 2 2 2

3 3 3 4

4 4 4

2

3

4

1

4

A B

A B C D

A B C D

A B C D

A B

C D

C

K

D

×⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

4 3

1 1 1

2 2 2

3 3 3

1

2

3

4 4 4 4

A B C

A B C

A B C

K C

A

B

B

A

C

×⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

Na matriz quadrada, a diagonal de sentido esquerda-direita – no exemplo acima

formada pelos elementos (A1, B2, C3, D4) – chama-se “Diagonal Principal” e a diagonal de sentido direita-esquerda – formada pelos elementos (D1, C2, B3, A4) – chama-se “Diagonal Secundária”.

b) Matriz Identidade {I}: A matriz identidade é uma matriz cujas filas são todas análogas às filas ocultas discutidas anteriormente: ou seja, trata-se de uma matriz cujos elementos são formados apenas pelos valores 1 ou 0; Terá o valor 1 os elementos que possuírem coordenadas iguais (i = j), e terá o valor 0 aqueles elementos cujas coordenadas sejam diferentes (i ≠ j). Em outras palavras, os elementos da diagonal principal são iguais a 1, e os restantes, iguais a 0. Neste trabalho, a Matriz Identidade será considerada uma matriz infinita. Eis a Matriz Identidade:

1 0 0

0 1 0

0 0 1

1

AI⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪

⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎭∞⎩

Este nome: “Identidade” se deve ao fato de que, como veremos, todo “produto

matricial cruzado” (ainda por ser demonstrado) entre uma matriz genérica {K} e a matriz identidade {I}, resulta sempre na própria matriz genérica {K}.

c) Matriz Diagonal {δ }:

Esta matriz é semelhante à Identidade, com a diferença de que os elementos da diagonal principal podem possuir qualquer valor, e não somente 1; os outros elementos também serão todos nulos. Ela é representada abaixo:

1 0 0

0 2 0

0 0

2

3 3

1 A

B

C

A B Cδ⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

Toda matriz diagonal pode ser obtida pelo “produto direto” (também ainda por

ser demonstrado) de uma matriz genérica {K} com o “coeficiente matricial diagonalizador”, como ainda veremos... d) Matriz Nula {0} É a matriz na qual todos os seus elementos são nulos. Qualquer matriz genérica {K}, se multiplicada pela matriz nula, resulta na própria matriz nula, e qualquer matriz genérica, se somada à matriz nula resulta na própria matriz genérica. Deste modo, a matriz nula deve ser considerada infinita, com todos os seus elementos iguais a 0. e) Matriz Unidade {1}

É uma matriz cujo todos os seus elementos possuem o valor 1. A sua importância está no fato de que o produto matricial direto (que também está ainda por se definir) entre a matriz unidade {1} e qualquer matriz {K}, sempre resulta na própria matriz {K}.

f) Matriz Triangular {Δ}

É uma matriz cujo numero de elementos não nulos de uma linha vai diminuindo de um em um, linha por linha, até que restem apenas filas nulas, ou seja, se dividimos em dois a matriz, pela sua diagonal, encontraremos que de um lado da diagonal só haverá elementos não nulos, e de outro somente elementos nulos.

Na figura abaixo apresentamos uma Matriz Triangular do tipo superior-direita:

4 4

1 1 1 1

0 2 2 2

0 0 3 4

0 0 0 4

1

2

3

4

A B C D

B C D

C D

D

D

A B C×⎧ ⎫Δ⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

g) Matriz Oposta {–M} Seja {K} uma matriz qualquer, a sua Matriz Oposta {–M}, é a matriz que se obtém invertendo-se o sinal de todos os elementos da matriz original, (que equivale a multiplicar a matriz original por –1, como veremos).

h) Matriz Transposta {K}†

Seja uma matriz {K}, de i linhas e j colunas, a sua matriz Transposta, por definição, será uma nova matriz onde transpõe-se as suas linhas pelas suas colunas. Ou seja, a primeira linha da matriz original torna-se a primeira coluna da matriz Transposta, a segunda linha torna-se a segunda coluna e assim por diante, mantendo a ordem de seus elementos. Em suma, a matriz Transposta é uma matriz onde se inverte os números i e j da matriz original. A figura abaixo representa a matriz Transposta de uma matriz original:

1

2

K L M

N O P

Matriz Origina

A B C

l

K⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

1

2

3

K N

L O

M P

Matriz Transpost

A

a

BK⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

A partir do conceito da matriz Transposta, podemos ainda classificar as matrizes

pela sua simetria; Dizemos que uma matriz é “simétrica” se a dada matriz for igual a sua Transposta: {K} = {K}†, e dizemos que ela é “anti-simétrica” se a dada matriz for igual a matriz Transposta-oposta: {K} = {–M}†.

i) Matriz Inversa {K}–1

Como foi dito, o produto cruzado de uma matriz qualquer {K} pela matriz identidade {I} resulta na própria matriz {K}. Deste modo, por definição, a inversa de uma matriz será uma matriz tal que o produto desta pela matriz original resulte na matriz identidade. Com os conceitos apresentados até aqui, não temos como encontrar a inversa de uma matriz, pois que não definimos ainda o produto matricial cruzado (que difere do produto algébrico), nem o conceito de “determinante”, que também é utilizado. Estes conceitos serão demonstrados no decorrer deste artigo, e quando chegar o momento, mostrarei como encontrar a inversa de uma matriz. Por hora, basta saber que nem todas matrizes podem ser inversíveis, como será demonstrado mais adiante, apenas aquelas matrizes que não possuem determinante nulo é que podem ser invertidas;

Através da inversa de uma matriz, podemos classificá-la como “ortogonal” se a

sua Transposta for igual a sua inversa: {K}† = {K}–1; j) Matrizes Complexas Uma matriz complexa é aquela cujos elementos são da forma (a + bi), onde a e b são números reais e i é a unidade imaginária ( 1i = − ). Como será visto adiante pela definição de soma matricial, uma matriz complexa pode ser obtida pela soma de uma matriz real com uma matriz imaginaria (cujos elementos são múltiplos de i). Com a definição de matriz complexa, podemos ainda definir a Matriz Complexo-Conjugada {K}*, cujos elementos correspondentes são da forma (a – bi), os complexos-conjugados da matriz original. Assim como uma matriz complexa pode ser obtida pela soma de duas matrizes, uma real e outra imaginária, a matriz complexo-conjugada pode ser obtida pela diferença matricial de uma matriz real e uma matriz imaginária (ou a soma da real pela oposta da imaginária).

Com o mesmo raciocínio, definimos a matriz Transconjugada {K}*†, ou seja, a Transposta da matriz complexo-conjugada (também chamada de “Matriz Adjunta”). Por fim, dizemos que uma matriz é “Hermiteana” {H}, se ela possuir a propriedade de ser igual a sua transconjugada, e que ela é unitária, se a sua transconjugada for igual a sua inversa.

Assim, uma matriz Hermiteana possuirá uma forma semelhante à da matriz

abaixo:

1

2

x a bi

a bi y

BH A⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪−⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪+⎪ ⎪⎪ ⎪⎩ ⎭

Onde x e y são números reais puros.

§ 4. OPERAÇÕES MATRICIAIS.

Antes de mostrar-lhes quais as principais operações que podemos fazer com matrizes, é necessário definirmos a igualdade matricial: Duas matrizes {A} e {B} somente serão iguais se e somente se, os seus respectivos elementos (aqueles que possuem mesma posição ij em ambas matrizes) forem iguais.

Como foi dito anteriormente, neste artigo as matrizes serão consideradas de uma forma geral, como “Matrizes Contínuas”, ou seja, que podem ser “ampliadas” com através de suas filas ocultas, tal como foram definidas, sempre que desejarmos. Este procedimento se mostrará muito útil, pois permitirá generalizar completamente o cálculo matricial, pois que deste modo se tornará possível efetuarmos quaisquer uma das operações matriciais com quaisquer matrizes, o que já não é possível quando trabalhamos com matrizes fechadas.

As ambigüidades existentes no cálculo matricial do momento serão demonstradas

conforme o desenrolar do texto, e a superação destas pelo novo método também será discutido.

Nota: Antes de efetuarmos qualquer operação matricial, devemos igualar as

ordens das matrizes, adicionando o necessário de filas ocultas. a) Qualquer Operação Entre Um Número E Uma Matriz:

Efetua-se qualquer operação (seja ela a soma, diferença, produto, divisão, etc.) de um número por uma matriz, por distributiva, ou seja, efetuando a operação do número com todos os elementos da matriz. Abaixo temos um exemplo: um número x multiplicando uma matriz {K}:

{ } 1 1

2 2

x K L x K x L

M N x M x N

A xBK

K

A BK

x

⋅⎧ ⎫ ⎧ ⎫⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪≡ ⋅ = ⋅ ⋅⎨ ⎬ ⎨ ⎬⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⋅ ⋅⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪⎩ ⎭ ⎩ ⎭

O produto de um número por uma matriz permite também que façamos o inverso,

ou seja, colocarmos um termo comum da matriz em evidência. b) Soma E Diferença Matricial:

A soma de duas matrizes consiste em somar cada elemento da primeira matriz com cada elemento correspondente na segunda matriz. Pelo cálculo matricial vigente, só poderíamos efetuar a soma de duas matrizes se estas fossem de mesma ordem; Mas quando se trabalha com matrizes continuas, fica claro que podemos somar quaisquer matrizes. Mas observe, caro leitor, que com matrizes continuas, as filas ocultas não devem ser somadas, pois tanto nas matrizes que se somam quanto na matriz resultante, as filas ocultas devem continuar tendo somente os valores 1 ou 0.

Abaixo temos um exemplo de como se efetua a soma matricial:

{ } { } 1 1 1

2 2 2

K L M a b c K a L b M c

N O P d e f N d

A B C A B C A B CK L K L

K L

O e P f

⎧ ⎫ ⎧ ⎫ ⎧ ⎫⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪≡ + = + + +⎨ ⎬ ⎨ ⎬ ⎨ ⎬⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪+ + +⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎩ ⎭ ⎩ ⎭ ⎩ ⎭

+

+

De modo análogo, a diferença de duas matrizes é efetuada calculando a diferença

de cada elemento da primeira matriz por cada elemento correspondente da segunda matriz, ou também, se preferirem, a soma da primeira matriz pela oposta da segunda:

{ } { } 1 1 1

2 2 2

K L M a b c K a L b M c

N O P d e f N d

A B C A B C A B CK L K L

K L

O e P f

⎧ ⎫ ⎧ ⎫ ⎧ ⎫⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪≡ − = − − −⎨ ⎬ ⎨ ⎬ ⎨ ⎬⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪− − −⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎩ ⎭ ⎩ ⎭ ⎩ ⎭

Através destas definições de soma e diferença matricial, vemos claramente que

uma matriz complexa pode ser obtida pela soma de duas matrizes: uma real, outra imaginária, e a complexa-conjugada, pela diferença destas. c) Produto Matricial Direto Esta operação matricial consiste em multiplicar cada elemento da primeira matriz, por cada elemento correspondente na segunda matriz, analogamente à soma matricial. Representaremos esta operação pelo símbolo “ i ”, a seguir temos um exemplo:

{ } { } 1 1 1

2 2 2

K L M a b c K a L b

K LA B C A B C K L

K L M c

N O P d e f N d O e P f

A B C⎧ ⎫ ⎧ ⎫ ⎧ ⎫⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪≡ = ⋅ ⋅ ⋅⎨ ⎬ ⎨ ⎬ ⎨ ⎬⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⋅ ⋅ ⋅⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎩ ⎭ ⎩ ⎭ ⎩ ⎭

i

i

i

À operação inversa, chamaremos de “divisão matricial direta”, e a

representaremos pelo símbolo “÷”. A importância desta operação matricial, introduzida por mim neste artigo, está

na possibilidade de definir os “coeficientes matriciais”, também por mim introduzidos (apesar de que já existem, de certa forma, mas não são tão explícitos como eu vou defini-los aqui), pois tais coeficientes modificam os valores de uma matriz pelo produto direto entre a matriz original e a matriz associada ao coeficiente em questão. Estes coeficientes serão apresentados num capítulo em breve.

d) Produto Matricial Cruzado

O produto matricial cruzado, que representaremos pelo símbolo “ ×”, difere do produto matricial direto. Seja o produto {K} × {L} = {R}; Um elemento Rij da matriz resultante será obtido pela somatória dos produtos da linha i da matriz {K} pela coluna j da matriz {L} de uma forma ordenada: o enésimo elemento da linha i da matriz {K} sempre multiplica o enésimo elemento da coluna j da matriz {L}, assim obteremos uma série de produtos dos elementos da linha de {K} pelos elementos respectivos da coluna de {L}, o elemento Rij será a soma desses produtos. Assim por exemplo, o elemento R23 , da matriz resultante de {K} × {L} é obtido pela soma dos produtos dos elementos da 2ª linha da matriz {K}, pelos elementos da 3ª coluna da matriz {L}; o primeiro elemento da linha 2 de {K} sempre multiplicará o primeiro elemento da coluna 3 de {L}, o segundo elemento daquela linha de {K}, sempre multiplicará o segundo elemento daquela coluna de {L}, e assim por diante.

Introduzi a denominação “produto cruzado” para distinguir do “produto direto”,

que não há no calculo matricial convencional. Este nome foi escolhido porque um elemento Cij resultante deste produto é obtido como se a linha i de {A} cruzasse a coluna j de {B}...

{ } { } ( ) ( ) ( ) ( )

( ) ( ) ( ) ( )

1 1 1

2 2 2

K L a b K a L c M a N c

M N c d K b L d

K LK L

K L

A BA B

O c

B

a P

A ⎧ ⎫⎧ ⎫ ⎧ ⎫ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪≡ × = ⋅ + ⋅ ⋅ + ⋅⎨ ⎬ ⎨ ⎬ ⎨ ⎬⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⋅ + ⋅ ⋅ + ⋅⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎩ ⎭ ⎩ ⎭ ⎪ ⎪⎩ ⎭

×

×

No exemplo acima, multiplicamos {K} por {L}; Seguindo o mesmo raciocínio, vamos agora multiplicar {L} por {K}:

{ } { } ( ) ( ) ( ) ( )

( ) ( ) ( ) ( )

1 1 1

2 2 2

a b K L a K b M c K d M

c d M N a L b N

L KL K

L K

A BA B

c N

B

L d

A ⎧ ⎫⎧ ⎫ ⎧ ⎫ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪≡ × = ⋅ + ⋅ ⋅ + ⋅⎨ ⎬ ⎨ ⎬ ⎨ ⎬⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪ ⎪ ⎪⋅ + ⋅ ⋅ + ⋅⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎩ ⎭ ⎩ ⎭ ⎪ ⎪⎩ ⎭

×

×

Observe que esse produto difere do anterior, ou seja: o produto cruzado de {K} por {L} difere do produto cruzado de {L} por {K}, pois as duas matrizes resultantes são diferentes. Isso significa que as produto matricial cruzado em geral não é comutativo (mas pode ser em alguns casos), ou seja

“No cálculo matricial a ordem dos fatores altera o produto”.

A divisão matricial também pode ser realizada, lembrando que uma matriz {A}

dividida pela matriz {B} não passa do produto da primeira pelo inversa da segunda. Mas aqui entra um fato curioso: devido a não comutatividade do produto matricial cruzado podemos ter dois tipos de divisão: {A} × {B}–1 e {B}–1 × {A}, que resultam em matrizes diferentes; logo a ordem em que escrevemos os fatores, no cálculo matricial, é muito importante, e deve ser sempre mantido. Isso será melhor explicado no capítulo seguinte...

Pelo cálculo matricial vigente, onde as matrizes são consideradas fechadas, só podemos multiplicar uma matriz {K} por {L} se o número de colunas de {K} for igual ao número de linhas de {L}, isso representa ao meu ver uma enorme ambigüidade, pois que desta forma mesmo que o produto {K} × {L} seja possível, o produto {L} × {K} nem sempre o é. Isso impede até mesmo que determinadas matrizes sejam inversíveis, ou seja, que possa ser conhecida a sua inversa. Mas quando caracterizamos as matrizes como contínuas, todas estas ambigüidades desaparecem: o produto cruzado pode ser realizado com quaisquer matrizes, basta que a tornemos quadradas e igualemos as suas ordens, revelando as filas ocultas necessárias para tal.

Deste modo, sempre é possível realizar os dois tipos de produto, ou seja a reciprocidade da operação é sempre verdadeira. Assim, também sempre é possível obter a inversa de uma matriz. Por fim, gostaria de salientar que produto matricial cruzado fica mais fácil de se realizar se transpormos uma das matrizes antes de realizarmos o cálculo, pois que assim estaremos trabalhando somente com as linhas de {K} e {L}, ou somente com suas colunas, dependendo de qual delas nós transpormos...

§ 5. COEFICIENTES MATRICIAIS

Vou definir o conceito de coeficiente matricial da seguinte forma: Consistem em determinadas operações matriciais, explícitas pelo dado coeficiente, que modificam uma determinada matriz de uma forma adequada. Muitos desses coeficientes matriciais podem ser representados por matrizes especiais, que modificam uma matriz genérica através do produto matricial direto. Estas operações também permitem que se “recupere” apenas determinados elementos ou determinadas filas das matrizes, aqueles que são relevantes, ignorando aqueles que não devem ser incluídos em determinada operação matricial.

Uma vez conhecida a matriz que define o coeficiente, (caso o coeficiente seja

definido por uma matriz na qual vai multiplicar diretamente uma outra matriz genérica), não precisamos escrevê-la sempre, basta escrevermos o símbolo do coeficiente, que por sua vez já indicará a operação a ser efetuada. Por questão de comodidade, neste artigo, os coeficientes matriciais serão representados por letras gregas.

Abaixo estão descritos alguns dos coeficientes matriciais mais importantes.

Podemos introduzir coeficientes matriciais de diversas formas, apenas dando azas à nossa imaginação, mas creio que tais coeficientes só devam ser demonstrados quando houver necessidade de sua utilização, como talvez para simplificar alguma operação matemática por exemplo...

a) Coeficiente Elementar (κIj): É um coeficiente que indica a operação de se “relevar” apenas um elemento da

matriz {K}, (ou determinados elementos), ignorando os outros. Esta operação, matematicamente, pode ser obtido pelo produto matricial direto entre a matriz {K} e uma matriz específica que define este coeficiente, que deve indicar quais elementos devem ser relevados dependendo se o calor do elemento é 1 ou 0, respectivamente. b) Coeficiente Diagonalizador (δ):

É definido por uma matriz cujos elementos que possuem coordenadas iguais (i = j) são todos iguais a 1, e os elementos restantes, aqueles cujas coordenadas são diferentes (i ≠ j), são todos iguais a 0. Vemos assim, que a matriz associada à este coeficiente é a própria Matriz Identidade. Este coeficiente permite transformar qualquer matriz genérica {K} em uma matriz diagonal, através do produto direto delas. c) Coeficiente De Permuta (π):

Uma das propriedades do coeficiente identidade é que ele possui apenas um elemento não nulo em cada fila, e em especial iguais à 1; Esses elementos não nulos estão nas posições em que i é igual a j. Considere agora uma outra matriz, que também só possua um elemento não nulo em cada fila, também iguais à 1, mas que não estejam necessariamente na mesma posição que estão no coeficiente identidade; Estas matrizes definem um outro coeficiente matricial, que chamaremos de “Coeficiente de Permuta”, pois que elas podem ser obtidas permutando-se as filas paralelas da matriz identidade.

Definimos também a Paridade de uma permutação: Caso o número de

permutações (trocas de filas) feitas a partir da matriz identidade para se obter uma dada matriz permutada for par, esta matriz permutada deve ser considerada “positiva”, assim como, se o número de permutações necessárias for ímpar, a dada matriz permutada deve ser considerada “negativa”.

Quando a paridade da permutação tiver que ser levada em consideração, o seu

símbolo ganhará o sinal ± em sobrescrito, assim: ±π. Este coeficiente matricial permite que encontremos todas as permutações possíveis

de se formar com n elementos de uma matriz de ordem n, sendo cada elemento situado em uma fila distinta, através do produto direto de cada uma das matrizes de permuta existentes pela matriz original. A sua importância está no cálculo dos determinantes, que veremos mais adiante.

d) Coeficiente Paridade De Um Elemento (ρ):

É definido por uma matriz cujos elementos são iguais a 1 ou –1, dependendo respectivamente se a posição deste elemento for par (i + j = par) ou se for ímpar: (i + j = ímpar). Deste modo, a matriz associada ao coeficiente de paridade pode ser representada abaixo:

1 1 1

1 1 1

1

2

3 1 1 1

A B Cρ⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪−⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪− −⎪ ⎪⎪ ⎪⎪ ⎪−⎪ ⎪⎪ ⎪⎩ ⎭

Multiplicando-se uma matriz genérica {K} pelo

coeficiente de paridade, obtemos os valores dos

elementos levando-se me consideração as suas

paridades...

Atenção: Não confundir “paridade de um elemento” com “paridade de uma permutação”, pois apesar do objetivo de ambas ser à de diferenciar as operações pares das ímpares, e inverter o sinal das operações ímpares, cada qual se refere a operações diferentes. e) Coeficiente De Filas (φF ):

Consiste em ignorar determinadas filas da matriz, ou o que dá no mesmo, relevar apenas determinadas filas. Na sua representação, temos que indicar quais filas devemos relevar, indicando o valor de j ou i; mas caso seja mais fácil representar as filas que devam ser ignoradas, então as indicaremos estas filas por –j e –i. mais uma vez, a matriz que define este coeficiente é tal que os elementos das filas a serem relevadas possuem valor 1, e as filas que devem ser ignoradas, possuem valor 0. f) Coeficiente Laplaciano (Λij):

O coeficiente Laplaciano (em homenagem a Laplace) relacionado a um elemento kij é definido pela operação de se ignorar a linha e a coluna desse elemento. A sua importância está no cálculo dos determinantes, mais especificamente no “teorema de Laplace”, que será demonstrado quando chegar o momento oportuno.

§ 6. ÁLGEBRA MATRICIAL

Não podemos simplesmente dar uma definição de matrizes, se não estabelecermos as regras gerais que estes objetos matemáticos obedecem. Este conjunto de regras é o que chamamos de Álgebra Matricial, ela nos indica o que podemos fazer e o que não podemos fazer com as matrizes em uma equação. A álgebra matricial difere da álgebra comum principalmente pelo fato da não comutatividade do produto cruzado. Abaixo, serão dadas algumas propriedades da álgebra matricial, sem, no entanto, dar-lhes sua dedução (isso eu deixo a cargo do leitor):

a) Propriedades Da Matriz Transposta: - A Transposta da Transposta de uma matriz é igual à própria matriz:

{ } { }††A A= - A Transposta de uma soma matricial é igual à soma das respectivas matrizes Transpostas:

{ } { } { }† † †A B A B+ = + - A Transposta de um produto matricial direto é igual ao produto direto das respectivas matrizes Transpostas, independentemente da ordem em que elas são escritas:

{ } { } { }† † †A B A B=i i - A Transposta de um produto matricial cruzado é igual ao produto da Transposta da segunda matriz pela Transposta da primeira:

{ } { } { }† ††A B B A× = ×

b) Propriedades Da Matriz Inversa: - A inversa de uma matriz é única, ou seja, para uma dada matriz, só há uma matriz inversa.

- A Inversa da Inversa de uma matriz é igual à própria matriz:

{ } { }1 1A A− − = - A Inversa de uma soma matricial é igual à soma das respectivas matrizes Inversas:

{ } { } { }1 1 1A B A B− − −+ = + - A Inversa de um produto matricial direto é igual ao produto direto das respectivas matrizes Inversas, independentemente da ordem em que elas são escritas:

{ } { } { } { } { }1 1 11 1A B A B B A− − −− −= =i i i - A Inversa de um produto matricial cruzado é igual ao produto da Inversa da segunda Matriz pela Inversa da primeira:

{ } { } { }1 11A B B A− −−× = ×

c) Propriedades Da Adição Matricial:

Comutativa: { } { }A B B A+ = + Associativa: { } { } { } { }A B C A B C+ + = + + Existência da Matriz Nula: { } { } { }0A A+ = Existência da Matriz Oposta: { } { } { }0A A+ − =

d) Propriedades Do Produto Matricial Direto:

Comutativa: { } { }A B B A=i i Associativa: { } { } { } { }A B C A B C=i i i i Distributiva: { } { } { } { }A B C A B A C+ = +i i i { } { } { } { }A B C A B A C+ = + +i i

Existência da Matriz Unidade: { } { } { }1A A=i Existência da Matriz Recíproca: { } { } { }1/ 1A A =i

e) Propriedades Do Produto Matricial Cruzado:

Não-Comutativa: { } { }A B B A× ≠ × Associativa: { } { } { } { }A B C A B C× × = × × Distributiva: { } { } { } { }A B C A B A C× + = × + × { } { } { } { }A B C A B A C+ × = + × +

Existência da Matriz Identidade: { } { } { } { } { }A I I A A× = × =

Existência da Matriz Inversa: { } { } { } { } { }1 1 1A A A A− −× = × = Pelas propriedades acima vemos que, apesar do produto matricial cruzado não ser

em geral comutativo, a Matriz Identidade e a Matriz Inversa sempre comutam com quaisquer outras matrizes.

§ 7. DESENVOLVIMENTO DE EQUAÇÕES MATRICIAIS: A álgebra matricial também deve reger regras que permitam o desenvolvimento de

equações matriciais, ou seja, o modo pelo qual podemos achar o valor de uma matriz, quando esta está contida dentro de uma equação matricial.

Seguindo as propriedades da Álgebra matricial, fica fácil perceber o que pode e o

que não pode se fazer em uma equação matricial. Vamos supor que, nos exemplos abaixo, desejamos saber o valor de uma matriz

{X} em termos das matrizes {A} e {B}. Veremos como proceder em cada caso:

a) Equação do tipo { } { } { }X B A+ = : Basta que adicionemos em ambos membro da equação a matriz oposta {–B},

assim, através das propriedades da matriz oposta e da matriz nula, teremos finalmente:

{ } { } { }X A B= − Ou seja, podemos passar uma matriz de um lado a outro da equação simplesmente

invertendo o seu sinal.

b) Equação do tipo { } { } { }X B A=i :

Como o produto matricial direto é uma operação comutativa, podemos

simplesmente passar a matriz {B} para o outro lado da equação aplicando a operação inversa, assim encontraremos simplesmente:

{ } { } { }X A B= ÷

c) Equação do tipo { } { } { }X B A× = : Pela propriedade não comutativa do produto cruzado, temos que manter a ordem

dos fatores. Assim, para passar {B} para o outro lado da equação, devemos calcular a sua matriz inversa {B}–1, e colocá-la à direita de {A}, uma vez que {B} se encontra à direita de {X}. Assim teremos:

{ } { } { } 1X A B −= × Do mesmo modo, se quiséssemos encontrar o valor de {B}, teríamos:

{ } { } { }1B X A−= × Há várias outras curiosidades no cálculo matricial, que surgem principalmente

pelo fato da não comutatividade das matrizes; Assim, por exemplo, se na álgebra comum temos o Binômio de Newton:

( )2 2 22A B A AB B+ = + + ,

este já não pode mais ser mantido na álgebra matricial. Encontraremos antes, no lugar da expressão anterior algo como:

{ } { } { } { } { }2 2 2A B A A B B A B+ = + × + × +

Uma outra curiosidade é que, o produto cruzado de duas matrizes não nulas {A}×{B}, pode resultar em uma matriz nula {0}. E ainda podemos ter a igualdade matricial {A}×{B} = {A}×{C}, sem que {B} seja igual à {C}, logo, em geral não podemos cancelar {A} nas duas equações!

Segunda Parte:

TEORIA DOS DETERMINANTES

§ 1. DEFINIÇÃO

O Determinante de uma Matriz {K} é um número ou uma função, associada a essa matriz, segundo regras especificas. A importância desta operação matricial está no fato de que ela permite uma maior generalização da álgebra matricial, e também a resolução sistemas de equações lineares (um breve tópico sobre sistemas lineares é apresentado nos apêndices deste artigo), bem como permite o cálculo da Inversa de uma Matriz, além de ser utilizada em vários outros ramos da matemática. A representação da determinante de uma matriz {K} é “det {K}”, ou simplesmente |M|.

Pelo calculo matricial ordinário, na qual as matrizes são consideradas fechadas,

os matemáticos dizem que apenas matrizes quadradas possuem determinante, mas não concordo com tal hipótese e a considero arbitrária. Pelo novo tratamento matemático dado às matrizes nesta teoria, onde elas são consideradas contínuas, fica claro que qualquer matriz retangular também possui determinante, que pode ser encontrada quadradando a matriz com a adição de suas filas ocultas. A necessidade de rejeitarmos tal hipótese, a de que somente matrizes quadradas possuem determinante, será demonstrado de forma clara e definitiva mais adiante, por hora, aceitemos esta clara generalização.

Matematicamente, pode-se definir o determinante de uma matriz {K}, de ordem

n, da seguinte forma:

“O determinante de uma matriz {K}, de ordem n, corresponde à somatória de todos os termos τ possíveis de se formar com n elementos, cada qual de uma fila f distinta, levando-se em conta a paridade de cada

termo; Onde cada termo é obtido pelo produto dos k elementos escolhidos.”

{ } ( )1 2det f f fnM onde k k kτ τ±= = ⋅ ⋅∑ …

Seja ki=j (k11, k22, k33, ... knn) os k elementos da diagonal principal da matriz {K}.

Através do coeficiente de permuta ±π podemos obter outras tantas matrizes com k elementos, sendo cada elemento situado em uma fila diferente. Calculando-se o produto dos elementos de cada matriz obtida, encontraremos um determinado número de termos, que por sua vez devem ser considerados positivos ou negativos, conforme a paridade da permutação desenvolvida ao se obter tais matrizes pelo coeficiente de permuta (esta paridade pode ser encontrada pelo número de permutações necessárias de se fazer com as filas paralelas da matriz permutada para deixar os seus elementos em diagonal). Deste modo, o determinante da matriz {K} corresponderá à somatória de todos estes termos assim obtidos.

Também podemos encontrar tais termos através dos números i e j dos elementos: fixando um dos índices e permutando-se de todas as maneiras possíveis o outro índice, em relação aos elementos da diagonal principal ki=j (k11, k22, k33, ... knn). A paridade de cada termo pode então ser encontrada pelo confronto da ordem desse índice permutado com a ordem desse índice na diagonal principal: uma permutação de classe ímpar sempre apresentará um número par de índices fora da posição fundamental, e uma permutação de classe par sempre possuirá um número ímpar de elementos fora da sua posição fundamental.

Observe que: como em uma matriz quadrada de ordem n há k = n elementos na

sua diagonal principal, cada termo que a somatória se estende, possuirá um número igual de elementos (k), e pela teoria da análise combinatória, encontramos que o número de permutações possíveis de se obter com um elemento de cada fila, é igual ao fatorial do numero k. Metade desses k! termos serão considerados positivos e a outra metade, negativos, por causa da paridade da permutação. Deste modo, uma matriz de segunda ordem apresentará 2 termos com 2 elementos, uma matriz de terceira ordem terá 6 termos com 3 elementos, a de quarta ordem, 24 termos com 4 elementos; sendo sempre a metade destes termos pares e a outra metade ímpares, dependendo do número de permutações necessárias para chegar a tal seqüência de elementos. Em virtude do grande número de termos que se estende a somatória quando a matriz é de ordem alta, o cálculo do seu determinante se torna muito trabalhoso. Por esse por este motivo foram desenvolvidos métodos que simplificam o seu calculo; A seguir, demonstraremos o cálculo dos determinantes através da definição acima, e por tais métodos simplificantes.

§ 2. CÁLCULO DE DETERMINANTES DE PRIMEIRA ORDEM

Como uma matriz de primeira ordem só possui um elemento, não há o que se

permutar, logo o seu determinante é o próprio valor do elemento:

|K|1×1 = k

§ 3. CÁLCULO DE DETERMINANTES DE SEGUNDA ORDEM

Considere a matriz {K}2×2 ao lado:

2 2

1

2

1 1

2 2

A B

A

A BK

B

×⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

Escolhendo-se um elemento de cada fila podemos formar dois termos: Uma

corresponde aos elementos da sua diagonal principal (A1, B2), e outra a da diagonal secundária (B1, A2). A paridade do primeiro termo é positiva (pois se encontra na diagonal principal), a paridade do segundo termo é negativa (pois é necessário fazer uma permutação para colocar estes elementos na diagonal principal).

Assim, ao determinante |M| de uma matriz de segunda ordem, corresponde à

diferença entre o produto dos elementos da diagonal principal pelo produto dos elementos da diagonal secundária.

( ) ( )2 2 1 2 1 2M A B B A× = ⋅ − ⋅ O mesmo resultado chegaríamos se fixássemos um dos índices i ou j e

permutássemos o outro. Por exemplo, na ordem em que escrevemos os elementos na equação acima, mantemos fixo a ordem dos números i (1, 2) (1, 2) e permutamos as letras j (A, B) (B, A)...

§ 4. CÁLCULO DE DETERMINANTES DE TERCEIRA ORDEM

Da mesma forma, seja a matriz de terceira ordem dada abaixo:

3 3

1

2

3

1 1 1

2 2 2

3 3 3

K

A B C

A C

A C

A

B

B

B C

×⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

Escolhendo-se um elemento de cada fila podemos formar 3! = 6 termos: Três

desses termos são formados apenas por uma permutação de suas filas paralelas, em relação à diagonal principal, devem portanto ser considerados termos negativos; os outros três, um é a própria diagonal principal, e os outros dois são formados por duas permutações, logo devem ser considerados termos positivos.

Ao mesmo resultado obteríamos fixando por exemplo os números i (1, 2, 3), e

permutando-se as letra j (A, B, C). Lembrando que a classe da permutação pode ser facilmente descoberta analisando quantos elementos não estão na sua posição correta, em relação aos índices da diagonal principal, fica fácil descobrir a paridade de cada termo.

Porém, se o prezado leitor achar difícil encontrar tais termos, podemos utilizar o

método do matemático Francês Sarrus (lê-se “Sarrí”), que é valido somente para determinantes de terceira ordem: Copiamos as duas primeiras filas (linhas ou colunas) da matriz original e colocamos-na como uma continuação da própria matriz, mantendo sempre a ordem destas filas. Deste modo, a matriz ficará com três diagonais cujo sentido é da esquerda para direita, que devem ser consideradas “diagonais positivas”, e outras três diagonais cujo sentido é da direita para esquerda, que devem ser consideradas “diagonais negativas”. O determinante pode então ser calculado semelhantemente ao método utilizado para matrizes de segunda ordem, ou seja, pela diferença entre as diagonais positivas pelas negativas.

O método de Sarrus é demonstrado abaixo:

1 1 1 1

2 2 2

3

2

3 3 33

1 1

2 2

3

Sarrus

A B C

A B C

A B

A B

A B

A B

A B

K

C

C⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

A B

Diagonais Positivas Diagonais Negativas

da = ( A1 ⋅ B2 ⋅ C3 ) dz = ( B1 ⋅ A2 ⋅ C3 )

db = ( B1 ⋅ C2 ⋅ A3 ) dy = ( A1 ⋅ C2 ⋅ B3 )

dc = ( C1 ⋅ A2 ⋅ B3 ) dx = ( C1 ⋅ B2 ⋅ A3 )

( ) ( )M da db dc dz dy dx= + + − + +

§ 5. CÁLCULO DE DETERMINANTES DE QUARTA ORDEM

Escolhendo-se um elemento de cada fila podemos formar 4! = 24 termos, 12 serão

termos positivos (pois que são necessários um número par de permutações de suas filas para colocar os seus elementos na diagonal principal) e os outros 12, negativos (pois que são necessários um número ímpar de permutações para colocar os seus elementos na diagonal principal). Analogamente, se mantermos o índice j = (A, B, C, D) fixo, e permutarmos o outro índice i = (1, 2, 3, 4) de todas as maneiras possíveis, encontraremos os mesmos termos. Observe que não importa qual dos índices fixamos ou permutamos. Tais termos possíveis de se obter estão descritos abaixo, já agrupados em “termos positivos” e “termos negativos”:

Termos Positivos Termos Negativos

Como se percebe, o método de Sarrus não pode ser válido para determinantes de

quarta ordem, pois que repetindo-se as primeiras três filas, encontraríamos apenas oito diagonais, quatro positivas e quatro negativas, faltando ainda dezesseis termos à serem encontrados...

A1, B2, C3, D4 A1, B3, C4, D2 A1, B4, C2, D3 A1, B4, C3, D2 A2, B3, C1, D4 A2, B4, C3, D1 A3, B1, C3, D4 A3, B2, C1, D4 A3, B2, C4, D1 A4, B1, C3, D2 A4, B2, C1, D3 A4, B2, C3, D1

A1, B2, C4, D3 A1, B3, C2, D4 A2, B1, C3, D4 A2, B1, C4, D3 A2, B3, C4, D1 A2, B4, C1, D3 A3, B1, C4, D3 A3, B4, C1, D2 A3, B4, C2, D1 A4, B1, C2, D3 A4, B3, C1, D2 A4, B3, C2, D1

§ 6. TEOREMA DE LAPLACE E DE CAUCHY

a) Teorema De Laplace Também se nota que quanto maior for a ordem de uma matriz, mais trabalhoso se

torna o calculo de seu determinante. Para aliviar a situação, cada vez mais se procurou métodos que facilitam o seu cálculo.

O mais conhecido é o Método do matemático e astrônomo francês Laplace. Mas

antes de aplicarmos o método de Laplace, devemos definir o conceito de “menor complementar” (que chamaremos aqui, se Laplace não se importar, de determinante-menor), que consiste no seguinte:

- Determinante-Menor:

O determinante-menor associado a um elemento kij de uma matriz {K} é a

determinante que se obtém desta matriz quando se ignora a linha e a coluna que se este elemento se encontra, ou seja, o produto entre o coeficiente Laplaciano Λij pela matriz {K}.

A esta nova matriz formada chamaremos de matriz complementar ao elemento

kij, ou matriz-menor desse elemento. Assim, para cada elemento da matriz {K} temos associado um determinante-menor. Por comodidade, representaremos o determinante-menor de um elemento através de “brackets” à la Dirac, assim: ijk . A figura abaixo demonstra a matriz-menor associada ao elemento k22 da matriz original {K}:

MATRIZ ORIGINAL MATRIZ OMPLEMENTAR

2

1 11

3

1

3 3 3

4 4 44

1

2 2 2

3

2

4

A C D

A C D

A C D

A

B

A C D

B

B

C DBK

B

⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2

1

4

1 1 1

3 3 3

4

3

4 4

B

A C D

A C D

A C D

A DCκ⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

Uma vez feito essa definição, podemos enunciar o teorema de Laplace da seguinte

forma:

“O determinante de uma matriz {K}, é igual à somatória dos produtos existentes entre todos os elementos de uma mesma fila f, levando-se em conta a sua paridade, pelos seus respectivos determinantes-menores”.

∑ ⋅= ±ff kkK

Ou seja: Calculamos o determinante-menor de todos elementos de uma dada fila; multipliquemos cada qual pelo valor de sua paridade (1 se for par, –1 se for ímpar); A determinante da matriz {K} será igual a soma desses termos assim obtidos. Assim, se por exemplo em uma matriz {K}, de quarta ordem, escolhêssemos a terceira linha para a somatória, teríamos a seguinte expressão para o calculo de det {K}:

( ) ( ) ( ) ( )4 4 31 31 32 32 33 33 34 34K k k k k k k k k× = ⋅ + − ⋅ + ⋅ + − ⋅

Observe que o método de Laplace diminui em 1 ordem o cálculo do determinante.

b) Teorema De Cauchy Um outro importante teorema, semelhante ao teorema de Laplace, é o teorema de

Cauchy, que pode assim ser enunciado:

“A somatória dos produtos existentes entre todos elementos de uma fila r, levando-se em conta a sua paridade, pelos determinantes-menores associados

aos elementos de uma outra fila paralela s, é nulo”.

0=⋅∑ ±sr kk

Assim, se no exemplo anterior somássemos todos os produtos entre os elementos da terceira linha, pelos determinantes-menores associados aos elementos da primeira linha teríamos como resultado um valor nulo:

( ) ( ) ( ) ( )31 11 32 12 33 13 34 14 0k k k k k k k k⋅ + − ⋅ + ⋅ + − ⋅ =

§ 7. SOBRE AS DIFICULDADES EXISTENTES PARA SE CÁLCULAR DETERMINANTES CUJA ORDEM É

SUPERIOR À QUARTA.

O método de Laplace diminui em uma unidade a ordem de uma matriz. Ele é valido para matrizes de qualquer ordem; como já sabemos de antemão encontrar o determinante de uma matriz de terceira ordem, devido o método de Sarrus, fica fácil o cálculo de um determinante de quarta ordem;

Mas se quisermos encontrar o determinante de uma matriz de ordem superior à quarta, aí o bicho pega... Pelo método da somatória das permutações possíveis, encontraríamos para uma matriz de quinta ordem, 5! = 120 termos de 5 elementos cada, logo este método não é lá muito viável. O método de Laplace reduziria o cálculo à cinco determinantes-menores, mas 5 ⋅ 24 resulta também em 120 termos, logo o método de Laplace também não é muito viável.

Assim, foi necessário desenvolver métodos que reduzam a ordem dos

determinantes de forma mais direta, encontrou-se tais métodos analisando a álgebra dos determinantes, ou seja, os seus teoremas e propriedades. É o que será mostrado no próximo capitulo.

§ 8. TEOREMAS E PROPRIEDADES

DOS DETERMINANTES

1 – Se uma matriz possui uma fila nula, então o deu determinante é nulo.

2 – Se uma matriz possui duas filas paralelas idênticas ou proporcionais, então o seu determinante é nulo. 3 – Se uma fila de uma matriz é o resultado da soma de outras filas paralelas, podendo estas ser multiplicadas cada qual por uma constante, então o seu determinante é nulo. Dizemos que a fila supra é uma combinação linear das outras. Como por exemplo, temos a matriz abaixo, onde a fila C é igual a soma das filas A e B, respectivamente multiplicadas por α e β:

{ }1

2

3

det 0a b a b

Kc d c d

e

A B

f e f

K C

α β

α β

α β

⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⋅ + ⋅⎪ ⎪⎪ ⎪ =⎨ ⎬⎪ ⎪⋅ + ⋅⎪ ⎪⎪ ⎪⎪ ⎪⋅ + ⋅⎪ ⎪⎪ ⎪⎩ ⎭

4 – O Determinante da matriz Transposta é igual a da matriz original

det {K}† = det {K} De fato, a transposição de uma matriz preserva a paridade de seus termos. 5 – Adicionando-se a uma fila, o valor de outra fila paralela, podendo esta ultima ser multiplicada por uma constante, formaremos uma nova matriz cujo Determinante é o mesmo da anterior. (Teorema de Jacobi). Assim, por exemplo, dada a matriz {K}, vamos adicionar à sua coluna C, os elemento da primeira coluna A multiplicados por α, obtendo assim, a matriz {L}:

{ } { }det det1 1

2 2

3 3

a b c a b c aK L

d e

K

f d e f d

L

g h i g h i g

A B C A B C

α

α

α

⎧ ⎫ ⎧ ⎫⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪+ ⋅⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪→ =⎨ ⎬ ⎨ ⎬⎪ ⎪ ⎪ ⎪+ ⋅⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪+ ⋅⎪ ⎪ ⎪ ⎪⎪ ⎪ ⎪ ⎪⎩ ⎭ ⎩ ⎭

6 – Permutando-se n vezes as filas de uma matriz, o Determinante não se altera caso n seja par, mas troca de sinal caso n seja ímpar.

Isto é evidente, pois que ao permutarmos duas filas de uma matriz, inverteremos a

sua paridade; permutando-as novamente, novamente inveteremos a paridade, o que restabelece à paridade anterior... 7 – Se uma fila de uma matriz for multiplicado por uma constante, então o Determinante desta matriz ficará também multiplicado por esta constante:

Assim, lembrando que dividir um número por uma constante (diferente de zero)

equivale a multiplicar este número pelo inverso da constante (n/k = n⋅k–1 = k–1⋅n), podemos colocar em evidência um termo comum a todos os elementos de uma mesma fila...

8 – O Produto dos Determinantes das matrizes {K} e {L} ... {N} é igual ao determinante da matriz {K × L × ... N}, ou seja, igual ao determinante da matriz resultante do produto cruzado delas, independente da ordem em que o produto é realizado. (Teorema de Binet).

det {K} ⋅ det {L} ⋅ ... det {N} = det {M × L × ... N}

Assim percebemos que o produto de determinantes é equivalente ao produto matricial cruzado. Assim, chegamos a uma justificativa do porquê do produto matricial ser definido desta forma tão incomum...

Mas observe, caro leitor, que em geral o produto matricial cruzado não é

comutativo, porém, o produto de dois determinantes sempre comutam, isto se torna claro pois que o determinante de uma matriz resulta em um número, e o produto numérico é sempre comutativo.

9 – O Determinante de uma matriz {K + L} corresponde à somatória das determinantes de todas matrizes possíveis de se formar com {K} e {L}, preservando a posição de suas filas.

Assim, por exemplo, seja a matriz {K} uma matriz de terceira ordem, cujas três filas paralelas são A, B, C; associados respectivamente ao número f (1, 2, 3) que determina a posição da fila; E seja {L} outra matriz, também de terceira ordem, cujas três filas paralelas são respectivamente D, E, F, associadas respectivamente ao mesmo número f (1, 2, 3). Preservando a posição f (1, 2, 3) das filas, poderemos formar as seguintes matrizes com as colunas A, B, C, D, E e F:

(ABC), (ABF), (AEC), (DBC), (AEF), (DBF), (DEC), (DEF). Observe que cada matriz possui filas cujo número f é (1, 2, 3). Combinações do

tipo (ABE) que corresponde à f ≡ (1, 2, 2) devem ser descartadas.

Então, a determinante da matriz {K + L}, será igual a soma das determinantes de todas estas matrizes que se podem formar com as filas paralelas de {K} e {L}, que preservam a posição f. No caso do exemplo em que as matrizes são de terceira ordem, podemos formar 8 matrizes; para matrizes de segunda ordem poderíamos formar 4 matrizes, para matrizes de quarta ordem, seriam possíveis 16 matrizes, ou seja, para uma matriz de ordem n, podemos formar 2n matrizes...

E é claro que o teorema também é valido para a soma de um número maior de

matrizes, através de todas as combinações possíveis de se formar com as suas filas, preservando o seu numero f = (1, 2, 3, ..., n).

Este teorema foi por min desenvolvido, porém, em geral é mais fácil executar a

soma matricial do que este método, mas talvez, em algum caso ele seja útil, e não obstante a isso, é um teorema interessante...

10 – O Determinante de uma matriz triangular é igual ao produto dos elementos de sua diagonal, levando-se em conta se esta diagonal é “positiva” ou “negativa”.

Logo, o determinante de uma matriz triangular é igual ao determinante de uma matriz diagonal cujos elementos dessa diagonal sejam os mesmos, notando que, o produto deve ser considerado positivo se a diagonal não nula for a diagonal principal, e negativo caso seja a diagonal secundária. 11 – Se existisse uma matriz de ordem zero, o seu determinante seria a unidade.

Percebe-se este fato pelos seguintes raciocínios: a) Em uma matriz diagonal de ordem n cujos elementos não nulos sejam todos iguais a k, o determinante será dado por kn, assim se a ordem da matriz for nula, o seu valor será 1; b) Um número fatorial f! pode ser representado por uma determinante diagonal de ordem f, onde os elementos diminuem de f à 1 de uma em uma unidade. O Sabendo-se que o fatorial 0! é igual a 1, a determinante de uma matriz de ordem nula também deve ter este valor... Por raciocínios análogos, chegaríamos ao mesmo resultado, o que indica a veracidade desta propriedade.

§ 9. MÉTODOS PARA A SIMPLIFICAÇÃO DO

CÁLCULO DE DETERMINANTES

Através dos teoremas cinco e seis, apresentados no capítulo anterior, podemos reduzir qualquer determinante a um determinante de terceira ordem, permitindo o seu cálculo de forma mais conveniente.

O método consiste no seguinte: Tornar um dos elementos de uma fila igual a um e

os restantes iguais a zero; Desenvolvendo então o método de Laplace por esta fila, conseguiremos reduzir a ordem da matriz em uma unidade; repetindo o processo chegaremos finalmente ao valor do seu determinante.

A forma como se procede este desenvolvimento é a seguinte:

1º passo: Escolhe-se por conveniência um elemento krs de determinada fila que

seja igual a 1 (caso não haja tal elemento, coloquemos em evidência um termo comum a uma das filas, dividindo os elementos desta fila pelo termo comum, de tal forma que possa permitir que o elemento se torne igual a 1). Fixa-se a sua linha r e sua coluna s. Aos elementos da linha fixada chamaremos de rn, onde n representa a posição do elemento na coluna (se é o primeiro elemento da coluna, ou o segundo, etc), e aos elementos pertencentes à coluna fixada chamaremos analogamente de sn.

2º Passo: Multiplica-se os elementos sn da coluna s pelos elementos rn da linha r,

por distributiva, e inverte-se o sinal do produto obtido. 3º passo: Adiciona-se os valores encontrados respectivamente ao elemento cuja

posição seja Kij, onde i = sn e j = rn; ou seja, ao elemento cujas filas “cruzam” com os outros dois elementos das filas fixadas (e que não é o próprio elemento fixado Krs).

4º Passo: Estendendo esta operação a todos os elementos, conseguimos fazer

com que os elementos das filas fixadas se tornem nulos, com exceção do elemento fixado que será igual a 1, então, pelo teorema de Laplace, vemos que agora podemos anular estas filas fixadas, tornando o determinante uma ordem menor, repetindo-se o processo, chega-se ao determinante da matriz.

§ 10. CÁLCULO DA INVERSA DE UMA MATRIZ

Estando ciente do conceito de determinante, é possível demonstrar agora como podemos encontrar a inversa de uma matriz:

Seja k um elemento da matriz {K}, cuja posição é ij. Definiremos o “elemento

transposto” à k, que indicaremos por k†, ao elemento desta matriz cujas coordenadas sejam ji, ou o mesmo, ao elemento que possui a mesma posição ij na matriz Transposta {K}† (por exemplo, o elemento transposto à k23 é o elemento k32). Vamos definir também o “elemento inverso” à k, que representaremos por k–1, ao elemento que possui mesma posição ij na matriz inversa {K}–1.

Assim, por definição, o elemento inverso à k, ou seja k–1, será obtido pelo

quociente entre o determinante-menor do elemento transposto à k, ou seja †k , (levando-se a sua paridade em consideração), pelo determinante de {K}. Colocando isso tudo em linguagem matemática, teremos:

Kk

k 1†±

− =

É interessante notar a importância da introdução do conceito de “matrizes contínuas” para a álgebra matricial, pois que esta modificação permite que encontremos a inversa de uma matriz retangular. Os matemáticos atuais dizem que não existe tal matriz, eles são levados a esta conclusão pela hipótese de que somente matrizes quadradas possuem determinante, porem, eu considero tal hipótese arbitrária. Pois se o produto cruzado das matrizes {A} e {B} geram uma matriz {C}, qualquer uma das duas primeiras matrizes pode ser explicitada se encontrarmos a sua inversa, assim, torna-se necessário que tais matrizes tenham inversas mesmo sendo retangulares, uma vez que, mesmo considerando as matrizes {A} e {B} como fechadas, podemos efetuar o produto da primeira pela segunda se as colunas de {B} forem iguais às linhas de {A}, resultando numa matriz {C}, o que indica que a operação inversa tem de ser possível...

Hora, toda operação matemática deve permitir a operação inversa: para soma

temos a subtração, para a multiplicação, a divisão, para a potência, a radiciação, etc... Pois creio que se em alguma ocasião isso não seja possível, então, a matemática que lhe diz respeito estará incompleta. Desta forma, é natural que o cálculo matricial vigente estivesse incompleto, mas esta ambigüidade pôde ser superada pela introdução do conceito de matrizes continuas. Isso permitiu a reciprocidade das operações matriciais, no que diz respeito ao produto matricial cruzado.

Assim, vemos que uma matriz só não possuirá inversa, se a sua determinante for

nula, pois que isso seria o “análogo matricial” da divisão por zero. Tanto matrizes quadradas com retangulares podem possuir inversa, para o seu cálculo basta “quadradar” estas ultimas revelando as suas filas ocultas...

***

Terceira Parte:

NOVO MÉTODO PARA A REDUÇÃO

DE DETERMINANTES

Autor: Ricardo Soares Vieira

§ 1. NOVO MÉTODO DE REDUÇÃO APLICADO À DETERMINANTES DE TERCEIRA ORDEM

O método que agora vou descrever foi por mim descoberto quase que por

brincadeira, quando ainda estudante do colegial; Não tinha conhecimento da definição clássica de determinantes, nem de suas propriedades, nem mesmo de qualquer método que permitisse a sua redução.

O que sabia na época era apenas calcular determinantes de segunda ordem, e de

terceira pelo método de Sarrus, nada mais. Em certo momento, percebi que uma matriz de terceira ordem possuía quatro co-

matrizes de segunda ordem, e então me ocorreu a idéia de calcular esses quatro “co-determinantes”, e formar assim uma nova matriz, reduzida em uma ordem, e me perguntei se a determinante desta “matriz reduzida” não correspondia ao determinante da matriz original.

No primeiro momento não obtive qualquer sucesso, o resultado não era o correto,

mas analisando o problema com um pouco mais de atenção, percebi que ao dividir o resultado dessas operações pelo elemento central da matriz (B2 ou se preferir k22), o valor encontrado era exatamente o determinante da matriz original, pude me certificar disso várias vezes pelo método de Sarrus.

O que disse acima consiste exatamente no seguinte: Seja a matriz de terceira ordem abaixo:

3 3

1

2

3

1 1 1

2 2 2

3 3 3

K

A B C

A C

A C

A

B

B

B C

×⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

Podemos perceber a existência de quatro co-matrizes intercaladas na matriz

original, que são respectivamente as demonstradas abaixo:

1 1

2

1

2

I

2

A B

A B

A B⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

1

II

2

1 1

22

B C

B C

B C⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2 2

I I

3 3

I

2

3

A B

A

A

B

B⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2

IV

3

2 2

33

B C

B C

B C⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

Calculando-se os quatros co-determinantes (ou seja, o determinante das co-

matrizes, e que será representado aqui por uma dupla barra: ||K||), teremos quatro novos elementos que, se mantermos uma devida ordem, poderemos formar uma nova matriz, reduzida à segunda ordem, que é a seguinte:

' '

2 '

3 '

I II

III

K'

IV

A B⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

Calculando então o determinante desta matriz-reduzida, e dividindo o resultado

pelo elemento central da matriz original (que denominei de “determinador ∂”) encontraremos o determinante da matriz original!

A divisão pelo determinador (suposto diferente de zero), de certo modo é obvia,

pois que este elemento participa de todas operações (está presente em todas co-matrizes). Assim, posso definir o meu método da seguinte forma:

“O determinante de uma matriz de terceira ordem é igual ao seu

determinante-reduzido dividido pelo seu determinador ∂”. Este método é bastante simples, mas se ele é ou não mais fácil que o método de

Sarrus (que também é muito criativo a meu ver), creio que dependerá muito de cada situação, mas o interessante realmente é que agora poderemos escolher qual método utilizar, conforme acharmos mais conveniente naquele momento...

§ 2. GENERALIZAÇÃO DO MÉTODO DESENVOLVIDO

NO CAPÍTULO ANTERIOR

O método descrito no capítulo anterior está exatamente do modo que o descobri originalmente. Em princípio, pensei que ele era válido para quaisquer determinantes, independente de sua ordem; Em uma matriz de quarta ordem, poderia calcular os seus nove co-determinantes, formando assim uma matriz-reduzida de terceira ordem, e depois repetir o processo do capitulo anterior; em uma matriz de quinta ordem, calcularia os dezesseis co-determinantes, encontrando assim uma matriz de quarta ordem, depois, reduziria a de uma terceira, e finalmente a um determinante de segunda ordem. Neste momento pensei que deveria dividir o resultado por todos elementos centrais das matrizes de ordem ímpar (a esta conclusão eu tinha chegado por vários motivos)...

Mas quando obtive conhecimentos do método de Laplace, pude verificar que tais

operações não conduziam ao resultado correto para matrizes de ordem maior que a terceira. Este método só é válido para “matrizes diagonais em bloco”, ou seja, aquelas matrizes nas quais, ao reparti-la em co-matrizes de determinada ordem, somente não são nulas as co-matrizes que estão em diagonal.

Era necessário então ou um abandono de tal método, ou uma generalização dele.

Optei pela segunda hipótese. Consegui chegar a esta generalização através do seguinte raciocínio: à priori, me perguntei: “Porque o determinador deveria ser o elemento central da matriz original?”. No caso de uma matriz de terceira ordem até podia-se ter argumentos, mas não era o caso das matrizes de ordem superiores; Do mesmo modo, não seria possível escolher outro elemento para ser o determinador da matriz?

Foi então aceitando tal hipótese que consegui finalmente chegar a sua

generalização: Podemos escolher qualquer elemento da matriz de terceira ordem para ser o seu determinador, contanto que se fixe a sua linha e a sua coluna. Podermos formar quatro co-matrizes cujos elementos sejam respectivamente o determinador escolhido, ao seu lado um elemento de sua linha, acima (ou abaixo) um elemento de sua coluna, e na sua diagonal um outro elemento que cruza com os dois anteriores, que definirá a posição dessa co-matriz.

Na figura abaixo demonstro quais são as co-matrizes quando se escolhe o elemento

K12 (ou se preferir A2) da matriz original {K} para ser o seu determinador ∂:

Matriz Original

3 3

1 1 1

33

2

3

1

2

3

A

B C

B C

B C

BK C

A

×⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

22 A

A

Co-Matrizes Do Determinador A2

1 11

2

I

2

A

B

A B

B

⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭2A

1

2

1 1

II

2

A

A C

C

C⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭2A

2

3

2

I

3

I

3

I

B

A B

A B⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2A 2

33

I

2

3

V

C

A C

B C⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2A

Calculando-se estes quatro co-determinantes, encontraremos a matriz reduzida: Calculando esse determinante-reduzido, e dividindo o resultado encontrado pelo

valor de seu determinador ∂, encontraremos finalmente o valor do determinante da matriz original.

' '

2 '

3 '

I II

III

K'

IV

A B⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

Observe que se escolhermos o elemento B2 para ser o determinador,

imediatamente caímos no método utilizado no capitulo anterior, que é um pouco mais simples...

§ 3. NOVO MÉTODO DE REDUÇÃO APLICADO À DETERMINANTES DE ORDEM

SUPERIOR À TERCEIRA

A generalização acima permite a aplicação deste método aos determinantes de ordem superior que a terceira, porém, nesses casos, o determinador que vai dividir o último determinante-reduzido corresponderá aos produtos de todos elementos escolhidos para desenvolver o método, em cada matriz de ordem superior à segunda, elevados respectivamente à n – 2, sendo n a ordem da matriz do respectivo elemento escolhido. Ou seja, o determinador agora será definido como:

( ) ( ) ( ) ( )0 1 2 22 3 4

nn

−∂ = ∂ ⋅ ∂ ⋅ ∂ ⋅ ∂…

O primeiro ∂ é sempre igual a 1, e pode ser desprezado, e devemos lembrar que

matrizes de primeira ordem não possuem determinador, pois não há como formar co-determinantes com estas matrizes... Abaixo temos um exemplo que talvez ajude a compreender o que foi demonstrado neste capítulo: Seja um determinante de quarta ordem, escolhendo um elemento e fixando suas filas, podemos encontrar nove co-determinantes. Que seja escolhido o elemento B2 (K31):

Matriz Original

4 4

1 1 1

3 3 3

4 4

1

3

4

1

2 2 2

3

44

A C D

A C D

A

A C D

B

A C D

B

C DK

B

×⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2 2

B

B

Co-Matrizes do Elemento B2:

1 1

2

1

I

2

A

B

B

A

A

⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭2B

1

2

1 1

II

2

B

B C

C

C⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭2B

1

2

III

1 1

2

B

B D

D

D⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭2B

2

33

I

2

3

V

A

A B

A B⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2B 2

3

1

3

V

3

C

B C

B C⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2B 2

33

V

2

3

I

D

B D

B D⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2B

2

4

V I

4

I

2

4

A

A B

A B⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2B 1

4

2

V I

4

I

4

I

C

B C

B C⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2B 2

44

I

2

4

X

D

B D

B D⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

2B

Calculando estes nove co-determinantes, encontraremos o seguinte determinante-

reduzido primeiro:

' ' '

1 '

2 '

I II III

IV V VI

VII VIII I

'

X3 '

K A B C⎧ ⎫⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎪ ⎪⎩ ⎭

Caímos assim em um determinante de terceira ordem; e repetindo-se o processo, escolhendo por exemplo o elemento k’22 desta matriz, o reduziremos a um determinante de segunda ordem, por fim, calculando-se este determinante-reduzido segundo, basta que dividimos o resultado pelo determinador, tal qual definido neste capítulo para encontrarmos o determinante da matriz original.

O determinador, neste exemplo, que escolhemos os elementos ∂4 = k32 (da matriz de ordem n = 4) e ∂3 = k’22 (da matriz de ordem n =3), será obtido por:

( ) ( )2 14 3∂ = ⋅ ∂ ⋅ ∂

***

CONCLUSÃO:

Espero que o trabalho que demonstrei aqui tenha contribuído para facilitar a

compreensão da teoria das matrizes e determinantes, e que tenha contribuído também para a sua generalização.

Poderia neste texto partir direto ao assunto em questão, ou seja, as modificações

necessárias, mas preferi como de costume, começar desde o início do estudo das matrizes, para permitir à quem nunca tenha ouvido falar nelas, que pudesse entender o seu significado e assim acompanhar o desenrolar do texto.

Quero lembrar que matrizes e determinantes são muito utilizadas em várias áreas do conhecimento: Na física podemos citar a famosa “Mecânica das Matrizes” de Heisenberg, bem como o cálculo vetorial, no qual podemos representar as coordenadas dos vetores por matrizes, e assim, executar mais facilmente as operações vetoriais; Na matemática, podemos citar a álgebra linear e a resolução de sistemas lineares, além de varias outras; Por fim, matrizes e determinantes são utilizadas em muitas outras áreas do conhecimento humano, como a informática, eletrônica, engenharia, etc...

Há muito ainda que se generalizar na matemática, bem como nos outros ramos do

conhecimento humano, temos sempre que tentar simplificar as coisas, seja através de um novo tipo de cálculo, método, diagrama, ou mesmo por uma nova representação dos objetos em questão. Assim, espero que este artigo sirva-lhes de inspiração, e que o façam perder o medo de modificar a coisas, sempre em busca da simplicidade.

Ricardo Soares Vieira.