(Parte 3 de 3)

Vamos explorar um pouco melhor a formula de recursividade (formula (3)) que descobrimos no caso particular de matrizes 3 × 3. Essa formula (generalizada no Teorema de Laplace) nos permite calcular o determinante a partir de qualquer linha (ou coluna) da matriz A, utilizando os cofatores de A.

A submatriz Mij de A de ordem (n − 1) obtida pela eliminacao da i-esima linha e da j-esima coluna e chamada de o menor de aij. (2) O cofator Aij do coeficiente aij de A e, por definicao,

para qualquer 1 ≤ i ≤ n. Acima, Ail e o cofator do coeficiente ail de A.

Prova: Fixemos a linha i-esima. Por definicao temos

de modo que cada parcela da soma acima e um produto de n fatores onde aparece um unico coeficiente da linha i, a saber aiji . Fixando esse i,e mp rincıpio podemos escrever:

onde a soma e tomada sobre todos os arranjos (j2,...,j n)d e {2,3,...,n }. Mas o valor entre colchetes e, por definicao, A11 = det(M11), ou seja,

trocas de linhas adjacentes e( j − 1) trocas de colunas adjacentes o elemento aij vai para a primeira linha e a primeira coluna sem alterar o menor de aij. Chamando de B a nova matriz resultante dessas trocas, a prova do Lema 2.5 garante que cada termo em det(B)e igual a( −1)(i+j) vezes um correspondente termo em det(A), e portanto

Passo 3. Como aij foi parar na primeira linha e na primeira coluna da matriz B, pelo Passo 1, a soma de todos os termos envolvendo aij na expansao de det(B)e igual a aijdet(Mij) onde, pelo Passo 2, Mij eom enord e aij em A. Assim, a soma dos termos envolvendo aij na

Observacao 2.9. O Teorema de Laplace acima pode tambem ser aplicado utilizando-se uma coluna em vez de uma linha; o resultado fica:

Corolario 2.10. Se A e uma matriz de Mn(R) que possui uma linha (ou coluna) nula, entao det(A)=0 .

Prova: Basta usar o teorema anterior e expandir det(A) segundo a linha (ou coluna) nula.

Teorema 2.1. [Jacobi] Se uma matriz B e obtida a partir de uma matriz A ∈ Mn(R) substituindo-se uma de suas colunas (linhas) pela soma dessa coluna (linha) com um multiplo escalar de outra coluna

Prova: Seja A =( aij) e suponhamos que no lugar da p-esima coluna

Cp pomos Cp + λCk, k = p. Usando o teorema anterior, expandimos det(B)p ela p-esima coluna:

a1jA1l + a2jA2l + · + anjAnl =0 ,j = l. onde Aij e o cofator do coeficiente aij da matriz A.

Prova: Consideremos a matriz C formada a partir de A substituindose a k-esima linha pela i-esima linha. Como C tem duas linhas iguais, entao det(C) = 0. Vamos expandir det(C), usando o Teorema 2.8, pela i-esima linha:

Qual a relacao entre o cofator Cil do coeficiente ail da matriz C eo cofator Akl do coeficiente akl da matriz A? Ef acil de ver que os menores associados aos coeficientes ail de C e akl de A possuem as mesmas linhas, exceto talvez pela ordem, o que significa que Cil = ±Akl, sendo que o sinal independe de l. Isso acarreta ai1Ak1 + ai2Ak2 + · + ainAkn =0 ,i = k. A prova para o caso das colunas e semelhante e fica como exercıcio.

det(λA)= λndet(A). Prova: Como λA =( λaij), aplicando a definicao de determinante

Isso prova o lema.

Lema 2.14. Se B e a matriz obtida a partir da matriz A =( aij) ∈

Mn(R) substituındo-se a i-esima linha (coluna) por λ vezes a i-esima linha (coluna), entao

3. DETERMINANTES E MATRIZES INVERSIVEIS 43 Prova: Vamos aplicar o Teorema 2.8 a matriz B,p ela i-esima linha:

Lema 2.15. Seja A =( aij) ∈ Mn(R) uma matriz dada e fixemos a j-esima coluna, onde 1 ≤ j ≤ n.S e B denota a matriz que tem todas as colunas iguais as de A, exceto a j-esima que e bij (com 1 ≤ i ≤ n)e

C denota a matriz obtida de A trocando-se aij por aij +bij (1 ≤ i ≤ n) entao isto e: det

Prova: Pelo Teorema 2.8 desenvolvemos o determinante da matriz inicial pela j-esima coluna:

3. Determinantes e matrizes inversıveis

Precisamos agora verificar a questao que ficou pendente: dada uma matriz A de Mn(R), sera que podemos afirmar que o sistema linear homogeneo tem solucao unica (a saber, a trivial) se e somente se det(A) =0 ?

O nosso ponto de partida para responder essa questao eoT eorema de Laplace (Teorema 2.8) e o Teorema de Cauchy (Teorema 2.12), que podemos enunciar de maneira unica assim: seja A =( aij) ∈ Mn(R); entao onde δuv =1 se u = v e δuv =0 se u = v. Essas equacoes acima lembram aquelas que definem os elementos de um produto de duas matrizes. Porem, se definirmos a matrix

(chamada de matriz dos cofatores de A)e ntao (no caso da primeira equacao) estamos multiplicando a i-esima linha de A pela k-esima linha de Cof(A), o que nao tem significado. Mas se definirmos a matriz

(chamada de matriz adjunta de A)e ntao as equacoes acima de fato descrevem produtos de matrizes:

onde In e a matriz identidade de ordem n. Isso significa que se det(A) =0 entao a matriz

verifica: AD = DA = I, ou seja, nesse caso A e uma matriz invertıvel. Isso prova um lado da equivalencia: se det(A) =0 entao o sistema Ax = 0 tem uma unica solucao.

Vamos provar a recıproca. Se o sistema tem uma unica solucao, no processo de escalonamento da matriz A obtemos uma matriz triangular

C =( cij) onde necessariamente cii = 0 para todo i. Agora, no processo de escalonamento usamos apenas trocas de linhas (que tem por efeito a mudanca de sinal do determinante – Cf. Lema 2.5–), multiplicacao de uma linha por um escalar nao nulo (que tem por efeito multiplicar o determinante por esse mesmo escalar – Cf. Lema 2.14– ) e trocar uma linha L por L+µL′ (que tem por efeito a manutencao do determinante – Cf. Teorema 2.1–), e como C e uma matriz triangular, e portanto o determinante de A tambem e diferente de zero. Isso prova o

Teorema 3.1. Seja A uma matriz quadrada de ordem n.E ntao o sistema linear homogeneo Ax = 0 tem uma unica solucao se e somente se det(A) =0 . Nesse caso a matriz A e inversıvel e a sua inversa e dada por

Vejamos os casos mais simples onde o calculo da inversa pode ser feito com facilidade. Seja

( ab

−ba

−ca de onde

ad − bc

Seja agora A uma matriz de ordem 3 com det(A) =0 :

gh i

Entao, podemos escrever, diretamente

Podemos tambem utilizar a formula da matriz inversa para expressar a solucao do sistema Ax = b quando det(A) = 0. De fato, multiplicando ambos os lados (a esquerda) pela matriz inversa A−1 obtemos

j=1 cijbj =

Af ormula acima pode ser pensada na direcao inversa: seja A =( aij) uma matriz invertıvel e consideremos o sistema linear

Se xi = ∑ j bijyj entao a unicidade da inversa garante que A−1 =( bij).

Vejamos uma aplicacao interessante: calculemos a inversa de

O sistema associado a matriz A pode ser escrito como:(∑

de onde concluımos que

3. DETERMINANTES E MATRIZES INVERSIVEIS 47 e portanto

de onde

CAPıTULO 5

1. Escalonamento revisitado

Vimos no Capıtulo 2 que o metodo do escalonamento usa apenas tres operacoes elementares, que recordamos de modo informal:

1. Permutacao de linhas, 2. Multiplicacao de uma linha por λ =0 ,

3. Substituicao da linha Li por Li + µLj onde i = j.

Essas operacoes podem ser traduzidas matricialmente de um modo bastante simples. Consideremos o sistema Ax = b onde

Vamos trocar de lugar a primeira e a terceira linha. Observemos o seguinte produto de matrizes:

A matriz numerica do lado esquerdo e simplesmente obtida da matriz identidade I3, trocando de lugar a primeira e a terceira linha. O leitor deve se convencer de que esse procedimento sempre funciona: se A e uma matriz de ordem n e querrmos trocar de lugar as linhas Li e Lj (com i = j)e ntao fazemos a seguinte operacao matricial: multiplicamos a matriz A (a esquerda) pela matriz E obtida da matriz identidade de ordem n trocando-se as linhas i e j de lugar.

Vamos multiplicar a segunda linha pelo escalar λ = 0. Em termos matriciais:

50 5. MATRIZES ELEMENTARES

λa21 λa22 λa23

Novamente, o processo e completamente geral: fizemos a operacao elementar na matriz identidade e multiplicamos (a esquerda) essa matriz pela matriz A.

Vamos agora trocar L3 por L3 +2 L1. Matricialmente:

Definicao 1.1. Uma matriz elementar de ordem n e uma matriz

E obtida a partir da matriz identidade In de ordem n efetuando-se em In uma unica operacao elementar.

Assim, as matrizes elementares de ordem 2 sao:

onde λ,µ sao escalares reais nao nulos.

Sintetizaremos as observacoes acima no proximo

Lema 1.2. Seja A uma matriz quadrada de ordem n.S e B denota a matriz obtida a partir de A pela aplicacao de uma das tres operacoes elementares entao onde E e a matriz elementar obtida a partir da identidade In pela aplicacao da mesma operacao elementar acima.

Se formos aplicando operacoes elementares em sequencia em uma dada matriz, o que acontecera? Vejamos um exemplo:

(Parte 3 de 3)

Comentários