(Parte 2 de 3)

Vimos acima a definicao da transposta de uma matriz 1 × n.A generalizacao dessa nocao nos seram uito util: dada uma matriz A =

(aij) ∈ Mm,n(R) definimos a sua transposta At ∈ Mn,m(R)p or

Observe que as linhas de A se transformam nas colunas de At,p or exemplo:

Identificamos Rn com M1,n(R). A transposta ut de uma n-upla u ∈ Rn eu me lementod e Mn,1(R), que tambem continuaremos a chamar de n-upla.

Se A,B ∈ Mm,n(R)e α ∈ R, o leitor pode verificar como exercıcio que a transposicao possui as seguintes propriedades: dadas A,B ∈

Assim, de um modo bem formal, podemos reescrever os nossos objetivos iniciais: dada uma matrix A com m linhas e n colunas e coe- ficientes reais e dada uma n-upla de numeros reais b =( b1,...,b m)t, decidir se o sistema de m equacoes e n incognitas

Ax = b

24 3. MATRIZES possui solucoes e, em caso afirmativo, encontra-las. O conjunto de todas as solucoes desse sistema e um subconjunto do Rn

2. Matrizes Inversıveis Consideremos o sistema linear onde A ∈ Mm,n(R), x =( x1,...,x n)t e b =( b1,...,b m)t.J av imos que o seu conjunto solucao S e um subconjunto do Rn que pode ser igualmente descrito por inumeros outros sistemas equivalentes. Suponhamos que S seja um conjunto unitario, isto e, um conjunto com uma unica n-upla. O que podemos dizer de m e n? Uma primeira observacao: necessariamente m ≥ n, pois caso contrario, um sistema com mais incognitas do que equacoes continuara com essa propriedade na forma escalonada, e entao S teria que ser um conjunto infinito. Se m>n a forma escalonada do sistema tem que ser a seguinte:

cnnxn = dn

onde necessariamente cjj = 0. Isso nos mostra que embora tenhamos m equacoes, com m>n ,a penas n equacoes sao realmente independentes; as demais foram eliminadas no processo de escalonamento, fornecendo equacoes do tipo 0 = 0. Assim, quando S e um conjunto unitario, nao ha perda de generalidade em considerarmos sistemas com tantas equacoes quantas forem as incognitas. Portanto, vamos supor que a nossa matriz A do sistema inicial e uma matriz de Mn(R), isto e, uma matriz n × n (ec laro quet ambem b sera uma matriz n × 1). Como o produto de duas matrizes n × n fornece tambem uma matriz n × n,a equacao

2. MATRIZES INVERSIVEIS 25 sugere uma abordagem formal: se existir B ∈ Mn(R)t al que BA = In, entao, multiplicando a equacao (1) por B pela esquerda obtemos

B(Ax)= Bb, de onde e conseguimos o valor da solucao x. Ec omos e stivessemos pensando numa equacao do tipo

Uma consequencia simples da definicao:

Lema 2.2. Seja A ∈ Mn(R) uma matriz invertıvel. Entao o sistema Ax = b tem solucao unica.

Prova: Seja B ∈ Mn(R) uma matriz tal que BA = I. Vamos mostrar que o sistema homogeneo Ax = 0 tem solucao unica. De fato, se x1 for outra solucao entao multiplicamos por B a esquerda e obtemos x1 = 0. A forma escalonada desse sistema e:

onde necessariamente aii = 0, pela unicidade da solucao. Mas isso implica que o sistema nao-homogeneo Ax = b tambem tem solucao unica! Isso prova o lema.

26 3. MATRIZES

Observacao 2.3. A prova acima fornece uma observacao impor- tante: se um dado sistema Ax = b (com A ∈ Mn(R)) tem solucao unica, entao Ax = b′ tera solucao unica, qualquer que seja b′.O u seja, a propriedade de ter solucao unica depende apenas da matriz A.

Lema 2.4. Se A ∈ Mn(R) e Ax = b tem solucao unica, entao existe uma matriz C ∈ Mn(R) tal que AC = I.

Prova: Pela observacao acima, Ax = b teras olucao unica para todo b. Escolhemos

cnn

Se montarmos C =( cij), e claro que, como Axj = bj, teremos AC = I. Isso prova o lema.

Finalmente, podemos concluir:

Teorema 2.5. Seja A ∈ Mn(R) uma matriz invertıvel. Entao existe uma unica matriz B ∈ Mn(R) tal que BA = I e essa matriz B verifica tambem AB = I.

Prova: Como A ei nvertıvel, o lema 2.2 garante que Ax = b tem solucao unica. Mas entao o lema 2.4 garante a existencia de uma unica matriz C ∈ Mn(R)t al que AC = I. Como A ei nvertıvel, seja B uma matriz tal que BA = I.E ntao

Vamos denominar a matriz B do teorema acima por A−1.E la sera chamada de a inversa da matriz A.

Podemos concluir o estudo da relacao entre sistemas com solucao unica e matrizes invertıveis:

2. MATRIZES INVERSIVEIS 27

Teorema 2.6. Seja A ∈ Mn(R). O sistema Ax = b tem solucao unica se e somente se A for invertıvel.

Prova: Se Ax = b tem solucao unica entao a prova do Teorema 2.5 garante que A ei nvertıvel. A recıproca foi provada no lema 2.2.

Se soubermos que uma determinada matriz A ei nvertıvel, como calcular a sua inversa? Podemos proceder observando que: se A =( aij) e a matriz invertıvel e B =( xij), matriz de incognitas, e a sua inversa entao AB = I. Matricialmente:

e portanto, se considerarmos as incognitas por colunas, teremos n sis- temas lineares:

xnn que podemos resolver simultaneamente, por escalonamento completo da matriz:

Escalonando ate que o lado esquerdo fique sendo a matriz identidade. Vemos que a matriz do lado direito e a matriz inversa procurada(cada coluna dela e a solucao do sistema linear correspondente).

Exemplo 2.7. O sistema linear da pagina 7 nos fornece a seguinte matriz

28 3. MATRIZES

Vamos inverte-la pelo processo acima:

de onde concluımos que

CAPıTULO 4

1. Motivacao Consideremos inicialmente o seguinte sistema homogeneo:

Ja sabemos que ou a solucao trivial (0,0) ea unica solucao ou existirao infinitas solucoes. E claro que essas alternativas dependem apenas dos quatro coeficientes a,b,c,d, ou, se quisermos, da matriz dos coeficientes do sistema

( ab

Como podemos decidir entre as duas possibilidades para o conjunto solucao, considerando apenas a matriz acima? Isso e o que nos propomos neste capıtulo. Uma primeira observacao bem simples nos diz que se a = c =0 en- tao x1 pode assumir qualquer valor e portanto teremos uma infinidade de solucoes. A mesma conclusao vale no caso em que b = d =0 . Em termos da matriz dos coeficientes isso se traduz no seguinte: se uma das suas colunas for nula, o sistema tera infinitas solucoes!

Podemos entao supor que nenhuma das suas colunas e nula. Trocando as linhas de lugar, se necessario, podemos supor nesse caso que a = 0. Vamos escalonar o sistema. Mantemos a primeira equacao e no lugar da segunda equacao pomos a segunda menos c/a vezes a primeira, obtendo

( ab

On umero que aparece na segunda linha, a saber 29 ad − bc a e fundamental para a determinacao das alternativas possıveis para o conjunto solucao do sistema inicial: se ele for diferente de zero, entao aunica solucao e a trivial. Caso contrario existem infinitas solucoes. Agora, do quociente (ad − bc)/a ja sabemos que a = 0 e portanto podemos resumir a nossa discussao da seguinte maneira: ad − bc =0 se e somente a unica solucao do sistema for a trivial!

Oq ue e ainda melhor e que essa condicao engloba o caso anterior de uma das colunas se anular: se uma das colunas se anular, entao e claro que ad − bc = 0, e o sistema tera infinitas solucoes. Assim, para sistemas com duas equacoes e duas incognitas, encontramos um unico numero, a saber ad − bc que possui a notavel propriedade de discriminar as duas alternativas possıveis para o seu conjunto solucao, bastando para tanto olhar se esse numero e zero ou nao. Chamaremos esse numero de determinante da matriz ( ab

Vejamos se tambem podemos encontrar um numero que discrimine o conjunto solucao de um sistema com tres equacoes e tres incognitas:

Aıt ambem, se uma das colunas da matriz associada for nula, e claro que teremos uma infinidade de solucoes. Vamos entao supor que nenhuma das suas colunas e nula. Do mesmo modo como fizemos antes, trocando as linhas se necessario, podemos supor que a = 0. Vamos escalonar o sistema:

Na submatriz 2 × 2 que aparece acima, a saber

[ ae − bd af − cd ah − bg ai − cg temos as seguintes possibilidades:

I. Ao menos uma das colunas se anula; I. Nenhuma das duas colunas se anula.

No caso I, como a variavel x1 nao aparece nas duas ultimas equacoes do sistema escalonado, podemos troca-las de lugar e supor que ae − bd = 0. Nesse caso podemos continuar o escalonamento, que nos dara a seguinte matriz:

onde

ou seja, simplificando,

bd − ae .

O denominador da fracao acima e o oposto do determinante da submatriz [ ab

Vamos entao trocar os sinais no numerador e no denominador, para a coerencia dos calculos:

ae − bd .

Podemos entao concluir a analise, no caso I: o sistema terau ma unica solucao (a saber, a trivial) se e somente se ξ =0 . Mas como ae − bd =0 , concluımos: o sistema teras olucao unica se e somente se

(2) −ceg + bfg + cdh − afh − bdi + aei =0 . Novamente ocorre algo surpreendente: no caso I, podemos ter ou

I.1) ae − bd = ah − bg =0 ou

I.2) af − cd = ai − cg =0

(com infinitas solucoes em ambas as possibilidades) e em ambos os casos o numero (1) acima se anula, fornecendo um criterio unico. De fato, supondo I.1, temos

onde a terceira parcela tambem se anula pois, por hipotese, e = db/a e h = gb/a, de onde

( gb

( db

O mesmo ocorre com o caso I.2et ambem no caso de alguma das colunas da matriz inicial se anular. Isso significa que podemos resumir a nossa analise para sistemas 3×3 assim: o sistema teras olucao unica se e somente se

Como esse numero (sendo zero ou nao) determina se o sistema tem solucao unica vamos chama-lo de determinante do sistema dado. Mais formalmente:

det

Na definicao acima agrupamos os termos positivos e os termos negativos, procedimento esse que torna mais facil a memorizacao do calculo do determinante:

Podemos tambem perceber outras regularidades, reescrevendo o determinante da seguinte maneira:

que revela uma interessante recursividade: os numeros entre parenteses sao os determinantes de matrizes 2 × 2 facilmente identificaveis

A regra que percebemos nesse caso e a seguinte: escolhemos a primeira coluna e cada elemento ai1 dessa coluna contribui para o determinante com a parcela onde Mi1 e a submatriz 2×2 obtida da matriz inicial retirando-se dela a i-esima linha e a primeira coluna. O leitor curioso pode fatorar a expressao do determinante de modo que as expansoes obtidas sejam feitas nao apenas pela primeira coluna, mas por qualquer coluna, e mesmo por qualquer linha, segundo regras analogas a regra acima.

2. Definicao e propriedades

Como generalizar o determinante para matrizes quadradas de ordem qualquer? A ultima observacao acima (veja a equacao (3)) sobre a expressao recursiva do determinante permite uma definicao simples de determinante para matrizes quadradas quaisquer. Vejamos como ficarıa ad efinicao para uma matriz 4 × 4:

. Pelas nossas observacoes anteriores, o numero procurado deve ser:

ou seja:

Embora pudessemos adotar essa definicao recursiva, preferimos, para uma compreensao mais profunda do assunto, seguir outro caminho. Vamos examinar com cuidado as expressoes obtidas para os determinantes de matrizes de ordens 2, 3 e 4 e tentar perceber algum padrao.

Comecamos observando que os determinantes obtidos acima sao formados de parcelas bastante peculiares:

inteiros {1, 2,,k },p ara k =2 , 3, 4. O inteiro s(j1,...,j k) depende

onde (j1,j2,...,j k) assumem os possıveis arranjos (sao k! arranjos) dos de alguma propriedade oculta no arranjo (j1,...,j k). Tabelemos os arranjos com sinal positivo e os arranjos com sinal negativo para as diversas ordens: para ordem 2

(1, 2)(+)
(2, 1)(−)
(1, 2, 3)(+)
(2, 3, 1)(+)
(3, 1, 2)(+)
(3, 2, 1)(−)
(1, 3, 2)(−)
(2, 1, 3)(−)

para ordem 3 e para ordem 4:

(4, 3, 2, 1)(+) (3, 4, 2, 1)........(−)
(2, 4, 3, 1)(+) (4, 2, 3, 1)........(−)
(3, 2, 4, 1)(+) (2, 3, 4, 1)........(−)
(3, 4, 1, 2)(+) (4, 3, 1, 2)........(−)
(4, 1, 3, 2)(+) (1, 4, 3, 2)........(−)
(1, 3, 4, 2)(+) (3, 1, 4, 2)........(−)
(4, 2, 1, 3)(+) (2, 4, 1, 3)........(−)
(1, 4, 2, 3)(+) (4, 1, 2, 3)........(−)
(2, 1, 4, 3)(+) (1, 2, 4, 3)........(−)
(2, 3, 1, 4)(+) (3, 2, 1, 4)........(−)
(3, 1, 2, 4)(+) (1, 3, 2, 4)........(−)
(1, 2, 3, 4)(+) (2, 1, 3, 4)........(−)

Percebemos imediatamente algumas regularidades: 1. O arranjo identidade tem sempre sinal (+):

(1, 2)(+), (1, 2, 3).....(+), (1, 2, 3, 4)......(+).

2. Arranjos que diferem do arranjo identidade por apenas uma troca de posicao entre dois elementos tem sempre sinal (−):

(2, 1)(−), (1, 3, 2)....(−), (2, 1, 3)....(−), (3, 2, 1)....(−),
(2, 1, 3, 4)(−), (3, 2, 1, 4)....(−), (4, 2, 3, 1)....(−), (1, 3, 2, 4)....(−),
(1, 4, 3, 2)(−), (1, 2, 4, 3)....(−).

3. Dado um arranjo qualquer com sinal ε, o arranjo obtido dele por uma troca de posicao entre dois elementos quaisquer tem sinal −ε.

Com essas tres observacoes ja podemos arriscar uma caracterizacao desse misterioso inteiro s e: eon umero de trocas necessarias para trazer

e portanto s =1 .

onde s = 4. Embora distintas, as duas maneiras produziram um valor par para s. Como o fator (−1)s depende apenas de s ser par ouımpar, essas duas maneiras distintas forneceram o mesmo sinal para a parcela correspondente ao arranjo considerado. Sera que nao podera ocorrer uma mudanca na paridade de s, se fizermos outras trocas? O proximo lema, que deixaremos como exercıcio, garante que isso nao ep ossıvel!

Lema 2.1. Seja (j1,...,j n) um arranjo dos inteiros {1,2,...,n }. Se com s trocas levamos esse arranjo para o arranjo (1,2,...,n ) entao a paridade de s depende apenas do arranjo inicial dado.

Definicao 2.2. Dada uma matriz quadrada de ordem n, A = (aij) ∈ Mn(R), definimos o seu determinante como a soma:

feita sobre todos os n! arranjos J =( j1,...,j n) dos inteiros {1, 2,...,n } e o inteiro s = s(J) correspondente eon umero de trocas necessarias para levar o arranjo J dado ao arranjo (1,2,...,n ).

E claro que precisamos verificar se esse determinante, definido em geral, preserva a propriedade que lhe deu origem, a saber: o sistema Ax = 0 tem uma unica solucao se e somente se det(A) =0 . Antes, porem, vamos estudar algumas propriedades dos determinantes.

E muito frequente (como vimos no processo de escalonamento) en- contrarmos matrizes na forma triangular,i sto e, uma matriz A =( aij), onde aij =0 se i>j :

Vamos calcular o determinante dessa matriz triangular:

somando sobre os arranjos (j1,...,j n)d e {1,2,...,n }. Como aij =0 se i>j , vemos que as parcelas onde jn = n se anulam. Assim, ficam apenas aquelas onde jn = n.M as entao a (n − 1) upla (j1,...,j n−1)e um arranjo de (1,2,...,n −1) e portanto a unica possibilidade de obter parcelas nao nulas e jn−1 = n − 1. Continuando o processo, obtemos

Vamos resumir essa discussao no seguinte lema:

Lema 2.3. Se A =( aij) e uma matriz quadrada de ordem n triangular, i.e., se aij =0 quando i>j entao

O lema acima tem um caso particular importante, o das matrizes diagonais. Dizemos que uma matriz quadrada A =( aij)e uma matriz diagonal se aij = 0 quando i = j. O lema diz que o determinante de uma matriz diagonal e o produto dos elementos da sua diagonal principal. Outro processo frequente na manipulacao com matrizes e a transpo- sicao. E natural buscarmos saber qual a relacao entre o determinante de uma matriz A e o determinante da sua transposta At.S e A =( aij) entao At =( bij), onde bij = aji. Assim,

Na passagem da segunda para a terceira linha acima usamos que

J =( j1,...,j n)e um arranjo de (1,2,...,n ) e portanto, pela comutatividade do produto dos numeros reais, fizemos exatamente s(J) tro- cas de posicao no produto aj11aj22 · ajnn de modo a escreve-lo como a1k1a2k2 · ankn. Como cada troca e reversıvel, se J′ =( k1,k 2,...,k n) entao s(J′)= s(J), e obtivemos a forma requerida pela definicao de determinante. Vamos resumir essa discussao no seguinte

Lema 2.4. Se A e uma matriz quadrada de ordem n entao

Lema 2.5. Se B e uma matriz obtida a partir da matriz quadrada

A =( aij) permutando-se duas de suas linhas (ou duas de suas colunas) entao det(A)= −det(B).

Prova: Suponhamos que B e obtida pela troca das linhas k e p da matriz A,c om 1 ≤ k< p ≤ n. Sabemos que

Aplicando a definicao de determinante a matriz B obtemos:

de modo que se precisamos s trocas para transformar

(j1,...,j p,...,j k,...,j n)

Uma consequencia importante e o seguinte:

Corolario 2.6. Se A e uma matriz quadrada que possui duas linhas (ou duas colunas) iguais, entao det(A)=0 .

Prova: A matriz B obtida pela troca de lugar das duas linhas (ou colunas) iguais eap ropria A,d e modo que,p elo lema, det(A)= −det(A), ou seja, det(A)=0 .

(Parte 2 de 3)

Comentários