Post on 07-Jul-2015
transcript
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 1/123
Notas de Aula
Algebra Linear Numerica
Rodney Josue Biezuner 1
Departamento de MatematicaInstituto de Ciencias Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)
Notas de aula da disciplina ´ Algebra Linear Numerica do Curso de Graduacao
em Matematica Computacional, ministrado durante o segundo semestre do ano de 2009.
30 de novembro de 2009
1E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/∼rodney.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 2/123
Sumario
0 Introducao: Representacao de Numeros Reais no Computador 30.1 Ponto Flutuante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30.2 Erros de Arredondamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50.3 O Padrao de Ponto Flutuante IEEE 754 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.3.1 Numeros normalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50.3.2 Numeros denormalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60.3.3 Outros valores numericos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1 Matrizes Esparsas 71.1 Problema Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Problema de Poisson Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.1.2 Problema de Poisson Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Matrizes Esparsas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.3 Implementacao Computacional de Matrizes Esparsas . . . . . . . . . . . . . . . . . . . . . . . 11
2 Invertibilidade de Matrizes Esparsas 132.1 Normas Matriciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2 Matrizes Diagonalmente Dominantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.3 Teorema dos Discos de Gershgorin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.4 Propriedade FC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.5 Matrizes Irredutıveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.6 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3 Metodos Iterativos Lineares 313.1 Metodo Iterativos Basicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.1.1 Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.1.2 Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.1.3 Metodo SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.1.4 Comparacao da Velocidade de Convergencia dos Tres Metodos no Problema Modelo . 34
3.1.5 Metodo de Jacobi Amortecido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353.2 Analise de Convergencia dos Metodos Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . 36
3.2.1 Convergencia dos Metodos Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . 373.2.2 Velocidade de Convergencia dos Metodos Iterativos Lineares . . . . . . . . . . . . . . 403.2.3 Convergencia para Matrizes Simetricas Positivas Definidas . . . . . . . . . . . . . . . . 42
3.3 Convergencia dos Metodos Iterativos Lineares para Matrizes de Discretizacao . . . . . . . . . 443.3.1 Convergencia do Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443.3.2 Convergencia do Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . 503.3.3 Convergencia do Metodo SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523.3.4 Convergencia do Metodo de Jacobi Amortecido . . . . . . . . . . . . . . . . . . . . . . 593.3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 3/123
Rodney Josue Biezuner 2
3.4 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4 Metodos de Projecao 62
4.1 Teoria Geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 624.1.1 Representacao Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 634.1.2 Minimizacao de Funcionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 644.1.3 Estimativa do Erro em Metodos de Projecao . . . . . . . . . . . . . . . . . . . . . . . 66
4.2 Caso Unidimensional: Metodos de Descida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 674.2.1 Metodos de Descida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 674.2.2 Metodo da Descida Mais Acentuada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.3 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5 Metodos de Subespacos de Krylov 745.1 Motivacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 745.2 Subespacos de Krylov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 755.3 Algoritmo de Arnoldi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.4 Implementacao Pratica: Metodos de Ortogonalizacao Estaveis . . . . . . . . . . . . . . . . . . 795.4.1 Metodo de Gram-Schmidt Modificado (MGS) . . . . . . . . . . . . . . . . . . . . . . . 795.4.2 Metodo de Gram-Schmidt Modificado com Reortogonalizacao (MGSR) . . . . . . . . . 82
5.5 Metodo de Arnoldi para Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 835.6 Decomposicao QR via MGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 855.7 Algoritmo de Lanczos e Metodo do Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . 875.8 Metodo do Gradiente Conjugado como um Metodo de Descida . . . . . . . . . . . . . . . . . 91
5.8.1 Convergencia do Metodo do Gradiente Conjugado em Aritmetica Exata . . . . . . . . 945.9 Velocidade de Convergencia do Metodo do Gradiente Conjugado . . . . . . . . . . . . . . . . 96
5.9.1 Polinomios de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 965.9.2 Velocidade de Convergencia do CG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.10 E xercıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6 O Problema do Autovalor 1026.1 Caracterizacao Variacional dos Autovalores de uma Matriz Simetrica: Quociente de Rayleigh 1026.2 Metodo das Potencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.2.1 Metodo das Potencias Inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1076.2.2 Metodo das Potencias com Deslocamento . . . . . . . . . . . . . . . . . . . . . . . . . 1076.2.3 Iteracao do Quociente de Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.3 Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1106.3.1 Reducao de uma matriz a sua forma de Hessenberg . . . . . . . . . . . . . . . . . . . . 1116.3.2 Aceleracao do algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1146.3.3 Implementacao pratica do algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.4 Iteracao de subespacos e iteracao simultanea . . . . . . . . . . . . . . . . . . . . . . . . . . . 1166.4.1 Equivalencia entre o Algoritmo QR e Iteracao Simulta n e a . . . . . . . . . . . . . . . . 1 1 8
6.4.2 Convergencia do Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1196.5 Metodo de Arnoldi e Algoritmo de Lanczos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1196.6 O Problema de Autovalor Simetrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1206.7 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 4/123
Capıtulo 0
Introducao: Representacao deNumeros Reais no Computador
Computadores digitais usam um numero finito de bits para representar um numero real, portanto elespodem representar apenas um subconjunto finito dos numeros reais, o que leva a dois tipos diferentes delimitacoes: (1) numeros representados nao podem ser arbitrariamente grandes ou arbitrariamente pequenos;(2) existem lacunas entre os numeros representados. Estas limitacoes fısicas levam respectivamente aos errosde overflow e underflow e aos erros de arredondamento.
Para discutir estes erros de maneira inteligente, introduzimos alguma terminologia.
0.1 Definicao. Definimos o erro absoluto causado por uma computacao por
Erro absoluto = |(valor calculado) − (valor exato)| .
O erro relativo causado por uma computacao e definido por
Erro relativo =
erro absoluto
valor exato
.
O erro relativo permite comparar entre os erros cometidos de maneira significativa. Por exemplo, o erroabsoluto entre 1 (valor exato) e 2 (valor calculado) e o erro absoluto entre 1 .000.000 (valor exato) e 1.000.001(valor calculado) sao os mesmos. No entanto, o erro relativo no primeiro caso e 1, enquanto que o errorelativo no segundo caso e 10−6, expressando o fato intuitivo que o erro cometido no primeiro caso e muitomaior que o erro cometido no segundo caso. As vezes o erro relativo e expresso como uma porcentagem:
Erro percentual = [(erro relativo) × 100] %.
Assim, o erro percentual no primeiro caso e 100%, enquanto que o erro percentual no segundo caso e10−4 = 0, 0001%.
0.1 Ponto Flutuante
Na Matematica Pura, os numeros reais sao infinitos, infinitamente grandes e infinitamente pequenos. Naoexiste um numero maior ou um numero menor. Alem disso, eles tambem sao continuamente distribuıdos:nao existem espacos entre numeros reais, pois entre quaisquer dois numeros reais sempre existe outro numeroreal. Mais que isso, eles sao distribuıdos uniformemente na reta real. Um numero real e infinitamente preciso:
3
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 5/123
Rodney Josue Biezuner 4
os numeros depois do ponto decimal sao infinitos (incluindo o 0). Em outras palavras, usando a base 10,numeros reais correspondem a series da forma
a = a0 +
∞n=1
an10n
onde a0 ∈ Z e an ∈ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9.O padrao para representar numeros reais em Matematica Computacional e o numero de ponto flutu-
ante. Numeros de ponto flutuante nao sao infinitos: existe um numero de ponto flutuante maximo e umnumero de ponto flutuante mınimo. Existe um numero fixado de pontos flutuantes, logo existem espacosentre eles. Numeros de ponto flutuante de precisao simples (tipo float) tem aproximadamente 8 dıgitosdecimais significantes, enquanto que numeros de ponto flutuante de precisao dupla (tipo double) tem aprox-imadamente 17 dıgitos decimais significantes. O qualificativo “aproximadamente” se refere ao fato que osnumeros de ponto flutuante sao armazenados no computador na base binaria, logo a conversao da basebinaria para a base decimal introduz alguma imprecisao.
Um numero de ponto flutuante e armazenado internamente em duas partes: um significando e umexpoente, semelhante a notacao cientıfica.
Esta escolha de representacao garante que a distribuicao dos valores representados em ponto flutuantenao sera uniforme. Para entender isso, vamos assumir que o significando e limitado a um unico dıgito decimale que o expoente e restrito aos valores −1, 0, 1. A tabela abaixo registra todos os numeros reais positivosque podemos representar:
−1 0 10 01 1 × 10−1= 0, 1 1 × 100 = 1 1 × 101 = 102 2 × 10−1= 0, 2 2 × 100 = 2 2 × 101 = 203 3 × 10−1= 0, 3 3 × 100 = 3 3 × 101 = 304 4 × 10−1= 0, 4 4 × 100 = 4 4 × 101 = 40
5 5 × 10−1
= 0, 5 5 × 100
= 5 5 × 101
= 506 6 × 10−1= 0, 6 6 × 100 = 6 6 × 101 = 607 7 × 10−1= 0, 7 7 × 100 = 7 7 × 101 = 708 8 × 10−1= 0, 8 8 × 100 = 8 8 × 101 = 809 9 × 10−1= 0, 9 9 × 100 = 9 9 × 101 = 90
O fato do espaco entre os valores em ponto flutuante aumentar em proporcao ao tamanho dos numeros eque justifica o nome ponto flutuante. Uma representacao em que os espacos entre os valores representadostem um tamanho fixo e chamada uma representacao em ponto fixo.
0.2 Definicao. Definimos a precisao de um ponto flutuante como sendo o numero de dıgitos significativosque ele possui em seu significando. A exatidao de um ponto flutuante e a sua aproximacao do valorexato.
Quanto mais dıgitos significativos um ponto flutuante possui, mais preciso ele e: o double 0.3333333333333333e uma representacao mais precisa do numero real 1/3 do que o float 0.3333333. Por outro lado, o float
0.3333333 e uma representacao mais exata de 1/3 do que o double 0.3444444444444444, apesar deste serum ponto flutuante mais preciso, porque a maioria dos seus dıgitos significativos estao errados. Os erroscomputacionais tais como os erros de cancelamento e arredondamento afetam a exatidao de um valor emponto flutuante. Aumentar a precisao de float para double tem o potencial de aumentar a exatidao, masnao a garante.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 6/123
Rodney Josue Biezuner 5
0.2 Erros de Arredondamento
Quando um valor computado esta entre dois valores representaveis, ele sera substituıdo pelo valor represen-
tado mais proximo. Esta e a origem dos erros de arredondamento.0.3 Definicao. Definimos o erro de arredondamento por
Erro de arredondamento = |(valor representado) − (valor exato)| .
0.4 Definicao. Um erro de cancelamento e um erro de arredondamento que ocorre quando a maioriados dıgitos significativos sao perdidos durante a subtracao de dois valores aproximadamente iguais.
0.3 O Padrao de Ponto Flutuante IEEE 754
Antes do padrao IEEE 754 ser publicado em 1985, existiam muitos formatos de ponto flutuante implementa-
dos em hardware e software, o que dificultava a portabilidade dos programas. Os resultados obtidos variavamde uma maquina para outra. Atualmente, a maioria dos fabricadores aderem ao padrao IEEE 754, fruto deuma cooperacao historica entre cientistas de computacao e desenhistas de chips de microprocessadores. Asigla “IEEE” significa Institute of Electrical and Electronics Engineers.
Os formatos de precisao aritmetica simples float e dupla double sao armazenados em 32 bits e 64 bits,respectivamente. Cada formato divide um numero em tres partes: sinal (um bit), expoente e frac˜ ao. Os doisformatos diferem quanto ao numero de bits alocados para o expoente e para a fracao. No formato float 8bits sao alocados para o expoente e 23 para a fracao, enquanto que no formato double 11 bits sao alocadospara o expoente e 52 para a fracao. O bit de sinal representa o sinal do numero: 0 para positivo e 1 paranegativo. O expoente nao possui sinal: para representar expoentes negativos, o padrao adiciona um viespositivo; para obter o valor verdadeiro do expoente (sem vies), e necessario subtrair o vies. No formato deprecisao simples, o expoente com 8 bits pode armazenar valores (com vies) entre 0 e 255, mas 0 e 255 saoreservados; o vies e 127, de modo que os valores verdadeiros (sem vies) do expoente variam entre
−126 e
+127. No formato de precisao dupla, o expoente com 11 bits pode armazenar valores (com vies) entre 0 e2047, com 0 e 2047 sao reservados; o vies e 1023, de modo que os valores verdadeiros (sem vies) do expoentevariam entre −1022 e +1023.
0.3.1 Numeros normalizados
Representemos por s o sinal, e o expoente e f a fracao. Quando e nao e um valor reservado (isto e, 1 e 254no formato float e 1 e 2047 no formato double) existe um algarismo 1 e um ponto binario . implıcitosa esquerda do primeiro bit de f , de modo que o numero representado por s,e,f e o numero
n = (−1)s × (1.f ) × 2E
onde E = e
−127 (float) ou E = e
−1023 (double), chamado um n´ umero normalizado. O algarismo 1 e
o ponto binario implıcitos, juntamente com a parte fracionaria f , constituem o significando do numero, demodo que um numero de precisao simples possui 24 bits no seu significando, enquanto que um n umero deprecisao dupla possui 53 bits no seu significando.
Assim, o maior valor possıvel em modulo para float corresponde a
s = 1, e = 254 e f = 11111111111111111111111,
ou seja,23i=0
1
2i× 2127 ≈ 3, 4028 × 1038,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 7/123
Rodney Josue Biezuner 6
enquanto que o maior valor possıvel em modulo para double corresponde a
s = 0, e = 2047 e f = 1111111111111111111111111111111111111111111111111111,
ou seja, 52i=0
1
2i× 21023 ≈ 1, 7977 × 10308.
0.3.2 Numeros denormalizados
Se e = 0 (um dos valores reservados) e f = 0, nos temos o que se chama um n´ umero denormalizado (ousubnormal ). Existe um algarismo 0 e um ponto binario . implıcitos a esquerda do primeiro bit de f , de modoque o numero representado por s,e,f e o numero
n = (−1)s × (0.f ) × 2E
onde E = −126 (float) ou E = −1022 (double).
Assim, o menor valor possıvel em modulo para float corresponde a
s = 0, e = 0 e f = 00000000000000000000001,
ou seja,1
223× 2−126 ≈ 1, 4013 × 10−45,
um pouco menor do que o menor valor possıvel 1 × 2−126 = 1, 1755 × 10−38 para um float normalizado,correspondente a
s = 0, e = 1 e f = 00000000000000000000000.
O menor valor possıvel em modulo para double corresponde a
s = 0, e = 0 e f = 0000000000000000000000000000000000000000000000000001,
ou seja,1
252× 2−1022 ≈ 4, 9407 × 10−324
um pouco menor do que o menor valor possıvel 1 × 2−1022 ≈ 2, 2251 × 10−308 para um double normalizado,correspondente a
s = 0, e = 1 e f = 0000000000000000000000000000000000000000000000000000.
A existencia dos numeros denormalizados permitem uma convergencia para zero menos abrupta. Quandoos valores computados vao se tornando menores e menores, atingindo o menor valor possıvel para um float
ou double normalizado, ao inves de caırem abruptamente para zero na proxima iteracao, eles sao convertidosem numeros denormalizados.
No entanto, o espaco entre numeros representados no intervalo [1, 2] e igual a 2−52 ≈ 2.22 × 10−16; em
geral, no intervalo 2j , 2j+1 o espaco e 2j × 2−52, de modo que o espaco relativo nunca excede 2−52.
0.3.3 Outros valores numericos
Se e = f = 0, o valor numerico e −0 ou +0, dependendo de s. Se f = 0 e e = 255 para float ou se e = 2047para double, entao o valor numerico e −Infinity ou +Infinity. Se f = 0 e e = 255 para float ou see = 2047 para double, entao independentemente do valor de 0 nos temos NaN (Not a Number ). Por exemplo,dividindo 0 por 0 resulta em NaN.
Em geral, no padrao IEEE 754 uma operacao invalida produz NaN, divisao por zero produz ±Infinity,overflow produz o maior numero normalizado possıvel ou ±Infinity e underflow produz ±0, o menornumero normalizado possıvel ou um numero denormalizado.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 8/123
Capıtulo 1
Matrizes Esparsas
Matrizes esparsas sao matrizes onde a imensa maioria das entradas s ao nulas. Esta e uma definicao
vaga. Nao existe um limite inferior para o numero de zeros em uma matriz, em relacao ao tamanho desta,a partir do qual podemos declarar uma matriz com sendo esparsa. Isto e, nao existe um limite preciso apartir do qual uma matriz deixa de ser esparsa e se torna uma matriz densa (isto e, uma matriz em queo numero de zeros e irrelevante). Em geral, matrizes esparsas sao definidas operacionalmente, no sentidode que uma matriz pode ser chamada esparsa, sempre que tecnicas especiais podem ser usadas para tirarvantagem do grande numero de zeros e sua localizacao. Equacoes diferenciais parciais sao a maior fonte deproblemas de algebra linear numerica envolvendo matrizes esparsas. Engenheiros eletricos lidando com redeseletricas nos anos 1960s foram os primeiros a explorar a esparcidade das matrizes de coeficientes associadasaos problemas tratados para resolver sistemas lineares. Como os computadores tinham pouca capacidadede armazenamento e poder de processamento, e os problemas envolviam um numero enorme de variaveis,metodos de solucao direta que tiram vantagem da existencia de um numero muito grande de zeros tiveramque ser desenvolvidos.
1.1 Problema Modelo
Como fonte de matrizes esparsas, consideraremos o problema de resolver a equacao de Poisson com condicaode Dirichlet discretizada atraves de diferencas finitas em uma e duas dimensoes, que fornece uma matrizesparsa simetrica.
1.1.1 Problema de Poisson Unidimensional
Considere o problema de Dirichlet para a equacao de Poisson no intervalo unitario I = (0, 1):
−u = f (x) se 0 < x < 1,u (0) = a, u (1) = b.
(1.1)
Seja h > 0. As expansoes de Taylor para uma funcao u a direita e a esquerda de um ponto x0 sao dadasrespectivamente por
u(x0 + h) = u(x0) + u(x0)h +1
2!u(x0)h2 +
1
3!u(x0)h3 + . . . ,
e
u(x0 − h) = u(x0) − u(x0)h +1
2!u(x0)h2 − 1
3!u(x0)h3 + . . .
Se somarmos estas duas equacoes, obtemos
u(x0) =u(x0 − h) − 2u(x0) + u(x0 + h)
h2− 2
4!u(4)(x0)h2 − 2
5!u(6)(x0)h4 − . . . ,
7
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 9/123
Rodney Josue Biezuner 8
o que fornece uma aproximacao para a derivada segunda u(x0) de u em x0:
u(x0)
≈
u(x0 − h) − 2u(x0) + u(x0 + h)
h2
com erro
= − 1
12u(4)(ξ)h2 = O(h2),
onde x0 − h ξ x0 + h. Esta aproximacao e chamada uma diferenca centrada para a derivada segunda.Divida o intervalo [0, 1] em n subintervalos de comprimento h = 1/n atraves de n − 1 pontos interiores
uniformemente espacados:
x0 = 0, x1 = h, x2 = 2h, . . . , xn−1 = (n − 1) h, xn = nh = 1,
de modo que [0, 1] = [x0, x1] ∪ [x1, x2] ∪ . . . ∪ [xn−1, xn]. Introduzimos a notacao:
ui = u(xi),
f i = f (xi) .
Esta e uma discretizac˜ ao uniforme do intervalo [0, 1]. Uma vez discretizado o domınio da equacao diferencialparcial, procedemos a discretizacao desta ultima. Usando diferencas centradas para cada ponto interior xi,1 i n − 1, temos
−ui−1 + 2ui − ui+1
h2= f i. (1.2)
Esta discretizacao em diferencas finitas para a equacao de Poisson e chamada f´ ormula dos tres pontos.Portanto, para encontrar a solucao discretizada temos que resolver o sistema linear com n − 1 equacoes an − 1 incognitas:
h−2 (2u1 − u2) = f 1 + ah−2
h−2 (−u1 + 2u2 − u3) = f 2...
h−2 (−un−3 + 2un−2 − un−1) = f n−2h−2 (−un−2 + 2un−1) = f n−1 + bh−2
,
ou seja,
1
h2
2 −1−1 2 −1
−1. . .
. . .
. . .. . . −1−1 2 −1
−1 2
u1u2......
un−2
un−1
=
f 1 + ah−2
f 2......
f n−2f n−1 + bh−2
.
Esta e uma matriz tridiagonal, simetrica e esparsa.
1.1.2 Problema de Poisson Bidimensional
Considere o problema de Dirichlet homogeneo para a equacao de Poisson no quadrado unitario Ω = (0, 1) ×(0, 1) −∆u = f (x, y) em Ω,
u = 0 sobre ∂ Ω.(1.3)
Discretizamos o quadrado Ω atraves dos pontos
(xi, yj) = (ih,jh) , 0 i, j n,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 10/123
Rodney Josue Biezuner 9
onde
h =1
n,
produzindo a malha (ou gride) uniformeΩd =
(x, y) ∈ Ω : x = i∆x, y = j∆y, 0 i, j n
.
A malha dos pontos interiores e dada por
Ωd = (x, y) ∈ Ω : x = i∆x, y = j∆y, 1 i, j n − 1 ,
enquanto que a fronteira discretizada e o conjunto
∂ Ωd = (x, y) ∈ ∂ Ω : x = i∆x, y = j∆y, 0 i n, 0 j m .
A equacao de Poisson−uxx − uyy = f (x, y)
pode ser agora discretizada. Denotamosui,j = u (xi, yj) ,
f i,j = f (xi, yj) .
Aproximamos cada derivada parcial de segunda ordem pela sua diferenca centrada, obtendo
−uxx ≈ −ui−1,j + 2ui,j − ui+1,j
∆x2,
−uyy ≈ −ui,j−1 + 2ui,j − ui,j+1
∆y2.
Portanto, a equacao de Poisson discretizada toma a forma
−ui−1,j
−ui,j−1 + 4ui,j
−ui+1,j
−ui,j+1
h2 = f i,j . (1.4)
Como a funcao u e calculada em cinco pontos, esta discretizacao em diferencas finitas para a equacao dePoisson e chamada a f´ ormula dos cinco pontos.
Para cada ponto interior da malha obtemos uma equacao, logo temos um sistema linear de (n − 1)2
equacoes com o mesmo numero de incognitas. Diferente do caso unidimensional, no entanto, nao existe umamaneira natural de ordenar os pontos da malha, logo nao podemos obter imediatamente uma representacaomatricial para o problema discretizado. Precisamos antes escolher uma ordenacao para os pontos da malha,e como existem varias ordenacoes possıveis, existem varias matrizes associadas.
Talvez a mais simples ordenacao e a ordem lexicogr´ afica . Nesta ordem, os pontos da malha sao percorridoslinha por linha, da esquerda para a direita, de baixo para cima:
u1,1, u2,1, . . . , un−1,1, u1,2, u2,2, . . . , un−1,2, . . . . . . , u1,m−1, u2,m−1, . . . , un−1,m−1.
Neste caso, a matriz associada ao sistema linear e uma matriz (n − 1)2 × (n − 1)2 que pode ser escrita como
uma matriz de (n − 1)2 blocos de dimensao (n − 1) × (n − 1) na forma
A =1
h2
B −I −I B −I
−I . . .
. . .
. . .. . . −I −I B −I
−I B
(n−1)×(n−1)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 11/123
Rodney Josue Biezuner 10
onde I e a matriz identidade (n − 1) × (n − 1) e B e a matriz (n − 1) × (n − 1) dada por
B =
4 −1
−1 4 −1−1
. . .. . .
. . .. . . −1−1 4 −1
−1 4
(n−1)×(n−1)
Observe queaii = 4
para todo 1 i (n − 1)2, enquanto queaij = −1
se o ponto j e vizinho a esquerda ou a direita do ponto i, ou se o ponto j e vizinho acima ou abaixo do ponto
i. Por exemplo, se n = 4, temos
A =1
h2
4 −1 0 −1 0 0 0 0 0−1 4 −1 0 −1 0 0 0 0
0 −1 4 0 0 −1 0 0 0−1 0 0 4 −1 0 −1 0 0
0 −1 0 −1 4 −1 0 −1 00 0 −1 0 −1 4 0 0 −10 0 0 −1 0 0 4 −1 00 0 0 0 −1 0 −1 4 −10 0 0 0 0 −1 0 −1 4
Observe que a matriz A e uma matriz simetrica, pentadiagonal e esparsa.
1.2 Matrizes Esparsas
Outros problemas de EDPs, especialmente aqueles envolvendo derivadas primeiras (tais como problemas deconveccao-difusao), em geral levam a matrizes nao-simetricas. Discretizacoes de outros tipos, tais como asencontradas em elementos finitos, levam a matrizes esparsas com outro tipo de estrutura. De qualquer modo,todos possuem em comum o fato de a matriz de discretizacao ser uma matriz esparsa.
Existem essencialmente dois tipos de matrizes esparsas: estruturadas e nao-estruturadas. Umamatriz estruturada e uma em que as entradas nao-nulas formam um padrao regular, frequentemente aolongo de um numero pequeno de diagonais (tais como as matrizes que vimos no problema modelo na se caoanterior). Os elementos nao-nulos podem tambem estar organizados em blocos (submatrizes densas) de
mesmo tamanho, organizadas ao longo de um numero pequeno de blocos diagonais. Discretizacoes atraves dediferencas finitas tipicamente dao origem a matrizes esparsas com estruturas regulares. Uma matriz esparsaem que as entradas nao-nulas sao irregularmente localizadas e uma matriz esparsa irregularmente estruturada.Os metodos de volumes finitos ou elementos finitos aplicados a domınios com geometria complexa em gerallevam matrizes irregularmente estruturadas.
Esta distincao nao afeta em geral metodos de solucao direta mas e muito importante para os metodos desolucao iterativos. Neste ultimos, uma das operacoes basicas essenciais e a do produto de uma matriz porum vetor.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 12/123
Rodney Josue Biezuner 11
1.3 Implementacao Computacional de Matrizes Esparsas
Para tirar vantagem do grande numero de elementos nulos, esquemas especiais sao necessarios para armazenar
matrizes esparsas na memoria do computador. O principal ob jetivo e representar apenas os elementos nao-nulos.O esquema mais simples de armazenamento e o chamado formato de coordenadas. A estrutura de dados
consiste de tres vetores (arrays): um vetor real contendo os valores e dois vetores inteiros, um deles contendoos ındices das linhas, enquanto que o outro contem os ındices das colunas.
1.1 Exemplo. A matriz
A =
1 0 0 3 05 7 0 0 23 0 2 4 00 0 6 9 00 0 0 0 4
pode ser representada por
valueArray = 2 9 1 4 3 4 2 5 3 6 7 ,
rowIndexArray = 3 4 1 3 3 5 2 2 1 4 2 ,
columnIndexArray = 3 4 1 4 1 5 5 1 4 3 2 .
Cada vetor tem comprimento igual ao numero de elementos nao-nulos da matriz. Observe que oselementos sao listados em ordem arbitraria.
Provavelmente, o formato mais popular para armazenar matrizes esparsas gerais e o formato compressed row storage (CRS). Neste esquema, as linhas da matriz sao armazenadas uma a uma em um vetor real, daprimeira ate a ultima, preservando a ordem. Um segundo vetor inteiro contendo os ındices das colunas eusado. Um terceiro vetor inteiro contem a posicao no vetor de valores reais ou no vetor de ındices de coluna
onde cada linha comeca, mais um elemento para indicar a primeira posicao vazia dos dois vetores.
1.2 Exemplo. A matriz
A =
1 0 0 3 05 7 0 0 23 0 2 4 00 0 6 9 00 0 0 0 4
pode ser representada no formato CSR por
valueArray = 1 3 5 7 2 3 2 4 6 9 4 ,
columIndexArray = 1 4 1 2 5 1 3 4 3 4 5 ,
rowPointerArray = 1 3 6 9 11 12 .
Enquanto o comprimento dos dois primeiros vetores e igual ao numero de elementos nao-nulos damatriz., o comprimento do terceiro vetor e igual ao numero de linhas da matriz mais um. Dentrode cada linha os elementos ainda podem ser armazenados em ordem arbitraria, o que pode ser muitoconveniente.
Este esquema e o preferido pois e o mais util para realizar as computacoes t ıpicas, tais como multiplicacaoda matriz por vetores. Em CRS, a multiplicacao matriz-vetor pode ser implementada da seguinte forma (em
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 13/123
Rodney Josue Biezuner 12
C/C++ ou Java):
for( int i = 0; i < n; i++ )
lowerIndex = rowPointerArray[i];
upperIndex = rowPointerArray[i+1];
//loop over row i
for( int j = lowerIndex; j < upperIndex; j++ )
Av[i] += valueArray[j]* v[columArray[j]];
Um esquema correspondente, armazenando colunas ao inves de linhas e o compressed column storage (CCS),usado no Octave.
Os esquemas considerados acima sao chamados est´ aticos. Esquemas dinamicos, envolvendo listas en-cadeadas, em geral economizam ainda mais memoria e tem acesso ainda mais rapido a memoria. Cada linhada matriz pode ser representada por uma lista encadeada. A matriz toda e representada por uma lista de
listas encadeadas, seguindo a ordem de linhas da matriz. Desta forma, o inıcio de cada linha nao precisa serrepresentado. O ındice da coluna de cada elemento da linha ainda precisa ser representado, e claro, e issopode ser feito atraves de um ponteiro especıfico.
Outras esquemas podem ser utilizados, tirando vantagem da estrutura da matriz esparsa. Por exem-plo, em matrizes diagonais as diagonais nao-nulas podem ser armazenadas separadamente. Em matrizessimetricas, e necessario armazenar apenas os elementos da diagonal principal e da parte triangular superior(ou inferior) da matriz, mas isso em geral implica em algoritmos mais complicados para fazer operacoes coma matriz.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 14/123
Capıtulo 2
Invertibilidade de Matrizes Esparsas
Neste capıtulo desenvolveremos metodos gerais e faceis de aplicar para determinar a invertibilidade de ma-
trizes esparsas, principalmente aquelas que surgem atraves da discretizacao de equacoes diferenciais parciaisatraves de diferencas finitas. Em particular, isso implicara a existencia e unicidade de solucoes para sistemaslineares envolvendo tais matrizes. Uma vez que isso esteja estabelecido, poderemos nos dedicar nos pr oximoscapıtulos a estudar metodos iterativos para encontrar estas solucoes.
2.1 Normas Matriciais
Lembramos o conceito de norma vetorial:
2.1 Definicao. Seja V um espaco vetorial real ou complexo. Uma norma vetorial em V e uma funcao|·| : V −→ R que satisfaz as seguintes propriedades:
(i) |x| > 0 para todo x = 0 e |x| = 0 se x = 0;(ii) αx = |α| x para todo x ∈ V e para todo α ∈ R;
(iii) (Desigualdade Triangular) x + y x + y para todos x, y ∈ V.
Denotaremos por Mn (R) o espaco vetorial das matrizes complexas n × n e por Mn (C) o espaco vetorialdas matrizes complexas n × n. Quando estivermos nos referindo a qualquer um destes espacos (ou seja,quando a afirmacao que fizermos valer para qualquer um deles), usaremos a nota cao Mn simplesmente.
2.2 Definicao. Uma norma matricial no espaco vetorial Mn e uma norma vetorial · : Mn −→ R quesatisfaz a propriedade submultiplicativa
AB A B (2.1)
para todas as matrizes A, B ∈ Mn.
A seguir, veremos alguns exemplos das normas matriciais mais importantes em Mn. A verificacao de queas normas apresentadas constituem normas vetoriais e deixada como exercıcio (Exercıcio 2.1).
2.3 Exemplo. Norma l1 (norma da soma ):
A1 =n
i,j=1
|aij | . (2.2)
13
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 15/123
Rodney Josue Biezuner 14
De fato,
AB
1 =
n
i,j=1 n
k=1aikbkj n
i,j,k=1 |aikbkj
|
n
i,j,k,l=1 |aikblj
|=
n
i,k=1 |aik
|
n
j,l=1 |blj
|=
A
1
B
1 .
2.4 Exemplo. Norma l2 (norma euclidiana ):
A2 =
ni,j=1
|aij |21/2
. (2.3)
Com efeito,
AB22 =n
i,j=1
n
k=1aikbkj
2
n
i,j=1
n
k=1|aik|2
n
l=1|blj |2
=
n
i,k=1|aik|2
n
j,l=1|blj |2
= A22 B22 .
A norma l2 tambem e chamada mais raramente (e somente para matrizes) norma de Schur , norma deFrobenius ou norma de Hilbert-Schmidt .
2.5 Exemplo. Normas l p:
De modo geral, dado p 1, definimos a norma matricial
A p =
ni,j=1
|aij | p1/p
. (2.4)
2.6 Exemplo. Norma l∞ modificada (norma do m´ aximo modificada ):
A norma l∞ (norma do maximo)A∞ = max
1i,jn|aij |
e uma norma vetorial em Mn mas nao e uma norma matricial: por exemplo, se
A =
1 11 1
,
entao
A2 =
2 22 2
e portanto
A2
∞ = 2 > 1 =
A
∞
A
∞ .
No entanto, um multiplo escalar desta norma vetorial e uma norma matricial:
An∞ = n max1i,jn
|aij | . (2.5)
Com efeito,
ABn∞ = n max1i,jn
n
k=1
aikbkj
n max1i,jn
nk=1
|aikbkj | n max1i,jn
nk=1
A∞ B∞
= n (n A∞ B∞) = n A∞ n B∞ = ABn∞ .
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 16/123
Rodney Josue Biezuner 15
2.7 Exemplo. Norma do operador:
Dada uma norma vetorial |·| em Rn ou Cn, ela induz uma norma matricial atraves da definicao
A = max|x|=1
|Ax| = max|x|1
|Ax| = supx=0
|Ax||x| . (2.6)
Aqui vemos A como um operador linear em Rn ou Cn, portanto contınuo, de modo que o maximo deA e atingido na esfera e na bola fechada. Para ver que a primeira e a terceira definicoes coincidem (demodo que o sup na terceira definicao e de fato um maximo), use o fato que
|Ax||x| =
Ax
|x| .
Agora observe quemax|x|=1
|Ax| max|x|1
|Ax| ,
ja que a bola fechada contem a esfera. Por outro lado, se|x|
= ε < 1, segue queAx
|x| =
|Ax||x| =
|Ax|ε
> |Ax| ,
de modo que o maximo de |Ax| nao e atingido no interior da bola, logo
max|x|=1
|Ax| max|x|1
|Ax|
e portanto a primeira e a segunda definicoes coincidem. Finalmente, para ver que a norma do operadore uma norma matricial, escreva
AB = maxx=0
|ABx|
|x
|
= maxx=0
|ABx|
|Bx
|
|Bx|
|x
| max
Bx=0
|ABx|
|Bx
|
maxx=0
|Bx|
|x
|
maxy=0
|Ay|
|y
|
maxx=0
|Bx|
|x
|
= A B .
A norma do operador satisfaz a propriedade extremamente util
|Ax| A |x| (2.7)
para todo vetor x ∈ Rn ou Cn.
2.8 Exemplo. Norma do maximo das somas das linhas:
AL = max1in
nj=1
|aij | . (2.8)
Esta norma e a norma do operador induzida pela norma vetorial l∞. De fato, se x = (x1, . . . , xn),temos
|Ax|∞ = max1in
n
j=1
aijxj
max1in
nj=1
|aijxj| max1in
nj=1
|aij | |x|∞ = AL |x|∞ ,
de modo quemax|x|=1
|Ax|∞ AL .
Supondo que a i-esima linha de A e nao-nula, definimos o vetor y = (y1, . . . , yn) ∈ Cn por
yi =
aij
|aij | se aij = 0,
1 se aij = 0.,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 17/123
Rodney Josue Biezuner 16
o que implica |y|∞ = 1, aijyj = |aij | e
max|x|∞=1 |Ax|∞ |Ay|∞ = max1in
n
j=1 aijyj = max1in
n
j=1 |aij | = AL .
2.9 Exemplo. Norma do maximo das somas das colunas:
AC = max1jn
ni=1
|aij | . (2.9)
Esta norma e a norma do operador induzida pela norma vetorial l1. De fato, escrevendo A em termosde suas colunas
A = [A1 . . . An]
segue queAC = max
1jn|Aj |1 .
Se x = (x1, . . . , xn), segue que
|Ax|1 = |x1A1 + . . . + xnAn|1 n
i=1
|xiAi|1 =
ni=1
|xi| |Ai|1 n
i=1
|xi| max1jn
|Aj |1
= AC
ni=1
|xi| = AC |x|1 ,
donde
max|x|1=1 |Ax|1 AC .
Agora, se escolhermos yj = ej , temos que |yj |1 = 1 e
|Ay|1 = |Aj |1para todo k, logo
max|x|
1=1|Ax|1 max
1jn|Ayj |1 = max
1jn|Aj |1 = AC .
2.10 Exemplo. p-normas:
Este e o nome geral para as normas do operador induzidas pela norma vetorial l p em Rn ou Cn. Para
distingui-las das normas matriciais l p no proprio espaco vetorial Mn, vamos denota-las por
|||A||| p = supx=0
|Ax| p|x| p
.
O caso especial da norma do operador induzida pela norma vetorial l2 (a norma vetorial euclidiana) etambem chamada a norma espectral e satisfaz
|||A|||2 =
λmax = max
|λ| : λ e um autovalor de A∗A
.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 18/123
Rodney Josue Biezuner 17
De fato, A∗A e uma matriz hermitiana logo todos os seus autovalores sao nao-negativos. Pela carac-terizacao variacional dos autovalores de uma matriz hermitiana temos
λmax = maxx=0
A
∗
Ax,x2|x|22= max
x=0|Ax|
2
2|x|22.
Observe que a 2-norma e diferente da norma matricial l2 (Exercıcio 2.3). Note tambem que se A euma matriz hermitiana, entao A∗A = A2 e |||A|||2 e portanto o modulo do maior autovalor de A, istoe, a norma espectral de A e o raio espectral de A, definido como sendo o maior valor absoluto dosautovalores λ1, . . . , λn de A:
ρ (A) = maxi=1,...,n
|λi| ,
2.11 Exemplo. Norma induzida por uma matriz invertıvel:
Se
·e uma norma matricial qualquer e se S e uma matriz invertıvel, entao
AS =S −1AS
(2.10)
define uma norma matricial. Com efeito,
ABS =S −1ABS
=S −1ASS −1BS
S −1AS S −1BS
= AS BS .
Lembramos que todas as normas em um espaco vetorial de dimensao finita sao equivalentes, e isso vale emparticular para normas matriciais:
2.12 Teorema. Seja V um espaco vetorial real ou complexo de dimens˜ ao finita. Ent ao todas as normas
vetoriais em V s˜ ao equivalentes, isto e, se ·1 e ·2 s˜ ao duas normas vetoriais quaisquer em V ,ent˜ ao existem constantes C 1, C 2 > 0 tais que
x1 C 1 x2e
x2 C 2 x1para todo x ∈ V .
Prova: Para mostrar a equivalencia entre todas as normas de um espaco vetorial, por transitividade bastafixar uma norma ·1 e mostrar que qualquer norma arbitraria ·2 e equivalente a ·1. Seja B = e1, . . . , enuma base para V , de modo que todo vetor x ∈ V se escreve na forma
x =n
i=1
xiei
e defina ·1 como sendo a norma 1 em relacao a esta base:
x1 =
ni=1
|xi| .
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 19/123
Rodney Josue Biezuner 18
Entao, se ·2 e uma norma qualquer em V , segue da desigualdade triangular que
x
2
n
i=1 xiei
2 =
n
i=1 |xi
| ei
2
max
i=1,...,nei2
ni=1
|xi|
= C 2 x1 ,
onde denotamos C 2 = maxi=1,...,n
ei2.
Para provar a desigualdade reversa, considere a esfera unitaria na norma da soma S = x ∈ V : x1 = 1.A desigualdade anterior garante que a funcao x → x2 e contınua na topologia definida pela norma ·1 eportanto assume um valor mınimo m no conjunto fechado e limitado (compacto) S . Necessariamente m > 0:
se existisse e =n
i=1xiei ∈ S tal que e2 = 0, terıamos e =
n
i=1xiei = 0, contrariando o fato que e1, . . . , en
e um conjunto linearmente independente. Portanto, x
x1
2
m
para todo x ∈ V , x = 0. Tomando C 1 = 1/m, segue que x1 C 1 x2 para todo x ∈ V .
2.2 Matrizes Diagonalmente Dominantes
2.13 Definicao. Dizemos que uma matriz An×n e diagonalmente dominante se
|aii
|
n
j=1j=i |aij
|para todo i = 1, . . . , n
e estritamente diagonalmente dominante se
|aii| >
nj=1j=i
|aij | para todo i = 1, . . . , n .
2.14 Lema. Seja A ∈ Mn. Se existe alguma norma matricial · tal que I − A < 1, ent˜ ao A e invertıvel.
Prova. De fato, sob esta condicao, afirmamos que a inversa e dada explicitamente pela serie
A−1 =
∞k=0
(I − A)k . (2.11)
Para todo N ∈ N podemos escrever
AN
k=0
(I − A)k
= [I − (I − A)]N k=0
(I − A)k
=N
k=0
(I − A)k −
N +1k=1
(I − A)k
= I − (I − A)N +1 .
Como · e uma norma matricial, temos que
(I − A)k I − Ak .
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 20/123
Rodney Josue Biezuner 19
Logo, de I − A < 1 segue que
limN →∞
(I − A)N +1 = 0.
Portanto, tomando o limite quando N → ∞, concluımos (2.11). 2.15 Corolario. Se A ∈ Mn e uma matriz singular e · e uma norma matricial, ent˜ ao I − A 1. Em
particular, se · e uma norma matricial, ent˜ ao I 1.
Prova. Para provar a segunda afirmacao do enunciado, basta tomar A = 0.
2.16 Proposicao. Se A e uma matriz estritamente diagonalmente dominante, ent˜ ao A e invertıvel.
Prova. Denote por D a matriz diagonal cujas entradas diagonais sao as entradas diagonais de A. Umamatriz estritamente diagonalmente dominante possui, por definicao, entradas diagonais nao-nulas, logo D euma matriz invertıvel. A matriz D−1A tem apenas 1’s na diagonal principal e se mostramos que D−1A einvertıvel, isto implicara que A e invertıvel. Para provar isso, considere a matriz I − D−1A. Temos
I − D−1Aij = 0 se i = j,−aij/aii se i = j.
Usemos a norma do maximo das somas das linhas. Para cada 1 i n temos
nj=1
I − D−1Aij
=n
j=1j=i
aij
aii
=1
|aii|n
j=1j=i
|aij | < 1,
logoI − D−1A
< 1 e o resultado segue do Lema 2.14.
As vezes, exigir dominancia diagonal estrita em todas as linhas e pedir demais. Para certas matrizes,dominancia diagonal junto com dominancia diagonal estrita em apenas uma linha e suficiente para garantira sua invertibilidade. As matrizes de discretizacao obtidas no capıtulo anterior satisfazem esta condicao
(nas linhas correspondentes a pontos adjacentes a fronteira), e nenhuma delas e estritamente diagonalmentedominante. Por outro lado, vale a pena ressaltar que esta condicao nao e suficiente para estabelecer ainvertibilidade de uma matriz em geral, como o exemplo 4 2 1
0 1 10 1 1
demonstra.
2.3 Teorema dos Discos de Gershgorin
A primeira ferramenta teorica e o importante Teorema dos Discos de Gershgorin . Ele decorre da seguinte
observacao: se A e uma matriz complexa n × n, podemos sempre escrever A = D + B, onde D = diag(a11, . . . , ann) e a matriz diagonal formada pela diagonal principal de A e B consiste dos elementos restantesde A, possuindo uma diagonal principal nula. Se definirmos Aε = D + εB, entao A0 = D e A1 = A. Osautovalores de D sao a11, . . . , ann, enquanto que os autovalores de Aε devem estar localizados em vizinhancasdos pontos a11, . . . , ann, desde que ε seja suficientemente pequeno. O mesmo deve valer para os autovaloresda matriz A: eles devem estar contidos em discos centrados nos elementos a11, . . . , ann da diagonal principalse os discos sao suficientemente grandes. O Teorema de Gershgorin da uma estimativa precisa e simples decalcular para os raios destes discos em funcao das entradas restantes da matriz A. Denote o disco complexofechado de centro em a e raio R por
DR (a) = z ∈ C : |z − a| R .
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 21/123
Rodney Josue Biezuner 20
2.17 Teorema. (Teorema dos Discos de Gershgorin) Se A ∈ M n (C) e
Ri (A) =
n
j=1j=i
|aij
|(2.12)
denota a soma dos valores absolutos dos elementos da linha i de A excetuando o elemento da diagonal principal, ent˜ ao todos os autovalores de A est˜ ao contidos na uni˜ ao dos n discos de Gershgorin
G (A) =n
i=1
DRi(A) (aii) . (2.13)
Alem disso, se uma uni˜ ao de k destes discos forma uma regi˜ ao que e disjunta dos n−k discos restantes,ent˜ ao existem exatamente k autovalores de A nesta regi˜ ao.
Prova. Seja λ um autovalor de A e x = (x1, . . . , xn) = 0 um autovetor associado. Seja k um ındice tal que
|xk| |xj | para j = 1, . . . , n ,
isto e, xk e a coordenada de x de maior valor absoluto. Denotando por (Ax)k a k-esima coordenada do vetorAx = λx, temos
λxk = (Ax)k =n
j=1
akjxj
que e equivalente a
xk (λ − akk) =
nj=1j=k
akjxj .
Daı,
|xk| |λ − akk| n
j=1j=k
|akjxj | =n
j=1j=k
|akj | |xj| |xk|n
j=1j=k
|akj | = |xk| Rk (A) ,
ou seja,|λ − akk | Rk (A) .
Isso prova o resultado principal do Teorema de Gershgorin (como nao sabemos qual k e apropriado paracada autovalor λ, e um mesmo k pode servir para varios autovalores λ, tudo o que podemos afirmar e queos autovalores estao na uniao dos discos).
Para provar a segunda afirmacao, escreva A = D + B, onde D = diag (a11, . . . , ann) e defina
At = D + tB
para 0 t 1. Note queRi (At) = Ri (tB) = tRi (A) .
Para simplificar a notacao, assuma que a uniao dos primeiros k discos de Gershgorin
Gk (A) =k
i=1
DRi(A) (aii)
satisfaz Gk (A) ∩ [G (A) \Gk (A)] = ∅. Temos
DRi(At) (aii) = z ∈ C : |z − aii| Ri (At) = z ∈ C : |z − aii| tRi (A) ⊂ DRi(A) (aii) ,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 22/123
Rodney Josue Biezuner 21
logo,Gk (At) ⊂ Gk (A)
e
Gk (A) ∩ [G (At) \Gk (At)] = ∅para 0 t 1. Porque os autovalores sao funcoes contınuas das entradas de uma matriz, o caminho
λi (t) = λi (At)
e um caminho contınuo que liga λi (A0) = λi (D) = aii a λi (A1) = λi (A). Seja 1 i k. Comoλi (At) ∈ Gk (At) ⊂ Gk (A), concluımos que para cada 0 t 1 existem k autovalores de At em Gk (A); emparticular, fazendo t = 1, obtemos que Gk (A) possui pelo menos k autovalores de A. Da mesma forma, naopode haver mais que k autovalores de A em Gk (A), pois os n − k autovalores restantes de A0 = D comecamfora do conjunto Gk (A) e seguem caminhos contınuos que permanecem fora de Gk (A). A uniao G (A) dos discos de Gershgorin e conhecida como a regi˜ ao de Gershgorin . Observe que enquantonao podemos em geral afirmar com certeza que cada disco de Gershgorin possui um autovalor, a segundaafirmacao do teorema permite-nos fazer tal conclusao desde que os discos de Gershgorin sejam dois a dois
disjuntos.O Teorema dos Discos de Gershgorin permite entender o resultado da Proposicao 2.16: se uma matriz A e
estritamente diagonalmente dominante, entao os discos de Gershgorin DRi(A) (aii) nao interceptam a origem,logo 0 nao pode ser um autovalor para a matriz A, o que implica que A e invertıvel. Alem disso, se todosos elementos da diagonal principal de A sao reais e positivos, entao os autovalores de A estao localizados nosemiplano direito de C, de modo que se A e tambem simetrica, concluımos que todos os autovalores de Asao positivos.
A aplicacao mais obvia do Teorema dos Discos de Gershgorin e na estimativa dos autovalores de umamatriz. Usos mais refinados do Teorema de Gershgorin permitem obter conhecimento mais preciso sobreonde os autovalores da matriz se encontram e correspondentemente melhores estimativas para o raio espectralde uma matriz. Por exemplo, como A e At possuem os mesmos autovalores, existe um teorema dos discosde Gershgorin equivalente para as colunas de uma matriz. Em particular, todos os autovalores de A estao
localizados na intersecao destas duas regioes: G (A)∩G (At
). Isso implica a seguinte estimativa simples parao raio espectral de uma matriz complexa:
2.18 Corolario. Se A ∈ M n (C), ent˜ ao
ρ (A) min
maxi=1,...,n
nj=1
|aij | , maxj=1,...,n
ni=1
|aij | = min (AL , AC ) .
Prova. O ponto no i-esimo disco de Gershgorin que e mais distante da origem tem modulo
|aii| + Ri (A) =n
j=1
|aij |
e um resultado semelhante vale para as colunas de A. O resultado do Corolario 2.18 nao e surpreendente em vista do raio espectral de uma matriz ser menor quequalquer norma matricial (veja o proximo capıtulo). Um resultado melhor pode ser obtido uma vez quese observa que A e S −1AS tambem possuem os mesmos autovalores, qualquer que seja a matriz invertıvelS . Em particular, quando S = D = diag ( p1, . . . , pn) e uma matriz diagonal com todos os seus elementospositivos, isto e, pi > 0 para todo i, aplicando o Teorema de Gershgorin a matriz
D−1AD =
pj pi
aij
e a sua transposta, obtemos o seguinte resultado que permite obter uma estimativa arbitrariamente boa dosautovalores de A:
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 23/123
Rodney Josue Biezuner 22
2.19 Corolario. Se A ∈ M n (C) e p1, . . . , pn > 0, ent˜ ao todos os autovalores de A est˜ ao contidos em
G D−1AD ∩ G DAtD−1 =
ni=1
z ∈ C : |z − aii| 1
pi
nj=1j=i
pj |aij | (2.14)
∩n
i=1
z ∈ C : |z − aii| pj
ni=1i=j
1
pi|aij |
.
Em particular,
ρ (A) min p1,...,pn>0
max
i=1,...,n
1
pi
nj=1
pj |aij | , maxj=1,...,n
pj
ni=1
1
pi|aij |
. (2.15)
2.4 Propriedade FC
Na nossa busca por propriedades para matrizes diagonalmente dominantes que garantir ao a sua invertibil-idade, uma observacao fundamental e a de que se A e uma matriz diagonalmente dominante, ent˜ ao 0 n˜ aopode ser um ponto interior de nenhum disco de Gershgorin. De fato, se λ e um autovalor de A interior aalgum disco de Gershgorin entao devemos ter desigualdade estrita
|λ − aii| < Ri (A) =
nj=1j=i
|aij |
para algum i. Se 0 e um autovalor de A interior a algum disco de Gershgorin, entao
|aii| <n
j=1j=i
|aij |
para algum i e A nao pode ser diagonalmente dominante na linha i.Uma condicao equivalente para que um autovalor λ de A nao seja um ponto interior de nenhum disco de
Gershgorin e que
|λ − aii| Ri (A) =
nj=1j=i
|aij | para todo i = 1, . . . , n .
Tais pontos λ na regiao de Gershgorin G (A) (nao necessariamente autovalores de A) constituem precisa-
mente a fronteira ∂G (A) da regiao de Gershgorin. Chamaremos a fronteira de um disco de Gershgorinz ∈ C : |z − aii| = Ri (A) um cırculo de Gershgorin .
2.20 Lema. Seja A ∈ M n (C) e λ um autovalor de A que n˜ ao e um ponto interior de nenhum disco deGershgorin. Seja x = (x1, . . . , xn) = 0 um autovetor associado a λ e k um ındice tal que
|xk| |xj | para j = 1, . . . , n .
Se i e qualquer ındice tal que|xi| = |xk|
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 24/123
Rodney Josue Biezuner 23
ent˜ ao o i-esimo cırculo de Gershgorin passa por λ. Se, alem disso,
aij = 0,
ent˜ ao|xj| = |xk|
e o j-esimo cırculo de Gershgorin tambem passa por λ.
Prova. Como na demonstracao do Teorema de Gershgorin, temos
|xi| |λ − aii| n
j=1j=i
|aijxj| =n
j=1j=i
|aij | |xj | |xk|n
j=1j=i
|aij | = |xk| Ri (A) (2.16)
para todo ındice i. Logo, se |xi| = |xk|, temos
|λ − aii| Ri (A) .
Como por hipotese|λ − aii| Ri (A)
para todo ındice i, segue que|λ − aii| = Ri (A) .
Em geral, |xi| = |xk| implica que as desigualdades em (2.16) sao identidades; em particular,
nj=1j=i
|aij | |xj | = |xi|n
j=1j=i
|aij |
donde nj=1j=i
|aij | (|xi| − |xj |) = 0.
Esta e uma soma de termos nao-negativos, pois |xi| |xj |, logo se aij = 0 necessariamente devemos ter|xj | = |xi| = |xk|.
Este lema tecnico tem as seguintes consequencias uteis:
2.21 Teorema. Seja A ∈ M n (C) uma matriz cujas entradas s˜ ao todas n˜ ao-nulas e seja λ um autovalor de A que n˜ ao e um ponto interior de nenhum disco de Gershgorin. Entao todo cırculo de Gershgorin de A passa por λ (isto e, λ est´ a na intersec˜ ao de todos os cırculos de Gershgorin de A) e se x =(x1, . . . , xn)
= 0 e um autovetor associado a λ ent˜ ao
|xi| = |xj | para todos i, j = 1, . . . , n .
Prova. Decorre diretamente do lema anterior.
2.22 Corolario. Se A ∈ M n (C) e uma matriz cujas entradas s˜ ao todas nao-nulas e diagonalmente domi-
nante tal que |aii| >n
j=1j=i
|aij | para pelo menos alguma linha i, ent˜ ao A e invertıvel.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 25/123
Rodney Josue Biezuner 24
Prova. Pois, como A e diagonalmente dominante, se 0 e um autovalor de A entao 0 nao pode ser um pontointerior de nenhum disco de Gershgorin. Por outro lado, pelo teorema anterior, segue que todo cırculo deGershgorin passa por 0. Entretanto, o i-esimo cırculo de Gershgorin centrado em aii e com raio Ri < |aii|nao pode passar por 0. Concluımos que 0 nao e um autovalor de A, logo A e invertıvel. As matrizes do Corolario 2.22 sao as antıteses das matrizes esparsas que nos interessam. Usando commaior cuidado a informacao dada pelo Lema 2.20 podemos obter resultados que se aplicam a matrizesesparsas.
2.23 Definicao. Dizemos que uma matriz A = (aij) ∈ M n (C) satisfaz a propriedade FC se para todo parde inteiros distintos i, j existe uma sequencia de inteiros distintos i1 = i, i2, i3, . . . , im−1, im = j, com1 m n, tais que todas as entradas matriciais
ai1i2 , ai2i3 , . . . , aim−1im
sao nao-nulas.
Por exemplo, a matriz diagonalmente dominante nao-invertıvel 4 2 10 1 10 1 1
,
ja vista anteriormente, nao satisfaz a propriedade FC porque o par 2, 1 nao admite tal sequencia (a unicasequencia possıvel e a23, a31). Ja qualquer par de inteiros distintos i, j tal que aij = 0 admite a sequenciatrivial nao-nula aij , de modo que uma matriz cujas entradas nao-diagonais sao todas nao-nulas satisfaz apropriedade FC . O significado da abreviatura “FC”, ou “fortemente conexo”, ficara claro mais adiante.
2.24 Teorema. Seja A ∈ M n (C) uma matriz que satisfaz a propriedade FC e seja λ um autovalor de A quenao e um ponto interior de nenhum disco de Gershgorin. Ent˜ ao todo cırculo de Gershgorin de A passa por λ (isto e, λ est´ a na intersec˜ ao de todos os cırculos de Gershgorin de A) e se x = (x1, . . . , xn) = 0
e um autovetor associado a λ ent˜ ao
|xi| = |xj | para todos i, j = 1, . . . , n .
Prova. Seja x = (x1, . . . , xn) = 0 um autovetor associado a λ e i um ındice tal que
|xi| |xk| para k = 1, . . . , n .
Pelo Lema 2.20,|λ − aii| = Ri (A) .
Seja j = i qualquer outro ındice e i1 = i, i2, i3, . . . , im−1, im = j, com 1 m n, ındices tais que todas asentradas matriciais
aii2 , ai2i3 , . . . , aim−1j = 0.
Como aii2 = 0, segue da segunda afirmativa do Lema 2.20 que |xi2 | = |xi|. Mas entao ai2i3 = 0 e portanto|xi3 | = |xi2 | = |xi|. Prosseguindo desta forma, concluımos que
|xi| = |xi2 | = . . .xim−1
= |xj | .
Em particular, segue novamente do Lema 2.20 que o j-esimo cırculo de Gershgorin passa por λ. Como j earbitrario, isso prova o teorema.
2.25 Corolario. Se A ∈ M n (C) e uma matriz que satisfaz a propriedade FC e diagonalmente dominante
tal que |aii| >n
j=1j=i
|aij | para pelo menos alguma linha i, ent˜ ao A e invertıvel.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 26/123
Rodney Josue Biezuner 25
Prova. Segue do teorema anterior da mesma forma que o Corolario 2.22 segue do Teorema 2.21. Vamos tentar entender melhor o significado da propriedade FC . Note que ela se refere apenas a localizacao
dos elementos nao-nulos de A fora da diagonal principal – os elementos da diagonal principal e os valores
especıficos dos elementos fora da diagonal principal sao irrelevantes. Isso motiva as seguintes definicoes:
2.26 Definicao. Dada uma matriz A = (aij) ∈ M n (C) definimos o modulo da matriz A como sendo amatriz
|A| = (|aij |)cujos elementos sao os modulos dos elementos da matriz A e a matriz indicadora de A como sendoa matriz
M (A) = (µij) ,
onde
µij =
1 se aij = 0,0 se aij = 0.
O conceito de uma sequencia de entradas nao-nulas da matriz A que aparece na definicao da propriedadeFC pode ser visualizado em termos de caminhos em um grafo associado a A:
2.27 Definicao. Dada uma matriz A ∈ M n (C), o grafo direcionado de A e o grafo direcionado Γ (A)com n nodos P 1, . . . , P n tais que existe um arco direcionado em Γ (A) de P i a P j se e somente se aij = 0.
Um caminho direcionado γ em um grafo Γ e uma sequencia de arcos P i1P i2 , P i2P i3 , . . . em Γ. Ocomprimento de um caminho direcionado e o numero de arcos sucessivos no caminho direcionado. Umciclo e um caminho direcionado que comeca e termina no mesmo no.
Dizemos que um grafo direcionado e fortemente conexo se entre qualquer par de nodos distintosP i, P j ∈ Γ existir um caminho direcionado de comprimento finito que comeca em P i e termina em P j .
Observe que quando Γ e um grafo direcionado com n nodos, se existe um caminho direcionado entre doisnodos de Γ, entao sempre existe um caminho direcionado entre estes dois nodos de comprimento menor queou igual a n − 1 (Exercıcio 2.7).
2.28 Teorema. A ∈ M n (C) satisfaz a propriedade FC se e somente se Γ (A) e fortemente conexo.
Agora estamos em condicoes de verificar a invertibilidade das matrizes esparsas oriundas da discretizacaode EDPs atraves de diferencas finitas:
2.29 Teorema. As matrizes de discretizac˜ ao do problema modelo s˜ ao invertıveis.
Prova. E facil ver que as matrizes de discretizacao obtidas no capıtulo anterior para o intervalo e parao quadrado sao matrizes diagonalmente dominantes com dominancia diagonal estrita nas linhas correspon-dentes a pontos interiores adjacentes a fronteira. Alem disso, elas satisfazem a propriedade FC . De fato, cadaındice i da matriz corresponde a um ponto interior P i da malha e aij
= 0 sempre que P i e P j sao pontos
vizinhos naqueles esquemas. Entao, dados dois pontos distintos P i, P j e facil encontrar uma sequencia deındices i1 = i, i2, i3, . . . , im−1, im = j, com 1 m n, tais que todas as entradas matriciais
ai1i2 , ai2i3 , . . . , aim−1im
sao nao-nulas: no caso unidimensional, basta percorrer a malha diretamente de P i ate P j (andando a partirde P i sempre para a direita ou sempre para a esquerda, conforme o caso, ate encontrar P j), e no casobidimensional basta usar qualquer caminho interior de P i ate P j (pode-se usar a ordem lexicografica parapercorrer a malha, ou a ordem lexicografica inversa, dependendo das posicoes relativas de P i e P j ; no entanto,estes caminhos sao mais longos que o necessario). Em outras palavras, identificando as malhas de pontosinternos com os grafos direcionados da matriz de discretizacao, de modo que existe um arco direcionado entre
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 27/123
Rodney Josue Biezuner 26
dois pontos da malha se e somente se eles sao vizinhos, os esquemas de discretizacao considerados garantemque estes grafos sao fortemente conexos.
Verificar a propriedade FC a partir do grafo direcionado de A pode ser impraticavel se o tamanho da
matriz for muito grande ou se a matriz nao tiver origem na discretizacao de um problema de EDPs. Existeum metodo computacional mais explıcito para faze-lo:
2.30 Teorema. Sejam A ∈ M n (C) e P i, P j nodos de Γ (A). Existe um caminho direcionado de compri-mento m em Γ (A) de P i para P j se e somente se
(|A|m)ij = 0
ou, equivalentemente, se e somente se[M (A)
m]ij = 0.
Prova. Provaremos o teorema por inducao. Para m = 1 a afirmativa e trivial. Para m = 2, temos
|A|2ij
=
nk=1
(|A|)ik (|A|)kj =
nk=1
|aik| |akj | ,
de modo que|A|2
ij
= 0 se e somente se aik, akj sao ambos nao-nulos para algum ındice k. Mas isso e
equivalente a dizer que existe um caminho direcionado de comprimento 2 em Γ (A) de P i para P j .Em geral, supondo a afirmativa provada para m, temos
|A|m+1ij
=n
k=1
(|A|m)ik (|A|)kj =n
k=1
(|A|m)ik |akj | = 0
se e somente se (|A|m)ik , akj sao ambos nao-nulos para algum ındice k. Por hipotese de inducao, isso eequivalente a existir um caminho direcionado de comprimento m em Γ(A) de P i para P k e um caminho
direcionado de comprimento 1 em Γ (A) de P k para P j , isto e, um caminho direcionado de comprimentom + 1 em Γ (A) de P i para P j . O mesmo argumento vale para M (A).
2.31 Definicao. Seja A = (aij) ∈ M n (C). Dizemos que A 0 se aij 0 para todos 1 i, j n e queA > 0 se aij > 0 para todos 1 i, j n.
2.32 Corolario. Seja A ∈ M n (C). Existe um caminho direcionado de comprimento m em Γ (A) de cada nodo P i para cada nodo P j se e somente se
|A|m > 0
ou, equivalentemente, se e somente seM (A)
m > 0.
2.33 Corolario. Seja A ∈ M n (C). A satisfaz a propriedade FC se e somente se
(I + |A|)n−1 > 0
ou, equivalentemente, se e somente se
[I + M (A)]n−1 > 0.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 28/123
Rodney Josue Biezuner 27
Prova. Temos
(I + |A|)n−1 = I + (n − 1) |A| +
n − 1
2 |A|2 + . . . +
n − 1
n
−3
|A|n−1 + |A|n−1 > 0
se e somente se para cada par de ındices i, j com i = j pelo menos um dos termos |A| , |A|2 , . . . , |A|n−1tem uma entrada positiva em (i, j). Pelo Teorema 2.30, isso ocorre se e somente se existe algum caminhodirecionado em Γ (A) de P i para P j com comprimento n−1. Isto e equivalente a A satisfazer a propriedadeFC . O mesmo argumento vale para M (A). Em geral, a maneira como uma matriz foi obtida (como as nossas matrizes de discretizacao; veja a ultimasecao do capıtulo) torna clara se elas sao matrizes que satisfazem a propriedade FC ou nao. Se issonao e possıvel, e pretende-se verificar a propriedade FC atraves do Corolario 2.33, e preferıvel calcular[I + M (A)]
n−1, ja que M (A) e uma matriz composta apenas de 0’s e 1’s.
2.5 Matrizes Irredutıveis
As vezes, os resultados da secao anterior sao formulados em termos de matrizes irredutıveis. Neste secaoexaminaremos esta formulacao equivalente.
Lembre-se que uma matriz de permutacao P e uma matriz quadrada cujas entradas sao todas 0 ou 1e, alem disso, em cada linha e em cada coluna de P existe exatamente um 1. Em particular, P e uma matrizortogonal, de modo que P −1 = P t, isto e, a inversa de P tambem e uma matriz de permutacao. Um casoespecial de uma matriz de permutacao e uma matriz de transposic˜ ao, que e uma matriz de permutacao T igual a matriz identidade exceto em duas posicoes, isto e, para algum par de ındices fixado k, l temos
T ij =
δij se (i, j) = (k, l) , (l, k) , (k, k) ou (l, l) ,1 e (i, j) = (k, l) ou se (i, j) = (l, k) ,0 se (i, j) = (k, k) ou se (i, j) = (l, l) .
Matrizes de transposicao sao simetricas. O efeito de multiplicar uma matriz A por uma matriz de transposicao
a esquerda e trocar a posicao de duas linhas da matriz A (no caso acima, as linhas k e l), enquanto que amultiplicacao de A por uma matriz de transposicao a direita muda a posicao de duas colunas de A (no casoacima, as colunas k e l).
T A =
1 0 0 00 0 1 00 1 0 00 0 0 1
a11 a12 a13 a14a21 a22 a23 a24a31 a32 a33 a34a41 a42 a43 a44
=
a11 a12 a13 a14a31 a32 a33 a34a21 a22 a23 a24a41 a42 a43 a44
,
AT =
a11 a12 a13 a14a21 a22 a23 a24a31 a32 a33 a34a41 a42 a43 a44
1 0 0 00 0 1 00 1 0 00 0 0 1
=
a11 a13 a12 a14a21 a23 a22 a24a31 a33 a32 a34a41 a43 a42 a44
.
Pode-se provar que toda matriz de permutacao P e o produto de matrizes de transposicao P = T 1 . . . T m;em particular, P t = T m . . . T 1. A matriz
P tAP = T m . . . T 1AT 1 . . . T m
e portanto obtida atraves da permutacao de linhas e colunas de A, de modo que nenhum novo elemento ecriado ou algum elemento existente de A destruıdo.
2.34 Definicao. Dizemos que uma matriz A ∈ M n (C) e redutıvel se existe alguma matriz de permutacaoP e algum inteiro 1 m n − 1 tal que
P tAP =
B C 0 D
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 29/123
Rodney Josue Biezuner 28
onde B e uma matriz m × m, D e uma matriz (n − m) × (n − m), C e uma matriz m × (n − m) e 0 ea matriz nula (n − m) × m. Caso contrario, dizemos que A e irredutıvel.
Da definicao vemos que se |A| > 0, entao A e irredutıvel, e para que A seja redutıvel, ela precisa ter pelomenos n − 1 zeros (caso m = 1). A motivacao para este nome e a seguinte. Suponha que queiramos resolvero sistema Ax = b e que A seja redutıvel. Entao, se escrevermos
A = P tAP =
B C 0 D
,
teremos Ax = P AP tx = b ou AP tx = P tb; denotando x = P tx e b = P tb, resolver o sistema Ax = b e entaoequivalente a resolver o sistema
Ax = b.
Escrevendo
x =
yz
, b =
b1b2 onde y, b1 ∈ Cm e z, b2 ∈ Cn−m, este sistema e por sua vez equivalente ao sistema
By + Cz = b1Dz = b2
Se resolvermos primeiro Dz = b2 e utilizarmos o valor de z encontrado na primeira equacao resolvendoBy = b1 − Cz, teremos reduzido o problema original a dois problemas menores, mais f aceis de resolver.
2.35 Teorema. Uma matriz A ∈ M n (C) e irredutıvel se e somente se
(I + |A|)n−1 > 0
ou, equivalentemente, se e somente se
[I + M (A)]n−1 > 0.
Prova. Para provar o resultado, mostraremos que A e redutıvel se e somente se (I + |A|)n−1 possui pelomenos uma entrada nula.
Assuma primeiramente que A e redutıvel, de modo que para alguma matriz de permutacao P tenhamos
A = P
B C 0 D
P t =: P AP t.
Observe que|A| =
P AP t
= P
A
P t,
ja que o efeito de P e apenas trocar linhas e colunas. Alem disso, note que
Ak
=
Bk C k
0 Dk
para alguma matriz C k. Logo, como
(I + |A|)n−1 =
I + P AP t
n−1= P
I +
An−1 P t
= P
I + (n − 1) |A| +
n − 1
2
|A|2 + . . . +
n − 1
n − 3
|A|n−1 + |A|n−1
P t
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 30/123
Rodney Josue Biezuner 29
e todos os termos dentro dos colchetes sao matrizes que tem um bloco (n − m) × m nulo no canto esquerdo
inferior, segue que (I + |A|)n−1 e redutıvel, logo possui entradas nulas e nao pode ser positiva.
Reciprocamente, suponha que (I + |A|)n−1 possui pelo menos uma entrada nula. Como
(I + |A|)n−1 = I +n−1m=1
n − 1
m
|A|m ,
(I + |A|)n−1 nao possui entradas diagonais nulas, logo podemos assumir que para algum par i = j temos(I + |A|)n−1
ij
= 0, o que implica [|A|m]ij = 0 para todo 1 m n − 1. Pelo Teorema 2.30 (e observacao
imediatamente posterior a definicao de grafo direcionado), nao existe um caminho direcionado em Γ (A) decomprimento finito entre P i e P j . Defina os conjuntos de nodos
S 1 := P k : P k = P j ou existe um caminho direcionado em Γ (A) entre P k e P j ,
S 2 = [ nodos de Γ(A)] \S 1.
Por definicao destes conjuntos, nao pode existir nenhum caminho de algum nodo de S 2 para algum nodo deS 1, logo [|A|m]lk = 0 se P l ∈ S 2 e P k ∈ S 1. E ambos os conjuntos sao nao-vazios, pois P j ∈ S 1 e P i ∈ S 2.Renomeando os nodos de modo que
S 1 = P 1, . . . , P m
,
S 2 = P m+1, . . . , P n
,
segue que existe uma matriz de permutacao P tal que
P tAP =
B C 0 D
.
De fato, P e justamente a matriz de permutacao que troca as colunas de tal forma que as variaveis anteriorescorrespondentes aos nodos P 1, . . . , P m no sistema Ax = b sao as novas m primeiras variaveis do sistema linearAx = b; como nao existe nenhum caminho direcionado entre nenhum dos nodos P m+1, . . . , P n e qualquer um
dos nodos P 1, . . . , P m, temos aij = 0 para m + 1 i n e 1 j m pelo Teorema 2.30.
2.36 Corolario. Uma matriz A ∈ M n (C) e irredutıvel se e somente se ela satisfaz a propriedade FC.
2.37 Proposicao. Se A e uma matriz irredutıvel, diagonalmente dominante tal que |aii| >n
j=1j=i
|aij | para
pelo menos alguma linha i, ent˜ ao A e invertıvel.
Alem disso, se A e hermitiana e todos os elementos da diagonal principal de A s˜ ao positivos, ent˜ ao
todos os autovalores de A s˜ ao positivos.
Prova. O resultado segue do Teorema 2.34, do Corolario 2.25 e do Teorema dos Discos de Gershgorin (vejacomentarios apos o Teorema 2.18).
2.38 Corolario. Os autovalores das matrizes de discretizac˜ ao do problema modelo s˜ ao positivos.
2.6 Exercıcios
2.1 Mostre que as normas matriciais introduzidas na primeira secao deste capıtulo (Exemplos 2.3 ate 2.11)sao de fato normas vetoriais.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 31/123
Rodney Josue Biezuner 30
2.2 Mostre que a norma l p (Exemplo 2.5) e uma norma matricial.
2.3 Mostre que a norma l2 e diferente da 2-norma em Mn (veja Exemplo 2.10).
2.4 Seja V um espaco vetorial de dimensao finita e ·1 , ·2 normas vetoriais quaisquer. Prove que existeuma constante C > 0 tal que
1
C x1 x2 C x1
para todo vetor x ∈ V .
2.5 Seja · uma norma matricial. Prove diretamente das propriedades de uma norma matricial queI 1.
2.6 a) Seja · uma norma vetorial. Prove que se α > 0, entao α · e tambem uma norma vetorial.
b) Seja · uma norma matricial. Conclua do Lema 2.14 que se α < 1, entao α · nao e uma normamatricial.
c) Seja · uma norma matricial. Se α > 1, podemos concluir que α · nao e uma norma matricial?
2.7 Mostre que se Γ e um grafo direcionado com n nodos, se existe um caminho direcionado entre doisnodos de Γ, entao sempre existe um caminho direcionado entre estes dois nodos de comprimento menorque ou igual a n − 1
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 32/123
Capıtulo 3
Metodos Iterativos Lineares
Neste capıtulo investigaremos os metodos iterativos basicos para a resolucao de sistemas lineares
Ax = b.
Embora a matriz A que temos em mente e em geral uma matriz grande e esparsa, do tipo que aparece emesquemas de diferencas finitas para equacoes diferenciais parciais, os metodos considerados aqui requeremem princıpio apenas que A seja uma matriz invertıvel com todas as entradas diagonais aii nao-nulas (emboraa matriz A deva satisfazer criterios adicionais, de acordo com cada metodo, para assegurar a convergenciapara a solucao exata).
Metodos iterativos requerem um chute inicial x0, ou seja, um vetor inicial que aproxima a solucao exatax (se nao ha nenhuma informacao disponıvel sobre a solucao exata, de modo que nao temos como construiro chute inicial de forma inteligente, x0 pode ser uma aproximacao muito ruim de x). Uma vez que x0 edado, o metodo iterativo gera a partir de x0 uma nova aproximacao x1, que esperamos deve aproximarmelhor a solucao exata. Em seguida, x1 e usada para gerar uma nova melhor aproximacao x2 e assim pordiante. Desta forma, gera-se uma sequencia de vetores xk que espera-se convergir para x. Como na praticanao podemos iterar para sempre, algum criterio de parada deve ser estabelecido a priori. Uma vez que xk
esteja suficientemente proximo da solucao exata quanto se precise, de acordo com uma margem de toleranciapreviamente fixada, para-se o processo de iteracao e aceita-se xk como a solucao aproximada adequada parao problema. Por exemplo, o criterio de parada pode ser estabelecido atraves de uma cota de tolerancia τ :quando b − Axk
< τ
ou quando xk+1 − xk < τ
as iteracoes sao interrompidas e o ultimo valor aproximado obtido e aceito como a melhor aproximacao dasolucao dentro das circunstancias.
Os metodos discutidos neste capıtulo nao necessitam de um bom chute inicial (embora, e claro, quantomelhor o chute inicial, menor o numero de iteracoes necessarias para se chegar a solucao aproximada coma exatidao especificada). Embora os metodos iterativos lineares sao muitos lentos em relacao a outrosmetodos iterativos desenvolvidos mais recentemente, sendo portanto raramente utilizados isoladamente, elessao frequentemente usados hoje em dia como componentes de certos metodos iterativos ultra-rapidos, taiscomo o metodo multigrid .
31
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 33/123
Rodney Josue Biezuner 32
3.1 Metodo Iterativos Basicos
3.1.1 Metodo de Jacobi
O metodo iterativo linear mais simples (que ja foi descrito tambem como o mais lento para convergir, emboraisso realmente depende da matriz A do sistema) e o metodo de Jacobi (1845) Escrevendo o sistema Ax = bna forma
nj=1
a1jxj = b1
...n
j=1
anjxj = bn
,
se aii = 0 para todo i, cada xi pode ser isolado na i-esima equacao e escrito na forma
xi =
1
aii bi −n
j=1j=i
aijxj .
Isso sugere definir um metodo iterativo da seguinte forma: suposto xk =
xk1 , . . . , xk
n
obtido no passo
anterior, obtemos xk+1 =
xk+11 , . . . , xk+1
n
por
xk+1i =
1
aii
bi −n
j=1j=i
aijxkj
. (3.1)
No caso da formula de cinco pontos para o problema de Poisson, como a equa cao para cada ponto (i, j)e dada por
−ui,j−1 − ui,j+1 + 4ui,j − ui−1,j − ui+1,j = h2f i,j
o metodo de Jacobi e
uk+1i,j =
1
4
uki,j−1 + uk
i−1,j + uki+1,j + uk
i,j+1 + h2f i,j
. (3.2)
No caso especial da equacao de Laplace (f = 0) com condicao de fronteira de Dirichlet nao-nula, o metodode Jacobi e simplesmente a propriedade do valor medio discreta
uk+1i,j =
1
4
uki,j−1 + uk
i−1,j + uki+1,j + uk
i,j+1
. (3.3)
Em outras palavras, calculados os valores de u em todos os pontos da malha na iteracao anterior, o novovalor de u em um ponto interior da malha nesta iteracao e calculado atraves da media dos seus quatropontos vizinhos. Os valores iniciais de u nos pontos interiores da malha para a primeira iteracao (isto e, o
chute inicial) podem ser atribuidos arbitrariamente ou atraves de algum argumento razoavel; por exemplo,podemos utilizar uma media ponderada dos valores de fronteira para o valor inicial em cada ponto interiorda malha, de acordo com a posicao do ponto em relacao aos pontos das quatro fronteiras discretizadas.
Em forma matricial, o algoritmo de Jacobi pode ser descrito da seguinte forma. Denotando por D = diag(a11, . . . , ann) a matriz diagonal cujas entradas sao as entradas diagonais de A, temos que
xk+1 = D−1
(D − A) xk + b
(3.4)
ouxk+1 = D−1
Cxk + b
(3.5)
onde C = D − A e a matriz consistindo dos elementos restantes de A fora da diagonal principal.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 34/123
Rodney Josue Biezuner 33
3.1.2 Metodo de Gauss-Seidel
Um metodo iterativo que converge cerca de duas vezes mais rapido que o metodo de Jacobi (na maioriadas aplicacoes) e o metodo de Gauss-Seidel (desenvolvido inicialmente por Gauss em 1819 para resolver
sistemas de equacoes lineares que apareciam no seu metodo de quadrados mınimos e obtendo sua forma finalem 1874 por Seidel), onde os valores de x sao atualizados dentro de cada iteracao, sem esperar pela proxima.Em outras palavras, obtido o valor de xk+1
i este e usado no lugar de xki no calculo seguinte de xk+1
i+1 . Nosistema Ax = b em que aii = 0 para todo i, como antes isolamos cada xi na i-esima equacao mas desta vezescrevemos
xi =1
aii
bi −i−1j=1
aijxj −n
j=i+1
aijxj
.
Entao definimos
xk+1i =
1
aii
bi −
i−1j=1
aijxk+1j −
nj=i+1
aijxkj
(3.6)
pois os valores xk+11 , . . . , xk+1
i−1 ja foram computados nesta iteracao, enquanto que os valores xki+1, . . . , xk
n saofornecidos pela iteracao anterior.
Por exemplo, no caso da equacao de Laplace, poderıamos utilizar a formula
uk+1i,j =
1
4
uk+1i,j−1 + uk+1
i−1,j + uki+1,j + uk
i,j+1
(3.7)
assumindo que os pontos da malha sao percorridos na ordem lexicografica, de modo que quando vamoscalcular o valor de u no ponto i, j na iteracao k + 1, nesta mesma iteracao ja calculamos os valores de u emi − 1, j e em i, j − 1, e usamos estes valores para calcular uk+1
i,j ao inves dos valores uki,j−1 e uk
i−1,j obtidosna iteracao anterior.
Em forma matricial, o algoritmo de Gauss-Seidel pode ser descrito da seguinte forma. Dada uma matrizA, existe uma unica decomposicao
A = D − L − U (3.8)
onde D e uma matriz diagonal, L e uma matriz estritamente triangular inferior e U e uma matriz estritamentetriangular superior; de fato, D = diag (a11, . . . , ann) e a parte diagonal de A, −L e a parte estritamentetriangular inferior de A e −U e a parte estritamente triangular superior de A. Entao o algoritmo de Gauss-Seidel pode ser definido por
xk+1 = D−1
Lxk+1 + Uxk + b
(3.9)
ou(D − L) xk+1 = Uxk + b,
dondexk+1 = (D − L)−1
U xk + b
. (3.10)
3.1 Exemplo. Existem matrizes para as quais o metodo de Jacobi converge e o metodo de Gauss-Seideldiverge, e vice-versa. Veja o Exercıcio 3.1.
3.1.3 Metodo SOR
O processo de corrigir uma equac˜ ao atraves da modificac˜ ao de uma vari´ avel e as vezes chamado de relax-amento. Antes da correc˜ ao, a equac˜ ao n˜ ao e verdadeira; como um conjunto de partes que n˜ ao se ajustam,ela esta em estado de tens˜ ao. A correc˜ ao de uma vari´ avel relaxa a tens˜ ao. O metodo de Gauss-Seidel efetua relaxamento sucessivo, ou seja, passa de equac˜ ao para equac˜ ao, relaxando uma depois da outra. [Watkins]
Por este motivo, os metodos de Jacobi e de Gauss-Seidel sao tambem chamados metodos de relaxamento.Em muitos casos, a convergencia pode ser substancialmente acelerada atraves de sobrerelaxamento. Isso
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 35/123
Rodney Josue Biezuner 34
significa que ao inves de fazer uma correcao para a qual a equacao e satisfeita exatamente, nos fazemosuma correcao maior. No caso mais simples, escolhe-se um fator de relaxamento ω > 1 que sobrecorrige poraquele fator em cada passo (se mover um passo na dire cao de xk para xk+1 e bom, mover naquela direcao
ω > 1 passos e melhor). Este e o chamado metodo de sobrerelaxamento sucessivo (SOR, successiveoverrelaxation ; desenvolvido em 1950 por Young): usando o metodo de Gauss-Seidel obtemos
xk+1i =
1
aii
bi −i−1j=1
aijxk+1j −
nj=i+1
aijxkj
;
daı tomamosxk+1i = xk
i + ω xk+1
i − xki
.
Isso pode ser resumido em
xk+1i = xk
i + ω 1
aii bi−
i−1
j=1 aijxk+1j
−
n
j=i+1
aijxkj−
xki . (3.11)
Quando ω = 1, o metodo SOR e exatamente o metodo de Gauss-Seidel. Um fator ω < 1 (subrelaxamento)normalmente diminui a velocidade de convergencia.
Para a maioria dos problemas, o melhor valor para o fator de relaxamento e desconhecido. Para a matrizde discretizacao obtida a partir da formula de cinco pontos, e sabido que o valor otimo de ω e, como veremosna proxima secao,
ω =2
1 + sen (πh). (3.12)
Em forma matricial, o metodo SOR pode ser descrito da seguinte forma. Como antes, dada uma matrizA escrevemos
A = D
−L
−U (3.13)
onde D e uma matriz diagonal, L e uma matriz estritamente triangular inferior e U e uma matriz estritamentetriangular superior. Entao, escrevendo o algoritmo SOR na forma
aiixk+1i = aiix
ki + ω
bi −i−1j=1
aijxk+1j −
nj=i
aijxkj
,
temosDxk+1 = Dxk + ω
Lxk+1 + (U − D) xk + b
(3.14)
ou 1
ωD − L
xk+1 =
1 − ω
ωD + U
xk + b,
donde
xk+1 =
1
ωD − L
−1 1 − ω
ωD + U
xk + b
. (3.15)
3.1.4 Comparacao da Velocidade de Convergencia dos Tres Metodos no Prob-lema Modelo
A tabela a seguir foi extraıda de [Watkins], pags. 533 e 542. Os metodos introduzidos acima foram usadospara resolver o sistema linear Ax = b onde A e a matriz de discretizacao obtida a partir da formula dos
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 36/123
Rodney Josue Biezuner 35
cinco pontos do laplaciano no quadrado unitario Ω = (0, 1)2
e b e estabelecido pela condicao de fronteira deDirichlet dada por
g (x, y) = 0 se x = 0,
y se x = 1,(x − 1) sen x se y = 0,x (2 − x) se y = 1,
ou seja, para resolver o problema discretizado −∆dud = 0 em Ωd,ud = gd sobre ∂ Ωd.
As iteracoes foram interrompidas quando uk+1 − uk2
|uk+1|2< 10−8.
O numero de iteracoes necessarias para convergir de acordo com esta margem de tolerancia, para tres refina-mentos possıveis da malha (correspondentes a matrizes de dimensoes n = 81, 361 e 1521, respectivamente),de acordo com cada metodo e para diferentes valores de ω no caso do metodo SOR e apresentado na tabelaabaixo.
h = 0.1 h = 0.05 h = 0.025
Jacobi 299 1090 3908
SOR (ω = 0.8) 235 845 3018
Gauss-Seidel 160 581 2082
SOR (ω = 1.4) 67 262 955
SOR (ω = 1.6) 42 151 577
SOR (ω = 1.7) 57 96 412
SOR (ω = 1.8) 86 89 252
SOR (ω = 1.9) 176 180 179SOR (ω = 2.0) ∞ ∞ ∞
Vemos que o metodo de Gauss-Seidel e cerca de duas vezes mais rapido para convergir que o metodo deJacobi e que dependendo da escolha de ω, o metodo SOR pode ser ate dez vezes mais rapido que o metodode Gauss-Seidel para a malha mais refinada. Subrelaxamento nao ajuda e para ω = 2 o metodo SOR edivergente.
3.1.5 Metodo de Jacobi Amortecido
O metodo de Gauss-Seidel pode ser sobrerelaxado atraves de um parametro ω > 1 para obter um metodoque converge mais rapido. Ja o metodo de Jacobi nao pode em geral ser sobrerelaxado, porque o metodoobtido nao converge. Ele pode no entanto ser subrelaxado atraves de um parametro ω < 1 para obter ummetodo convergente, se bem que mais vagaroso. A vantagem de se utilizar um tal metodo e que para certosvalores de ω ele e um otimo suavizador de erro (em um sentido que sera explicado mais tarde), enquantoque o metodo de Jacobi usual nao possui esta propriedade. Assim, o metodo de Jacobi amortecido pode serusado em metodos multigrid, como veremos mais tarde.
Pelo metodo de Jacobi usual obtemos
xk+1i =
1
aii
bi −n
j=1j=i
aijxkj
,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 37/123
Rodney Josue Biezuner 36
e tomamosxk+1i = xk
i + ω
xk+1i − xk
i
,
ou seja,
xk+1i = xk
i + ω
1
aii
bi −n
j=1j=i
aijxkj
− xki
. (3.16)
Este metodo e conhecido como metodo de Jacobi amortecido, metodo de Jacobi ponderado ou aindametodo de relaxamento simultaneo (diferente do metodo de relaxamento sucessivo, baseado no metodo deGauss-Seidel, em que cada variavel e substituıda sucessivamente dentro da mesma iteracao a medida queela e atualizada; no metodo de Jacobi, as variaveis sao todas substituıdas simultameamente na proximaiteracao).
Em forma matricial, o metodo de Jacobi amortecido pode ser descrito da seguinte forma. Denotando porD a parte diagonal de A, temos
aiixk+1i = aiix
ki + ω
bi − nj=1
aijxkj ,
temosDxk+1 = Dxk + ω
b − Axk
(3.17)
ou 1
ωD
xk+1 =
1
ωD − A
xk + ωb,
donde
xk+1 =
1
ωD
−1 1
ωD − A
xk + b
. (3.18)
Em contraste com o metodo SOR, que converge em geral para 0 < ω < 2, o metodo de Jacobi amortecidoconverge para 0 < ω 1 (veja a proxima secao).
3.2 Analise de Convergencia dos Metodos Iterativos Lineares
Os metodos iterativos basicos sao casos especiais de uma classe geral de metodos chamados metodos iterativoslineares:
3.2 Definicao. Um metodo iterativo linear para resolver o sistema Ax = b e um metodo da forma
xk+1 = Rxk + N b
onde R e N sao matrizes dadas. A matriz R e chamada a matriz de iteracao do metodo.
Em geral, um metodo iterativo linear para resolver o sistema linear
Ax = b
envolve a decomposicao da matriz A na forma
A = B − C, (3.19)
onde B e necessariamente uma matriz invertıvel, e em seguida a resolucao iterativa do sistema de equacoes
Bxk+1 = Cxk + b (3.20)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 38/123
Rodney Josue Biezuner 37
ou, mais explicitamente,xk+1 = B−1
Cxk + b
.
Na notacao da definicao, temos que a matriz de iteracao e
R = B−1C = B−1 (B − A) = I − B−1A (3.21)
eN = B−1. (3.22)
Se xk → x, entao Bx = Cx + b, donde Ax = b. Do ponto de vista pratico, e importante que a matriz Bseja “facil de resolver” (mesmo que a inversa de B nao seja efetivamente calculada), como nos exemplos dasecao anterior:
B C R
Jacobi D D − A D−1 (D − A)
Jacobi amortecido 1ω
D 1ω
D − A 1ω
D−1 1ω
D − AGauss-Seidel D − L U (D − L)
−1 U
SOR1
ωD − L
1 − ω
ωD + U
1
ωD − L
−11 − ω
ωD + U
Para obter uma convergencia rapida tambem gostarıamos que B ≈ A e C ≈ 0. Deste ponto de vista, o idealseria B = A e C = 0 (convergencia em uma iteracao), mas isso viola em geral o criterio que B seja “facilde resolver”. Um compromisso e necessario: B deve aproximar A o melhor possıvel sem se tornar muitocomplicada.
3.2.1 Convergencia dos Metodos Iterativos Lineares3.3 Definicao. Para metodos iterativos em geral, o erro algebrico e definido por
ek = x − xk, (3.23)
enquanto que o erro residual e dado por
rk = b − Axk. (3.24)
O erro algebrico tem interesse puramente teorico (para provar que determinado metodo iterativo converge,precisamos mostrar que o erro algebrico tende a zero), ja que ele so pode ser calculado uma vez que seconhece a solucao exata, e se este for o caso obviamente nao ha necessidade de resolver o sistema. Ja o erro
residual pode ser usado como criterio de parada para o metodo iterativo. O erro algebrico e o erro residualestao relacionados atraves da expressao:
Aek = rk, (3.25)
pois Aek = Ax − Axk = b − Axk = rk.Para os metodos iterativos lineares, como
Bek+1 = Bx − Bxk+1 = Ax + Cx − Cxk − b = C
x − xk
= Cek,
segue queek+1 =
B−1C
ek
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 39/123
Rodney Josue Biezuner 38
ouek+1 = Rek. (3.26)
Por este motivo, a matriz de iteracao tambem e chamada de matriz de propagac˜ ao do erro. Segue de (3.26)
queek = Rke0, (3.27)
de modo que o erro converge para 0, independentemente do chute inicial x0, se e somente se Rk → 0. Issoocorre se e somente se existe alguma norma matricial · tal que R < 1. Obter uma norma matricialque satisfaz esta propriedade, no entanto, e difıcil. Vamos obter uma condicao necessaria e suficiente paraRk → 0 em termos do raio espectral da matriz de iteracao, que e em geral um pouco mais facil de calcular.Antes, para motivar o resultado, suponha que R seja uma matriz diagonalizavel com λ1, . . . , λn os seusautovalores e v1, . . . , vn uma correspondente base de autovetores. Escrevendo o erro inicial como umacombinacao linear dos autovetores, temos
e0 =n
i=1
aivi.
Logo,
ek = Rke0 =n
i=1
aiλki vi,
de modo que ek ni=1
|ai| |λi|k |vi| .
Como |λi|k → 0 se e somente se |λi| < 1, concluımos que ek → 0 qualquer que seja o erro inicial (isto e,qualquer que seja o chute inicial), se e somente se
ρ (R) = max1in
|λi| < 1 .
3.4 Lema. Se A ∈ Mn (C) e · e qualquer norma matricial, ent˜ ao
ρ (A) A .
Prova. Seja λ um autovalor qualquer de A e x um autovetor nao-nulo associado a λ, de modo que
Ax = λx.
Considere a matriz X ∈ Mn (C) cujas colunas sao todas iguais ao vetor x. Temos tambem
AX = λX
de modo que |λ| X = AX A X ,
donde|λ| A
para todo autovalor λ de A. Como existe um autovalor λ de A tal que ρ (A) = |λ|, isso prova o resultado.
3.5 Lema. Seja A ∈ Mn (C) e ε > 0 dado. Ent˜ ao existe uma norma matricial · tal que
ρ (A) A ρ (A) + ε. (3.28)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 40/123
Rodney Josue Biezuner 39
Prova. Toda matriz complexa A e triangularizavel atraves de uma matriz unitaria U isto e, isto e, existeuma matriz triangular T e uma matriz U que satisfaz U ∗U = UU ∗ = I (veja [Hoffman-Kunze]) tais que
A = U
∗
T U ;T e chamada a forma triangular ou forma normal de Schur de A. Seja entao
T =
λ1 a12 a22 . . . a1n
λ2 a23 . . . a2nλ3 . . . a3n
. . ....
λn
a forma triangular de A. Para t ∈ R arbitrario, considere a matriz diagonal
Dt = t
t2. . .
tn
.
Temos
DtT D−1t =
λ1 a12t−1 a22t−2 . . . . . . a1nt−n+1
λ2 a23t−1 . . . . . . a2nt−n+2
λ3 . . . . . . a3nt−n+3
. . ....
λn−1 an−1,nt−1
λn
.
Logo, para t > 0 suficientemente grande, a matriz DtT D−1t tem a propriedade que a soma dos valores
absolutos de elementos fora da diagonal principal e menor que ε. Em particular, se ·L denota a norma domaximo das somas das linhas, podemos garantir queDtT D−1
t
L ρ (A) + ε
para t suficientemente grande. Portanto, fixado um tal t, se definirmos uma norma por
A :=DtU AU ∗D−1
t
L
=U ∗D−1
t
−1AU ∗D−1
t
L
,
teremosA =
DtU AU ∗D−1
t
L
=
DtT D−1
t
L ρ (A) + ε.
Pelo lema anterior, ρ (A) A.
3.6 Lema. Seja A ∈ Mn (C). Se existe alguma norma matricial · tal que A < 1, ent˜ ao
Ak → 0.
Prova. Se A < 1, entao Ak Ak → 0.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 41/123
Rodney Josue Biezuner 40
3.7 Proposicao. Seja A ∈ Mn (C). Ent˜ aoAk → 0
se e somente se
ρ (A) < 1.
Prova. Se existe algum autovalor λ de A tal que |λ| 1 e x e um autovetor nao-nulo correspondente, entao
Akx = λkx
nao converge para 0. Reciprocamente, se ρ (A) < 1, entao pelo Lema 3.5 existe uma norma matricial · talque A < 1, logo Ak → 0 pelo lema anterior.
Finalmente obtemos uma condicao necessaria e suficiente para um metodo iterativo linear convergir:
3.8 Corolario. Seja R a matriz de iterac˜ ao de um metodo iterativo linear. Ent˜ ao
ek → 0
se e somente seρ (R) < 1.
Em outras palavras, um metodo iterativo linear e convergente independentemente da escolha do chuteinicial se e somente se todos os autovalores da matriz de iterac˜ ao tem valor absoluto menor que 1.
Portanto, a analise da convergencia de um determinado metodo iterativo linear passa pela analise dos au-tovalores de sua matriz de iteracao R. Como esta ultima depende da matriz de coeficientes A do sistemalinear, a convergencia ou nao de qualquer um dos metodos iterativos lineares vai depender da matriz A.
3.2.2 Velocidade de Convergencia dos Metodos Iterativos Lineares
O raio espectral tambem da informacao sobre a velocidade de convergencia. Se nos tivermos dois metodos
iterativos lineares diferentes, isto e, duas maneiras diferentes de decompor a matriz A:
A = B1 − C 1 = B2 − C 2,
entao o segundo metodo convergira mais rapido se e somente se
ρ (R2) < ρ (R1) .
Em particular, a velocidade de convergencia relativa dos metodos iterativos lineares tambem vai dependerda matriz A: para certas matrizes um determinado metodo e superior ao outro, enquanto que para outrasmatrizes o contrario e verdadeiro.
Vamos analisar a velocidade de convergencia dos metodos iterativos com maior precisao. Novamente atıtulo de motivacao, suponha que R e uma matriz diagonalizavel com seu maior autovalor sendo um autovalorsimples. Ordene os autovalores de R na forma
|λ1| > |λ2| . . . |λn|e seja v1, . . . , vn uma correspondente base de autovetores. Escrevendo de novo
e0 =n
i=1
aivi,
donde
ek = Rke0 =n
i=1
aiλki vi,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 42/123
Rodney Josue Biezuner 41
segue que
ek = λk1
a1v1 +
n
i=2ai
λi
λ1k
vi
.
Como λi
λ1
k
→ 0,
a taxa de convergencia e determinada por |λ1|k. Para k grande, temos
ek ≈ λk1a1v1.
Portanto, ek+1|ek| = |λ1| = ρ (R) . (3.29)
Em outras palavras, a convergencia e linear com taxa de convergencia igual ao raio espectral . Se a1 =
0 a convergencia sera mais rapida, pois dependera do modulo do segundo autovalor, mas e obviamenteextremamente raro que o erro inicial satisfaca esta condicao, isto e, que ele nao tenha nenhuma componentena direcao do primeiro autovetor. Para o caso geral, precisamos do seguinte resultado:
3.9 Proposicao. Seja A ∈ Mn (C) e · uma norma matricial. Ent˜ ao
ρ (A) = limAk
1/k .
Prova. Como os autovalores da matriz Ak sao as k-esimas potencias dos autovalores de A (este resultadopode ser mais facilmente visto a partir da forma triangular de A), temos que
ρ (A)k
= ρ
Ak
Ak
,
dondeρ (A)
Ak1/k .
Por outro lado, dado ε > 0, a matriz
B =1
ρ (A) + εA
tem raio espectral menor que 1, logo Bk → 0. Portanto, existe algum N = N (ε, A) tal queBk < 1,
para todo k > N . Logo,
Ak
< (ρ (A) + ε)
k ,
donde Ak1/k < ρ (A) + ε
para todo k > N .
3.10 Definicao. A taxa media de convergencia de um metodo iterativo linear com matriz de iteracaoR e definida como sendo
Rk (R) = − log10Rk
1/k = − 1
klog10
Rk (3.30)
e a taxa assintotica de convergencia e dada por
R∞ (R) = limk→∞
Rk (R) . (3.31)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 43/123
Rodney Josue Biezuner 42
3.11 Corolario. Seja R a matriz de iterac˜ ao de um metodo iterativo linear. Ent˜ ao a taxa assint´ otica deconvergencia do metodo e dada por
R∞
(R) =−
log10
ρ (R) . (3.32)
Prova. PoisR∞ (R) = − lim
k→∞log10
Rk1/k = − log10 lim
k→∞
Rk1/k = − log10 ρ (R) .
A taxa assintotica de convergencia mede o aumento no numero de casas decimais corretas na solucao poriteracao. De fato, usando a norma matricial do Lema 3.5 e medindo as normas dos vetores de acordo, temosek+1
|ek| =
Rk+1e0
|Rke0| R = ρ (R) + ε,
donde
− log10 ek+1|ek| = − log10 ρ (R) + O (ε)
oulog10
ek− log10ek+1 = R∞ (R) + O (ε) . (3.33)
Assim, se ek = O
10− p
,ek+1 = O
10−q
,
teremosq − p ≈ R∞ (R) ,
isto e, reduzimos R∞ (R) ≈ q − p casas decimais no erro. Visto de outra forma, comoek+m|ek| =
Rk+me0|Rke0| Rm = ρ (R)
m+ O (ε) ,
donde
− log10
ek+m
|ek| ≈ −m log10 ρ (R) ,
ou
m =log10
ek+m /
eklog10 ρ (R)
(3.34)
e o numero de iteracoes necessarias para diminuir o erro de um numero prescrito de casas decimais.
3.2.3 Convergencia para Matrizes Simetricas Positivas DefinidasPara matrizes reais simetricas positivas definidas e mais facil provar a convergencia dos metodos iterativoslineares. Temos o seguinte resultado basico a seguir. Antes precisamos da seguinte definicao:
3.12 Definicao. Introduzimos uma ordenacao parcial em Mn definindo
A B
seAx,x Bx,x
para todo x ∈ Cn.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 44/123
Rodney Josue Biezuner 43
Em particular, se A e uma matriz positiva definida, segue que A εI para algum ε (o menor autovalor deA) e denotamos este fato por
A > 0.
Lembramos que se A e uma matriz simetrica positiva definida e P e uma matriz invertıvel, entao B = P tAP tambem e uma matriz simetrica positiva definida, pois
Bt =
P tAP t
= P tAt
P tt
= P tAP = B
eBx,x =
P tAPx,x
= APx,Px .
3.13 Teorema. Seja A uma matriz simetrica positiva definida e seja A = B −C com B invertıvel. Ent˜ ao ometodo iterativo linear com matriz de iterac˜ ao R = B−1C converge se e somente se a matriz simetrica Bt + C e positiva definida.
Prova. Para ver que Bt + C e simetrica, escreva Bt + C = Bt + B
−A e note que
Bt + C t
=
Bt + B − At
= B + Bt − A = Bt + B − A = Bt + C.
Medimos a norma do erro atraves da norma induzida por A
|x|A := Ax,x1/2
e consideraremos a norma matricial ·A induzida por esta norma. Se provarmos que
RA < 1,
o metodo convergira. Temos
R2A = B−1C 2A
= supx=0
B−1Cx2A|x|2A
= supx=0
AB−1Cx,B−1CxAx,x = sup
x=0
C tB−tAB−1Cx,xAx,x . (3.35)
Observe que C tB−tAB−1C e uma matriz simetrica positiva definida, pois
C tB−tAB−1C =
Bt − A
B−tAB−1 (B − A) =
I − AB−t
A
I − B−1A
=
I − B−1At
A
I − B−1A
.
Portanto, para provar que RA < 1, basta mostrar que
C tB−tAB−1C < A. (3.36)
Continuando o desenvolvimento da expressao em outra direcao, temos
C tB−tAB−1C =
I − AB−t
A
I − B−1A
= A − AB−tA + AB−1A − AB−tAB−1A
= A − AB−t
B + Bt − A
B−1A
= A − B−1A
t Bt + C
B−1A.
de modo que (3.36) vale se e somente se Bt + C e positiva definida.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 45/123
Rodney Josue Biezuner 44
3.3 Convergencia dos Metodos Iterativos Lineares para Matrizesde Discretizacao
3.3.1 Convergencia do Metodo de Jacobi
3.14 Teorema. Se A e uma matriz irredutıvel, diagonalmente dominante tal que |aii| >n
j=1j=i
|aij | para pelo
menos alguma linha i, ent˜ ao o metodo de Jacobi converge.
Prova. Seja D a parte diagonal da matriz A e R = D−1 (D − A) = I − D−1A a matriz de iteracao dometodo de Jacobi para A. Suponha por absurdo que exista um autovalor λ de R tal que |λ| 1. Comoλ det
λ−1R − I
= det (R − λI ) = 0, temos
det
I − λ−1R
= 0.
Por outro lado, observe que I
−λ−1R tambem e irredutıvel, pois
Rij =
I − D−1Aij
=
0 se i = j,
−aij
aiise i = j,
I − λ−1R
ij
=
1 se i = j,
λ−1aij
aiise i = j,
de modo que, onde A se anula, I −λ−1R tambem se anula. Alem disso, I −λ−1R e diagonalmente dominantee estritamente dominante nas linhas onde A e, pois |λ|−1 1,
I − λ−1R
ii
= 1 e
n
j=1j=i I − λ−1R
ij =
|λ|−1
|aii
|
n
j=1j=i
|aij | 1
|aii
|
n
j=1j=i
|aij | .
Mas, pela Proposicao 2.36, isso implica que I − λ−1R e invertıvel, uma contradicao. O Teorema 3.14 mostra que o metodo de Jacobi converge para as matrizes de discretizacao obtidas atravesdos esquemas de diferencas finitas do Capıtulo 1.
Atraves do Teorema 3.14, fomos capazes de provar a convergencia do metodo de Jacobi para as matrizes dediscretizacao sem calcular explicitamente os seus raios espectrais. Para analizar a velocidade de convergenciado metodo de Jacobi, no entanto, e necessario obter os raios espectrais destas matrizes. Vamos fazer isso paraas matrizes de discretizacao obtidas a partir da formula de tres pontos unidimensional e a partir da formulade cinco pontos bidimensional. Para isso, precisaremos obter os autovalores destas matrizes de discretizacao.
No caso da formula de tres p ontos unidimensional, lembrando que as autofuncoes para o problema deDirichlet do laplaciano no intervalo [0, 1] sao as funcoes trigonometricas
U j (x) = sen jπx,
isso sugere que os autovetores uj da matriz A sejam os vetores de coordenadas
U j (x1) , U j (x2) , . . . , U j (xn−2) , U j (xn−1) = U j (h) , U j (2h) , . . . , U j ((n − 2) h) , U j ((n − 1) h) ,
ou seja, como h = 1/n, os vetores
uj =
sen
jπ
n, sen
2 jπ
n, . . . , sen
(n − 2) jπ
n, sen
(n − 1) jπ
n
.
Usando identidades trigonometricas, vamos verificar que isso de fato acontece:
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 46/123
Rodney Josue Biezuner 45
3.15 Lema. Os n − 1 autovalores da matriz de discretizac˜ ao A da f´ ormula dos tres pontos unidimensional s˜ ao
λj =2
h2 1
−cos
jπ
n =4
h2
sen2jπ
2n
(3.37)
e os autovetores correspondentes s˜ ao
uj =
sen
jπ
n, sen
2 jπ
n, . . . , sen
(n − 2) jπ
n, sen
(n − 1) jπ
n
(3.38)
j = 1, . . . , n − 1.
Prova. Temos
2 −1−1 2 −1
−1 . . . . . .. . .
. . . −1−1 2 −1
−1 2
senjπ
n
sen2 jπ
n...
sen(n − 2) jπ
n
sen(n − 1) jπ
n
=
2senjπ
n− sen
2 jπ
n
−sen
jπ
n
+ 2 sen2 jπ
n −sen
3 jπ
n...
− sen(n − 3) jπ
n+ 2 sen
(n − 2) jπ
n− sen
(n − 1) jπ
n
− sen(n − 2) jπ
n+ 2 sen
(n − 1) jπ
n
= 2
1 − cos
jπ
n
senjπ
n
sen2 jπ
n...
sen(n − 2) jπ
nsen
(n − 1) jπ
n
,
pois
2senjπ
n− sen
2 jπ
n= 2 sen
jπ
n− 2sen
jπ
ncos
jπ
n= 2
1 − cos
jπ
n
sen
jπ
n,
− sen(n − k − 1) jπ
n+ 2 sen
(n − k) jπ
n− sen
(n − k + 1) jπ
n
= − sen
(n − k) jπ
n− jπ
n
+ 2 sen
(n − k) jπ
n− sen
(n − k) jπ
n+
jπ
n
= − sen(n
−k) jπ
n cosjπ
n + cos(n
−k) jπ
n senjπ
n + 2 sen(n
−k) jπ
n
− sen(n − k) jπ
ncos
jπ
n− cos
(n − k) jπ
nsen
jπ
n
= 2
1 − cos
jπ
n
sen
(n − k) jπ
n,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 47/123
Rodney Josue Biezuner 46
e
− sen(n − 2) jπ
n+ 2 sen
(n − 1) jπ
n
= − sen (n − 1) jπ
n− jπ
n
+ 2 sen
(n − 1) jπ
n
= − sen(n − 1) jπ
ncos
jπ
n+ cos
(n − 1) jπ
nsen
jπ
n+ 2 sen
(n − 1) jπ
n
= − sen(n − 1) jπ
ncos
jπ
n− sen
(n − 1) jπ
ncos
jπ
n+ 2 sen
(n − 1) jπ
n
= 2
1 − cos
jπ
n
sen
(n − 1) jπ
n,
onde na penultima identidade usamos o fato que
cos
(n
−1) jπ
n sen
jπ
n = − sen
(n
−1) jπ
n cos
jπ
n
porque
0 = sen jπ = sen
(n − 1) jπ
n+
jπ
n
= sen
(n − 1) jπ
ncos
jπ
n+ cos
(n − 1) jπ
nsen
jπ
n.
No caso da formula de cinco pontos bidimensional, lembrando que as autofuncoes de Dirichlet do lapla-
ciano no quadrado unitario [0, 1] × [0, 1] sao as funcoes
U kl (x, y) = sen kπx sen lπy,
isso sugere que os autovetores ukl da matriz A na ordem lexicografica sao os vetores de coordenadas
U kl (x1, y1) , U kl (x2, y1) , . . . , U kl (xn−1, y1) ,U kl (x1, y2) , U kl (x2, y2) , . . . , U kl (xn−1, y2) ,...U kl (x1, yn−1) , U kl (x2, yn−1) , . . . , U kl (xn−1, yn−1)
ou seja,U kl (h, h) , U kl (2h, h) , . . . , U kl ((n − 1) h, h) ,U kl (h, 2h) , U kl (2h, 2h) , . . . , U kl ((n − 1) h, 2h) ,...U kl (h, (n − 1) h) , U kl (2h, (n − 1) h) , . . . , U kl ((n − 1) h, (n − 1) h) ,
ou seja, como h = 1/n, os vetores
ukl =
senkπ
nsen
lπ
m, sen
2kπ
nsen
lπ
n, . . . , sen
(n − 1) kπ
nsen
lπ
n,
senkπ
nsen
2lπ
n, sen
2kπ
nsen
2lπ
n, . . . , sen
(n − 1) kπ
nsen
2lπ
n,
. . . ,
senkπ
nsen
(n − 1) lπ
n, sen
2kπ
nsen
(n − 1) lπ
n, . . . , sen
(n − 1) kπ
nsen
(n − 1) lπ
n
.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 48/123
Rodney Josue Biezuner 47
3.16 Lema. Os (n − 1)2
autovalores da matriz de discretizac˜ ao A da f´ ormula dos cinco pontos bidimensional s˜ ao
λkl =2
h2 2
−cos
kπ
n −cos
lπ
n =4
h2 sen2
kπ
2n
+ sen2lπ
2n (3.39)
e os autovetores correspondentes s˜ ao
ukl =
sen
kπ
nsen
lπ
n, sen
2kπ
nsen
lπ
n, . . . , sen
(n − 1) kπ
nsen
lπ
n,
senkπ
nsen
2lπ
n, sen
2kπ
nsen
2lπ
n, . . . , sen
(n − 1) kπ
nsen
2lπ
n, (3.40)
. . . ,
senkπ
nsen
(n − 1) lπ
n, sen
2kπ
nsen
(n − 1) lπ
n, . . . , sen
(n − 1) kπ
nsen
(n − 1) lπ
n
,
k = 1, . . . , n − 1, l = 1, . . . , m − 1.
Prova. Embora a demonstracao deste lema possa ser feita de maneira analoga a do lema anterior, usandoidentidades trigonometricas, daremos uma demonstracao diferente. Lembrando que as autofuncoes e osautovalores de Dirichlet do laplaciano no retangulo sao facilmente obtidos atraves do metodo de separacaode variaveis, encontraremos os autovalores da matriz A usando um metodo de separac˜ ao de vari´ aveis discretopara achar os autovalores do laplaciano discreto dado pela formula dos cinco pontos:
−ui,j−1 + ui−1,j − 4ui,j + ui+1,j + ui,j+1
h2= λui,j . (3.41)
Em particular, este metodo nao depende da maneira como os pontos da malha s ao ordenados (nao dependeda matriz A usada para representar o laplaciano discreto). Como no metodo de separacao de variaveiscontınuo, assumimos que as solucoes da equacao discreta acima sao produtos da forma
ui,j = F (i) G ( j) , (3.42)
onde F e G sao funcoes de uma variavel inteira. Substituindo esta expressao na equacao de Helmholtzdiscreta, obtemos
F (i) G ( j − 1) + F (i − 1) G ( j) − 4F (i) G ( j) + F (i + 1) G ( j) + F (i) G ( j + 1) = −λh2F (i) G ( j) .
Dividindo esta equacao por F (i) G ( j), segue que
F (i − 1) − 2F (i) + F (i + 1)
F (i)+
G ( j − 1) − 2G ( j) + G ( j + 1)
G ( j)= −λh2.
Separando as variaveis, concluımos que cada um dos quocientes acima e independente de i ou de j, isto e,
eles sao constantes:
F (i − 1) − 2F (i) + F (i + 1)
F (i)= A, (3.43)
G ( j − 1) − 2G ( j) + G ( j + 1)
G ( j)= B, (3.44)
onde as constantes α, β estao relacionadas pela identidade
A + B = −λh2. (3.45)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 49/123
Rodney Josue Biezuner 48
Estas equacoes podem ser escritas como formulas de recorrencia (analogas as equacoes diferenciais ordinariasobtidas no metodo de separacao de variaveis contınuo)
F (i + 1) − (A + 2) F (i) + F (i − 1) = 0,G ( j − 1) − (B + 2) G ( j) + G ( j + 1) = 0.
Para resolve-las, e mais conveniente trabalhar com as constantes
2α = A + 2,
2β = B + 2.
Desta forma, as equacoes para F e G tornam-se
F (i − 1) − 2αF (i) + F (i + 1) = 0, (3.46)
G ( j − 1) − 2βG ( j) + G ( j + 1) = 0. (3.47)
Vamos resolver a equacao para F , ja que a equacao para G e identica. Substituindo em (3.46) uma solucaoda forma
F (i) = zi (3.48)
obtemoszi−1 − 2αzi + zi+1 = 0,
donde, dividindo por zi−1 extraımos a equacao quadratica (analoga a equacao indicial)
z2 − 2αz + 1 = 0. (3.49)
As duas raızes saoz± = α ±
α2 − 1,
com z+ + z− = 2α e z+z− = 1. Portanto, a solucao geral para a equacao (3.46) e
F (i) = c1zi+ + c2zi−
para algumas constantes c1, c2. Para determinarmos estas constantes e tambem α, aplicamos as condicoesde fronteira, que implicam
F (0) = F (n) = 0.
A primeira destas por sua vez implica que c1 = −c2, logo
F (i) = c
zi+ − zi−
. (3.50)
Como a equacao para F e homogenea, a constante c e arbitraria. Aplicando a segunda, segue que
zn+ = zn−,
ou, como z+z− = 1,z2n+ = 1
Consequentemente, z+ e uma 2n-esima raiz complexa de 1:
z+ = eijπ/n (3.51)
para algum inteiro 1 k 2n − 1, onde i =√−1. Como z− = 1/z+, podemos restringir 0 k n − 1 e
(3.50) produz todas as solucoes nao-triviais F de (3.46).
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 50/123
Rodney Josue Biezuner 49
Portanto,
α =z+ + z−
2=
eiπk/n + e−iπk/n
2= cos
kπ
n, 0 k n − 1,
e, escolhendo c = 1/2,F k (i) = eiπki/n − e−iπki/n = sen
ikπ
n.
Analogamente,
β = coslπ
n, 0 l n − 1,
e
Gl ( j) = senjlπ
n.
Segue que os autovalores sao
λkl =2
h2
2 − cos
kπ
n− cos
lπ
n
e as coordenadas das autofuncoes associadas sao dadas por
(ukl)i,j = F k (i) Gl ( j) = senikπ
nsen
jlπ
m.
3.17 Teorema. Seja A a matriz de discretizac˜ ao obtida a partir da f´ ormula de tres pontos unidimensional ou a partir da f´ ormula de cinco pontos bidimensional. Seja R = D−1 (D − A) a matriz de iterac˜ ao dometodo de Jacobi. Ent˜ ao
ρ (R) = cosπ
n. (3.52)
Prova. Vamos provar para a formula de cinco pontos bidimensional; o argumento para a formula de trespontos unidimensional e analogo e fica deixado como exercıcio. Para o metodo de Jacobi, a matriz de
discretizacao x
k+1
= Rx
k
+ D
−1
b e obtida atraves da formula:
uk+1i,j =
1
4
uki,j−1 + uk
i,j+1 + uki−1,j + uk
i+1,j
.
Ja vimos no Lema 3.16 que
−ukli−1,j − ukl
i+1,j + 4ukli,j − ukl
i,j−1 − ukli,j+1 =
λklh
2
ukli,j
com
λkl =2
h2
2 − cos
kπ
n− cos
lπ
n
.
Daı segue queukli,j−1 + ukl
i,j+1 + ukli−1,j + ukl
i+1,j =
4 − λklh
2
ukli,j
Logo 1
4
ukli,j−1 + ukl
i,j+1 + ukli−1,j + ukl
i+1,j
= µlkukl
i,j
para
µlk = 1 − 1
4λklh
2 = 1 − 1
2
2 − cos
kπ
n− cos
lπ
n
=
1
2
cos
kπ
n+ cos
lπ
n
.
Estes sao os autovalores da matriz de iteracao de Jacobi para a matriz de discretizacao obtida a partir daformula de cinco pontos (observe que elas possuem os mesmos autovetores; no entanto R possui autovaloresnulos). Segue que o maximo autovalor ocorre quando k = l = 1, logo
ρ (R) = cosπ
n.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 51/123
Rodney Josue Biezuner 50
Para o quadrado unitario temos
ρ (R) = cos(πh) . (3.53)
Vemos em particular que ρ (R) → 1 quando h → 0, de modo que a velocidade de convergencia do metodode Jacobi vai ficando cada vez menor para malhas mais refinadas. Podemos dizer mais usando a expansaoda funcao cosseno em torno da origem
cos x = 1 − 1
2x2 + O
x4
;
se h e pequeno podemos aproximar
cos(πh) ≈ 1 − π2
2h2,
de modo que ρ (R) → 1 quadraticamente quando h → 0. Em outras palavras, para uma malha duas vezesmais refinada (isto e, h reduzido pela metade), o metodo de Jacobi e cerca de quatro vezes mais vagarosoem media (consulte novamente a tabela no final da secao anterior). A tabela abaixo mostra os valores doraio espectral para alguns valores de h:
h 0.1 0.05 0.025
ρ (R) 0.9511 0.9877 0.9969
Para h = 0.025 (correspondente a uma matriz de tamanho n = 39 × 39 = 1521), temos
R∞ (R) = − log10 (0.9969) = 0.0013484,
de modo que para reduzir o erro pelo fator de uma casa decimal precisamos de
m =
log10 0.1
log10 ρ (R) = −1
log10 ρ (R) =
1
0.00135 ≈ 742
iteracoes.
3.3.2 Convergencia do Metodo de Gauss-Seidel
3.18 Teorema. Se A e uma matriz irredutıvel, diagonalmente dominante tal que |aii| >n
j=1j=i
|aij | para pelo
menos alguma linha i, ent˜ ao o metodo de Gauss-Seidel converge.
Prova. Sejam D a parte diagonal, −L a parte triangular inferior estrita e −U a parte triangular superiorestrita da matriz A, e seja R = (D − L)
−1 U a matriz de iteracao do metodo de Gauss-Seidel para A.
EscrevemosR = (D − L)
−1 U =
D
I − D−1L−1
U
ouR =
I − D−1L
−1D−1U. (3.54)
Suponha por absurdo que exista um autovalor λ de R tal que |λ| 1; como na demonstracao do Teorema3.9, temos
det
I − λ−1R
= det
I − λ−1
I − D−1L−1
D−1U
= 0.
Agora, observando quedet
I − D−1L
= 1
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 52/123
Rodney Josue Biezuner 51
porque I − D−1L e uma matriz triangular inferior com apenas 1’s na diagonal principal, escrevemos
0 = det
I − λ−1
I − D−1L
−1
D−1U
= det I − D−1L detI − λ−1 I − D−1L−1 D−1U = det
I − D−1L
I − λ−1
I − D−1L
−1D−1U
= det
I − D−1L − λ−1D−1U
.
Por outro lado,D−1A = I − D−1L − D−1U
e irredutıvel, diagonalmente dominante e estritamente dominante nas linhas onde A e porque
D−1A
ij=
1 se i = j,aij
aii
se i = j.
Logo, a matriz I − D−1L − λ−1D−1U tambem satisfaz estas propriedades, pois I , −D−1L e −D−1U saorespectivamente a parte diagonal, a parte triangular inferior estrita e a parte triangular superior estrita damatriz D−1A, e multiplicar a parte triangular inferior estrita pelo numero λ−1 cujo modulo e menor que ouigual a 1 nao alterara a dominancia diagonal (na verdade so tende a melhora-la) nem acrescentara zeros amatriz. A Proposicao 2.16 implica entao que I − D−1L − λ−1D−1U e invertıvel, um absurdo. Usando o Teorema 3.18, concluımos que o metodo de Gauss-Seidel converge para as matrizes de discretizacaoobtidas atraves dos esquemas de diferencas finitas do Capıtulo 1. Para analizar a velocidade de convergenciado metodo de Gauss-Seidel, vamos obter os raios espectrais para as matrizes de discretizacao obtidas a partirda formula de tres pontos unidimensional e a partir da formula de cinco pontos bidimensional.
3.19 Teorema. Seja A a matriz de discretizac˜ ao obtida a partir da f´ ormula de tres pontos unidimensional
ou a partir da f´ ormula de cinco pontos bidimensional. Seja R = (D − L)
−1
U a matriz de iterac˜ ao dometodo de Gauss-Seidel. Ent˜ aoρ (R) = cos2
π
n. (3.55)
Prova. Para obter o raio espectral da matriz de iteracao R, queremos encontrar os autovalores µ de R:
Ru = (D − L)−1 U u = µu,
ou seja,Uu = µ (D − L) u
(um problema de autovalor generalizado). No caso da matriz de discretizacao da formula de cinco pontos,isso significa encontrar µ tal que
ui,j+1 + ui+1,j = µ (4ui,j − ui,j−1 − ui−1,j) . (3.56)
Para os autovalores nao-nulos, podemos fazer a substituicao
ui,j = µi+j2 vi,j (3.57)
para transformar a equacao de autovalor naquela que aparece no metodo de Jacobi. Temos
µi+j+1
2 vi,j + µi+j+1
2 vi+1,j = µ
4µi+j2 vi,j − µ
i+j−12 vi,j−1 − µ
i+j−12 vi−1,j
= 4µ
i+j+22 vi,j − µ
i+j+12 vi,j−1 − µ
i+j+12 vi−1,j ,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 53/123
Rodney Josue Biezuner 52
de modo que, dividindo por µi+j+1
2 , obtemos
vi−1,j + vi+1,j + vi,j−1 + vi,j+1 = µ1/24vi,j .
Portanto os autovalores da matriz de iteracao de Gauss-Seidel para esta matriz sao exatamente os quadradosdos autovalores da matriz de iteracao de Jacobi (e os autovetores sao os mesmos):
µlk =1
4
cos
kπ
n+ cos
lπ
n
2
.
Portanto, o maximo autovalor ocorre quando k = l = 1 e
ρ (R) = cos2π
n.
O argumento para a formula de tres pontos e analogo. Para o quadrado unitario temos
ρ (R) = cos2 (πh) ,
e usando
cos2 x =
1 − 1
2x2 + O
x42
= 1 − x2 + O
x4
,
se h e pequeno podemos aproximarcos2 (πh) ≈ 1 − π2h2.
No metodo de Gauss-Seidel ainda temos ρ (R) → 1 quadraticamente quando h → 0, mas a sua velocidadede convergencia para a matriz de discretizacao de cinco pontos do quadrado unitario e duas vezes maior quea do metodo de Jacobi. Para ver isso, faca a expansao do logaritmo em torno do ponto x = 1:
log (1 + x) = x + O
h2
.
Segue que
R∞ (RJacobi) =π2
2h2 + O
h4
, (3.58)
R∞ (RGauss-Seidel) = π2h2 + O
h4
. (3.59)
3.3.3 Convergencia do Metodo SOR
3.20 Teorema. Se o metodo SOR converge, ent˜ ao
0 < ω < 2.
Prova. A matriz de iteracao do metodo SOR e
R =
1
ωD − L
−11 − ω
ωD + U
=
1
ωD
I − ωD−1L−11 − ω
ωD + U
=
I − ωD−1L−1
ωD−1
1 − ω
ωD + U
ou
R =
I − ωD−1L−1
(1 − ω) I + ωD−1U
. (3.60)
Se λ1, . . . , λn sao os autovalores de R, entao
det R = λ1 . . . λn.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 54/123
Rodney Josue Biezuner 53
Mas,
det R = det
I − ωD−1L
−1
(1 − ω) I + ωD−1U
= det I − ωD−1L−1 det (1 − ω) I + ωD−1U = (1 − ω)
n ,
ja que I − ωD−1L e uma matriz triangular inferior com apenas 1 na diagonal principal e (1 − ω) I + ωD−1U e uma matriz triangular superior com apenas 1 − ω na diagonal principal. Logo
λ1 . . . λn = (1 − ω)n .
Em particular, pelo menos um dos autovalores λj de R deve satisfazer
|λj | |1 − ω| .
Mas, se o metodo SOR converge, devemos ter tambem |λ| < 1 para todo autovalor λ de R. Logo
|1 − ω| < 1,donde
0 < ω < 2.
3.21 Corolario. Se R e a matriz de iterac˜ ao n × n para o metodo SOR, entao
det R = (1 − ω)n .
Em particular, diferente das matrizes de iteracao dos metodos de Jacobi e de Gauss-Seidel (para a matriz dediscretizacao de cinco pontos), zero nao e um autovalor para a matriz de iteracao do metodo SOR se ω = 1(para nenhuma matriz).
3.22 Teorema. Se A e uma matriz irredutıvel, diagonalmente dominante tal que |aii| > nj=1j=i
|aij | para pelo
menos alguma linha i, ent˜ ao o metodo SOR converge se 0 < ω 1.
Prova. A demonstracao e analoga a do Teorema 3.18. A matriz de iteracao do metodo SOR e
R =
I − ωD−1L−1
(1 − ω) I + ωD−1U
.
Suponha por absurdo que exista um autovalor λ de R tal que |λ| 1; temos
det
I − λ−1R
= det
I − λ−1
I − ωD−1L−1
(1 − ω) I + ωD−1U
= 0.
Agora, observando que
det I − ωD−1
L = 1porque I − ωD−1L e uma matriz triangular inferior com apenas 1’s na diagonal principal, escrevemos
0 = det
I − λ−1
I − ωD−1L−1
(1 − ω) I + ωD−1U
= det
I − ωD−1L
det
I − λ−1
I − ωD−1L−1
(1 − ω) I + ωD−1U
= det
I − ωD−1L
I − λ−1
I − ωD−1L−1
(1 − ω) I + ωD−1U
= det
I − ωD−1L − λ−1
(1 − ω) I + ωD−1U
= det
1 − λ−1 (1 − ω)
I − ωD−1L − λ−1ωD−1U
.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 55/123
Rodney Josue Biezuner 54
Por outro lado, como vimos na demonstracao do Teorema 3.18, a matriz
D−1A = I − D−1L − D−1U
e irredutıvel, diagonalmente dominante e estritamente dominante nas linhas onde A e, logo a matriz
S =
1 − λ−1 (1 − ω)
I − ωD−1L − λ−1ωD−1U
tambem satisfaz estas propriedades. De fato, S tem zeros nas mesmas posicoes que I − D−1L − D−1U , logoa sua irredutibilidade nao e afetada. Alem disso, pela dominancia diagonal de D−1A, sabemos que se
bij =
D−1Lij
,
cij =
D−1U ij
.
entao
1 i−1
j=1 |bij
|+
n
j=i+1 |cij
|.
Para provar a dominancia diagonal de S , observamos que os valores que S possui na diagonal principal sao
1 − λ−1 (1 − ω) = 1 − 1 − ω
λ=
λ + ω − 1
λ,
de modo que precisamos provar queλ + ω − 1
λ
ω
i−1j=1
|bij | +ω
|λ|n
j=i+1
|cij |
se 0 < ω 1 e |λ| 1. Provaremos que λ + ω − 1
λ
ω,λ + ω − 1
λ
ω
|λ| .
Para isso, observe que como |λ| 1 basta provar a primeira desigualdade, a qual por sua vez e equivalente a
|λ + ω − 1| |λ| ω.
E facil ver que esta desigualdade e valida quando λ ∈ R, pois
|λ + ω − 1| = λ + ω − 1 λω porque λ − 1 λω − ω = ω (λ − 1) .
Para o caso geral em que λ ∈ C, fazemos cair no caso real escrevendo
|λ + ω − 1|2 = |λ − (1 − ω)|2 = |λ|2 − 2(Re λ) (1 − ω) + (1 − ω)2
|λ|2 − 2 |λ| (1 − ω) + (1 − ω)2 = [|λ| − (1 − ω)]2
= [|λ| + ω − 1]2 |λ|2 ω2.
O resultado acima continua valendo com desigualdade estrita nas linhas onde a desigualdade e estrita. AProposicao 2.36 implica entao que S e invertıvel, contradizendo det S = 0.
3.23 Teorema. Seja A uma matriz simetrica positiva definida. Ent˜ ao o metodo SOR converge se 0 < ω < 2.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 56/123
Rodney Josue Biezuner 55
Prova. Usaremos o Teorema 3.13. Escrevendo A = D − L − U , temos Lt = U porque A e simetrica e asentradas diagonais de D positivas porque A e positiva definida. Para o metodo SOR temos
B =1
ω D − L e C =1
−ω
ω D + U,
logo
Bt + C =1
ωD − Lt +
1 − ω
ωD + U =
2 − ω
ωD
e uma matriz simetrica positiva definida se 0 < ω < 2. Na verdade, se as entradas diagonais de uma matriz simetrica sao positivas, a condicao de ser definidapositiva e equivalente a convergencia do metodo SOR para 0 < ω < 2, como o proximo resultado mostra.
3.24 Teorema. Seja A uma matriz simetrica com entradas diagonais positivas. Entao o metodo SORconverge se e somente se A e positiva definida e 0 < ω < 2.
Prova. Assuma que A e positiva definida e que 0 < ω < 2. Seja
R =
I − ωD−1L−1
(1 − ω) I + ωD−1U
a matriz de iteracao do metodo SOR. Se λ e um autovalor de R e x um autovetor associado, temos Rx = λx,donde
(1 − ω) I + ωD−1U
x = λ
I − ωD−1L
x.
Fazendo o produto interno canonico (hermitiano) de Cn de ambos os lados com o vetor x, segue que
(1 − ω) x, x + ω
x, D−1U x
= λx, x − ω
x, D−1Lx
Isolando λ,
λ =(1 − ω) x, x + ω x, D−1Uxx, x − ω x, D−1Lx
. (3.61)
Como A e simetrica, o produto de matrizes simetricas D−1A = I − D−1U − D−1L tambem e; comoD−1U, D−1L sao respectivamente a parte estritamente triangular superior e estritamente triangular infe-rior de uma matriz simetrica, temos
D−1U t
= D−1L.
Logo x, D−1Ux
=
D−1U t
x, x
=
D−1L
x, x
= x, (D−1L) x,
e definindo
z =
x,
D−1L
x
x, x ,
podemos escrever
λ =(1 − ω) + ωz
1 − ωz. (3.62)
Os argumentos acima assumem que o denominador e nao-nulo. E, de fato, temos
Re z =1
2(z + z) =
1
2
x,
D−1L
x
x, x +
x,
D−1U
x
x, x
=
1
2
x,
D−1L + D−1U
x
x, x
=1
2
x,
I − D−1A
x
x, x =1
2
1 −
x,
D−1A
x
x, x
.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 57/123
Rodney Josue Biezuner 56
e como A e positiva definida, D−1A tambem e, o que implica
x,
D−1A
x
x, x> 0
donde
Re z <1
2.
de modo que a parte real do denominador 1 − ωz de λ e nao-nula para 0 < ω < 2. Segue que
|λ|2 = λλ =[(1 − ω) + ωz ][(1 − ω) + ωz]
(1 − ωz) (1 − ωz)=
(1 − ω)2 + 2ω (1 − ω) Re z + ω2 |z|21 − 2ω Re z + ω2 |z|2
=ω2 − 2ω2 Re z − 2ω + 4ω Re z + 1 − 2ω Re z + ω2 |z|2
1 − 2ω Re z + ω2 |z|2
= 1
−ω (2 − ω) (1 − 2 Re z)
1 − 2ω Re z + ω2 |z|2 .
Como 0 < ω < 2 e Re z <1
2, temos
ω (2 − ω) (1 − 2 Re z) > 0,
e concluımos que|λ| < 1
para todo autovalor λ de R, logo o metodo SOR converge. A demonstracao da recıproca (assim como umademonstracao alternativa, variacional, deste teorema) pode ser vista em [Young]. Usando o Teorema 3.22, concluımos que o metodo SOR converge para as matrizes de discretizacao obtidasatraves dos esquemas de diferencas finitas do Capıtulo 1 se 0 < ω 1. Isso permite apenas subrelaxamentodo metodo de Gauss-Seidel, o que em geral reduz a velocidade de convergencia. Por outro lado, usando o
Teorema 3.23 ou o Teorema 3.24, concluımos que o metodo SOR converge para as matrizes de discretizacaoobtidas a partir da formula de tres pontos unidimensional e a partir da formula de cinco pontos bidimensionalse 0 < ω < 2, ja que estas sao matrizes simetricas, positivas definidas (ja as matrizes de discretizacao obtidasatraves de coordenadas polares ou pelo esquema de Shortley-Weller nao sao simetricas, em geral, comovimos).
Em seguida fazemos uma analise da velocidade de convergencia do metodo SOR para a matriz de dis-cretizacao da formula de cinco pontos, bem como obtemos o melhor valor do fator de relaxamento ω paraeste caso.
3.25 Lema. Seja A a matriz de discretizac˜ ao obtida a partir da f´ ormula de tres pontos unidimensional ou a partir da f´ ormula de cinco pontos bidimensional. Se λ = 0 e um autovalor de RSOR, ent˜ ao existeum autovalor λJ de RJ tal que
λJ =
1
−ω
−λ
λ1/2ω2 . (3.63)
Reciprocamente, se λJ e um autovalor de RJ e λ ∈ C satisfaz a equac˜ ao acima, ent˜ ao λ e um autovalor de RSOR.
Prova. Argumentamos como na demonstracao do Teorema 3.13. Para obter o raio espectral da matriz deiteracao RSOR, queremos encontrar os autovalores λ de RSOR:
RSORu =
I − ωD−1L−1
(1 − ω) I + ωD−1U
u = λu,
ou seja, (1 − ω) I + ωD−1U
u = λ
I − ωD−1L
u
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 58/123
Rodney Josue Biezuner 57
No caso da matriz de discretizacao da formula de cinco pontos, isso significa encontrar λ tal que
(1 − ω) ui,j +ω
4ui,j+1 +
ω
4ui+1,j = λ
ui,j − ω
4ui,j−1 − ω
4ui−1,jou
1 − ω − λ
ωui,j =
1
4(ui,j+1 + ui+1,j + λui,j−1 + λui−1,j) . (3.64)
Fazendo a substituicao
ui,j = λi+j2 vi,j
e dividindo por µi+j+1
2 , segue que
vi−1,j + vi+1,j + vi,j−1 + vi,j+1 =1 − ω − λ
λ1/2ω4vi,j
e daı o resultado. Resolvendo a equacao (3.63) como uma equacao quadratica em
√λ, vemos que as duas raızes λ± = λ±
2
podem ser escritas na forma
λ± =1
4
−ωλJ ±
ω2λ2J − 4 (ω − 1)
2. (3.65)
DenotaremosΛω,λJ = max (|λ+| , |λ−|) (3.66)
e por λJ = ρ (RJ ) o maior autovalor do metodo de Jacobi.
3.26 Proposicao. Seja A a matriz de discretizac˜ ao obtida a partir da f´ ormula de tres pontos unidimensional ou a partir da f´ ormula de cinco pontos bidimensional. Ent˜ ao
ρ (RSOR,ω) = Λω,λJ(3.67)
Prova. Por definicao,ρ (RSOR,ω) = max
λJΛω,λJ .
De (3.65) segue que
Λω,λJ =1
4
ωλJ +
ω2λ
2J − 4 (ω − 1)
2 .
Se 0 < ω 1, ω2λ2J − 4 (ω − 1) 0 e Λω,λJ e uma funcao crescente de λJ , logo o maximo e atingido em λJ .
Se ω > 1, defina
λc =
4 (ω − 1)
ω2.
Se λJ > λc, ω2λ2J
−4 (ω
−1) > 0 e segue a conclusao como no caso anterior. Se λJ λc, entao ω2λ
2J
−4 (ω − 1) 0 e ω2λ
2J − 4 (ω − 1) =
4 (ω − 1) − ω2λ
2J i,
onde i =√−1, logo
Λω,λJ =
ωλJ +
ω2λ
2J − 4 (ω − 1)
2 =
ω2λ2J +
4 (ω − 1) − ω2λ2J
2
= ω − 1,
e novamente Λω,λJ e uma funcao crescente de λJ .
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 59/123
Rodney Josue Biezuner 58
Defina
ωotimo =2
1 + 1 −λ2J
. (3.68)
Note que 1 < ωotimo < 2. Mostraremos que ωotimo e de fato o melhor valor para o fator de relaxamento nometodo SOR. Antes precisamos do seguinte resultado:
3.27 Proposicao. Seja A a matriz de discretizac˜ ao obtida a partir da f´ ormula de tres pontos unidimensional ou a partir da f´ ormula de cinco pontos bidimensional. Ent˜ ao
ρ (RSOR,ω) =
1
4
ωλJ +
ω2λ
2J − 4 (ω − 1)
2
se 0 < ω ωotimo,
ω − 1 se ωotimo ω < 2.
(3.69)
Prova. Temos ω2λ2J − 4 (ω − 1) 0 para 0 < ω < 2 se e somente se ω ωotimo. De fato, as raızes de
f (ω) = ω2λ2J
−4ω + 4 sao
ω± =4 ± 4
1 − λ
2J
2λ2J
=2
λ2J
1 ±
1 − λ
2J
de modo que a raiz positiva de f e maior que 2, logo para que f (ω) 0 se 0 < ω < 2, devemos ter
ω 2
λ2J
1 −
1 − λ
2J
=
2
λ2J
1 −
1 − λ2J
1 +
1 − λ
2J
=2
1 +
1 − λ
2J
.
O resultado segue entao como na demonstracao da proposicao anterior.
3.28 Teorema. Seja A a matriz de discretizac˜ ao obtida a partir da f´ ormula de tres pontos unidimensional
ou a partir da f´ ormula de cinco pontos bidimensional. Entao o fator de relaxamento ´ otimo para ometodo SOR e dado por
ωotimo =2
1 + senπ
n
(3.70)
e o fator de relaxamento ´ otimo para o metodo SOR.
Prova. Se 0 < ω ωotimo, entao ω2λ2J − 4 (ω − 1) 0 e
d
dω
ωλJ +
ω2λ
2J − 4 (ω − 1)
=
λJ
ω2λ
2J − 4 (ω − 1) + ωλ
2J − 2
ω2λ2J − 4 (ω − 1)
.
Temos ωλ2J − 2 < 0, porque 0 < ω < 2 e λJ < 1, eωλ
2J − 2
> λJ
ω2λ
2J − 4 (ω − 1),
pois ωλ2J − 2
2 = ω2λ4J − 4λ
2J ω + 4 > ω2λ
4J − 4λ
2J ω + 4λ
2J > ω2λ
4J − 4λ
2J (ω − 1)
=
λJ
ω2λ
2J − 4 (ω − 1)
2.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 60/123
Rodney Josue Biezuner 59
Isso implicad
dω
ωλJ +
ω2λ
2J − 4 (ω − 1)
< 0,
logo ρ (RSOR,ω) e decrescente de 0 ate ωotimo. Para ωotimo ω < 2, ρ (RSOR,ω) = ω − 1 e claramentecrescente. Portanto, ρ (RSOR,ω) atinge o seu mınimo em ωotimo.
Pelo Teorema 3.15, temos
λJ = cosπ
n,
logo
ωotimo =2
1 +
1 − λ
2J
=2
1 +
1 − cos2
π
n
=2
1 + senπ
n
.
Para o quadrado unitario temos
ωotimo
=2
1 + sen (πh)
e consequentemente
ρ (RSOR,ω) =2
1 + sen (πh)− 1 =
1 − sen(πh)
1 + sen (πh).
e usando
1 − x
1 + x= 1 − 2x + O
x2
,
sen x = x + O
x3
,
se h e pequeno podemos aproximar
1 − sen(πh)1 + sen (πh) ≈ 1 − 2πh + O h2 .
Portanto, usando o valor otimo de ω no metodo SOR, temos ρ (R) → 1 linearmente quando h → 0, umresultado muito melhor que o obtido nos metodos de Jacobi e de Gauss-Seidel. Para uma comparacao maisprecisa, usando
log (1 + x) = x + O
h2
temos queR∞ (RSOR) = 2πh + O
h2
. (3.71)
Segue queR∞ (RSOR)
R∞ (RGauss-Seidel)≈ 2πh
π2h2=
2
πh.
Em particular, se h = 0.025, temos ωotimo = 1. 8545 e R∞ (RSOR) /R∞ (RGauss-Seidel) = 25.5, isto e, ometodo SOR e 25 vezes mais rapido que o metodo de Gauss-Seidel. Quanto mais refinada a malha, maior ea diferenca na velocidade de convergencia entre os dois metodos.
3.3.4 Convergencia do Metodo de Jacobi Amortecido
3.29 Teorema. Se o metodo de Jacobi converge, ent˜ ao o metodo de Jacobi amortecido converge para
0 < ω 1.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 61/123
Rodney Josue Biezuner 60
Prova. Vamos escrever a matriz de iteracao RJ,ω do metodo de Jacobi amortecido em funcao da matriz deiteracao do metodo de Jacobi RJ . Temos
RJ = D−1 (D−
A)
de modo que
RJ,ω =
1
ωD
−11
ωD − A
= ωD−1
1
ωD − D + D − A
= ωD−1
1
ωD − D
+ ωD−1 (D − A)
dondeRJ,ω = (1 − ω) I + ωRJ . (3.72)
Em particular,RJ v = λv
se e somente se[RJ,ω − (1 − ω) I ] v = ωλv.
Portanto, λJ e um autovalor de RJ se e somente se
λJ,ω = ωλJ + 1 − ω (3.73)
e um autovalor de RJ,ω. Logo, se todo autovalor de RJ satisfaz |λJ | < 1 (isto e, ρ (RJ ) < 1 equivalente aometodo de Jacobi convergir) e ω < 1, entao
|λJ,ω|2 = (ωλJ + 1 − ω)
ωλJ + 1 − ω
= ω2 |λJ |2 + 2Re λJ ω (1 − ω) + (1 − ω)2
ω2 |λJ |2 + 2 |λJ | ω (1 − ω) + (1 − ω)2
= (ω |λJ | + 1 − ω)2
< 1.
Segue do Teorema 3.13 que o metodo de Jacobi amortecido converge para as matrizes de discretizacao doCapıtulo 1 se 0 < ω 1.
3.30 Corolario.ρ (RJ,ω) = ω [ρ (RJ ) − 1] + 1. (3.74)
Para o quadrado unitario temosρ (RJ,ω) = ω [cos(πh) − 1] + 1. (3.75)
Usando
cos x = 1−
1
2x2 + O x4 ,
log (1 + x) = x + O
h2
,
se h e pequeno podemos aproximar
ρ (RJ,ω) ≈ 1 − ωπ2
2h2 + O
h4
,
R∞ (RJ,ω) ≈ ωπ2
2h2.
Vemos que a velocidade de convergencia do metodo de Jacobi amortecido e da mesma ordem que a do metodode Jacobi, um pouco pior para valores de ω proximos de 1 e muito pior para valores de ω proximos de 0.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 62/123
Rodney Josue Biezuner 61
3.3.5 Resumo
Metodo ρ (R) R∞ (R)
Jacobi cos (πh)π2
2h2 + O
h4
Gauss-Seidel cos2 (πh) π2h2 + O
h4
SOR otimo 1 − 2πh + O
h2
2πh + O
h2
Jacobi amortecido 1 − ωπ2
2h2 + O
h4
ωπ2
2h2 + O
h4
3.4 Exercıcios
3.1 Os metodos de Jacobi e Gauss-Seidel nao sao sempre comparaveis: existem sistemas lineares para asquais o metodo de Jacobi converge, enquanto que o metodo de Gauss-Seidel nao converge ou ate mesmodiverge, e vice-versa.
a) Verifique no computador que o metodo de Jacobi converge para o sistema linear x + z = 2−x + y = 0x + 2y − 3z = 0
enquanto que o metodo de Gauss-Seidel nao converge (observe que a solucao exata deste sistema e(1, 1, 1)).
b) Verifique no computador que o metodo de Gauss-Seidel converge se 2x + y + z = 4x + 2y + z = 4x + y + 2z = 4
enquanto que o metodo de Jacobi nao converge, usando o vetor (0, 0, 0) como chute inicial (observeque a solucao exata deste sistema e (1, 1, 1)).
c) Justifique matematicamente o resultado de cada um dos ıtens anteriores.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 63/123
Capıtulo 4
Metodos de Projecao
A maioria dos metodos iterativos praticos para a resolucao de sistemas lineares grandes usa um processo
de projecao de uma forma ou outra. Um processo de projecao e uma maneira canonica de obter umaaproximacao para a solucao do sistema linear dentro de um subespaco especificado. Neste capıtulo veremosa tecnica descrita de maneira geral e uma aplicacao detalhada para o caso unidimensional.
4.1 Teoria Geral
A ideia basica de uma tecnica de projecao e extrair uma solucao aproximada para a solucao do sistema Ax = bde um subespaco especificado K ⊂ Rn, chamado o subespaco de busca. Se m = dim K, entao em geralsao necessarias m restricoes para obter esta aproximacao. Uma maneira tıpica de descrever estas restricoese impor m condic˜ oes de ortogonalidade; um exemplo e exigir que o vetor residual r = b − Ax seja ortogonala m vetores linearmente independentes que geram um subespaco L, chamado o subespaco de restricoes.Muitos metodos matematicos sao baseados neste tipo de descricao, conhecida como as condic˜ oes de Petrov-
Galerkin . Existem duas classes gerais de metodos de projecao: os metodos de projec˜ ao ortogonal , quandoL = K (e neste caso as condicoes de Petrov-Galerkin sao chamadas simplesmente condic˜ oes de Galerkin ), eos metodos de projec˜ ao oblıqua , quando L = K.
4.1 Definicao. Seja A ∈ Mn (C) uma matriz invertıvel e K, L ⊂Rn dois subespacos vetoriais m-dimensionais.Um metodo de projecao sobre o subespaco K ortogonal ao subespaco L e um processo que encontrauma solucao aproximada x em K para o sistema Ax = b tal que o vetor residual r = b −Ax e ortogonala L, ou seja,
encontrar x ∈ K tal que r = b − Ax ⊥ L. (4.1)
Se queremos explorar o conhecimento de um bom chute inicial x0 para a solucao, entao a aproximacao ebuscada no espaco afim x0 + K. Neste caso, a tecnica e redefinida como
encontrar x ∈ x
0
+ K tal que r = b − Ax ⊥ L. (4.2)Denotando x = x0 + p
e o vetor resıduo inicialr0 = b − Ax0,
de modo que r = b − Ax = b − A
x0 + p
= r0 − Ap, a solucao aproximada pode ser descrita como
x = x0 + p, p ∈ K,r0 − Ap,w
= 0 para todo w ∈ L.
(4.3)
O vetor p que esta no subespaco de busca e chamado o vetor de busca.
62
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 64/123
Rodney Josue Biezuner 63
4.1.1 Representacao Matricial
Sejam BK = v1, . . . , vm e BL = w1, . . . , wm bases para K e L, respectivamente. Construımos as matrizesn
×m
V = [v1 · · · vm] , (4.4)
W = [w1 · · · wm] ,
que tem estes vetores como colunas. Entao a solucao aproximada pode ser escrita na forma
x = x0 + V y (4.5)
para algum vetor y ∈ Rm, ou seja, p = V y. A condicao de ortogonalidade
r0 − A V y , w
= 0 para todow ∈ L tambem pode ser representada matricialmente na forma
(W z)T
r0 − AV y
= zT W T
r0 − AV y
= 0
para todo z ∈ Rm, ou seja,W T
r0 − AV y
= 0
ouW T AV y = W T r0. (4.6)
A partir daı, se assumirmos que a matriz m × m W T AV e invertıvel (o que nao e garantido mesmo quandoA e invertıvel; veja Exercıcio 4.1), obtemos a seguinte expressao matricial para a solucao aproximada:
x = x0 + V
W T AV −1
W T r0. (4.7)
Desta forma, um algoritmo tıpico para um metodo de projecao tem a forma
Algoritmo para um Metodo de Projecaodo until stop criterion
Selecione um par de subespacos K e LEscolha bases BK = v1, . . . , vn e BL = w1, . . . , wn para K e Lr ← b − Ax;
y ← W T AV
−1W T r;
x ← x + V y;end do
Em muitos algoritmos, a matriz W T AV nao precisa ser formada, e muito menos sua inversa calculada, damesma forma que a matriz de iteracao nao precisava ser explicitamente calculada nos metodos iterativoslineares.
A matriz W T AV e invertıvel se e somente se nenhum vetor do subespaco A
Ke ortogonal ao subespaco
L (Exercıcio 4.2). Duas condicoes independentes que garantem a invertibilidade de W T AV sao dadas pelaproposicao seguinte:
4.2 Proposicao. Se A ∈ Mn (C) e os subespacos K, L ⊂Rn satisfazem qualquer uma das duas condic˜ oes a seguir
(i) A e positiva definida e L = K, ou
(ii) A e invertıvel e L = AK.Ax = b
ent˜ ao a matriz W T AV e invertıvel quaisquer que sejam as bases V, W de K, L, respectivamente.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 65/123
Rodney Josue Biezuner 64
Prova: (i) Como L = K, podemos escrever W = V P para alguma matriz m × m invertıvel P (Exercıcio4.3). Entao
W T AV = P T V T AV
Como A e positiva definida, segue que V T AV tambem e (Exercıcio 4.4); em particular, a matriz m × mV T AV e invertıvel. Logo, sendo o produto de duas matrizes invertıveis, W T AV e invertıvel.
(ii) Neste caso, como L = AK, podemos escrever W = AV P para alguma matriz m × m invertıvel P .Daı,
W T AV = P T (AV )T
AV.
Como A e invertıvel, a matriz n × m AV possui posto maximo, logo a matriz m × m (AV )T
AV e invertıvel(Exercıcio 4.5). Novamente, sendo o produto de duas matrizes invertıveis, W T AV e invertıvel. Em particular, se A e uma matriz simetrica e um metodo de projecao ortogonal e utilizado, podemos tomarV = W e a matriz projetada V T AV tambem e simetrica; da mesma forma, se alem disso A for positivadefinida, V T AV tambem sera.
4.1.2 Minimizacao de FuncionaisA solucao aproximada x do sistema Ax = b atraves de um metodo de pro jecao pode ser obtida como o pontode mınimo de um funcional quadratico associado a matriz A. Consideremos primeiro o caso em que A e umamatriz simetrica positiva definida. Neste caso, a propria solucao do sistema Ax = b e o minimizante de umfuncional quadratico associado a matriz A:
4.3 Teorema. (Metodo Variacional para a Resolucao de Sistemas Lineares) Seja A ∈ Mn (R) uma matriz simetrica positiva definida e b ∈ R
n. Ent˜ ao a soluc˜ ao do sistema Ax = b e o unico ponto x queminimiza o funcional quadr´ atico
f (y) =1
2Ay,y − b, y . (4.8)
Prova: Uma matriz simetrica positiva definida e em particular invertıvel, logo existe uma unica solucao x
para o sistema Ax = b. Temos
f (y) − f (x) =1
2Ay,y − b, y − 1
2Ax,x + b, x
=1
2Ay,y − Ax,y − 1
2Ax,x + Ax,x
=1
2Ay,y − Ax,y +
1
2Ax,x
=1
2Ay,y − 1
2Ax,y − 1
2Ax,y +
1
2Ax,x
=1
2A (y − x) , y − 1
2A (y − x) , x
=1
2 A (y − x) , y − x .
Como A e positiva definida, segue que
A (y − x) , y − x 0
eA (y − x) , y − x = 0
se e somente se y = x. Portanto,f (y) > f (x)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 66/123
Rodney Josue Biezuner 65
para todo y = x e o mınimo de f ocorre em x. Em muitos problemas, o funcional f tem um significado fısico, correspondendo a um funcional de energia; ominimizante deste funcional de energia corresponde a um estado de equilıbrio do sistema.
Observe que, definindo um produto interno a partir da matriz simetrica positiva definida A da maneirausual por v, wA = Av,w e considerando a norma vetorial induzida vA = v, v1/2A , chamada A-norma ,o funcional f pode ser escrito na forma (substituindo b = Ax)
f (y) =1
2y2A − x, yA . (4.9)
O vetor de aproximacao x de um metodo de projecao ortogonal sobre K a partir de um vetor inicial x0 eexatamente o minimizante da primeira parte deste funcional sobre o subespaco afim x0 + K:
4.4 Proposicao. Sejam A ∈ Mn (R) uma matriz simetrica positiva definida e L = K. Ent˜ ao x e o vetor deaproximac˜ ao de um metodo de projec˜ ao ortogonal sobre K a partir de um vetor inicial x0 se e somentese ele minimiza a A-norma do erro sobre x0 + K, isto e, se e somente se
E (x) = miny∈x0+K
E (y) .
Prova: Seja x a solucao exata do sistema Ax = b. Entao a A-norma do erro e dada por
E (y) = x − yA .
Segue do lema da projecao ortogonal (ou lema da melhor aproximacao) que x e um minimizante de E (y)sobre o subespaco afim x0 + K se e somente se x − x e A-ortogonal a K, ou seja, se e somente se
A (x − x) , v = 0 para todo v ∈ K,
ou, equivalentemente,
b − Ax, v = 0 para todo v ∈ K.
Esta e a condicao de Galerkin que define o vetor de aproximacao de um metodo de projecao ortogonal (veja(4.2)).
Vamos considerar agora o caso de um metodo de projecao oblıqua em que L = AK.
4.5 Proposicao. Sejam A ∈ Mn (C) uma matriz qualquer e L = AK. Ent˜ ao x e o vetor de aproximac˜ aode um metodo de projec˜ ao oblıqua sobre K ortogonal a L a partir de um vetor inicial x0 se e somentese ele minimiza a 2-norma do resıduo sobre x0 + K, isto e, se e somente se
R (x) = miny∈x0+K
R (y) .
Prova: Considere o sistema Ax = b. Entao a 2-norma do resıduo e dada por
R (y) = b − Ay2 .
Segue do lema da projecao ortogonal (ou lema da melhor aproximacao) que x e um minimizante de R (y)sobre o subespaco afim x0 + K se e somente se b − Ax e ortogonal a AK = L, ou seja, se e somente se
b − Ax, w = 0 para todo w ∈ L.
Esta e a condicao de Petrov-Galerkin que define o vetor de aproximacao de um metodo de projecao oblıqua(veja (4.2)).
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 67/123
Rodney Josue Biezuner 66
4.1.3 Estimativa do Erro em Metodos de Projecao
Se nenhum vetor do subespaco K esta proximo da solucao exata x, entao e impossıvel encontrar uma boaaproximacao x para x em
K. Por outro lado, se existir algum vetor em
Kque esta a uma pequena distancia
ε de x, entao podemos perguntar qual a melhor aproximacao a x podemos encontrar em K. No que se segueassumiremos x0 = 0; em particular, o subespaco afim x0 + K e o subespaco vetorial K.
Seja P K a projecao ortogonal sobre K, definida por
P Kx ∈ K, x − P Kx ⊥ K, (4.10)
e QLK a projecao oblıqua sobre K e ortogonalmente a L, definida por
QLKx ∈ K, x − QL
Kx ⊥ L. (4.11)
(Observe que se K = L (isto e, projecao ortogonal), temos QKK = P K.) Entao o problema de aproximacao da
Definicao 4.1 pode ser expresso na linguagem destes operadores como
encontrar
x ∈ K tal que QL
K (b − A
x) = 0. (4.12)
Equivalentemente, definindo o operator Am : K −→ K por
Am = QLKAP K,
ele pode ser expresso na forma
encontrar x ∈ K tal que Amx = QLKb, (4.13)
de modo que um problema n-dimensional e aproximado por um problema m-dimensional.
4.6 Proposicao. Assuma x0 = 0. Suponha que K e invariante por A e que b ∈ K. Ent˜ ao o vetor deaproximac˜ ao x de um metodo de projec˜ ao (ortogonal ou oblıqua) sobre K a partir do vetor inicial x0
e a soluc˜ ao exata x.
Prova: Temos QL
K
(b−
Ax) = 0. Como por hipotese Ax, b∈ K
, segue que QL
K
Ax = Ax e QL
K
b = b, logob − Ax = 0 e portanto x = x. O mesmo resultado vale se x0 = 0 sob a hipotese adicional que o resıduo inicial r0 = b − Ax0 ∈ K .
A distancia da solucao exata x ao subespaco K, que pode ser escrita como (I − P K) x, desempenha umpapel fundamental na estimativa do erro da solucao aproximada x ∈ K, ja que a distancia desta a solucaoexata obviamente nao pode ser menor que a distancia de x a K. O proximo resultado fornece uma estimativasuperior para a norma do resıduo da solucao exata com respeito ao operador aproximado Am.
4.7 Teorema. Assuma x0 = 0 e b ∈ K. Denote
γ =QL
KA (I − P K) .
Ent˜ ao a soluc˜ ao exata x satisfaz a estimativa
b
−Amx
γ
(I
−P K) x
,
isto e,dist (Amx, b) γ dist (x, K) .
Prova: Como b ∈ K, segue que
b − Amx = QLK (b − AP Kx) = QL
KA (x − P Kx) = QLKA (I − P K) x.
Daı, ja que I − P K e uma projecao e portanto satisfaz (I − P K)2 = (I − P K), podemos escrever
b − Amx =QL
KA (I − P K) (I − P K) x γ (I − P K) x .
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 68/123
Rodney Josue Biezuner 67
4.2 Caso Unidimensional: Metodos de Descida
Nesta secao, A sera sempre uma matriz real simetrica positiva definida.
Outra maneira de enxergar o resultado do Teorema 4.3 e observar que o gradiente do funcional f ef (y) = Ay − b. (4.14)
Se x e um ponto de mınimo temos f (x) = 0, ou seja,
Ax = b.
O metodo variacional sugerido pelo Teorema 4.3 e a base dos metodos iterativos de descida em geral, e dometodo do gradiente conjugado em particular. A ideia e usar as ideias do calculo diferencial para encontraro mınimo do funcional quadratico f .
4.2.1 Metodos de Descida
A filosofia dos metodos de descida e comecar com um chute inicial x0 e gerar uma sequencia de iteradosx1, x2, . . . , xk, . . . que satisfazem
f
xk+1 f
xk
ou, melhor ainda,f
xk+1
< f
xk
de tal modo que xk convirja para o minimizador de f . Em outras palavras, em um metodo de descidabuscamos encontrar uma sequencia minimizante
xk
que convirja para a solucao do sistema.O passo de xk para xk+1 envolve dois ingredientes: (1) uma direc˜ ao de busca e (2) um avanco de
comprimento especificado na direcao de busca. Uma direcao de busca significa a escolha de um vetor pk queindicara a direcao que avancaremos de xk para xk+1. O comprimento do avanco e equivalente a escolha deum escalar αk multiplicando o vetor pk. Assim,
xk+1 = xk + αk pk.
A escolha de αk e tambem chamada uma busca na reta , ja que queremos escolher um ponto na retaxk + αpk : α ∈ R
tal quef
xk + αpk f
xk
.
Idealmente, gostarıamos de escolher αk de tal modo que
f
xk+1
= f
xk + αk pk
= minα∈R
f
xk + αpk
Esta e chamada uma busca exata na reta . Para funcionais quadraticos, a busca exata na reta e trivial e
obtemos uma formula para o valor de αk, como veremos a seguir. Denotaremos o resıduo em cada iteracaopor
rk = b − Axk. (4.15)
4.7 Proposicao. Seja αk ∈ R tal que
f
xk + αk pk
= minα∈R
f
xk + αpk
.
Ent˜ ao
αk =
pk, rk
pk, Apk . (4.16)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 69/123
Rodney Josue Biezuner 68
Prova: Considere o funcionalg (α) = f
xk + αpk
.
g e um polinomio quadratico em α, pois
g (α) =1
2
A
xk + αpk
, xk + αpk−
b, xk + αpk
=1
2
Axk, xk
− b, xk
+
α
2
Apk, xk
+
α
2
Axk, pk
+
α2
2
Apk, pk
− α
b, pk
= f
xk
+ α
Axk, pk−
b, pk
+α2
2
Apk, pk
= f
xk− α
rk, pk
+
α2
2
Apk, pk
,
portanto o mınimo de g e atingido no vertice −B/2A da parabola Y = AX 2 + BX + C . Observe que αk = 0 se e somente se
pk, rk
= 0, isto e, a direcao de busca e ortogonal ao resıduo. Como
gostarıamos sempre que possıvel de ter xk+1
= xk, devemos sempre escolher a direcao de busca de forma a
nao ser ortogonal a rk. Se esta escolha e feita, entao teremos sempre f xk+1 < f xk.
4.8 Exemplo. (Metodo de Gauss-Seidel) Considere o metodo de descida em que as primeiras n direcoes debusca p1, . . . , pn sao os vetores e1, . . . , en da base canonica de Rn, e isso e repetido a cada n iteracoes,de modo que pk+n = ek para todo k = 1, . . . , n, com uma busca na reta exata executada em cadaiteracao. Entao cada grupo de n iteracoes corresponde a uma iteracao do metodo de Gauss-Seidel.
4.9 Exemplo. (Metodo SOR) Usando as mesmas direcoes de busca do exemplo anterior, mas com xk+1 =xk + ωαk pk, ω = 1, obtemos um metodo de descida em que as buscas nas retas sao inexatas. Cadagrupo de n iteracoes corresponde a uma iteracao do metodo SOR.
Observe que o metodo de descida e um metodo de pro jecao em que L e K sao subespacos unidimensionais,com
K= p
k
e
Lum subespaco nao ortogonal a
K, em cada iteracao k. Se o metodo de descida sera um
metodo de projecao ortogonal ou oblıquo dependera da escolha do vetor de direcao de busca pk.
4.2.2 Metodo da Descida Mais Acentuada
Do Calculo Diferencial, sabemos que a direcao em que a funcao cresce a uma taxa mais rapida a partir deum ponto e a direcao do gradiente neste ponto. Esta observacao e a base da escolha da direcao de busca nometodo da descida mais acentuada (tambem chamado metodo do gradiente). Em outras palavras, escolhemos
pk = −f
xk
= b − Axk
ou pk = rk. (4.17)
Como neste casoK
=L
= pk, o metodo da descida mais acentuada sera um metodo de projecao ortogonal.Buscar na direcao da descida mais acentuada e uma ideia natural, mas que na pratica nao funciona semmodificacoes. De fato, em alguns casos o metodo e de velocidade comparavel a do metodo de Jacobi, comona matriz de discretizacao da formula de cinco pontos aplicada ao problema descrito na primeira se cao destecapıtulo [Watkins]:
∆x = 0.1 ∆x = 0.05 ∆x = 0.025Jacobi 299 1090 3908Descida Mais Acentuada 304 1114 4010
De fato, como as iteracoes do metodo de descida mais acentuada sao bem mais custosas que as do metodode Jacobi, o primeiro e muito pior que este ultimo.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 70/123
Rodney Josue Biezuner 69
Para entender melhor o metodo da descida mais acentuada, porque ele pode ser lento e as modificacoesque vamos fazer para torna-lo mais rapido levando ao metodo do gradiente conjugado a ser visto no proximocapıtulo, vamos entender o processo do ponto de vista geometrico. Como vimos na demonstracao do Teorema
4.3, o funcional quadratico f e da forma
f (y) =1
2A (y − x) , (y − x) + c (4.18)
onde c = f (x) e uma constante. Ja que A e uma matriz simetrica, existe uma matriz ortogonal P tal queP tAP e uma matriz diagonal D , cujos valores na diagonal principal sao exatamente os autovalores positivosde A. Nas coordenadas
z = P t (y − x) ,
o funcional f tem a forma
f (z) =1
2Dz,z + c =
1
2
ni=1
λiz2i + c. (4.19)
As curvas de nıvel do funcional f neste sistema de coordenadas sao elipses (em R2, elipsoides em R3 ehiperelipsoides em Rn) centradas na origem com eixos paralelos aos eixos coordenados e f (0) = c e nıvelmınimo de f ; elipses correspondentes a menores valores de f estao dentro de elipses correspondentes a maioresvalores de f . Como P e uma aplicacao ortogonal, as curvas de nıvel de f no sistema de coordenadas originaltambem sao elipses, centradas em x, e uma reta de um ponto y ate o ponto x corta elipses de nıveis cada vezmenores ate chegar ao mınimo da funcao f em x, centro de todas as elipses. O vetor gradiente e perpendicularas curvas de nıvel, logo e perpendicular as elipses. Seguir a direcao de descida mais acentuada equivale acortar a elipse que contem xk ortogonalmente na direcao do interior da elipse ate encontrar um ponto xk+1
situado em uma elipse que a reta tangencie, pois a partir daı a reta ira na direcao de elipses com nıveismaiores, portanto este e o ponto da reta onde f atinge o seu mınimo. Em particular, vemos que a proximadirecao pk+1 e ortogonal a direcao anterior pk, tangente a esta elipse (veja tambem o Corolario 4.12). Emgeral, a direcao de descida mais acentuada nao e a direcao de x (quando bastaria uma iteracao para atingir
a solucao exata) a nao ser que A seja um multiplo escalar da identidade, de modo que todos os autovaloresde A sao iguais e as elipses sao cırculos. Por outro lado, se os autovalores de A tem valores muito diferentesuns dos outros, com alguns muito pequenos e alguns muito grandes, as elipses ser ao bastante excentricase, dependendo do chute inicial, a convergencia pode ser muito lenta. Matrizes com estas propriedades saochamadas mal-condicionadas; para que o metodo de descida acentuada seja lento, a matriz A nao precisaser muito mal-condicionada (veja a Definicao 4.14 e a discussao que se segue).
Como vimos na secao anterior, os algoritmos de Gauss-Seidel e SOR podem ser encarados como algoritmosde descida. A discussao no paragrafo anterior tambem pode ser usada para entender a relativa lentidao destesalgoritmos.
A seguir, provaremos a convergencia do metodo da descida mais acentuada.
4.10 Lema. (Desigualdade de Kantorovich) Sejam A ∈ Mn (R) uma matriz simetrica positiva definida edenote por λmax e λmin seu menor autovalor e seu maior autovalor, respectivamente. Ent˜ ao
Ax,x A−1x, x
x, x2 (λmin + λmax)
2
4λminλmax
para todo x = 0.
Prova: Denote os autovalores de A por λ1 . . . λn, de modo que λmin = λ1 e λmax = λn. Como oquociente a esquerda da desigualdade e homogeneo, basta provar a desigualdade para vetores x unitarios.Como A e simetrica, existem uma matriz diagonal D e uma matriz ortogonal P tais que A = P T DP . Segueque
Ax,x A−1x, x
=
P T DPx,x
P T D−1P x , x
= DPx,Px D−1P x , P x
.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 71/123
Rodney Josue Biezuner 70
Denote y = P x = (y1, . . . , yn) e β i = y2i . Entao y tambem e um vetor unitario e
λ :=
Dy,y
=
n
i=1 β iλi
e uma combinacao convexa dos autovalores λi de A, ao passo que
µ :=
D−1y, y
=
ni=1
β iλi
e uma combinacao convexa dos autovalores λ−1i de A−1. Consequentemente,
µ 1
λ1+
1
λn− λ
λ1λn. (4.20)
De fato, a funcao ϕ (t) = 1/t e convexa, logo o ponto (λ, µ), que e a combinacao convexa de pontos localizados
no grafico de ϕ, esta localizado na regiao plana convexa limitada pelo grafico de ϕ e o segmento de reta queune os pontos extremos do grafico (λ1, 1/λ1) e (λn, 1/λn), ou seja, o segmento de reta
t −→ − 1
λ1λnt +
1
λ1+
1
λn, λ1 t λn.
Em particular, o ponto (λ, µ) esta abaixo do ponto do segmento correspondente a t = λ.Portanto,
Ax,x A−1x, x
= λµ λ
1
λ1+
1
λn− λ
λ1λn
.
O maximo da funcao quadratica
t
−→t
1
a
+1
b −
t
abe atingido para t = (a + b) /2. Concluımos que
Ax,x A−1x, x
λ1 + λn
2
1
λ1+
1
λn− λ1 + λn
2λ1λn
=
(λ1 + λn)2
4λ1λn.
4.11 Lema. Seja xk+1 = xk + αk pk obtido atraves de uma busca exata na reta. Ent˜ ao
rk+1 ⊥ pk
e
ek+1
⊥A pk
.
Prova: Temosb − Axk+1 = b − Axk − αkApk,
de modo que a sequencia dos resıduos e dada pela formula
rk+1 = rk − αkApk. (4.21)
Logo, rk+1, pk
=
rk+1, pk− αk
Apk, pk
=
rk, pk−
pk, rk
pk, Apk
Apk, pk
= 0.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 72/123
Rodney Josue Biezuner 71
A segunda relacao de A-ortogonalidade segue diretamente da primeira relacao de ortogonalidade; de fato,lembrando que
Aek+1 = rk+1,
temos ek+1, pk
A
=
Aek+1, pk
=
rk+1, pk
= 0.
O significado geometrico deste resultado e que o mınimo do funcional f na reta xk + αk p
k ocorre quando aderivada direcional de f na direcao de busca e zero, ou seja,
0 =∂f
∂pk
xk+1
=f
xk+1
, pk
=
rk+1, pk
.
4.12 Corolario. No metodo da descida mais acentuada vale
rk+1 ⊥ rk
e
ek+1
⊥A rk
.4.13 Teorema. Sejam A ∈ Mn (R) uma matriz simetrica positiva definida e denote por λmax e λmin seu
menor autovalor e seu maior autovalor, respectivamente. Ent˜ ao o erro algebrico do metodo da descida mais acentuada satisfaz a estimativa ek+1
A
λmax − λminλmax + λmin
ekA
.
Em particular, ekA
λmax − λminλmax + λmin
k e0A
e portanto o metodo da descida mais acentuada converge qualquer que seja o chute inicial x0.
Prova: Temos ek+1 = x − xk+1 = x − xk + αkrk = ek − αkrk.
Logo, pelo Corolario 4.12,ek+12A
=
ek+1, ek+1A
=
ek+1, ekA
− αk
ek+1, rk
A
=
ek+1, ekA
=
ek+1, Aek
=
ek+1, rk
.
Daı, usando a desigualdade de Kantorovich,ek+12A
=
ek − αkrk, rk
=
ek, rk− αk
rk, rk
=
ek, rk
1 −
rk, rk
rk, Ark
rk, rk
ek, rk
= ek, Aek1 − rk, rkrk, Ark
rk, rkA−1rk, rk
=ek
2A
1 −
rk, rk
rk, Ark
rk, rk
rk, A−1rk
ek
2A
1 − 4λminλmax
(λmin + λmax)2
=ek
2A
λmax − λminλmax + λmin
2
.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 73/123
Rodney Josue Biezuner 72
Observamos que o fator de convergencia obtido no Teorema 4.13 e otimo (veja Exercıcio 4.6).
Introduzimos o n´ umero de condic˜ ao de uma matriz, que e uma medida do quao mal-comportada ela e.
4.14 Definicao. Seja A ∈ Mn (R) uma matriz simetrica positiva definida. O numero de condicao de A edefinido por
κ (A) =λmaxλmin
.
Quanto menor o numero de condicao de A, isto e, quanto mais proximo de 1, mais proximos a esferassao os elipsoides de nıvel do funcional f ; reciprocamente, quando maior o numero de condicao de A, maisexcentricos sao estes. A constante do Teorema 4.13 pode ser mais convenientemente expressa em termos donumero de condicao da matriz:
4.15 Corolario. Sejam A ∈ Mn (R) uma matriz simetrica positiva definida e denote por λmax e λmin seu menor autovalor e seu maior autovalor, respectivamente. Ent˜ ao o erro algebrico do metodo da descida
mais acentuada satisfaz a estimativa ek+1A
κ (A) − 1
κ (A) + 1
ekA
.
Desta forma, vemos que quanto mais κ (A) e proximo de 1 maior e a velocidade de convergencia do metododa descida acentuada; reciprocamente, quando maior κ (A), mais lento ele e.
Reunindo as informacoes obtidas, um algoritmo para o metodo da descida mais acentuada pode serapresentado da seguinte forma:
initialize x;set b;r ← b − Ax;do until stop criterion compute Ar;
α ← r, r / r,Ar ;x ← x + αr;r ← r − αAr;
4.3 Exercıcios
4.1 Considere a matriz invertıvel
A =
0 I I I
,
onde I e a matriz identidade m × m, e seja V = W = e1, . . . , em. Verifique que W T AV e singular.
4.2 Verifique que a matriz W T AV e invertıvel se e somente se nenhum vetor do subespaco AK e ortogonalao subespaco L.
4.3 Sejam B1 = v1, . . . , vm e B2 = w1, . . . , wm duas bases para o subespaco K ⊂ Rn e considere asmatrizes n × m V = [v1 · · · vm] e W = [w1 · · · wm]. Mostre que existe uma matriz m × m invertıvel P tal que V = W P .
4.4 Mostre que se A e uma matriz positiva definida n × n e V e uma matriz n × m cujas colunas saolinearmente independentes, entao a matriz m × m V T AV tambem e uma matriz positiva definida.
4.5 Mostre que se A e uma matriz n × m cujas colunas sao linearmente independentes, entao a matrizm × m BT B e invertıvel.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 74/123
Rodney Josue Biezuner 73
4.6 Verifique que a taxa de convergencia para o metodo da descida mais acentuada obtida no Teorema 4.12e otima da seguinte maneira: se v1 e vn sao os autovetores associados a λmin e λmax, respectivamente,mostre que se e0 = v1 + v2, entao
ek+1A
=λmax − λminλmax + λmin
ekA
.
4.7 O n´ umero de condic˜ ao para uma matriz invertıvel A ∈ Mn (C) qualquer e definido por
κ (A) = A2A−1
2
.
a) Mostre que se A e uma matriz simetrica positiva definida esta definicao coincide com a Definicao4.14.
b) Verifique que κ (A) 1 para toda matriz A.
c) Considere o sistema Ax = b. Se y e uma aproximacao de x com erro algebrico e = x − y e erro
residual r = b − Ay, mostre que
1
κ (A)
f 2x2
e2 r2 κ (A)f 2x2
e2 .
Esta desigualdade e otima, no sentido de que a igualdade e atingida para certos valores de y. Elamostra que para uma matriz mal-condicionada (isto e, com um numero de condicao relativamentealto), o erro residual pode ser muito pequeno ao mesmo tempo em que o erro algebrico pode ser muitogrande e vice-versa.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 75/123
Capıtulo 5
Metodos de Subespacos de Krylov
Os metodos de projecao deste capıtulo estao entre os mais importantes e populares disponıveis. Eles estao
baseados na projecao sobre subespacos de Krylov , que sao subespacos gerados por vetores da forma p (A) vonde p e um polinomio.
5.1 Motivacao
Como vimos ao estudar os metodos iterativos lineares para a resolucao do sistema Ax = b, estes metodosconsistem em obter uma decomposicao apropriada A = B − C da matriz do sistema, onde B e uma matrizproxima da matriz original A mas facil de resolver. Entao o metodo iterativo pode ser descrito pela relacaode recorrencia
xm+1 =
I − B−1A
xm + B−1b,
onde R = I − B−1A e a matriz de iteracao. A matriz mais facil de resolver e
B = I,
exceto que esta matriz em geral esta muito longe de A. Quando esta escolha e feita, obtemos a chamadaiteracao de Richardson:
xm+1 = (I − A) xm + b = xm + b − Axm
ou, simplesmente,xm+1 = xm + rm. (5.1)
Assim, o metodo da iteracao de Richardson consiste simplesmente em somar o resıduo da aproximacao apropria aproximacao para obter a proxima aproximacao. Na verdade, o metodo de iteracao de Richardsondesempenha papel importante na teoria de convergencia dos metodos iterativos: por exemplo, todo metodoiterativo linear com decomposicao A = B
−C pode ser visto como a iteracao de Richardson aplicada ao
sistema equivalente (precondicionado)B−1Ax = B−1b.
A partir de (5.1) obtemos sua correspondente equacao residual:
rm+1 = (I − A) rm. (5.2)
Atraves da iteracao para tras desta equacao obtemos
rm = (I − A)m
r0 (5.3)
= pm (A) r0, (5.4)
74
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 76/123
Rodney Josue Biezuner 75
ou seja, o m-esimo resıduo e da forma pm (A) r0 onde pm e um polinomio de grau m. Alem disso, como
xm+1 = xm + rm = xm−1 + rm−1 + rm = . . . =m
j=0 rj
=
mj=0
(I − A)j
r0,
segue que as aproximacao tambem sao da forma qm (A) r0 onde qm e um polinomio de grau igual a m.Portanto, tanto os resıduos r0, . . . , rm como as aproximacoes x0, . . . , xm pertencem ao subespaco
Km+1
A, r0
= p (A) r0 : p e um polinomio de grau menor que ou igual a m
=
r0, Ar0, . . . , Amr0
.
5.2 Subespacos de Krylov
5.1 Definicao. Dada uma matriz A ∈ Mn (C) e um vetor v ∈ Cn, definimos o subespaco de Krylov
Km (A, v) =
v , A v , . . . , Am−1v
. (5.5)
Em outras palavras, Km (A, v) e o subespaco de todos os vetores que podem ser escritos na forma w = p (A) v,onde p e um polinomio de grau menor que ou igual a m−1. Se nao houver motivo para confusao denotaremoso subespaco de Krylov Km (A, v) simplesmente por Km.
Como vimos no capıtulo anterior, um metodo de projecao geral para resolver o sistema linear
Ax = b
extrai uma solucao aproximada xm de um subespaco afim x0 +
Km de dimensao m atraves da imposicao da
condicao de Petrov-Galerkinrm = b − Axm ⊥ Lm.
Um metodo de subespaco de Krylov e um metodo de pro jecao para o qual o subespaco Km e o subespacode Krylov
Km
A, r0
=
r0, Ar0, . . . , Am−1r0
. (5.6)
As diferentes versoes de metodos de subespaco de Krylov decorrem principalmente das diferentes escolhasde Lm.
Lembramos alguns fatos de Algebra Linear.
5.2 Definicao. O polinomio mınimo de um vetor v com respeito a matriz A (tambem chamado o A-anulador de v) e o polinomio monico de menor grau p que anula v, isto e, tal que p (A) v = 0. O grau
do polinomio mınimo e chamado o grau de v com respeito a A.E uma consequencia do Teorema de Cayley-Hamilton que
grau v n.
5.3 Proposicao. Seja d = grau v. Ent˜ ao Kd e invariante por A e Kd = Km para todo m d.
Alem disso,dim Km = m
se e somente se m d. Portanto,dim Km = min m, d .
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 77/123
Rodney Josue Biezuner 76
Prova: Os vetores v , A v , . . . , Am−1v formam uma base para Km se e somente se o unico polinomio de graumenor ou igual a m − 1 que anula v e o polinomio nulo. Apesar dos vetores v , A v , . . . , Am−1v formarem uma base para o subespaco de Krylov Km (quando m
grau v), esta e uma base mal-condicionada, no sentido que a medida que k aumenta o vetor Ak
v fica cada vezmais proximo do autovetor associado ao maior autovalor de A, como veremos em detalhe quando estudarmoso metodo de potencias para obter autovalores de matrizes. Assim, para m grande os vetores v , A v , . . . , Am−1vtornam-se aproximadamente linearmente dependentes, o que torna-se um problema em aritmetica de precisaofinita. Para obter uma base bem condicionada para o subespaco de Krylov e necessario usar um metodo deortogonalizacao, como veremos a seguir.
5.3 Algoritmo de Arnoldi
O metodo de Arnoldi e um metodo de pro jecao ortogonal em subespacos de Krylov, ou seja, Lm = Km =Km
A, r0
, aplicavel para matrizes gerais, nao necessariamente hermitianas. O procedimento foi introduzido
pela primeira vez em 1951 como uma maneira de calcular a forma de Hessenberg de matrizes densas. Arnoldi
sugeriu que os autovalores da forma de Hessenberg, obtida atraves de menos que n passos, eram boasaproximacoes para alguns dos autovalores da matriz original. Posteriormente, verificou-se que isso conduza uma tecnica eficiente para a aproximacao dos autovalores de matrizes esparsas grandes, como veremosem detalhes quando formos estudar metodos para a obtencao de autovalores de matrizes. Posteriormente ometodo foi estendido para a solucao de sistemas lineares esparsos grandes.
O algoritmo de Arnoldi , propriamente dito, e um procedimento para a construcao de uma base ortonormalpara o subespaco de Krylov Km, ja que, como observado antes, a base natural
v , A v , . . . , Am−1v
nao e
bem condicionada. Simplesmente ortogonalizar esta base mal-condicionada tambem nao e uma boa opcaonumerica. No algoritmo de Arnoldi, o processo de ortogonalizacao de Gram-Schmidt e usado da seguintemaneira. Inicialmente obtem-se o primeiro vetor unitario atraves da normalizacao do vetor v:
v1 =v
v
.
Em seguida, calcula-se o vetor Av1 (ao inves de Av) e ortogonaliza-se este vetor com relacao ao vetor v1atraves do metodo de Gram-Schmidt:
w1 = Av1 − projv1
Av1 = Av1 − Av1, v1 v1,
v2 =w1
w1 .
Tendo sido obtido o vetor v2, calcula-se Av2 (ao inves de A2v = A (Av)) e ortogonaliza-se este vetor comrelacao aos vetores v1, v2 atraves do metodo de Gram-Schmidt:
w2 = Av2 − projv1,v2
Av2 = Av2 − Av2, v1 v1 − Av2, v2 v2,
v3 =w2
w2 .
No passo geral, tendo sido obtido o vetor vj no passo anterior, calcula-se e ortogonaliza-se este vetor comrelacao aos vetores v1, . . . , vj obtidos nos passos anteriores atraves do metodo de Gram-Schmidt:
wj = Avj − projv1,...,vj
Avj = Avj −j
i=1
Avj , vi vi, (5.7)
vj+1 =wj
wj . (5.8)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 78/123
Rodney Josue Biezuner 77
Podemos resumir este procedimento no seguinte algoritmo:
Algoritmo de ArnoldiAtribua v;v1 ← v/ v2 ;Para j = 1, . . . , m faca:
Calcule hij = Avj , vi para i = 1, . . . , j;
Calcule wj = Avj −j
i=1hijvi;
hj+1,j = wj2 ;Se hj+1,j = 0 entao pare;vj+1 ← wj/hj+1,j ;
fim do laco
O algoritmo sofre um colapso se o vetor wj e nulo e o vetor vj+1 nao pode mais ser calculado.
5.4 Proposicao. Assuma que o algoritmo de Arnoldi n˜ ao p´ ara antes do m-esimo passo. Ent˜ ao os vetoresv1, . . . , vm formam uma base ortonormal para o subespaco de Krylov
Km (A, v1) =
v1, Av1, . . . , Am−1v1
Prova: Os vetores v1, . . . , vm sao ortonormais por construcao, logo sao linearmente independentes. Bastaentao mostrar que v1, . . . , vm ∈ Km (A, v1) para concluir que eles formam uma base para Km (A, v1). Paraisso, basta mostrar que cada vetor vj e da forma qj−1 (A) v1 para algum polinomio qj−1 de grau j − 1. Issopode ser visto por inducao. Se j = 1, temos q0 (t) ≡ 1. Assumindo o resultado verdadeiro para todos osinteiros ate j, considere vj+1. Temos
hj+1,jvj+1 = wj = Avj −j
i=1hijvi = Aqj−1 (A) v1 −
j
i=1hijqi−1 (A) v1,
de modo que vj+1 = qj (A) v1 para qj = (1/hj+1,j)
tqj−1 (t) −
ji=1
hijqi−1 (t)
, que e um polinomio de grau
j. O significado do colapso do algoritmo de Arnoldi, quando o vetor vj+1 nao pode ser mais calculado e
dado a seguir:
5.5 Proposicao. O algoritmo de Arnoldi sofre um colapso no passo j, isto e hj+1,j = 0, se e somente seo polinomio mınimo de v tem grau j. Alem disso, neste caso o subespaco Kj e invariante por A eportanto a soluc˜ ao obtida pelo metodo de projec˜ ao associado e exata.
Prova: Se o grau de v e j, entao hj+1,j = 0, caso contrario vj+1 poderia ser definido e pela Proposicao 5.4
Kj+1 teria dimensao j + 1 maior que o grau de v, contrariando a Proposicao 5.3.
Reciprocamente, assuma hj+1,j = 0. Entao pelas Proposicoes 5.3 e 5.4 o grau de v e d j. Mas pelaprimeira parte desta demonstracao, nao podemos ter d < j, pois isso implicaria hd+1,d = 0 e o algoritmo jateria entrado em colapso no passo d.
O restante do enunciado segue diretamente da Proposicao 5.3 e da Proposicao 4.6. Por isso, tais colapsos sao chamados colapsos sortudos. Infelizmente eles raramente ocorrem na pratica, masmesmo quando isso nao ocorre as iteradas obtidas aproximam a solucao exata em um numero relativamentepequeno de iteracoes se comparado com os metodos lineares basicos.
Vamos agora representar o algoritmo de Arnoldi em uma forma matricial.
5.6 Definicao. Dizemos que A = (aij) e uma matriz de Hessenberg se aij = 0 para todo i > j + 1(matriz de Hessenberg superior ) ou se aij = 0 para todo i < j − 1 (matriz de Hessenberg inferior ).
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 79/123
Rodney Josue Biezuner 78
Assim, uma tıpica matriz de Hessenberg superior quadrada m × m e da forma
H =
h11 h12 h13 h14 . . . . . . h1mh21
h22
h23
h24
. . . . . . h2m0 h32 h33 h34 . . . . . . h3m
0 0 h43 h44. . . . . . h4m
0 0 0. . .
. . .. . .
......
......
. . .. . .
. . .. . .
......
......
. . .. . .
. . . hm−1,m
0 0 0 0 . . . 0 hm,m−1 hmm
, (5.9)
ou seja, e uma matriz obtida a partir de uma matriz triangular superior em que a subdiagonal inferior epreenchida. Similarmente, uma matriz de Hessenberg inferior quadrada e uma matriz obtida a partir de umamatriz triangular inferior em que a subdiagonal superior e preenchida. Uma tıpica matriz de Hessenberg
superior (m + 1) × m e da forma
H =
h11 h12 h13 h14 . . . . . . h1mh21 h22 h23 h24 . . . . . . h2m
0 h32 h33 h34 . . . . . . h3m
0 0 h43 h44. . . . . . h4m
0 0 0. . .
. . .. . .
......
......
. . .. . .
. . .. . .
......
......
. . .. . .
. . . hm−1,m
0 0 0 0 . . . 0 hm,m−1 hmm
0 0 0 0 0 0 0 hm+1,m
. (5.10)
A partir daı, em uma matriz de Hessenberg superior n×m com n > m +1 todas as linhas i tais que i > m+1sao nulas.
5.7 Proposicao. Denote por V m a matriz n × m cujas colunas s˜ ao os vetores v1, . . . , vm, por H m a matriz de Hessenberg (m + 1) × m cujas entradas n˜ ao-nulas s˜ ao os elementos hij definidos pelo algoritmo de
Arnoldi e por H m a matriz m × m obtida de atraves da eliminac˜ ao da ´ ultima linha de H m. Ent˜ aovalem as seguintes relac˜ oes:
AV m = V mH m + wmeT m = V m+1H m, (5.11)
V T mAV m = H m. (5.12)
Prova: Se M e uma matriz, denotemos por (M )j a sua j-esima coluna. Do algoritmo de Arnoldi temos,para j = 1, . . . , m,
(AV m)j = Avj =
ji=1
hijvi + wj =
ji=1
hijvi + hj+1,jvj+1 =
j+1i=1
hijvi. (5.13)
Por outro lado, V m+1
H m
kj
=m+1i=1
hijvi =
j+1i=1
hijvi,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 80/123
Rodney Josue Biezuner 79
de modo que segue de (5.13) que
V m+1 H mj =
j+1
i=1 hijvi = (AV m)j
,
logo AV m = V m+1H m. Da mesma forma, para j = 1, . . . , m − 1,
(V mH m)j =
j+1i=1
hijvi,wmeT m
j
= 0,
de modo que
V mH m + wmeT m
j
=
j+1
i=1hijvi = (AV m)j
para j = 1, . . . , m − 1, enquanto que para j = m temos
(V mH m)m =mi=1
himvi,wmeT m
m
= wm = hj+1,jvm+1,
de modo que V mH m + wmeT m
m
=
m+1i=1
hijvi = (AV m)m .
Portanto, AV m = V mH m + wmeT m. Finalmente, multiplicando ambos os lados desta ultima relacao por V T m e
usando o fato que os vetores v1, . . . , vm sao ortonormais e wm e ortogonal a todos eles, segue que V T
mV m = I e V T mwmeT m
= V T mwm eT m = 0, donde obtemos a ultima relacao do enunciado desta proposicao.
5.4 Implementacao Pratica: Metodos de Ortogonalizacao Estaveis
O algoritmo de Gram-Schmidt e numericamente instavel: pequenos erros de arredondamento podem darorigem a vetores muito longe de serem ortogonais (veja Exercıcio 5.1). Na implementacao pratica do algo-ritmo de Arnoldi e necessario considerar metodos de ortogonalizacao numericamente estaveis.
5.4.1 Metodo de Gram-Schmidt Modificado (MGS)
O metodo de Gram-Schmidt modificado (MGS) e uma modificacao pequena do metodo de Gram-
Schmidt que produz um algoritmo de ortogonalizacao estavel. Na ausencia de erros de arredondamento,eles produzem os mesmos vetores. No algoritmo de Gram-Schmidt classico, dada uma base u1, . . . , um deum subespaco vetorial, uma vez calculados os vetores ortonormais v1, . . . , vj−1 correspondentes, os escalareshij = uj , vi, i = 1, . . . , j−1 sao todos calculados simultaneamente para produzir o proximo vetor ortogonalunitario vj
wj = uj −j−1i=1
hijvi, (5.14)
vj =wj
wj . (5.15)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 81/123
Rodney Josue Biezuner 80
No metodo modificado, assim que o primeiro vetor ortogonal v1 = u1 e obtido, todos os vetores u2, . . . , um
sao atualizados atraves do escalar h1i = ui, v1:
v
1
i = ui − h1iv1, i = 2, . . . , m .Assim, os vetores v12 , . . . , v1m ja sao ortogonais a v1. Em particular, podemos tomar v2 = v12/
v122
. Uma
vez obtido v2, todos os vetores v13, . . . , v1m sao atualizados atraves dos escalares h2i =
v1i , v2
:
v2i = v1i − h2iv2, i = 3, . . . , m .
Assim, os vetores v23, . . . , v2m sao ortogonais a v1 e v2. Em particular, tomamos v3 = v23/v23
e continuamos oprocesso ate o fim. Em geral, no passo j, uma vez obtido o vetor unitario vj , ortogonal aos vetores ortonormais
v1, . . . , vj−1, os vetores vj−1j+1 , . . . , vj−1m que ja eram ortogonais aos vetores v1, . . . , vj−1, sao atualizados atraves
dos escalares hji =
vj−1j , vj
para produzir vetores vj
j+1, . . . , vjm ortogonais a v1, . . . , vj−1, vj:
v
j
i = v
j−1
i − hjivj , i = j + 1, . . . , m , (5.16)
e tomamos
vj+1 =vjj+1vjj+1
. (5.17)
.Em aritmetica exata, os algoritmos de Gram-Schmidt e de Gram-Schmidt modificado sao equivalentes;
alem disso, eles tem o mesmo custo computacional (2m2n flops) e de armazenamento ((m + 1) n). Paraentender porque o MGS e mais estavel, observe que os dois metodos sao identicos no calculo de v1 e v2. Aprimeira diferenca surge no calculo de v3. No metodo de Gram-Schmidt classico (GS) temos
wGS3 = v3 − h13v1 − h23v2
comh13 = u3, v1 e h23 = u3, v2 .
O termo h23v2 e a componente de u3 na direcao de v2. Quando este componente e removido de u3, obtemosum vetor ortogonal a v2, desde que o escalar h23 seja calculado com exatidao. No metodo MGS primeirocalculamos
v13 = u3 − h13v1
e depoisv23 = v13 − h23v2,
com
h13 = u3, v1 = h13 e
h23 =
v13 , v2
.
Daı,wMGS3 = v23 = u3 − h13v1 − h23v2 = u3 − h13v1 − h23v2
Em princıpio, u3 e v13 = u3 − h13v1 tem as mesmas componentes na direcao de v2, ja que v1 e ortogonal
a v2, e nao faria diferenca usar h23 ou h23. Na pratica, os vetores v1 e v2 nao sao exatamente ortogonais,por causa de erros de arredondamento, portanto o termo h13v1 tem uma pequena componente na direcao dev2. Alem disso, erros de arredondamento tambem ocorrem na subtracao de h13v1 de u3, portanto este vetordiferenca tambem tem uma componente na direcao de v2. O metodo de Gram-Schmidt classico ignora esteserros, enquanto que o metodo modificado, trabalhando com o vetor v13 ao inves de u3, leva estes erros em
conta e os corrige no calculo de h23.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 82/123
Rodney Josue Biezuner 81
Para obter um algoritmo computacionalmente implementavel para o MGS, observe que enquanto que nometodo de Gram-Schmidt classico, uma vez obtidos os vetores ortonormais v1, . . . , vj−1 obtemos o proximovetor ortogonal unitario vj fazendo
wj = uj −j
i=1
projvi uj ,
vj =wj
wj ,
no metodo de Gram-Schmidt modificado fazemos
v1j = uj − projv1 uj,
v2j = v1j − projv2 v1j ,
v3j = v2j − projv3 v2j ,
.
.. (5.18)
vj−2j = vj−3
j − projvj−2 vj−3j ,
vj−1j = vj−2
j − projvj−1 vj−2j ,
vj =vj−1jvj−1j
.
Usando o MGS, o algoritmo de Arnoldi tem o seguinte aspecto. Obtem-se o primeiro vetor unitarioatraves da normalizacao do vetor v:
v1 =v
v .
Em seguida, calcula-se o vetor Av1 e ortogonaliza-se este vetor com relacao ao vetor v1:
v12 = Av1 − projv1 Av1 = Av1 − Av1, v1 v1,
v2 =v12
v12.
Como ja observado anteriormente, ate aqui o MGS e identico ao metodo de Gram-Schmidt classico. Tendosido obtido o vetor v2, calcula-se Av2 e ortogonaliza-se este vetor primeiro com relacao ao vetor v1 e depoiso vetor resultante e ortogonalizado com relacao ao vetor v2:
v13 = Av2 − projv1 Av2 = Av2 − Av2, v1 v1,
v23 = v13 − projv2 v13 = v13 −
v13 , v2
v2,
v3 = v23v23.
No passo geral, tendo sido obtido o vetor vj no passo anterior, calcula-se Avj e ortogonaliza-se este vetorcom relacao ao primeiro vetor v1; em seguida o vetor resultante e ortogonalizado com relacao ao vetor v2, e
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 83/123
Rodney Josue Biezuner 82
assim por diante, ate que o vetor resultante do passo anterior seja ortogonalizado com relacao ao vetor vj :
v1j = Avj − projv1 Avj = Avj − Avj , v1 v1,
v
2
j = v
1
j − projv2 v
1
j = v
1
j − v
1
j , v2 v2,...
vj−1j = vj−2
j − projvj−1 vj−2j = vj−2
j −
vj−2j , vj−1
vj−1, (5.19)
vjj = vj−1
j − projvj vj−1j = vj−1
j −
vj−1j , vj
vj ,
vj+1 =vjjvjj
.
Podemos resumir este procedimento no seguinte algoritmo:
Algoritmo de Arnoldi MGS
Atribua v;v1 ← v/ v2 ;Para j = 1, . . . , m faca
Calcule wj = Avj;Para i = 1, . . . , j faca
hij ← wj , vi ;wj ← wj − hijvi
fim do lacohj+1,j = wj2 ;
Se hj+1,j = 0 entao pare;vj+1 ← wj/hj+1,j ;
fim do laco
Embora o MGS seja mais estavel, em situacoes onde os erros de cancelamento podem ser muito severosnos passos de ortogonalizacao e necessario considerar metodos ainda mais estaveis.
5.4.2 Metodo de Gram-Schmidt Modificado com Reortogonalizacao (MGSR)
Uma melhoria simples e recorrer a ortogonalizacao dupla. Ou seja, no passo j obtemos o vetor v(j−1)j que deve
ser ortogonal aos vetores w1, . . . , wj−1. Isso pode ser verificado diretamente, calculando os produtos internosv(j−1)j , wi
e verificando se eles sao proximos de 0 dentro de uma margem de tolerancia pre-estabelecida. Se
temos que nos dar a este trabalho, e melhor aproveitar os calculos destes produtos internos e fazer logo umasegunda ortogonalizacao. Assim no primeiro loop do algoritmo MGS anterior acrescentamos um segundoloop:
Calcule wj = Avj ;
Para i = 1, . . . , j facahij ← wj , vi ;wj ← wj − hijvi
Para i = 1, . . . , j faca γ ← wj , vi ;wj ← wj − γvi;hij ← hij + γ ;
fim do lacohj+1,j = wj2 ;
Se hj+1,j = 0 entao pare;vj+1 ← wj/hj+1,j ;
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 84/123
Rodney Josue Biezuner 83
Ortogonalizacoes adicionais sao superfluas: duas ortogonalizacoes sao suficientes para fazer o vetor wj or-togonal aos vetores w1, . . . , wj−1 na precisao de maquina (veja [Watkins], p. 233, ou [Saad], p. 156).
GS MGS MGSRFlops 2m2n 2m2n 4m2nArmazenagem (m + 1) n (m + 1) n (m + 1) n
5.5 Metodo de Arnoldi para Sistemas Lineares
Dado um chute inicial x0 para a solucao do sistema linear Ax = b, o metodo de Arnoldi para sistemaslineares e um metodo de projecao ortogonal em que
K = L = Km
A, r0
=
r0, Ar0, A2r0, . . . , Am−1r0
em que r0 = b−Ax0. Portanto, o metodo busca uma solucao aproximada xm ∈ x0+Km impondo a condicaode Galerkin
rm = b − Axm ⊥ Km.
De acordo com o capıtulo anterior, se V m = [v1 · · · vm] e uma matriz cujas colunas formam uma baseortonormal para Km, obtidas atraves do algoritmo de Arnoldi, temos
xm = x0 + V mym
com
ym =
V T m AV m−1
V T m r0 = H −1m V T m r0 = H −1m V T m
r0 v1
=r0
H −1m V T m (v1)
=r0
H −1m (e1) .
Baseados nestas observacoes, temos entao o seguinte metodo de Arnoldi para sistemas lineares, chamado
metodo da ortogonalizacao completa (ou FOM de full orthogonalization method ):Algoritmo de Arnoldi para Sistemas Lineares FOMInicialize x0;Calcule r0 = b − Ax0;Calcule β =
r02
;v1 ← r0/β ;Inicialize a matriz H m = (hij)m×m = 0;
Para j = 1, . . . , m faca
Calcule wj = Avj ;Para i = 1, . . . , j faca
hij ← wj , vi ;wj
←wj
−hijvi
fim do lacohj+1,j = wj2 ;
Se hj+1,j = 0 tome m := j e saia do laco;vj+1 ← wj/hj+1,j;
fim do lacoCalcule ym = βH −1m (e1) ; //nao e necessario encontrar H −1m
Calcule xm = x0 + V mym.
Este algoritmo pode ser tambem obtido diretamente. A condicao de Galerkin rm ⊥ Km
A, r0
e equivalente
aV T m (b − Axm) = 0
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 85/123
Rodney Josue Biezuner 84
ouV T m Axm = V T m b
Escolhendo o chute inicial x0 = 0 para simplificar, temos que b = r0 = r0 v1, donde
V T m Axm =r0
V T m v1 =r0
e1.
Como xm ∈ Km
A, r0
, podemos escrever xm = V mym para algum vetor ym ∈ Rm. Logo
V T mAV mym =r0
e1,
que pode ser interpretado como o sistema Ax = b projetado no subespaco Km
A, r0
. Usando o fato que
V T m AV m = H m, segue queH mym =
r0 e1. (5.20)
Resolvendo este sistema obtemos ym e daı a aproximacao
xm
= V mym
. (5.21)
Como em geral m n, este sistema e bem mais facil de resolver que o sistema original, possibilitandoo uso de metodos diretos. De fato, embora a matriz de Hessenberg seja uma matriz densa, como ela equase triangular uma decomposicao QR passa a ser competitiva com a decomposicao LU e e indicada (paramatrizes gerais, o custo da decomposicao LU e a metade do custo da decomposicao QR). Maiores detalhesserao fornecidos na proxima secao.
O algoritmo depende do parametro m que em geral deve ser selecionado dinamicamente. Em geral, m eprogressivamente aumentado ate que o resıduo rm e menor que alguma tolerancia previamente estabelecida.Ao inves de calcular o resıduo diretamente, podemos obter a norma do resıduo de maneira menos custosaatraves do seguinte resultado:
5.8 Proposicao. O resıduo calculado atraves do metodo de Arnoldi FOM satisfaz
rm = −hm+1,m em, ym vm+1,
logorm2 = hm+1,m
eT mym (5.22)
Em particular, os resıduos s˜ ao ortogonais.
Prova: Temos, pela Proposicao 5.7,
rm = b − Axm = b − A
x0 + V mym
= r0 − AV mym
= r0 v1− V mH m + wmeT m ym
= r0 v1 − V mH mym − wmeT m ym
=r0
v1 − V mr0
e1 − hm+1,mvm+1
eT mym
= −hm+1,m em, ym vm+1.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 86/123
Rodney Josue Biezuner 85
5.6 Decomposicao QR via MGS
Lembramos que uma decomposic˜ ao QR de uma matriz A e uma fatorizacao
A = QR (5.23)
onde Q e uma matriz ortogonal (no caso real, unitaria no caso complexo) e R e uma matriz triangular superior.Usando esta decomposicao, podemos resolver o sistema linear Ax = b da seguinte maneira. Multiplicandoambos os lados da equacao por QT obtemos
QT Ax = QT b,
de modo que o sistema original e equivalente ao sistema
Rx = QT b (5.24)
cuja matriz de coeficientes e uma matriz triangular superior, logo pode ser resolvido por substituicao.
Para calcular a decomposicao QR de uma matriz, um dos metodos que podem ser usados e o proprioMGS. Outros metodos serao vistos no capıtulo sobre autovalores. Para facilitar a compreensao, veremosprimeiro como fazer a decomposicao QR usando o metodo de Gram-Schmidt modificado. No que se segueassumiremos que A e uma matriz n×m cujas m colunas sao linearmente independentes. Escrevendo a matrizA em colunas
A =
A1 A2 · · · Am
, (5.25)
aplicamos o metodo de Gram-Schmidt as colunas de A, obtendo
wj = Aj −j−1i=1
Aj, vi vi, (5.26)
vj =wj
wj. (5.27)
Resolvendo em termos de Aj , podemos escrever
Aj =
j−1i=1
rijvi + wj vj =
ji=1
rijvi (5.28)
com
rij = Aj , vi , (5.29)
rjj = wj . (5.30)
Assim, tomando
Q = v1 v2 · · · vm (5.31)
e
R =
r11 r12 r13 . . . r1m0 r22 r23 . . . r2m0 0 r33 . . . r3m
0 0 0. . .
......
......
. . .. . .
...0 0 0 . . . 0 rmm
(5.32)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 87/123
Rodney Josue Biezuner 86
segue que
A1 A2 · · · Am
=
v1 v2 · · · vm
r11 r12 r13 . . . r1m0 r22 r23 . . . r2m0 0 r33 . . . r3m
0 0 0. . .
......
......
. . .. . .
...0 0 0 . . . 0 rmm
, (5.33)
ou seja, A = QR.Devido aos problemas da instabilidade do metodo de Gram-Schmidt classico, e melhor usar o metodo de
Gram-Schmidt modificado para fazer a decomposicao QR de uma matriz. Resolvendo o j-esimo passo doMGS
v1j = Aj − Aj , v1 v1,
v2j
= v1j − v1
j, v
2 v2
,
v3j = v2j − v2j , v3
v3,
...
vj−2j = vj−3
j −
vj−3j , vj−2
vj−2,
vj−1j = vj−2
j −
vj−2j , vj−1
vj−1,
vj =vj−1jvj−1j
,
em termos de Aj , denotando
v0j = Aj , (5.34)
segue que
Aj = v1j + Aj , v1 v1
= v2j +
v1j , v2
v2 + Aj , v1 v1
= v3j +
v2j , v3
v3 +
v1j , v2
v2 + Aj , v1 v1
. . .
= vj−1j +
j−1i=1
vi−1j , vi
vi (5.35)
= v
j−1
j vj +
j−1
i=1 v
i−1
j , vi vi
=
ji=1
rijvi,
onde definimos
rij =
vi−1j , vi
se i = 1, . . . , j − 1, (5.36)
rjj =vj−1
j
. (5.37)
Assim, se Q e R sao definidas como em (5.31) e (5.32), novamente nos temos A = QR.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 88/123
Rodney Josue Biezuner 87
5.7 Algoritmo de Lanczos e Metodo do Gradiente Conjugado
O algoritmo de Lanczos pode ser visto como uma simplificacao do metodo de Arnoldi para matrizes simetricas.
Quando a matriz A e simetrica, a matriz de Hessenberg H m torna-se uma matriz tridiagonal simetrica , poisH m = V T mAV m e uma matriz de Hessenberg simetrica e necessariamente tridiagonal. Isso leva a umarecorrencia de tres termos no processo de Arnoldi e a recorrencias curtas para algoritmos de solucao taiscomo o FOM.
A notacao padrao para descrever o algoritmo de Lanczos e obtida tomando
αj = hjj ,
β j = hj−1,j
de modo que a matriz de Hessenberg H m resultante tem a forma
T m =
α1 β 2β 2 α2 β 3
. . . . . . . . .β m−1 αm−1 β m
β m αm
(na notacao padrao do algoritmo de Lanczos, a matriz de Hessenberg H m e denotada por T m, para enfatizara sua tridiagonalidade). Isto leva a seguinte variacao MGS do metodo de Arnoldi (FOM):
Algoritmo de Lanczos com MGSInicialize x0;Calcule r0 = b − Ax0;Calcule β =
r02
;v1 ← r0/β ;Inicialize β 1 = 0, v0
≡0;
Para j = 1, . . . , m facawj ← Avj − β jvj−1;αj ← wj , vi ;wj ← wj − αjvj ;β j+1 ← wj ;
Se β j+1 = 0 entao pare;vj+1 ← wj/ β j+1;
fim do lacoAtribua a matriz T m = tridiag (β i, αi, β i+1);Atribua a matriz V m = [v1 · · · vm] ;Calcule ym = T −1m (βe1); //nao e necessario encontrar T −1m
Calcule xm = x0 + V mym.
Este algoritmo pode ser consideravelmente simplificado, atraves da obtencao de uma formula de recorrenciade tres termos, levando ao metodo do gradiente conjugado. Primeiro, fazemos uma decomposicao LU damatriz tridiagonal T m = LmU m sem pivos:
T m =
1
µ2 1µ3 1
. . .. . .
µm 1
Lm
η1 β 2η2 β 3
η3. . .
. . . β mηm
U m
(5.38)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 89/123
Rodney Josue Biezuner 88
onde os coeficientes das matrizes bidiagonais Lm e U m podem ser obtidas atraves da seguinte formula derecorrencia:
η1 = α1,
µ2 = β 2η−11 ,
η2 = α2 − µ2β 2,
µ3 = β 3η−12 ,
...
µm = β mη−1m−1,
ηm = αm − µmβ m,
isto e,
µj = β jη−1j−1, (5.39)
ηj = αj − µjβ j . (5.40)
(Observe que ηj = 0 para todo j porque T m e simetrica, positiva definida.) A solucao aproximada e dadaentao por
xm = x0 + V mU −1m L−1m (βe1) . (5.41)
Definindo
P m = V mU −1m , (5.42)
zm = L−1m (βe1) , (5.43)
segue quexm = x0 + P mzm. (5.44)
Por causa da estrutura triangular superior bidiagonal de U m, P m pode ser atualizada facilmente. De fato,escreva P m em colunas:
P m =
p1 p2 · · · pm
.
Da relacao P mU m = V m segue queβ m pm−1 + ηm pm = vm,
donde pm = η−1m (vm − β m pm−1) . (5.45)
Alem disso, por causa da estrutura triangular inferior bidiagonal com diagonal unitaria de U m, da relacaoLmzm = βe1 segue que
µmzmj−1 + zmj = 0
para j > 1, e portanto podemos escrever (lembrando que zm e um vetor de Rm assim como ym)
zm =
zm−1
ζ m
(5.46)
comζ m = −µmζ m−1. (5.47)
Assim,
xm = x0 +
P m−1 pm zm−1
ζ m
= x0 + P m−1zm−1 + ζ m pm,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 90/123
Rodney Josue Biezuner 89
dondexm = xm−1 + ζ m pm. (5.48)
Isso da a seguinte versao direta para o algoritmo de Lanczos para sistemas lineares:
Algoritmo de Lanczos DiretoInicialize x0;Calcule r0 = b − Ax0;Calcule ζ 1 = β =
r02
;v1 ← r0/β ;Inicialize β 1 = µ1 ≡ 0;Inicialize p0 ≡ 0;Para m = 1, 2, . . . , ate limite de tolerancia faca
w ← Avm − β mvm−1;αm ← w, vm ;Se m > 1 entao
µm ← β m/ηm−1;ζ m ← −µmζ m−1;ηm ← αm − µmβ m; pm ← (vm − β m pm−1) /ηm;xm ← xm−1 + ζ m pm;w ← w − αmvm;β m+1 ← w ;
Se β m+1 = 0 entao pare;vm+1 ← w/ β m+1;
fim do laco
Este algoritmo ainda pode ser consideravelmente simplificado. O resultado, uma formula tripla derecorrencia, extremamente simples e que nao envolve o calculo da base ortonormal v1, . . . , vm, e o chamado
metodo do gradiente conjugado (CG). Para obte-lo, observamos primeiramente que os vetores pm saoA-conjugados (isto e, A-ortogonais):
5.9 Proposicao. pi, pjA = Api, pj = 0 (5.49)
para todos i = j.
Prova: Para provar isso, basta mostrar queP T mAP m
e uma matriz diagonal. Isso segue de
P T mAP m = U −T m V T m AV mU −1m
= U −T m T mU −1m
= U −T m Lm
e do fato que U −T m Lm e uma matriz triangular inferior (a inversa de uma matriz triangular superior e uma
matriz triangular superior e o produto de duas matrizes triangulares inferiores e uma matriz triangularinferior) que e simetrica.
Usando a notacao padrao do metodo do gradiente conjugado (ou seja, agora os escalares αm, β m teraoum significado completamente diferente do anterior), reescrevemos (5.48) na forma
xm+1 = xm + αm pm, (5.50)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 91/123
Rodney Josue Biezuner 90
de modo que os resıduos satisfazemrm+1 = rm − αmApm. (5.51)
Como os resıduos sao ortogonais (Proposicao 5.8), segue que
rm
−αmApm, rm
= 0, donde
αm =rm, rm
Apm, rm . (5.52)
Reescrevemos tambem (5.45) na forma
pm+1 = rm+1 + β m pm; (5.53)
para isso usamos a Proposicao 5.8 e fazemos uma mudanca de escala nos vetores pm (isso nao altera avalidade de (5.50), em que assumimos os vetores pm tomados ja com a mudanca de escala; assim os vetores pm do algoritmo do gradiente conjugado considerado aqui tambem sao diferentes dos vetores consideradosacima no algoritmo de Lanczos, sendo multiplos adequados destes). Daı, como
rm+1 + β m pm, Apm
= pm+1, Apm
= 0,
segue que
β m = −Apm, rm+1Apm, pm .
Observe porem queApm, rm =
Apm, pm − β m pm−1
= Apm, pm , (5.54)
enquanto que de (5.51) temosApm = −α−1m
rm+1 − rm
.
Portanto, usando a ortogonalidade dos resıduos, podemos escrever
β m = −
Apm, rm+1
Apm, rm =
rm+1, rm+1
rm, rm . (5.55)
Alem disso, usando (5.54) tambem podemos reescrever (5.52) na forma
αm = rm, rmApm, pm . (5.56)
Estas ultimas formulas para αm e β m sao muito mais convenientes para o algoritmo do gradiente conjugado:
Algoritmo do Gradiente ConjugadoInicialize x0;Atribua b;r ← b − Ax0; p ← r;currentr, r ←
r0, r0
;Atribua o limite de tolerancia e o numero maximo de iteracoes;N = 0; //numero de iteracoes.
Faca ate que o limite de tolerancia seja atingidoou ate o numero maximo de iteracoes
Calcule Ap;α ← currentr, r / p, Ap ;x ← x + αp;r ← r − αAp;β ← r, r /current r, r ; p ← r + βp;currentr, r ← r, r ;N + +;
fim do laco
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 92/123
Rodney Josue Biezuner 91
5.8 Metodo do Gradiente Conjugado como um Metodo de Descida
O metodo do gradiente conjugado e uma das mais conhecidas e usadas tecnicas iterativas para resolver sis-
temas lineares envolvendo matrizes simetricas esparsas, dada sua eficiencia e simplicidade de implementacao.Como vimos na secao anterior, ele e matematicamente equivalente ao FOM. No que se segue, veremos umadescricao alternativa do metodo CG, em que ele e visto como uma modificacao do metodo de descida maisacentuada (metodo do gradiente).
Os metodos iterativos lineares basicos e os metodos de descida que vimos anteriormente sao limitadospela sua falta de memoria, no sentido de que apenas informacao sobre xk e usada para obter xk+1. Toda ainformacao sobre as iteracoes anteriores e perdida. O metodo do gradiente conjugado e uma variacao simplesdo metodo da descida mais acentuada que funciona melhor porque a informacao obtida atraves das iteracoesanteriores e utilizada.
Para entender como isso funciona, observe que depois de m iteracoes xk+1 = xk + αk pk de um metodode descida temos
xm = x0 + α0 p0 + α1 p
1 + . . . + αm−1 pm−1,
de modo que xm esta no subespaco afim gerado pelo chute inicial x0 e pelos vetores p0, p1, . . . , pm−1.Enquanto o metodo da descida mais acentuada minimiza o funcional quadratico de energia f associado aosistema Ax = b apenas ao longo das m retas xk + αk p
k, cuja uniao constitui apenas um pequeno subconjuntodo subespaco afim m-dimensional x0+
p0, p1, . . . , pm−1
, o metodo do gradiente conjugado minimiza f sobre
todo o subespaco afim x0 + p0, p1, . . . , pm−1
.
Para definir as direcoes de busca do metodo do gradiente conjugado (que e, antes de mais nada, um metodode descida), comecamos dando uma prova mais simples da Proposicao 4.4 que nao utiliza a linguagem demetodos de projecao:
5.10 Teorema. Seja A ∈ Mn (R) uma matriz simetrica positiva definida e b ∈ Rn. Ent˜ ao, o funcional quadr´ atico de energia associado ao sistema Ax = b pode ser escrito na forma
f (y) =1
2e2A − 1
2x2A . (5.57)
onde e = x − y e o erro algebrico. Em particular, minimizar o funcional quadr´ atico f e equivalente a minimizar a A-norma do erro.
Prova: Pela regra do paralelogramo, temos
x + y2A + x − y2A = 2 x2A + 2 y2A ,
donde
2 y2A = x − y2A + x2A + 2 y, xA + y2A − 2 x2A= x − y2A + 2 y, xA − x2A + y2A ,
ouy2A − 2 y, xA = x − y2A − x2A .
Logo,f (y) =
1
2y2A − y, xA =
1
2e2A − 1
2x2A . (5.58)
Em um metodo de descida, depois de m iteracoes temos:
em = x − xm
= x − x0 − α0 p
0 + α1 p1 + . . . + αm−1 p
m−1
= e0 −m−1i=0
αi pi.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 93/123
Rodney Josue Biezuner 92
Minimizar emA e portanto equivalente a minimizar
e0
−
m−1
i=0 αi piA ,
o que por sua vez e equivalente a encontrar a melhor aproximacao do vetor e0 no subespaco W m = p0, p1, . . . , pm−1
. Esta e dada pelo lema da melhor aproximacao, que enunciamos em detalhe por co-
modidade:
5.11 Proposicao. (Lema da Melhor Aproximacao) Sejam A ∈ M n (R) uma matriz simetrica positiva definida, v ∈ Rn e W um subsespaco de Rn. Ent˜ ao existe um ´ unico w ∈ W tal que
v − wA = minz∈W
v − zA .
O vetor w e caracterizado pela condic˜ ao v − w ⊥A W .
Segue deste resultado que emA e minimizado quando escolhemos p =m−1i=0
αi pi ∈ W m tal que em = e0 − p
satisfazem ⊥A pi para i = 1, . . . , m − 1. (5.59)
Nosso objetivo entao e desenvolver um metodo em que o erro a cada passo e conjugado com todas as direcoesde busca anteriores. Como fazer isso? Pelo Lema 4.11, cujo enunciado repetimos a seguir como Proposi cao5.12 para facilitar a consulta, sabemos que em qualquer metodo de descida em que a busca na reta e exatasatisfaz automaticamente em ⊥A pm−1, isto e, (5.59) e valido para a ultima iteracao (o erro da iteracaopresente e A-ortogonal a direcao de busca da iteracao anterior):
5.12 Proposicao. Seja xm+1 = xm + αm pm obtido atraves de uma busca na reta exata. Entao
rm+1
⊥pm
eem+1 ⊥A pm.
Fazendo uma busca exata na reta x0 + tp0 obtemos o escalar α0 e
x1 = x0 + α0 p0
Pela Proposicao 5.12 segue que e1 ⊥A p0. Como
e2 = x − x2 = x − x1 − α1 p1 = e1 − α1 p
1,
para que tenhamos e2 ⊥A p0 e necessario escolher p1 conjugado a p0. Se isso foi feito, fazendo em seguidauma busca exata na reta x1 + tp1 obtemos o escalar α
1,
x1 = x0 + α0 p0
e, pela Proposicao 5.12, e2 ⊥A p1. No m-esimo passo, como
em = x − xm = x − xm−1 − αm−1 pm−1
ou seja,em = em−1 − αm−1 p
m−1, (5.60)
para que o erro em seja conjugado aos vetores p0, . . . , pm−2 basta escolher a direcao de busca pm conjugadaa p0, . . . , pm−1; para assegurar que em tambem seja conjugado ao vetor pm−1, basta fazer uma busca exata
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 94/123
Rodney Josue Biezuner 93
na reta xm−1 + tpm−1. Assim, uma condicao necessaria para obter (5.59) e escolher as direcoes de busca detal forma que
pi ⊥A pj para todos i = j. (5.61)
Um metodo com estas caracterısticas e chamado um metodo de direcoes conjugadas. Estes resultadossao resumidos na proposicao a seguir:
5.13 Teorema. Se um metodo emprega direc˜ oes de busca conjugadas e performa buscas na reta exatas,ent˜ ao
em ⊥A pi para i = 1, . . . , m − 1,
para todo m. Conseq¨ uentementeemA = min
p∈W m
e0 − pA
,
onde W m = p0, p1, . . . , pm−1
.
Prova: A demonstracao e por inducao. Para m = 1, temos e1 ⊥A p0 pela Proposicao 5.12 porque a busca
na reta e exata. Em seguida, assuma em
⊥A pi
para i = 1, . . . , m − 1; queremos mostrar que em+1
⊥A pi
para i = 1, . . . , m. Comoem+1 = em − αm pm,
para i = 1, . . . , m − 1 temosem+1, pi
A
=
em − αm pm, piA
=
em, piA
− αm
pm, pi
A
= 0 − 0 = 0
porque as direcoes de busca sao conjugadas. em+1 ⊥A pm segue novamente da Proposicao 5.12. Quando a direcao inicial e dada pelo vetor gradiente de f , como na primeira iteracao do metodo da descidamais acentuada, obtemos o metodo do gradiente conjugado. As direcoes subsequentes sao escolhidas atravesde A-ortogonalizar o resıduo (ou vetor gradiente de f , que e a direcao de busca em cada iteracao do metododa descida mais acentuada) com todas as dire coes de busca anteriores, o que pode ser feito simplesmenteutilizando-se o algoritmo de Gram-Schmidt que no metodo do gradiente conjugado produz o mesmo resultado
que um metodo mais estavel como o MGS, como veremos. Dado um chute inicial p0, a primeira direcao e
p0 = −f
x0
= b − Ax0 = r0
ou seja, a direcao inicial e o primeiro resıduo:
p0 = r0. (5.62)
Depois de m passos com direcoes de busca conjugadas p0, . . . , pm, escolhemos
pm+1 = rm+1 −mi=0
cmi pi (5.63)
onde os cmi
sao dados pelo algoritmo de Gram-Schmidt:
cmi =
rm+1, pi
A
pi, piA. (5.64)
de forma que pm+1 ⊥A pi para todos i = 1, . . . , m. Felizmente, como veremos a seguir depois de algumtrabalho preliminar (Corolario 5.17), cmi = 0 para todo i exceto i = m, o que torna necessario que apenasa direcao de busca mais recente pm seja armazenada na memoria do computador, o que garante que aimplementacao do gradiente conjugado e eficiente:
pm+1 = rm+1 −
rm+1, pmA
pm, pmA pm = rm+1 −
rm+1, Apm
pm, Apm pm (5.65)
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 95/123
Rodney Josue Biezuner 94
ou, definindo
β m = −
rm+1, Apm
pm, Apm , (5.66)
temos que pm+1 = rm+1 + β m pm. (5.67)
Esta e a modificacao do metodo do gradiente conjugado em relacao ao metodo da descida mais acentuada,no qual tomamos pm+1 = rm+1.
Podemos obter uma expressao mais simples para o escalar β m, em funcao apenas dos resıduos. Comefeito, temos
rm+1, rm+1
=
rm+1, rm − αm
rm+1, Apm
= −αm
rm+1, Apm
porque os resıduos obtidos atraves do metodo do gradiente conjugado sao mutualmente ortogonais (vejaCorolario 5.16), logo
β = −
rm+1, Apm
pm, Apm =
rm+1, rm+1
αm pm, Apm .
Temos
αm = pm, rm
pm, Apm =
rm + βpm−1, rm
pm, Apm =
rm, rm pm, Apm ,
porque pm−1, rm
= 0 pela Proposicao 5.12, logo
αm =rm, rm
pm, Apm . (5.68)
Portanto
β =
rm+1, rm+1
rm, rm . (5.69)
Podemos obter um algoritmo ainda mais eficiente para o metodo do gradiente conjugado se observarmos que
para calcular o resıduo rm+1 = b−Axm+1 em cada iteracao nao e necessario calcular Axm+1 explicitamente;de fato, como vimos na demonstracao da Proposicao 5.12, temos rm+1 = rm−αmApm. Desta forma, obtemoso mesmo algoritmo do gradiente conjugado obtido na secao anterior a partir do algoritmo de Lanczos.
5.8.1 Convergencia do Metodo do Gradiente Conjugado em Aritmetica Exata
Vamos agora provar uma serie de resultados com o objetivo principal de demonstrar o fato mencionadoacima que cmi = 0 para todo i = 1, . . . , m − 1 e tambem que o metodo do gradiente conjugado converge emaritmetica exata em precisas n iteracoes se a matriz A tem tamanho n.
5.14 Teorema. Depois de j iterac˜ oes do algoritmo do gradiente conjugado (com rm = 0 em cada iterac˜ ao),temos
p0, p1, . . . , pj−1 = r0, r1, . . . , rj−1 =K
j A, r0 .
Prova: A demonstracao e por inducao. O resultado e trivial para j = 0, pois p0 = r0. Assuma o resultadovalido para j − 1. Em primeiro lugar, mostraremos que
r0, r1, . . . , rj ⊂ Kj+1
A, r0
. (5.70)
Em vista da hipotese de inducao, basta mostrar que rj ∈ Kj+1
A, r0
. Como rj = rj−1 − αj−1Apj−1 e
rj−1 ∈ Kj
A, r0
⊂ Kj+1
A, r0
por hipotese de inducao, basta provar que Apj−1 ∈ Kj+1
A, r0
. Mas,
tambem por hipotese de inducao, pj−1 ∈ Kj+1
A, r0
, logo
Apj−1 ∈ Kj
A,Ar0
=
Ar0, A2r0, . . . , Ajr0 ⊂
r0, Ar0, A2r0, . . . , Ajr0
= Kj+1
A, r0
.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 96/123
Rodney Josue Biezuner 95
Em seguida, mostraremos que
p0, p1, . . . , pj
⊂
r0, r1, . . . , rj
. (5.71)
Por hipotese de inducao, basta provar que pj ∈ r0, r1, . . . , rj. Isso segue de (5.63) e da hipotese de inducao.Ate aqui provamos que
p0, p1, . . . , pj ⊂
r0, r1, . . . , rj ⊂ Kj+1
A, r0
. (5.72)
Para provar que eles sao iguais, basta mostrar que eles tem a mesma dimensao. Isso decorre de
dim
r0, r1, . . . , rj j + 1,
dim Kj+1
A, r0
j + 1
edim
p0, p1, . . . , pj
= j + 1,
o ultimo porque os vetores p0, p1, . . . , pj sao vetores nao-nulos A-ortogonais.
5.15 Corolario. Depois de j iterac˜ oes do algoritmo do gradiente conjugado, temos
ej ⊥A Kj
A, r0
para todo j.
Prova: Segue imediatamente do teorema anterior e do Teorema 5.13.
5.16 Corolario. Depois de j iterac˜ oes do algoritmo do gradiente conjugado, temos
rj ⊥ Kj
A, r0
para todo j.
Prova: Em vista do Teorema 5.14, basta provar que rj ⊥ p0, p1, . . . , pj−1 para todo j. Como Aej+1 = rj+1,rj+1, pi
=
Aej+1, pi
=
ej+1, piA
= 0
para todo i = 1, . . . , j − 1, como vimos na demonstracao do Teorema 5.13.
5.17 Corolario. cmi = 0 para todo i = 1, . . . , m − 1.
Prova: Temos que provar que
rm+1, pi
A
=
rm+1, Api
= 0
para todos i = 1, . . . , m − 1. Pelo Teorema 5.14, pi
∈ p0, p1
, . . . , pi = r
0
, Ar0
, . . . , Ai
r = Ki+1 A, r0,
logoApi ∈
Ar0, A2r0, . . . , Ai+1r ⊂ Ki+2
A, r0
⊂ Km+1
A, r0
e o resultado segue do corolario anterior.
5.18 Teorema. Seja A ∈ Mn (R) uma matriz simetrica positiva definida. Ent˜ ao o metodo do gradienteconjugado converge em n iterac˜ oes.
Prova: Se fizemos n − 1 iteracoes para obter x, pelo Corolario 5.16 os vetores r0, r1, . . . , rn−1 formam umabase ortogonal para Rn. Depois de mais uma iteracao, de acordo com este mesmo corolario o resıduo rn
satisfaz rn ⊥ r0, r1, . . . , rn−1
= R
n, logo rn = 0.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 97/123
Rodney Josue Biezuner 96
5.9 Velocidade de Convergencia do Metodo do Gradiente Conju-gado
Na maioria das aplicacoes o metodo do gradiente conjugado converge ainda mais rapido do que as n iteracoesprevistas pelo Teorema 5.18, se apenas uma boa aproximacao e requerida. Para obter uma estimativa davelocidade de convergencia do metodo do gradiente conjugado, precisamos desenvolver algumas ferramentasteoricas antes.
5.9.1 Polinomios de Chebyshev
Polinomios de Chebyshev sao provavelmente os mais uteis polinomios na Teoria de Aproximacao, a areaque se ocupa em determinar como melhor aproximar funcoes atraves de funcoes mais simples (tais comopolinomios). Os polinomios de Chebyshev do primeiro tipo surgiram inicialmente como solucoes da equacaode Chebyshev:
1 − x2
y − xy + n2y = 0
5.19 Definicao. O polinomio de Chebyshev do primeiro tipo de grau k e o polinomio de grau k C k :[−1, 1] −→ R definido por
C k (t) = cos
k cos−1 t
.
Que C k e de fato um polinomio de grau k pode ser visto atraves da seguinte formula de recorrencia:
5.20 Proposicao. Vale a seguinte f´ ormula de recorrencia de tres termos para os polinomios de Chebyshev
C 0 (t) = 1,C 1 (t) = t,C k+1 (t) = 2tC k (t) − C k−1 (t) .
(5.73)
Em particular, C k (t) e um polinomio real de grau k, C k (t) e uma func ao par se k e par e uma func˜ ao
ımpar se k e ımpar.
Prova: Usando a identidade trigonometrica
cos [(k + 1) θ] + cos [(k − 1) θ] = 2cos θ cos kθ,
segue que
C k+1 (t) + C k−1 (t) = cos[(k + 1) arccos t] + cos [(k − 1) arccost]
= 2 cos(arccos t)cos[k arccos t]
= 2tC k (t) .
A formula de recorrencia da Proposicao 5.20 permite estender naturalmente o domınio dos polinomios deChebyshev a reta toda. Isso tambem pode ser feito estendendo a definicao trigonometrica:
C k (t) =
cosh
k cosh−1 t
se t 1,
(−1)k
cosh
k cosh−1 |t| se t −1.(5.74)
De fato, usando a identidade trigonometrica hiperbolica
cosh [(k + 1) θ] + cosh [(k − 1) θ] = 2 cosh θ cosh kθ,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 98/123
Rodney Josue Biezuner 97
vemos que vale a mesma formula de recorrencia da Definicao 5.19. O polinomio de Chebyshev C k (t) possuik raızes simples, todas localizadas no intervalo [−1, 1] dadas por
tj = cos2 j
−1
2k π , j = 1, . . . , k ,
como pode ser verificado diretamente da definicao. Em particular, os polinomios de Chebyshev nao se anulamfora deste intervalo. Observe tambem que |C k (t)| 1 para t ∈ [−1, 1]. A tıtulo de informacao, eles formamuma base ortogonal no espaco de funcoes apropriado no sentido que 1
−1
C k (t) C l (t)dt√
1 − t2=
0 se k = l,π se k = l = 0,π/2 se k = l = 0.
5.21 Proposicao. Se |t| 1, vale
C k (t) =1
2 t +
t2 − 1
k
+
t +
t2 − 1
−k
.
Prova: Como resultado de (5.74), segue que
C k (t) = cosh
k cosh−1 t
=1
2
ek cosh
−1 t + e−k cosh−1 t
=1
2
ecosh
−1 tk
+
ecosh−1 t
−k
.
Por outro lado,ex = cosh x + sinh x
ecosh2 x − sinh2 x = 1,
logo
ecosh−1 t = cosh
cosh−1 t
+ sinh
cosh−1 t
= t +
cosh2
cosh−1 t
− 1
= t +
t2 − 1,
donde segue o resultado. Em particular, para valores grandes de k pode-se usar a aproximacao
C k (t) 1
2
t +
t2 − 1
k.
para |t| 1. No que se segue denotaremos o subespaco de todos os polinomios reais de grau menor ou igual
a k por Pk [x]. O seguinte teorema e um importante resultado em Teoria da Aproximacao:
5.22 Teorema. Seja [a, b] ⊂ R um intervalo n˜ ao vazio e c /∈ [a, b]. Ent˜ ao o mınimo
µk = min p∈Pk[x] p(c)=1
maxx∈[a,b]
| p (x)|
e atingido pelo polinomio
C k (x) :=
C k
1 + 2
x − b
b − a
C k
1 + 2
c − b
b − a
.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 99/123
Rodney Josue Biezuner 98
Consequentemente,
µk =1
C k 1 + 2c − b
b − a. (5.75)
Prova: Denote por
m :=a + b
2o ponto medio do intervalo [a, b]. Entao
1 + 2x − b
b − a=
b − a + 2x − 2b
b − a=
2x − (a + b)
b − a
= 2x − m
b − a.
Assim, se c /∈ [a, b] entao
2c − m
b−
a > 1
de modo que o denominador na expressao de C k (x) nunca se anula. Por outro lado, se x ∈ [a, b] entao2 x − m
b − a
1.
Comomax
t∈[−1,1]|C k (t)| = 1,
segue (5.75).
Portanto, para provar que o mınimo e atingido pelo polinomio C k, precisamos mostrar que se pk ∈ Pk [x]e tal que p (c) = 1 e
maxx∈[a,b]
| p (x)| µk,
entao pk = C k. De fato, pela definicao trigonometrica dos polinomios de Chebyshev, C k (t) atinge os valores±1 alternadamente nos pontos
tj = cos
j
kπ
, j = 0, 1, . . . , k .
Correspondentemente, C k (x) atinge os valores ±µk nos pontos
xj =1
2
a + b + (b − a)cos
j
kπ
, j = 0, 1, . . . , k
dentro do intervalo [a, b]. Como
| pk (xj)| µk = C k (xj)
,
concluımos que o polinomio diferenca rk =
C k − pk de grau menor ou igual a k satisfaz
rk (xj) 0 se j e par,
rk (xj) 0 se j e ımpar.
Pelo teorema do valor intermediario, rk possui pelo menos uma raiz em cada subintervalo [xj , xj+1]. Mesmoquando as raızes de rk em [xj−1, xj] e [xj , xj+1] coincidem, ou seja, xj e uma raiz de rk, esta e uma raiz demultiplicidade 2 (pois rk (xj) = 0, isto e, xj tambem e uma raiz da derivada de rk). Consequentemente, opolinomio rk tem pelo menos k raızes em [a, b]. Mas, como
rk (c) = C k (c) − pk (c) = 1 − 1 = 0,
c /∈ [a, b] e a (k + 1)-esima raiz de rk. Isso constitui uma contradicao, a menos que rk ≡ 0, o que implica
pk =
C k.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 100/123
Rodney Josue Biezuner 99
5.9.2 Velocidade de Convergencia do CG
5.23 Lema. Seja A ∈ Mn (R) uma matriz simetrica positiva definida. Ent˜ ao o erro algebrico do metodo dogradiente conjugado satisfaz ekA = min
p∈Pk[x] p(0)=1
p (A) e0A .
Prova: Pelos Teoremas 5.13 e 5.14, o metodo do gradiente conjugado minimiza a A-norma do erro nosubespaco afim e0 + Kk
A, r0
. Mas Kk
A, r0
e o conjunto de todos os vetores da forma q (A) r0 onde
q e um polinomio de grau menor ou igual a k − 1, enquanto que r0 = Ae0. Portanto, o subespaco afime0 + Kk
A, r0
consiste de todos os vetores da forma e0 + q (A) Ae0, ou seja, de todos os vetores na forma
p (A) e0 onde p e um polinomio de grau menor ou igual a k tal que p (0) = 1.
5.24 Teorema. Seja A ∈ Mn (R) uma matriz simetrica positiva definida. Ent˜ ao o erro algebrico do metododo gradiente conjugado satisfaz
ekA 2 κ (A)−
1 κ (A) + 1k
e0A . (5.76)
Prova: Denote por λ1 . . . λn os autovalores de A e por v1, . . . , vn uma base A-ortonormal de autovetorescorrespondentes. Escrevendo
e0 =
ni=1
aivi,
segue que
p (A) e0 =n
i=1
ai p (λi) vi.
Assim,
p (A) e02A =
ni=1
a2i p (λi)2 max1in p (λi)2e02A maxx∈[λ1,λn]
p (x)2e02A ,
donde, pelo lema anterior, ekA min
p∈Pk[x] p(0)=1
maxx∈[λ1,λn]
p (x)e0
A
.
Segue agora do Lema 5.22 que ekA µ
e0A
onde
µ =1
C k
1 − 2λn
λn
−λ1
=1
C k
−λn + λ1λn
−λ1
=1
C k λn + λ1λn
−λ1
=1
C k
κ (A) + 1
κ (A) − 1
,
(para obter a ultima igualdade usamos a simetria dos polinomios de Chebyshev, como visto na Proposicao5.20, e a sua positividade no intervalo [1, +∞) que decorre diretamente da formula da Proposicao 5.21). PelaProposicao 5.21 e o comentario que se segue, temos
C k
κ (A) + 1
κ (A) − 1
1
2
κ (A) + 1
κ (A) − 1+
κ (A) + 1
κ (A) − 1
2
− 1
k
,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 101/123
Rodney Josue Biezuner 100
donde
e
kA 2κ (A) + 1
κ (A) − 1 + κ (A) + 1
κ (A) − 12
− 1−k
e
0A= 2
κ (A) + 1 +
(κ (A) + 1)
2 − (κ (A) − 1)2
κ (A) − 1
−k e0A
= 2
κ (A) + 1 + 2
κ (A)
κ (A) − 1
−k e0A
= 2
κ (A) + 1
2
κ (A) + 1
κ (A) − 1
−k
e0A
= 2 κ (A) − 1
κ (A) + 1
k e0A
.
Esta estimativa e bem melhor que a estimativa do metodo da descida mais acentuada (o numero de condicaoe subtituido aqui pela sua raiz quadrada), mostrando que o metodo do gradiente conjugado e bem maisrapido. Por outro lado, como naquele metodo, a velocidade de convergencia do metodo CG dependerafortemente da boa ou ma condicionalidade da matriz A.
Uma comparacao entre a velocidade de convergencia dos metodos de gradiente para a matriz de dis-cretizacao da formula de cinco pontos aplicada ao mesmo problema do Capıtulo 3 (Secao 3.1.4) e dada natabela a seguir [Watkins]. O tamanho das matrizes usadas e indicado na linha superior da tabela e o numerode iteracoes necessarias para obter um erro algebrico menor normalizado menor que igual a 10−8 e dadopara cada metodo.
n = 81 n = 361 n = 1521Descida Mais Acentuada 304 1114 4010Gradiente Conjugado 29 60 118
No caso desta matriz de discretizacao temos
κ (A) =sen2
(n − 1) π
2n
sen2π
2n
= cot2π
2n= cot2
π∆x
2≈ 4
π2∆x2
de modo que κ (A) − 1 κ (A) + 1
≈ 1 − π∆x/2
1 + π∆x/2≈ 1 − π∆x,
o que da uma velocidade de convergencia para o metodo do gradiente conjugado duas vezes maior que ado metodo SOR com o fator de relaxamento otimo. No entanto, deve-se ter em mente que enquanto que ataxa de covergencia que obtivemos para o metodo SOR e precisa, a estimativa de erro (5.76) do Teorema5.24 para o metodo do gradiente conjugado e apenas um limitante superior grosseiro e pode ser melhorada(veja [Watkins] para algumas estimativas melhoradas). De fato, embora a taxa de convergencia assintotica(5.76) dependa apenas do numero de condicao, e portanto apenas dos autovalores extremais, a convergenciado metodo do gradiente conjugado e influenciada pelo espectro inteiro, como o proximo resultado ilustra:
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 102/123
Rodney Josue Biezuner 101
5.25 Teorema. Seja A ∈ Mn (R) uma matriz simetrica positiva definida com apenas m autovalores distin-tos. Ent˜ ao o metodo do gradiente conjugado converge em m iterac˜ oes.
Prova: Sejam λ1, . . . , λm os m autovalores distintos de A. Seja p (x) = a (x − λ1) . . . (x − λm)
um polinomio de grau m onde a e escolhido de tal forma a produzir p (0) = 1. Como p (λi) = 0 para todo i,pela demonstracao do Teorema 5.24 (e usando a mesma notacao de la) segue que
p (A) e0 =
ni=1
ai p (λi) vi = 0.
Logo, pelo Lema 5.23, temos que em = 0. Mesmo se isso nao ocorre, se os autovalores de A nao estao distribuıdos uniformemente em [λmin, λmax] masse acumulam em subintervalos de [λmin, λmax], pode-se obter melhores taxas de convergencia do que (5.76)
(veja [Hackbusch] e [Watkins]).
5.10 Exercıcios
5.1 Considere os vetores
v1 =
1ε00
, v2 =
10ε0
e v3 =
100ε
,
onde ε 1. Estes vetores sao aproximadamente linearmente independentes.
a) Use o metodo de Gram-Schmidt classico para ortogonalizar estes vetores, usando a aproximacao
1 + ε2
= 1 (um computador faria erros de arredondamento adicionais). Verifique que w2, w3 = 1/2 eportanto estes vetores estao muito longe de serem ortogonais.
b) Use o metodo de Gram-Schmidt modificado para ortogonalizar estes vetores, tambem usando aaproximacao 1 + ε2 = 1. Verifique que w2, w3 = 0 e que w1, w2 = −ε/
√2, w1, w3 = −ε/
√6;
portanto estes vetores estao muito proximos de serem ortogonais.
5.2 Mostre que os algoritmos de Gram-Schmidt classico e modificado sao matematicamente equivalentesem aritmetica exata, isto e, produzem os mesmos vetores.
5.3 Prove que os vetores v1, . . . , vm gerados pelo algoritmo de Arnoldi com MGS formam uma base ortonor-mal para o subespaco de Krylov Km (A, v).
5.4 Prove que o inversa de uma matriz triangular superior e uma matriz triangular superior. Prove a
afirmativa equivalente para matrizes triangulares inferiores.5.5 Prove que o produto de matrizes triangulares superiores e uma matriz triangular superior. Prove a
afirmativa equivalente para matrizes triangulares inferiores.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 103/123
Capıtulo 6
O Problema do Autovalor
Por causa do teorema de Abel com respeito a inexistencia de uma formula para calcular as raızes de um
polinomio de grau maior ou igual a 5, nao existem metodos diretos para calcular autovalores. Todo metodopara calcular autovalores e necessariamente um metodo iterativo.
De fato, dado um polinomio monico
p (z) = zn + an−1zn−1 + . . . + a1z + a0,
seu determinante e igual a (−1)n
vezes o determinante da matriz
−z −a01 −z −a1
1 −z −a2
1 −z...
. . .. . .
−an−11 −z − an−1
,
logo as raızes de p sao os autovalores da matriz
0 −a01 0 −a1
1 0 −a2
1 0...
. . .. . . −an−1
1 −an−1
.
Portanto, o problema de encontrar as raızes de um polinomio e equivalente ao problema de encontrar os
autovalores de uma matriz.
6.1 Caracterizacao Variacional dos Autovalores de uma MatrizSimetrica: Quociente de Rayleigh
Os autovalores de uma matriz simetrica podem ser caracterizados variacionalmente.
6.1 Definicao. Seja A ∈ M n (R) uma matriz simetrica. Dado x ∈ Rn, o quociente
r (x) =Ax,xx2
102
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 104/123
Rodney Josue Biezuner 103
e chamado o quociente de Rayleigh de x. A funcao r : Rn −→ R e chamada o funcional deRayleigh (ou tambem o quociente de Rayleigh).
6.2 Teorema. (Princıpio de Rayleigh) Seja A
∈Mn (R) uma matriz simetrica. Se x e um ponto crıtico do
funcional de Rayleigh, ent˜ ao x e um autovetor de A e r (x) e o autovalor correspondente.
Prova: Escrevendo
r (x) =
i,j=1
aijxixji,j=1
x2i
Temos
∂r
∂xk(x) =
2 x2 i=1
aikxi − 2xk
i,j=1
aijxixj
x4 =2
x2 [(Ax)k − r (x) xk] ,
de modo que
r (x) =
2
x2[Ax
−r (x) x] .
Portanto,r (x) = 0 se e somente se Ax = r (x) x.
6.3 Corolario. O quociente de Rayleigh e uma aproximac˜ ao de segunda ordem para os autovalores de A,ou seja, se v e um autovetor de A, segue que
r (x) − r (v) = Ox − v2
quando x → v
Prova: Segue da formula de Taylor, ja que r (v) = 0. Podemos obter uma descricao geometrica mais precisa dos pontos crıticos do funcional de Rayleigh:
6.4 Teorema. (Princıpio de Rayleigh) Seja A ∈ Mn (R) uma matriz simetrica. Sejam λ1 . . . λn osautovalores de A, de modo que λ1 e o menor autovalor de A e λn e o maior autovalor de A. Ent˜ ao
λ1 = minx∈Rn
x=0
Ax,xx2 (6.1)
e
λn = maxx∈Rn
x=0
Ax,xx2 (6.2)
Prova: Seja B = v1, . . . , vn uma base ortonormal de autovetores de A correspondentes aos autovalores
λ1, . . . , λn. Entao, para todo x =n
i=1xivi temos
λ1 x2 =n
i=1
λ1x2i
n
i=1
λix2i =
ni,j=1
λixixj vi, vj =
ni,j=1
λixivi, xjvj
=
n
i=1
λixivi,n
j=1
xjvj
=
n
i=1
xiAvi,n
j=1
xjvj
=
A
n
i=1
xivi
,
nj=1
xjvj
= Ax,x .
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 105/123
Rodney Josue Biezuner 104
Portanto, para todo x ∈ Rn, x = 0, vale
λ1 Ax,xx2 .
O mınimo e atingido em x = v1 ou em qualquer outro autovetor de A associado a λ1. Da mesma forma,obtemos
λn x2 =n
i=1
λnx2i n
i=1
λix2i = Ax,x .
Os outros autovalores de A, λ2, . . . , λn−1, sao pontos de sela e podem ser encontrado atraves de um
princıpio de minimax:
6.5 Teorema. (Princıpio de Minimax para Autovalores) Seja A ∈ Mn (R) uma matriz simetrica. Sejam λ1 . . . λn os autovalores de A. Ent˜ ao
λj = minW ⊂Rn subespaco
dimW =j
maxx∈W x=1
Ax,x . (6.3)
Prova: Seja W ⊂ Rn um subespaco de dimensao j. Primeiro mostraremos que
maxx∈W x=1
Ax,x λj .
Seja B = v1, . . . , vn uma base ortonormal de autovetores de A correspondentes aos autovalores λ1, . . . , λn.Seja Z = v1, . . . , vj−1. Como Z ⊥ = vj , . . . , vn, temos
n dim
W + Z ⊥
= dim W + dim Z ⊥ − dim
W ∩ Z ⊥
= j + n − ( j − 1) − dim
W ∩ Z ⊥
,
de modo quedim
W ∩ Z ⊥
1
e existe um vetor x ∈ W ∩ Z ⊥ tal que x = 1. Escrevendo x =n
k=j
xkvk, temos x =n
k=j
|xk|2 = 1, donde
Ax,x =
n
k=j
xkAvk,
nl=j
xlvl
=
n
k=j
xkλkvk,
nl=j
xlvl
=
nk,l=j
λkxkxl vk, vl
=n
k=j
λk |xk|2 λj
nk=j
|xk|2 = λj .
Para completar a demonstracao, devemos encontrar um subespaco W ⊂ R
n
de dimensao j tal queAx,x λj para todo x ∈ W com x = 1. Tomemos W = v1, . . . , vj. Temos
Ax,x =
j
k=1
xkAvk,
jl=1
xlvl
=
j
k=1
xkλkvk,
jl=1
xlvl
=
jk,l=1
λkxkxl vk, vl
=
jk=1
λk |xk|2 λj
jk=1
|xk|2 = λj.
O minimax e atingido em vj .
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 106/123
Rodney Josue Biezuner 105
6.2 Metodo das Potencias
O metodo das potencias ou metodo das iterac˜ oes e o algoritmo mais simples para o calculo de autovalores
de matrizes, mas ele pode encontrar apenas o maior autovalor (em modulo) de uma matriz A ∈M
n (C
),chamado o autovalor dominante de A, desde que haja apenas um. Para simplificar a exposicao, suponhaque A e uma matriz diagonalizavel cujo maior autovalor (em modulo) e um autovalor simples (isto e, seuautoespaco associado tem dimensao 1). Ordene os autovalores de A na forma
|λ1| > |λ2| . . . |λn|
e seja v1, . . . , vn uma base correspondente de autovetores. Assim, λ1 e o autovalor dominante de A ev1 um autovetor dominante. Quando A tem um autovalor dominante, este e um correspondente autovetordominante podem ser encontrados atraves do metodo das potencias, que consiste essencialmente em tomarum vetor v0 arbitrario e considerar as potencias
v0, Av0, A2v0, . . . , Akv0, . . . (6.4)
E essencial que o vetor v0 possua uma componente na direcao do autovetor dominante v1. Este nao e apriori conhecido, mas se a escolha e arbitraria ha grande probabilidade que isso ocorra na pratica. De fato,para quase todas as escolhas de v0 devemos ter
v0 =
ni=1
aivi
com a1 = 0; raramente uma escolha aleatoria de v0 produzira um vetor no subespaco v2, . . . , vn. Temosentao
Akv0 =
ni=1
aiλvi,
donde escrevemosAkv0 = λk
1
a1v1 +
ni=2
ai
λi
λ1
k
vi
.
EmboraAkv0
→ ∞ se λ1 > 1 eAkv0
→ 0 se λ1 < 1, comoλi
λ1
k
→ 0,
para todo i = 2, . . . , n, segue que a sequencia reescalada
Akv0λk1
→ a1v1
converge para um autovetor dominante. No entanto, como o autovalor λ1 nao e conhecido a priori, eimpossıvel trabalhar com esta sequencia. Portanto, trabalhamos ao inves com a sequencia normalizada
wk =Akv0
Akv0 (6.5)
onde · e uma norma qualquer (por exemplo, a norma do maximo), que converge para um autovetordominante unitario.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 107/123
Rodney Josue Biezuner 106
6.6 Proposicao. Seja A ∈ Mn (C) uma matriz diagonaliz´ avel e assuma que o seu autovalor dominante λ1e simples. Dado um vetor arbitr´ ario v0 ∈ Cn que possui uma componente n˜ ao-nula no autoespacoassociado a λ1, defina a sequencia
w0 = v0,
wk+1 =Awk
αk.
ondeαk = Awk .
Ent˜ ao
wk → v1,
αk → λ1,
onde v1 e um autovetor dominante unit´ ario. Alem disso, a taxa assint´ otica de convergencia e
Oλ2
λ1
.
Se A e uma matriz simetrica real e definirmos
µk = Awk, wk ,
ent˜ aoµk → λ1
com taxa assint´ otica de convergencia
O
λ2λ1
2
.
Prova: Temos
wk =Akv0αk
,
onde αk = α1 . . . αk e simplesmente o escalar apropriado que normaliza o vetor Akv0, isto e, αk =Akv0
.Escrevendo
v0 =
ni=1
aivi,
segue que
wk =λk1
αk
a1v1 +
ni=2
ai
λi
λ1
k
vi
.
Como
a1v1 +n
i=2
ai
λi
λ1
k
vi → a1v1
e wk sendo uma sequencia unitaria possui uma subsequencia convergente, concluımos que wk converge paraum vetor unitario na direcao de v1.
ComoAwk = αkwk,
tomando o limite em ambos os lados concluımos que
Av1 = (lim αk) v1,
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 108/123
Rodney Josue Biezuner 107
logo lim αk = λ1.Finalmente, a taxa assintotica de convergencia segue de
n
i=2
ai λiλ1
k
vi n
i=2
|ai| λiλ1
k vi ni=2
|ai| vi λ2λ1
k C (v0) λ2λ1
k .
O caso A simetrico segue do Corolario 6.3. Vemos que a velocidade de convergencia do metodo das potencias pode ser muito lenta se a diferenca entreo maior e o segundo maior autovalores nao for muito grande, uma situacao frequentemente encontrada napratica. O metodo das potencias funciona mesmo quando o autovalor dominante nao e simples, desde quenao existam outros autovalores de A diferentes do autovalor dominante que tenham o mesmo valor emmodulo, isto e quando existe apenas um autovalor dominante (Exercıcio 6.1). E claro que o metodo nao vaiproduzir uma base para o autoespaco dominante, apenas um autovetor deste autoespaco, correspondente aovetor unitario na direcao da componente do vetor inicial. Quando existem varios autovalores dominantes, ometodo nao pode ser aplicado. Em particular, o metodo nao pode ser aplicado a matrizes reais que possuemum autovalor dominante complexo, ja que neste caso o seu conjugado tambem e um autovalor dominante.Esta situacao ocorre tambem com matrizes ortogonais, ja que todos os autovalores de uma matriz ortogonaltem norma 1.
Se A nao e diagonalizavel, o autovalor dominante de A ainda pode ser encontrado pelo metodo daspotencias (desde que nao haja mais de um autovalor dominante, como observado no paragrafo anterior),como discutido no Exercıcio 6.2.
6.2.1 Metodo das Potencias Inverso
O metodo das potencia permite apenas encontrar o autovalor dominante. Para obter o menor autovalorde A, podemos aplicar o metodo das potencias a matriz inversa A−1, pois se λ e o menor autovalor de A,1/λ sera o maior autovalor de A−1. Este metodo e chamado metodo das potencias inverso ou iterac˜ aoinversa (quando o metodo das potencias e chamado iterac˜ ao direta ).
6.2.2 Metodo das Potencias com Deslocamento
Teoricamente, o metodo das potencias poderia ser aplicado diretamente para encontrar todos os autovaloresde A. Por exemplo, para encontrar λ2 e um autovetor associado, uma vez encontrado o autovetor associadoao primeiro autovalor, bastaria tomar um novo vetor inicial que nao tivesse componentes na direcao doautovetor dominante (ou autoespaco dominante; veja Exercıcio 6.1), mas apenas na direcao de v2. Isso seriafacil de conseguir se os autovetores de A fosse ortogonais (por exemplo, se A e simetrica): bastaria tomarum vetor inicial aleatorio v0, com componentes na direcao de todos os autovetores de A, e subtrair dele asua componente ortogonal na direcao do autovetor dominante. Na notacao da secao anterior, bastaria tomar
v0 = v0 − a1v1 =n
i=2 aivi,
e proceder desta maneira ate encontrar todos os autovalores de A (desde que nao haja autovalores distin-tos mas iguais em modulo). Na pratica isso nao funciona, porque erros de arredondamento apareceriamimediatamente:
Av0 = ελ1v1 +n
i=2
aiλivi;
ao inves de obter λ2 e um autovetor associado, voltarıamos a obter λ1 e um autovetor dominante.Para encontrar os demais autovalores da matriz A, observe que se A tem autovalores λ1, . . . , λn, entao
A − σI tem autovalores λ1 − σ , . . . , λn − σ. O escalar σ e chamado um deslocamento. Podemos entao aplicar
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 109/123
Rodney Josue Biezuner 108
o metodo das potencias a matriz (A − σI )−1
, pois os autovalores de A sao
1
λ1 − σ
, . . . ,1
λn − σ
,
de modo que o autovalor dominante de (A − σI )−1 e
1
λi − σ(6.6)
onde λi e o autovalor de A mais proximo de σ. Assim, podemos encontrar todos os autovalores de Avariando o deslocamento σ. Este metodo e chamado metodo das potencias com deslocamento ouiterac˜ ao com deslocamento. Ele e particularmente eficiente quando possuımos boas estimativas para osautovalores de A (estimativas grosseiras podem ser obtidas atraves do teorema dos discos de Gershgorin).Como ja observado anteriormente, a convergencia do metodo das potencias direto sera lenta quando λ1 eλ2 forem muito proximos. No caso do metodo das potencias com deslocamento, uma escolha cuidadosa dodeslocamento σ pode aumentar substancialmente a velocidade de convergencia. Com efeito, observe queneste caso temos (para simplificar a compreensao, novamente supomos A diagonalizavel e, adicionalmente,que todos os autovalores sao simples):
(A − σI )−1
kv0 =
1
λi − σ
k
aivi +
nj=1j=i
ai
λi − σ
λj − σ
k
vj
donde
(A − σI )−1k
v0 −
1
λi − σ
k
aivi
nj=1j=i
|ai|
λi − σ
λj − σ
k
|vj |
nj=1j=i
|ai| |vj |
λi − σ
λe i − σ
k
de modo que a taxa assintotica de convergencia e dada porλi − σ
λe i − σ
onde λ
e i e o autovalor mais proximo a λi. Tomando o deslocamento σ significantemente mais proximo de λi
do que de λe i, podemos obter λi − σ
λe i − σ
1,
acelerando a convergencia do metodo.E importante observar que tanto na iteracao inversa, quanto na iteracao com deslocamento, em nenhum
momento e necessario calcular a inversa A−1 explicitamente, o que consumiria muito tempo e recursos.Embora as iteradas satisfazem
wk+1 =1
σk+1(A − σI )−1 wk,
basta resolver o sistema(A − σI ) wk+1 = wk
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 110/123
Rodney Josue Biezuner 109
e entao tomar
wk+1 =1
σk+1
wk+1.
Alem disso, apesar de A − λI ser uma matriz singular quando λ e um autovalor de A, e portanto tomar umdeslocamento σ muito proximo a λ produz uma matriz A − σI muito mal condicionada, isso nao atrapalhaa eficencia da iteracao com deslocamento em nada (veja [Parlett]).
Finalmente, notamos que se os autovalores de uma matriz ja sao conhecidos, o metodo padrao paraencontrar os autovetores de A e o metodo das potencias com deslocamento, ja que os deslocamentos podemser escolhido arbitrariamente proximos dos autovalores, tornando a convergencia muito rapida.
6.2.3 Iteracao do Quociente de Rayleigh
Quando a matriz A e simetrica, combinando a iteracao inversa e o quociente de Rayleigh e possıvel obterum metodo extremamente rapido, de tal forma que depois de 2 ou 3 passos o numero de dıgitos corretos noautovalor triplica a cada iteracao. A ideia e nao manter o valor de deslocamento constante, mas atualiza-loa cada iteracao com uma aproximacao melhor do autovalor dada pelo quociente de Rayleigh. O algoritmo
para a iteracao do quociente de Rayleigh e o seguinte:
Iteracao do Quociente de RayleighAtribua v0;v0 ← v0/
v0 ;
λ0 = Av0, v0 ;Para k = 0, 1, 2, . . ., ate limite de tolerancia Resolva
A − λkI
w = vk;
vk+1 ← w/ w ;λk+1 ←
Avk+1, vk+1
;fim do laco
Vamos verificar que a convergencia da iteracao de Rayleigh e cubica:
6.7 Proposicao. Seja A ∈ Mn (R) uma matriz simetrica e assuma que o autovalor λi e simples. Dado um vetor arbitr´ ario v0 ∈ Rn que possui uma componente nao-nula no autoespaco associado a λi, tomeλ0 =
Av0, v0
e defina a sequencia
vk+1 =
A − λkI
−1vk(A − λkI )
−1vk ,
λk+1 =
Avk+1, vk+1
.
Ent˜ ao vk converge para um autovetor unit´ ario vi associado a λi e λk → λi com uma taxa de con-vergencia que satisfaz
vk+1
− vi = O vk
− (±vi)3e λk+1 − λi
= Oλk − λi
3 .
Prova: Pelo Corolario 6.3, λk − λi
= Ovk − vi
2 .
Pelas estimativas para a iteracao inversa com deslocamento obtidas na subsecao anterior, temos
vk+1 − vi C
λi − λk
λe i − λk
vk − vi .
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 111/123
Rodney Josue Biezuner 110
Como λk esta proximo de λi, podemos substituirλ
e i − λk por
λe i − λi
no denominador, de modo que
vk+1 − vi = O λk − λi vk − vi = O vk+1 − vi
3
.
As constantes implıcitas no sımbolo O sao uniformes para vizinhancas suficientemente pequenas de λi e vi.Para obter a taxa de convergencia para os autovalores, use o resultado obtido e o Corolario 6.3 duas vezesescrevendo λk+1 − λi
= Ovk+1 − vi
2 = Ovk − vi
6 = Oλk − λi
3 .
Este resultado vale mesmo quando o autovalor nao e simples (Exercıcio 6.3).
No caso em que A nao e simetrica, a iteracao do quociente de Rayleigh ainda pode ser usada, masa convergencia e apenas quadratica (veja [Watkins]). Para uma analise mais rigorosa da convergencia dometodo das potencias e todas as suas variacoes, inclusive a iteracao do quociente de Rayleigh, veja [Parlett].
6.3 Algoritmo QRO algoritmo QR (nao confundir com a decomposicao QR) e o algoritmo preferido para encontrar todos osautovalores de uma matriz nao-simetrica densa. O algoritmo basico QR pode ser descrito da seguinte forma.Seja A ∈ Mn (C) uma matriz cujos autovalores queremos calcular. Comecando com
A0 = A, (6.7)
definimos iterativamente uma sequencia de matrizes A1, A2, . . ., recursivamente da seguinte maneira. Primeirofazemos a decomposicao QR da matriz obtida no passo anterior:
Ak−1 = QkRk. (6.8)
Em seguida definimos Ak = RkQk. (6.9)
Observe que, comoAk = Q∗
kAk−1Qk, (6.10)
todas as matrizes da sequencia, que denominaremos sequencia QR, possuem os mesmos autovalores. Veremosmais tarde que o algortimo QR e simplesmente uma implementacao de um procedimento conhecido comoiterac˜ ao simultanea , o qual e uma extensao natural do metodo das potencias. Consequentemente, pode sermostrado que a sequencia QR converge, sob certas condicoes, para uma matriz triangular superior na forma
λ1 ∗ · · · ∗
λ2. . .
...
. . . ∗λn
onde os autovalores da diagonal principal aparecem em ordem descrescente de magnitude. Em particular,como as matrizes da sequencia QR sao semelhantes, se A e hermitiana entao a sequencia converge para umamatriz diagonal.
O algoritmo basico QR e ineficiente para uso pratico. Cada decomposicao QR custa 43
n3 flops e cadamultiplicacao matricial custa O
n3
flops. Alem disso, a convergencia para a forma triangular e muitovagarosa, de forma que um numero muito grande de passos e necessario antes que se atinja um limite detolerancia razoavel. No que se segue, veremos procedimentos para diminuir os custos das decomposicoesQR e aumentar a velocidade de convergencia do metodo. O primeiro procedimento, reduzir a matriz a sua
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 112/123
Rodney Josue Biezuner 111
forma de Hessenberg, reduz cada passo no algoritmo QR a um custo de O
n2
flops para uma matriz gerale O (n) para uma matriz hermitiana. O segundo procedimento, deflacao e deslocamento usando o quocientede Rayleigh, reduz o numero de iteracoes necessarias para produzir convergencia na precisao da maquina a
O (n) iteracoes. Assim o custo total do algoritmo QR na sua implementacao mais eficiente sera O n3 flops
para matrizes gerais e O
n2
flops para matrizes hermitianas.
6.3.1 Reducao de uma matriz a sua forma de Hessenberg
O custo das decomposicoes QR e reduzido drasticamente se reduzirmos a matriz A a sua forma de Hessenbergantes de comecar as iteracoes QR, ja que o custo de uma decomposi cao QR para matrizes de Hessenberge O
n2
; se alem disso a matriz for Hermitiana, ou seja, tridiagonal, o custo e apenas O (n). Tambem ocusto da multiplicacao, de uma matriz de Hessenberg superior por uma matriz triangular, e reduzido paraO
n2
. Essa reducao funciona porque o algoritmo QR preserva a forma de Hessenberg, de modo que todasas matrizes da sequencia QR sao de Hessenberg assim como os fatores Q:
6.8 Proposicao. Seja H
∈Mn (C) uma matriz de Hessenberg superior. Ent˜ ao toda matriz da sequencia
QR e tambem uma matriz de Hessenberg superior. Alem disso, os fatores Qk da decomposic˜ ao Ak−1 =QkRk tambem s ao Hessenberg superiores.
Prova: Assuma A invertıvel, de modo que todas as matrizes da sequencia QR sao invertıveis; em particular,os fatores Qk, Rk tambem sao invertıveis. Suponha por inducao que Ak−1 e uma matriz de Hessenbergsuperior. Seja Ak−1 = QkRk uma decomposicao QR de Ak−1. Afirmamos que
Qk = Ak−1R−1k
e uma matriz de Hessenberg superior. De fato, como a inversa de uma matriz triangular superior e umamatriz triangular superior, Qk e o produto de uma matriz de Hessenberg superior e de uma matriz triangularsuperior, logo tambem e uma matriz de Hessenberg superior. Segue que Ak = RkQk e o produto de umamatriz triangular superior e uma matriz de Hessenberg superior, logo tambem e uma matriz de Hessenberg
superior.O caso geral, em que A e singular, e um pouco mais difıcil. De fato, nao e verdade que toda decomposicao
QR de uma matriz de Hessenberg superior vai produzir um fator Q Hessenberg superior. Mas e possıvelprovar que e sempre possıvel escolher a decomposicao QR de tal forma que o fator Q produzido e Hessenbergsuperior (veja [Watkins]).
Antes de descrever o algoritmo que transforma uma matriz geral em uma matriz de Hessenberg superior(o custo da transformacao sera de 10
3 n3 flops) vamos introduzir o conceito de refletores de Householder quesao usados para introduzir zeros abaixo da subdiagonal inferior.
No que se segue assumiremos sempre a norma vetorial como sendo a norma euclidiana.
6.9 Definicao. Seja u ∈ Rn um vetor unitario. Entao o operador Q : Rn −→ Rn definido por
Q = I −
2uuT (6.11)
e chamado um refletor de Householder (ou simplesmente um refletor ).
A proposicao a seguir resume as propriedades que caracterizam uma reflexao:
6.10 Proposicao. Sejam u ∈ Rn um vetor unit´ ario e Q = I − 2uuT um refletor. Ent˜ ao
(i) Qu = −u.
(ii) Qv = v para todo v ⊥ u.
(iii) Q = QT ( Q e simetrico).
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 113/123
Rodney Josue Biezuner 112
(iv) QT = Q−1 ( Q e ortogonal).
(v) Q−1 = Q ( Q e uma involuc˜ ao).
Prova: (i) Usando o fato que uT
u = u, u = 1, temos
Qu = u − 2
uuT
u = u − 2u
uT u
= u − 2u = −u
(ii) Usando o fato que uT v = u, v = 0, temos
Qv = v − 2
uuT
v = u − 2u
uT v
= u − 0 = u.
(iii)
QT =
I − 2uuT T
= I − 2
uT T
uT = I − 2uuT = Q.
(iv),(v) Usando (iii) segue que
QQT = QQ = I − 2uuT
I − 2uuT
= I − 4uuT + 4uuT uuT
= I − 4uuT + 4u uT uuT = I − 4uuT + 4uuT
= I.
Em outras palavras Q = I − 2uuT leva cada vetor x ∈ Rn em sua reflexao com relacao ao hiperplanoH = v : u, v = 0 ortogonal a u.
A possibilidade do uso de refletores para criar zeros em matrizes segue do seguinte resultado:
6.11 Teorema. Sejam x, y ∈ Rn tais que x = y mas x = y. Ent˜ ao existe um ´ unico refletor tal que
Qx = y.
Prova: (Existencia) Para encontrar um vetor u tal que I −
2uuT x = y, primeiro notamos que o hiperplanode reflexao bisecta o angulo entre x e y, de modo que o vetor x − y deve ser perpendicular a este plano.Portanto, nosso candidato e
u =x − y
x − y . (6.12)
De fato, de (i) e (ii) da proposicao anterior, temos
Q (x − y) = y − x,
Q (x + y) = x + y,
poisx − y, x + y = x, x + x, y − y, x − y, y = x2 − y2 = 0.
Logo,Qx =
1
2[Q (x − y) + Q (x + y)] =
1
2[y − x + x + y] = y.
6.12 Corolario. Seja x ∈ Rn um vetor n˜ ao nulo. Ent˜ ao existe um refletor Q tal que
Q
x1x2...
xn
=
∗0...0
.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 114/123
Rodney Josue Biezuner 113
Prova: Escolha y = (±x , 0, . . . , 0) no teorema anterior, com o sinal escolhido de tal forma a garantir quex = y.
No caso complexo, basta tomar
Q = I − 2uu∗
(6.13)e temos resultados analogos, bastando substituir simetrico ortogonal por hermitiano unitario.
Vamos agora descrever o algoritmo para reduzir uma matriz geral A a forma de Hessenberg. Cada passointroduz os zeros nas posicoes desejadas de cada coluna, da primeira ate a ultima, em um total de n−2 passos(ja que evidentemente nao ha necessidade de transformar as ultimas 2 colunas da matriz para coloca-la naforma de Hessenberg). Primeiro faca uma particao por blocos de A na forma
A =
a11 cT
b A
Seja
Q1 : Fn−1 −→ Fn−1 um refletor (onde F = R ou C) tal que
Q1b =
τ 10...0
onde |τ 1| = b e τ 1b1 < 0. Defina o refletor Q1 : Fn −→ Fn
Q1 =
1 0T
0 Q1
e tome
A1/2 = Q1A = a11 cT
τ 1
0...0
Q1A
Entao
A1 = Q1AQ−11 = Q1AQ1 = A1/2Q1 =
a11 cT Q1
τ 10...0
Q1A Q1
=
a11 ∗ · · · ∗τ 10...0
A1
.
Este e o fim do primeiro passo: a matriz A1, semelhante a matriz A atraves de uma matriz ortogonal, temzeros na primeira coluna abaixo do primeiro elemento da subdiagonal.O segundo passo cria zeros na segunda coluna de A1, isto e, na primeira coluna de A1, nas posicoes
desejadas. Assim, usamos um refletor Q2 : Fn−2 −→ Fn−2 exatamente como no primeiro passo, exceto queusamos A1 ao inves de A, e definimos
Q2 =
1 00 1
0 · · · 00 · · · 0
0 0...
...0 0
Q2
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 115/123
Rodney Josue Biezuner 114
e
A3/2 = Q2A1 =
a11 ∗ ∗ · · · ∗τ 1 ∗ ∗ · · · ∗0...0
τ 2...0
Q2A1
.
Daı,
A2 = Q2A1Q−12 = Q2A1Q2 = A3/2Q2 =
a11 ∗ ∗ · · · ∗τ 1 ∗ ∗ · · · ∗0...0
τ 2...0
Q2A1 Q2
.
Procedemos desta forma em n−2 passos ate encontrar uma matriz de Hessenberg An−2 semelhante a matrizoriginal A atraves de uma matriz ortogonal Q = Qn−2 . . . Q2Q1.
6.3.2 Aceleracao do algoritmo QR
Ordene os autovalores de A na forma
|λ1| |λ2| . . . |λn| .
Considere uma sequencia (Ak) de iteradas do algoritmo QR tal que cada matriz Ak e de Hessenberg superior.Denote
Ak =
ak11 ak
12 ak13 ak
14 . . . . . . ak1n
ak21 ak
22 ak23 ak
24 . . . . . . ak2n
0 ak32 ak
33 ak34 . . . . . . ak
3n
0 0 ak43 a
k44
. .. . . . a
k4n
0 0 0. . .
. . .. . .
......
......
. . .. . .
. . .. . .
......
......
. . .. . .
. . . akn−1,n
0 0 0 0 . . . 0 akn,n−1 ak
nn
.
No algoritmo QR as entradas subdiagonais (ou a maioria delas) convergem para 0 quando n → ∞. Maisprecisamente, como veremos mais tarde, se
|λi| > |λi+1| ,
entao
aki+1,i → 0 com taxa de convergencia λi+1
λi
, i = 1, . . . , n − 1.
Portanto, uma maneira de acelerar a convergencia do algoritmo e decrescer os quocientes |λi+1/λi|. Um modode fazer isso e atraves do uso de um deslocamento, como no metodo das potencias. A matriz deslocada A−σI tem autovalores
|λ1 − σ| |λ2 − σ| . . . |λn − σ|e as taxas de convergencia associadas saoλi+1 − σ
λi − σ
, i = 1, . . . , n − 1.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 116/123
Rodney Josue Biezuner 115
Assim, se escolhermos σ suficientemente proximo de um autovalor arbitrario que chamaremos λn apos re-ordenar os ındices (e assumindo λn−1 = λn), aplicando o algoritmo QR a A − σI observaremos que a
(A − σI )kn,n−1 converge para 0 rapidamente. Uma vez que (A − σI )
kn,n−1 seja suficientemente pequeno, esta
entrada pode ser considerado 0 na pratica e, adicionando σI a iterada (A − σI )k do algoritmo QR, obtemos
Ak =
Ak
0...0
0 · · · 0 aknn
.
com aknn uma boa aproximacao para λn. Os autovalores restantes de Ak sao os autovalores de Ak. Podemos
entao aplicar o algoritmo QR a matriz Ak, que tem ordem um a menos que a ordem de A. Continuandodesta forma, usaremos o algoritmo QR em matrizes cada vez menores ate obter todos os autovalores de A.Este processo, em que o tamanho da matriz e reduzido cada vez que um autovalor e encontrado, e chamadodeflacao.
O proprio algoritmo QR pode ser usado para obter os valores para os deslocamentos σ, ja que depoisde algumas iteracoes a matriz esta proxima da forma triangular e os valores na diagonal principal estaoproximos aos autovalores de A. De fato, as entradas na diagonal principal sao quocientes de Rayleigh, jaque
akii = eT i Akei = Akei, ei .
Assim, o deslocamento pode ser modificado em cada iteracao, como no metodo da iteracao do quociente deRayleigh, usando-se
σk = aknn
de modo que
λi+1 − σk
λi − σk
→ 0 quando k → ∞
e obtemos uma taxa de convergencia melhor que linear. De fato, veremos que, como no metodo da iteracaodo quociente de Rayleigh, este algoritmo QR com deslocamento dado pelo quociente de Rayleighpossui convergencia quadratica em geral e cubica para matrizes hermitianas.
Na pratica, depois de apenas uma iteracao QR ja e seguro usar σ1 = a1nn. O unico efeito dessa escolha eque a ordem dos autovalores obtidos no processo nao e necessariamente crescente.
O deslocamento dado pelo quociente de Rayleigh pode falhar as vezes, por exemplo quando o deslocamentoobtido esta a mesma distancia de dois autovalores distintos, fazendo com que o metodo tenha dificuldadede “decidir” qual autovalor aproximar. Para evitar esta situacao, e preferıvel usar o deslocamento deWilkinson, que e definido como sendo o autovalor da submatriz 2 × 2
akn−1,n−1 ak
n−1,n
akn,n−1 ak
nn
que esta mais proximo de ak
nn. Ele e facil de calcular porque e a raiz de um polinomio do segundo grau. Epossıvel provar para matrizes simetricas tridiagonais o algoritmo QR com deslocamento de Wilkinson sempreconverge. Alem disso, como estamos usando maior informacao para obter o deslocamento, a taxa convergenciano mınimo igual a do algoritmo QR usando o deslocamento dado pelo quociente de Rayleigh e muitas vezesmelhor. Em geral, existem apenas casos muito especiais de matrizes para as quais o deslocamento deWilkinson falha. A experiencia tem mostrado que sao necessarias apenas 5 ou 9 iteracoes do algoritmoQR para obter uma aproximacao satisfatoria para o primeiro autovalor e de 3 a 5 iteracoes em media paraos autovalores restantes (as vezes menos); para matrizes hermitianas, 2 ou 3 iteracoes em media bastam.O deslocamento de Wilkinson tem a vantagem inicial de que pode ser usado para aproximar autovalorescomplexos de matrizes reais, ja que ele pode ser um numero complexo, enquanto que o quociente de Rayleigh
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 117/123
Rodney Josue Biezuner 116
de uma matriz real sempre e um valor real. Para maiores detalhes sobre as informacoes contidas este paragrafoveja [Watkins].
Por fim, as vezes ocorre durante as iteracoes do algoritmo QR que um elemento da subdiagonal inferior
localizado proximo ao meio da matriz e suficientemente proximo de 0. Neste caso a matriz Ak tem a formaem blocos B11 B12
0 B22
e o problema pode ser quebrado em dois, aplicando o algoritmo QR aos blocos B11 e B22 separadamente.Como o custo de uma iteracao QR de Hessenberg e O
n2
, dividindo o tamanho da matriz pela metadeimplica numa diminuicao do custo por um fator de 4.
6.3.3 Implementacao pratica do algoritmo QR
Veja [Watkins].
6.4 Iteracao de subespacos e iteracao simultaneaNo metodo das potencias ou iteracao direta, ao inves de iterarmos apenas um vetor, podemos considerar aiteracao de um subespaco inteiro: se S ⊂ Fn (onde F = R ou C), consideramos as iteradas
S,AS,A2S , . . .
Cada iterada AkS e um subespaco de Fn que pode ser caracterizado por
AkS =
Akx : x ∈ S
.
Como no metodo da iteracao direta as iteradas convergem para o autovetor dominante, esperamos que estessubespacos iterados convirjam para um autoespaco. Para verificar isso, precisamos definir uma nocao de
distancia entre subespacos vetoriais.
6.13 Definicao. Dados dois subespacos S, T ⊂ Fn, a distancia entre eles e definida por
dist(S, T ) = sen θ
onde θ e o maior angulo principal entre S e T . Dizemos que uma sequencia de subespacos S kconverge para S se dist(S k, S ) → 0 e denotamos este fato por S k → S .
6.14 Teorema. Seja A ∈ Mn (F) diagonaliz´ avel com autovalores
|λ1| |λ2| . . . |λn|
e uma correspondente base de autovetores
v1, . . . , vn
. Suponha que|λm
|>
|λm+1
|para algum m.
Sejam
T m = v1, . . . , vm ,
U m = vm+1, . . . , vn .
Seja S um subespaco vetorial de dimens˜ ao m tal que S ∩ U m = 0. Ent˜ ao existe uma constante C tal que
dist
AkS, T m C
λm+1
λm
Em particular, AkS → T m linearmente com taxa de convergencia |λm+1/λm|.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 118/123
Rodney Josue Biezuner 117
Prova: Uma demonstracao rigorosa deste teorema esta alem dos propositos deste curso. Daremos apenasalgumas ideias para justificar o resultado.
Em primeiro lugar, observe que dim AkS = m para todo k. De fato, temos
ker Ak ⊂ U m. (6.14)
Isso pode ser facilmente visto escrevendo os vetores em coordenadas: dado um vetor v =n
i=1 aivi, temos
Akv =n
i=1
aiλki vi,
de modo que Akv = 0 implica a1 = . . . = am = 0 pois v1, . . . , vn sao linearmente independentes e λ1, . . . , λm
sao nao nulos, ja que |λ1| . . . |λm| > |λm+1| 0. Daı, (6.14) juntamente com dim S = m e S ∩U m = 0implicam imediatamente que dim AkS = m para todo k.
Agora, seja v ∈ S um vetor nao nulo. Escrevendo
v =n
i=1
aivi
segue de S ∩U m = 0 que pelo menos um dos escalares a1, . . . , am e nao nulo (assim, a condicao S ∩U m = 0e equivalente a exigir no metodo das potencias que o vetor inicial tenha uma componente na direcao doautovetor dominante; aqui exigimos que cada vetor do subespaco tenha uma componente no autoespacodominante). Temos
Akv
λkm
=
mi=1
ai
λi
λm
k
vi +
ni=m+1
ai
λi
λm
k
vi.
As componentes do vetor “normalizado” Akv/λkm no subespaco U m tendem a zero quando k aumenta com
taxa de convergencia
|λm+1/λm
|ou melhor (dependendo dos valores de am+1, . . . , an), consequentemente o
vetor limite esta no subespaco T m. Como cada subsespaco AkS tem dimensao m, o limite dos subespacosnao pode ser um subespaco proprio de T m. Observe que a condicao S ∩ U m = 0 ocorre quase sempre para uma escolha aleatoria do subespaco m-dimensional S (por exemplo, no caso de R3 a escolha aleatoria de uma reta e um plano quase sempre resultaraque o unico ponto em que eles se interceptam e a origem).
Para fazer a iteracao de subespacos na pratica, deve-se escolher uma base para S e iterar todos osvetores desta base simultaneamente. No processo de iterar o subespaco, devemos obviamente ortonormalizara base do subespaco AkS em cada passo da iteracao, usando um algoritmo robusto tal como o MGS comreortogonalizacao. Este processo todo e chamado iteracao simultanea.
Em notacao matricial, a iteracao simultanea pode ser descrita da seguinte maneira. Seja S um subespacode dimensao m com base v1, . . . , vm. Utilizando um algoritmo robusto, encontramos uma base ortonormalq1, . . . , qm. Formamos entao uma matriz inicial n × m com colunas ortonormais:
Q0 = q01 · · · q0m .
Em cada passo k da iteracao, calculamosBk = AQk
e fazemos a decomposicao QR de Bk para obter uma base ortonormal para o subespaco AkS : se
Bk = Qk+1Rk+1,
entao as colunas ortonormais de Qk+1 formam uma base ortonormal para AkS . No limite, teremos que ascolunas das matrizes Qk convergem para os m autovetores dominantes (nas condicoes do teorema anterior).
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 119/123
Rodney Josue Biezuner 118
6.4.1 Equivalencia entre o Algoritmo QR e Iteracao Simultanea
O algoritmo QR puro e equivalente a iteracao simultanea aplicada a matriz identidade, isto e, tomandoQ0 = I . Ou seja, se na iteracao simultanea Q0 = I,
Bk−1 = AQk−1,Bk−1 = QkRk,
(6.15)
definirmos
Ak = Q∗kAQk, (6.16)
Rk = Rk · · · R1 (6.17)
e, reciprocamente, no algoritmo QR
A0 = A,Ak−1 = QkRk,Ak = RkQk,
(6.18)
definirmos Qk = Q1 · · · Qk, (6.19) Rk = Rk · · · R1 (6.20)
segue que
Ak = Ak, (6.21)
Qk =
Qk, (6.22)
Rk = Rk. (6.23)
De fato, afirmamos que as matrizes Qk, Rk e as matrizes Qk, Rk sao ambas caracterizadas como sendo adecomposicao QR (portanto unica) da matriz Ak, a k-esima potencia de A:
Ak = QkRk = Qk Rk. (6.24)
A verificacao de todos estes fatos segue por inducao. O caso k = 0 e imediato, ja que B0 = A. Comohipotese de inducao, assumimos
Ak−1 = Ak−1,
Ak−1 =
Qk−1
Rk−1 = Qk−1Rk−1,
donde
Qk−1 = Qk−1,
Rk−1 = Rk−1.
Daı, no caso da iteracao simultanea temos
Ak = AAk−1 = AQk−1Rk−1 = QkRkRk−1 = QkRk,
enquanto que no algoritmo QR temos
Ak = AAk−1 = A
Qk−1
Rk−1 =
Qk−1Ak−1
Rk−1 =
Qk−1QkRk
Rk−1 =
Qk
Rk.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 120/123
Rodney Josue Biezuner 119
Portanto,
Ak = QkRk =
Qk
Rk
donde
Qk = Qk,
Rk = Rk.
Finalmente, pelo algoritmo QR podemos escrever (como em (6.10))
Ak = Q∗kAk−1Qk,
donde, pela hipotese de inducao,
Ak = Q∗kAk−1Qk = Q∗
kQ∗
k−1AQk−1Qk = Q∗k
Q∗
k−1A
Qk−1Qk
= Q∗kQ∗
k−1
· · ·Q∗1AQ1
· · ·Qk−1Qk = Q
∗kA Qk
= Ak.
6.4.2 Convergencia do Algoritmo QR
Por simplicidade considere A simetrica. A relacao
Ak = Qk Rk = (Q1 · · · Qk) (Rk · · · R1)
explica porque o algoritmo QR encontra os autovetores de A: ele constroi bases ortonormais para o espacocoluna das potencias sucessivas Ak (e as colunas de Ak sao Ake1, . . . , Aken). A relacao
Ak =
Qt
kA
Qk
explica porque o algoritmo QR encontra os autovalores de A: os elementos da diagonal de Ak sao os quocientesde Rayleigh correspondentes as colunas de Qk, isto e, aos autovetores de A. Como os autovetores de A saoortogonais e A-ortogonais, os elementos fora da diagonal principal tambem convergem para 0.
6.5 Metodo de Arnoldi e Algoritmo de Lanczos
Para matrizes esparsas, nao simetricas, o metodo de Arnoldi e o metodo mais usado para encontrar osautovalores e autovetores, e para matrizes simetricas esparsas o metodo escolhido e o algoritmo de Lanczos.
Na Proposicao 5.7 vimos que no metodo de Arnoldi obtemos
AQm = Qm+1
H m (6.25)
onde
Qm =
q1 . . . qm
,
Qm+1 =
q1 . . . qm qm+1
,
sao matrizes com colunas ortonormais e H m e uma matriz de Hessenberg superior (m + 1) × m (na notacaodaquela proposicao, a matriz Qm e denotada por V m). Como naquela proposicao, denote por H m a matriz
de Hessenberg superior quadrada obtida atraves de H m quando suprimimos a ultima linha desta. Segue que
AQm = QmH m + qm+1
0 . . . 0 hm+1,m
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 121/123
Rodney Josue Biezuner 120
ouAQm = QmH m + qm+1hm+1,metm. (6.26)
Como vimos no capıtulo anterior, se q , A q , . . . , Amq sao linearmente independentes, entao hm+1,m
= 0. Se
eles sao linearmente dependentes, entao hm+1,m = 0 e
AQm = QmH m. (6.27)
6.15 Proposicao. Sejam A ∈ Mn (F) e q1, . . . , qm ∈ Fn linearmente independentes. Sejam S = q1, . . . , qme considere a matriz n × m
Q =
q1 . . . qm
.
Ent˜ ao S e invariante sob A se e somente se existe algum B ∈ Mm (F) tal que
AQ = QB.
Alem disso, todo autovalor de B e um autovalor de A com autovetor correspondente em S .
Prova. Se existe tal B, entao
Aqj =mi=1
qibij ∈ S.
Reciprocamente, se S e invariante sob A, entao para cada ındice j = 1, . . . , m existem escalares bij tais que
Aqj =
mi=1
bijqi.
Defina B = (bij). Se w e um autovetor de B com autovalor λ, entao v = Qw ∈ S e um autovetor de A comautovalor λ. Portanto, os autovalores da matriz de Hessenberg H m sao tambem autovalores de A. Se m nao e muito
grande, podemos entao usar o algoritmo QR para encontrar os autovalores de H m. Na pratica, dificilmenteobteremos hm+1,m = 0 exatamente, mas se hm+1,m e proximo de zero podemos esperar que estamos proximosde um subespaco invariante e, portanto, que os autovalores de H m estao proximos aos autovalores de A:
6.16 Teorema. Sejam Qm, H m e hm+1,m gerados pelo metodo de Arnoldi. Seja λ um autovalor de H mcom autovetor unit´ ario x. Seja v = Qmx. Ent˜ ao
Av − λv = |hm+1,m| |xm|
onde xm denota a ´ ultima componente de x.
O metodo de Arnoldi em geral obtem os autovalores perifericos. Os autovalores interiores podem ser encon-tradas atraves da estrategia do deslocamento.
Quando A e simetrica, como vimos no capıtulo anterior H m e uma matriz tridiagonal T m que pode serobtida atraves de uma formula de recorrencia.
Veja [Watkins] para detalhes sobre implementacoes eficientes do metodo de Arnoldi e algoritmo de Lanczospara encontrar autovalores e autovetores de matrizes esparsas.
6.6 O Problema de Autovalor Simetrico
Para matrizes simetricas, existem algoritmos bem mais eficiente que o algoritmo QR. Veja [Parlett],[Trefethen-Bau], entre outros.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 122/123
Rodney Josue Biezuner 121
6.7 Exercıcios
6.1 Suponha que A ∈ Mn (C) e uma matriz diagonalizavel tal que nenhum autovalor de A diferente do
autovalor dominante λ1 tem modulo igual a A. Em outras palavras, se r e a dimensao do autoespacoassociado a λ1, ou autovalores de A satisfazem
|λ1| = . . . = |λr| > |λ2| . . . |λn|
comλ1 = . . . = λr.
Mostre que o metodo das potencias pode ser aplicado a A para encontrar λ1 e um autovetor unitariono autoespaco associado a λ1.
6.2 Usando a forma canonica de Jordan , mostre que a hipotese de A ser diagonalizavel pode ser removidada hipotese do exercıcio anterior decompondo o vetor inicial v0 como a soma de um vetor na direcaodo autovetor dominante v1 e de vetores principais nos subespacos de Jordan da matriz.
6.3 Prove a Proposicao 6.7 sem assumir que o autovalor e simples.
6.4 Prove que o produto de uma matriz triangular superior e uma matriz de Hessenberg superior e umamatriz de Hessenberg superior. O que se pode dizer sobre o produto de duas matrizes de Hessenbergsuperiores?
6.5 Prove a unicidade do refletor na Proposicao 6.11.
5/9/2018 Algebra Linear Numerica - slidepdf.com
http://slidepdf.com/reader/full/algebra-linear-numerica 123/123
Referencias Bibliograficas
[BHM] William L. BRIGGS, Van Emden HENSON e Steve F. McCORMICK, A Multigrid Tutorial , 2nd. Ed., SIAM, 2000.
[Demmel] James W. DEMMEL, Applied Numerical Linear Algebra , SIAM, 1997.
[Hackbusch] W. HACKBUSCH, Iterative Solutions of Large Sparse Systems of Equations, AppliedMathematical Sciences 95, Springer-Verlag, 1994.
[Hoffman-Kunze] K. HOFFMAN e R. KUNZE, Linear Algebra , 2nd. Ed., Prentice Hall, 1971.
[Horn-Johnson] Roger A. HORN e Charles R. JOHNSON, Matrix Analysis, Cambridge UniversityPress, 1985.
[Komzsik] Louis KOMZSIK, The Lanczos Method: evolution and application , SIAM, 2003.
[Kreyszig] KREYSZIG, E., Introductory Functional Analysis with Applications, John Wiley &Sons, 1978.
[Mak] Ronald MAK, Java Number Cruncher: the Java Programmer’s Guide to Numerical
Computing , Prentice Hall, 2003.[Meurant] Gerard MEURANT, The Lanczos and Conjugate Gradient Algorithms: from theory
to finite precision computations, SIAM, 2006.
[Parlett] Beresford N. PARLETT, The Symmetric Eigenvalue Problem , SIAM, 1998.
[Saad] Yousef SAAD, Iterative Methods for Sparse Linear Systems, 2nd Ed., SIAM, 2003.
[Stoer-Bulirsch] Josef STOER e Roland BULIRSCH, Introduction to Numerical Analysis, 3rd Ed.,Springer, 2002.
[Strang] Gilbert STRANG, Linear Algebra and its Applications, 3rd Ed., Harcourt Brace Jo-vanovich, 1988.
[Trefethen-Bau] Lloyd N. TREFETHEN e David BAU, Numerical Linear Algebra , SIAM, 1997.
[van der Vorst] Henk A. van der VORST, Iterative Krylov Methods for Large Linear Systems, Cam-bridge University Press, 2003.
[Watkins] David S. WATKINS, Fundamentals of Matrix Computations, 2nd Ed., John Wiley &Sons, 2002.
[Young] David M. YOUNG, Iterative Solutions of Large Linear Systems, Academic Press,1971.
122