Cap´ıtulo 2 Algebra Matricial Computacionalpulino/MDF_AsTeCA/Textos2008/cap02.pdf · °c Petronio...
Transcript of Cap´ıtulo 2 Algebra Matricial Computacionalpulino/MDF_AsTeCA/Textos2008/cap02.pdf · °c Petronio...
c©Petronio Pulino, 2008 DMA – IMECC – UNICAMP
Capıtulo 2
Algebra Matricial Computacional
2.1 Introducao
Inicialmente vamos apresentar algumas notacoes e resultados no espaco vetorial real IRn,
com o objetivo de facilitar e tornar uniforme as representacoes matriciais. Necessitamos do
conceito de produto interno num espaco vetorial real (ou complexo), que sera amplamente
utilizado no desenvolvimento dos topicos abordados. Apresentaremos tambem resultados
espectrais para matrizes simetrica e positiva–definida, que serao necessarios para o desenvol-
vimento do topico sobre normas matriciais.
Definicao 2.1 (Produto Interno) Seja V um espaco vetorial real. O Produto Interno
sobre V , que vamos denotar por 〈 · , · 〉 , e uma funcao que associa a cada par ordenado
(x, y) ∈ V × V um escalar 〈x , y 〉 ∈ IR que satisfaz as seguintes propriedades
1. Simetria: 〈x , y 〉 = 〈 y , x 〉 ; ∀ x, y ∈ V
2. Positividade: 〈x , x 〉 > 0 ; ∀ x ∈ V nao nulo
3. Linearidade: 〈x + y , z 〉 = 〈x , z 〉 + 〈 y , z 〉 ; ∀ x, y, z ∈ V
4. Homogeneidade: 〈λx , y 〉 = λ 〈x , y 〉 ; ∀ x, y ∈ V e λ ∈ IR
Desse modo, temos o conceito geometrico de ortogonalidade, isto e, dizemos que os elemen-
tos x, y ∈ V nao nulos sao ortogonais se 〈x , y 〉 = 0. Assim, dizemos que conjunto
{ v1 . . . , vn } de elementos nao nulos de V e ortogonal se 〈 vi , vj 〉 = 0 para i 6= j.
Um resultando interessante sobre conjunto de elementos mutuamente ortogonais e a propri-
edade de independencia linear.
5
6 Metodos de Diferencas Finitas
No caso de espaco vetorial complexo, o produto interno passa a ter a propriedade de Sime-
tria Hermitiana, isto e, 〈x , y 〉 = 〈 y , x 〉 ; ∀ x, y ∈ V , no lugar da propriedade de
simetria. Esta propriedade vai ser importante para manter a positividade em certos casos.
Seja β = { e1, · · · , en } a base canonica do IRn. Assim todo elemento x ∈ IRn e escrito
de modo unico da seguinte forma
x =n∑
i=1
xi ei
que numa notacao matricial, representamos por um vetor coluna da forma
x =
x1
...
xn
Assim, o produto interno usual do IRn, que vamos denotar por 〈 · , · 〉 , denominado
produto interno Euclidiano, pode ser escrito da seguinte forma
〈x , y 〉 =n∑
i=1
xi yi = yt x para todo x, y ∈ IRn
No espaco vetorial complexo Cn, o produto interno usual, denominado produto interno
Hermitiano, e escrito da seguinte forma
〈x , y 〉 =n∑
i=1
xi yi = yH x para todo x, y ∈ Cn
A notacao yH representa a transposta Hermitiana.
Vamos denotar por IMn(IR) o espaco vetorial real das matrizes reais de ordem n e por
IMn(C) o espaco vetorial complexo das matrizes complexas de ordem n.
Capıtulo 2. Algebra Matricial Computacional 7
2.2 Matrizes Especiais
Teorema 2.1 Seja A ∈ IMn(IR). Entao, para todo x, y ∈ IRn tem–se que
〈Ax , y 〉 = 〈x , Aty 〉 (2.1)
Demonstracao – Utilizando a notacao matricial para o produto interno usual do IRn e a
propriedade (AB)t = Bt At, o resultado acima e imediato. ¤
Definicao 2.2 (Matriz Hermitiana) Seja A ∈ IMn(C). Dizemos que A e uma matriz
Hermitiana se AH = A.
Teorema 2.2 Seja A ∈ IMn(C) Hermitiana. Entao, para todo x, y ∈ Cn tem–se que
〈Ax , y 〉 = 〈x , Ay 〉 (2.2)
Demonstracao – A prova pode ficar a cargo do leitor. ¤
Definicao 2.3 (Matriz Ortogonal) Dizemos que Q ∈ IMn(IR) e uma matriz ortogonal
se Qt Q = I. Desse modo, tem–se Q−1 = Qt . Assim, QQt = I.
Note que, Q ∈ IMn(IR) e ortogonal se, e somente se, as suas colunas ( e as suas linhas )
formam um conjunto de vetores ortonormais em IRn. E facil mostrar que, se Q1 e Q2
sao ortogonais, entao Q1Q2 e uma matriz ortogonal.
Definicao 2.4 (Matriz Unitaria) Dizemos que U ∈ IMn(C) e uma matriz unitaria se
UH U = I. Desse modo, tem–se U−1 = UH . Assim, U UH = I.
Um resultado importante sobre o produto interno usual do IRn e a sua propriedade de ser
invariante sobre transformacao ortogonal. Assim, segue o seguinte resultado.
Teorema 2.3 Seja Q ∈ IMn(IR) ortogonal. Entao, para todo x, y ∈ IRn temos que
1. 〈Qx , Q y 〉 = 〈x , y 〉
2. ‖Qx ‖2 = ‖x ‖2
Demonstracao – A prova pode ficar a cargo do leitor. ¤
Note que, este resultado tambem e valido em Cn , isto e, o produto interno usual em C
n e
invariante por transformacao unitaria. Este resultado sera bastante utilizado nas analises de
normas matriciais.
8 Metodos de Diferencas Finitas
Definicao 2.5 (Matriz Normal) Dizemos que a A ∈ IMn(C) e uma matriz normal se
AAH = AHA. Dizemos que a A ∈ IMn(IR) e uma matriz Normal se AAt = AtA.
Definicao 2.6 (Matriz Idempotente) Dizemos que A ∈ IMn(IR) e uma matriz idempo-
tente se A2 = A, isto e, A(Ax) = Ax para todo x ∈ IRn.
Teorema 2.4 Seja A ∈ IMn(IR) uma matriz idempotente. Entao, seus autovalores sao
λ1 = 1 e λ2 = 0.
Demonstracao – A prova pode ficar a cargo do leitor. ¤
Definicao 2.7 (Matriz Auto–Reflexiva) Dizemos que A ∈ IMn(IR) e uma matriz auto–
reflexiva se A2 = I, isto e, A(Ax) = x para todo x ∈ IRn.
Teorema 2.5 Seja A ∈ IMn(IR) uma matriz auto–reflexiva. Entao, seus autovalores sao
λ1 = 1 e λ2 = −1.
Demonstracao – A prova pode ficar a cargo do leitor. ¤
Definicao 2.8 (Matriz Positiva–Definida) Seja A ∈ IMn(IR) simetrica (At = A).
Dizemos que A e positiva–definida se xt Ax ≥ 0 , com xt Ax = 0 ⇐⇒ x = 0.
Exemplo 2.1 Seja A ∈ IMn(IR) positiva–definida. Entao, todos os elementos da diagonal
principal sao positivos, isto e, aii > 0 para i = 1, · · · , n.
Exemplo 2.2 Seja A ∈ IMn(IR) positiva–definida. Entao, a submatriz principal Ak , para
k = 1, · · · , n, e positiva–definida.
Teorema 2.6 Seja A ∈ IMn(IR) positiva–definida. Entao, A e nao singular.
Demonstracao Vamos supor por absurdo que a matriz A seja singular, isto e, existe um
elemento x ∈ IRn nao nulo tal que Ax = 0. Desse modo, temos que
〈Ax , x 〉 = xt Ax = 0
mas isso e uma contradicao, pois A e positiva–definida. Logo A e nao singular. ¥
Exemplo 2.3 Seja A ∈ IMn(IR) positiva–definida. Mostre que, A−1 e positiva–definida.
Capıtulo 2. Algebra Matricial Computacional 9
Teorema 2.7 Seja A ∈ IMn(IR) positiva–definida. Entao, f : IRn × IRn −→ IR uma
aplicacao definida da seguinte forma
f(x, y) = 〈Ax , y 〉 para todo x , y ∈ IRn
onde 〈 · , · 〉 e o produto interno usual do IRn, define um produto interno em IRn.
Demonstracao A prova pode ficar como exercıcio para o leitor, pois segue das propriedades
do produto interno 〈 · , · 〉 e do resultado apresentado no Teorema (2.1), no caso em que
A e simetrica. ¤
Usualmente este novo produto interno e denominado Produto Interno Energia, e denotamos
por 〈 · , · 〉A . Este resultado e muito importante para o estudo de varios metodos numericos,
como por exemplo, o Metodo dos Gradientes Conjugados, que veremos mais a frente.
Definicao 2.9 Dizemos que os elementos x, y ∈ IRn, nao nulos, sao A–conjugados se
〈x , y 〉A = 0, isto e, sao ortogonais com relacao ao produto interno energia.
Definicao 2.10 Dizemos que a matriz A = [aij] ∈ IMn(IR) e Estritamente Diagonalmente
Dominante por Linhas se
|aii| >n∑
j = 1
j 6= i
|aij| ; i = 1, . . . , n
Definicao 2.11 Dizemos que a matriz A = [aij] ∈ IMn(IR) e Estritamente Diagonalmente
Dominante por Colunas se
|ajj| >
n∑
i = 1
i 6= j
|aij| ; j = 1, . . . , n
10 Metodos de Diferencas Finitas
Em geral, temos que obter solucoes numericas de sistemas lineares que sao provenientes da
discretizacao de problemas de valores de contorno, tanto pelo Metodo de Diferencas Finitas
quanto pelo Metodo dos Elementos Finitos. Alem disso, devemos mostrar a unicidade da
solucao discreta, bem como fazer uma analise de estabilidade do esquema numerico. Desse
modo, necessitamos de alguns resultados para matriz simetrica e positiva–definida, como por
exemplo, analise espectral e norma espectral. Assim, passamos a apresentar os seguintes
resultados preliminares.
2.3 Transformacao de Similaridade
Definicao 2.12 (Similaridade) Dizemos que as matrizes A, B ∈ IMn(IR) sao similares
se existe uma matriz nao singular P ∈ IMn(IR) tal que B = P−1AP .
Teorema 2.8 Sejam A, B ∈ IMn(IR) similares. Entao, as matrizes A e B possuem o
mesmo polinomio caracterıstico, isto e, os mesmos autovalores.
Demonstracao – A prova pode ficar a cargo do leitor. ¤
Este resultado mostra que a transformacao de similaridade preserva a multiplicidade algebrica
dos autovalores.
Teorema 2.9 Sejam A, B ∈ IMn(C) similares. Entao, v e um autovetor de A associado
ao autovalor λ se, e somente se, P−1v e um autovetor de B associado ao autovalor λ.
Demonstracao – A prova pode ficar a cargo do leitor. ¤
Este resultado mostra que a transformacao de similaridade preserva a multiplicidade geometrica
dos autovalores.
Exemplo 2.4 Sejam A, B ∈ IMn(IR) similares. Mostre que se A e nao singular, entao
B e nao singular e as matrizes A−1 e B−1 sao similares.
Demonstracao – A prova pode ficar a cargo do leitor. ¤
Definicao 2.13 Dizemos que as matrizes A, B ∈ IMn(IR) sao ortogonalmente similares se
existe uma matriz ortogonal Q ∈ IMn(IR) tal que B = QtAQ.
Definicao 2.14 Dizemos que as matrizes A, B ∈ IMn(C) sao unitariamente similares se
existe uma matriz unitaria U ∈ IMn(C) tal que B = UHAU .
Capıtulo 2. Algebra Matricial Computacional 11
2.4 Diagonalizacao de Matrizes Especiais
Teorema 2.10 (Diagonalizacao) Seja A ∈ IMn(IR) que possui um conjunto linearmente
independente de autovetores v1 , · · · , vn associados aos autovalores λ1 , · · · , λn. Definimos
D = diag( λ1 , · · · , λn ) uma matriz diagonal e V = [v1 · · · vn] uma matriz nao singular.
Entao, V −1AV = D. Reciprocamente, Se V −1 AV = D , onde D e uma matriz diagonal
e V nao singular. Entao, as colunas da matriz V formam um conjunto linearmente
independente de autovetores de A e os elementos da diagonal principal de D sao os
autovalores de A.
Demonstracao Temos que Avi = λi vi para i = 1, . . . , n. Escrevendo na forma
matricial, tem–se AV = V D. Como V e nao singular, obtemos V −1 AV = D. A prova
da recıproca e feita com os argumentos de forma reversa. ¥
Teorema 2.11 (Decomposicao de Schur) Seja A ∈ IMn(C). Entao, existe uma matriz
unitaria U ∈ IMn(C) e uma matriz triangular superior T ∈ IMn(C) tais que UHAU = T .
Demonstracao A prova e feita por inducao sobre a ordem da matriz. Para n = 1 o
resultado e trivial. Supomos que o resultado seja valido para n = k − 1 , e vamos mostrar
que e valido para n = k.
Seja A uma matriz de ordem k e (λ , v) um autopar com 〈 v , v 〉 = 1. Seja U1 uma
matriz unitaria que possui v como sua primeira coluna, e as outras colunas consideramos
como sendo o completamento para uma base ortonormal do espaco vetorial Ck . Seja W
uma submatriz de ordem k× (k− 1) de U1 considerando da segunda coluna ate a k–esima
coluna, isto e, U1 = [v W ] . Note que, WH v = 0.
Consideramos agora a matriz A1 = UH1
AU1 , que e representada da seguinte forma
A1 =
vH
WH
A[v W
]=
vH Av vH AW
WH Av WH AW
Temos que Av = λ v , assim obtemos vH Av = λ e WH Av = λWH v = 0 .
Assim, tomando a matriz A = WH AW de ordem (k − 1) e o vetor w = WH AH v,
temos que a matriz A1 tem a seguinte forma
A1 =
λ wH
0 A
12 Metodos de Diferencas Finitas
Pela hipotese de inducao, temos que existe uma matriz unitaria U2 e uma matriz triangular
superior T , de ordem (k − 1) , tais que T = UH2
A U2 . Definimos uma matriz U2 , de
ordem k , da seguinte forma
U2 =
1 0t
0 U2
Desse modo, temos que U2 e uma matriz unitaria e UH2
A1 U2 = T e uma matriz triangular
superior, que tem a seguinte forma
T =
λ wH U2
0 T
Fazendo U = U1 U2 , obtemos T = UH2
A1 U2 = UH2
UH1
AU1 U2 = UH A U . Assim,
obtemos o resultado desejado. ¥
Note que, os elementos da diagonal principal da matriz T sao os autovalores da matriz
A, de acordo com o Teorema 2.8. O Teorema de Schur mostra que podemos construir uma
matriz triangular superior similar a matriz A atraves de transformacoes unitarias, obtendo
assim os seus autovalores.
Teorema 2.12 (Teorema Espectral) Seja A ∈ IMn(C) Hermitiana. Entao, existe uma
matriz unitaria U ∈ IMn(IR) e uma matriz diagonal D ∈ IMn(IR) tais que UHAU = D.
As colunas da matriz U sao os autovetores de A e os elementos da diagonal de D sao os
autovalores de A.
Demonstracao A prova segue do Teorema de Schur. De fato, sabemos que existe uma
matriz U unitaria e uma matriz triangular superior T tais que T = UH AU . Como A
e Hermitiana temos que TH = UH AU , logo, tem–se TH = T implicando que T e uma
matriz diagonal real. A segunda parte do teorema segue imediatamente do Teorema 2.10, o
que completa a demonstracao. ¥
Capıtulo 2. Algebra Matricial Computacional 13
Teorema 2.13 Seja A ∈ IMn(IR) simetrica. Entao, existe Q ∈ IMn(IR) ortogonal e uma
matriz diagonal D ∈ IMn(IR) tais que QtAQ = D. As colunas da matriz Q sao os
autovetores de A e os elementos da diagonal de D sao os autovalores de A.
Demonstracao A prova e feita seguindo a demonstracao do Teorema de Schur, que e o caso
complexo, observando que para matriz simetrica devemos fazer as construcoes considerando
espaco vetorial real. A prova e feita por inducao sobre a ordem da matriz. E facil ver que
o resultado e valido para matrizes de ordem 1. Supomos que o resultado seja valido para
matrizes de ordem (n − 1) , para n ≥ 2 , e vamos mostrar que o resultado e valido para
matrizes de ordem n.
Como A e uma matriz real e simetrica, sabemos que qualquer autovalor λ e real, e pos-
sui um autovetor v ∈ IRn associado, escolhido com 〈 v , v 〉 = 1. Seja Q1 ortogonal
com v sua primeira coluna, e as outras colunas consideramos como sendo o completamento
para uma base ortonormal do espaco vetorial IRn , que vamos representar por Q1 = [v W ] .
Seja A1 = Qt1AQ1 . Entao, a matriz A1 e real e simetrica, e de mesmo modo como na
prova do teorema de Schur, podemos representa–la da seguinte forma
A1 =
vt
W t
A[v W
]=
vt Av ( W t Av )t
W t Av W t AW
Temos que Av = λ v, assim obtemos vt Av = λ e W t Av = λW t v = 0. Tomando
a matriz A = W t AW de ordem (n − 1) , temos que a matriz A1 possui a forma
A1 =
λ 0t
0 A
Como A e uma matriz real e simetrica de ordem (n − 1), pela hipotese de inducao, temos
que existe uma matriz ortogonal Q2 e uma matriz diagonal D, de ordem (n − 1) , tais
que D = Qt2
A Q2. Assim, podemos definir uma matriz ortogonal Q2 de ordem n,
representada da seguinte forma
Q2 =
1 0t
0 Q2
Desse modo, temos que Qt2A1 Q2 = D e uma matriz diagonal, que tem a seguinte forma
D =
λ 0t
0 D
14 Metodos de Diferencas Finitas
Fazendo Q = Q1 Q2 obtemos D = Qt2A1 Q2 = Qt
2Qt
1AQ1 Q2 = Qt AQ. A segunda
parte do teorema segue imediatamente do Teorema 2.10, o que completa a demonstracao. ¥
Este resultado mostra que podemos obter os autovalores e autovetores de uma matriz real e
simetrica atraves de transformacoes ortogonais.
Teorema 2.14 Seja A ∈ IMn(IR) simetrica. As seguintes afirmacoes sao equivalentes
1. A e positiva–definida, isto e, 〈Ax , x 〉 > 0 para todo x ∈ IRn nao nulo
2. Os autovalores de A sao positivos
3. Os autovalores de todas as submatrizes principais Ak sao positivos
4. Existe uma matriz R ∈ IMn(IR) nao singular tal que A = RtR
Demonstracao Inicialmente vamos mostrar que a condicao (1 ) implica na condicao (2 ).
Para isso, seja λ um autovalor de A com o autovetor v associado, tomando 〈 v , v 〉 = 1.
Assim, temos que
0 < 〈Av , v 〉 = 〈λ v , v 〉 = λ
mostrando que os autovalores da matriz A sao todos positivos.
Agora, consideramos que os autovalores de uma matriz A simetrica sao todos positivos, e
vamos mostrar que A e positiva–definida. Para isso, vamos tomar um elemento x ∈ IRn
nao nulo, que nao seja um autovetor de A . Sabemos que como A e simetrica, possui
com conjunto completo de autovetores mutuamente ortonormais. Assim podemos escrever o
elemento x como uma combinacao linear desses autovetores x = c1 v1 + · · · + cn vn.
Desse modo, temos que
〈Ax , x 〉 = 〈 ( c1 λ1 v1 + · · · + cn λn vn ) , ( c1 v1 + · · · + cn vn ) 〉
Como os autovetores v1, · · · , vn sao mutuamente ortonormais, temos que
〈Ax , x 〉 = c2
1λ1 + · · · + c2
n λn > 0
o que mostra que a matriz A e positiva–definida. Assim, mostramos que a condicao (2 )
implica na condicao (1 ). Portanto, mostramos que as condicoes (1 ) e (2 ) sao equivalentes.
Capıtulo 2. Algebra Matricial Computacional 15
Agora vamos mostrar que as condicoes (1 ) e (3 ) sao equivalentes. Inicialmente, vamos
considerar A positiva–definida e mostrar que a submatriz principal Ak e tambem positiva–
definida, para todo k = 1, 2, · · · , n. Desse modo, mostramos que a condicao (1 ) implica
na condicao (3 ). Para isso, vamos tomar um elemento x ∈ IRn nao nulo, com as (n − k)
componentes, a partir da (k + 1)–esima, todas nulas. Por simplicidade, vamos representar
esse elemento da seguinte forma xt = [yt 0] para y ∈ IRk nao nulo. Assim, temos que
0 < 〈Ax , x 〉 =[yt 0
]
Ak ?
? ?
y
0
= 〈Ak y , y 〉
o que mostra que a submatriz principal Ak e positiva–definida, e que os seus autovalores
sao todos positivos. Mostrar que a condicao (3 ) implica na condicao (1 ) e imediato, pois
podemos trabalhar com a propria matriz A. Assim, acabamos de mostrar que as condicoes
(1 ) e (3 ) sao equivalentes.
Finalmente, vamos mostrar que as condicoes (1 ) e (4 ) sao equivalentes. Tomando por
hipotese A simetrica e positiva–definida, sabemos pelo Teorema 2.13 que existe uma ma-
triz ortogonal Q ∈ IMn(IR) e uma matriz diagonal Λ = diag(λ1, · · · , λn) tais que
A = Q Λ Qt , onde os elementos da diagonal da matriz Λ sao os autovalores da matriz A ,
que sao todos positivos. Assim, podemos escolher R = Q√
Λ Qt , que e denominada raiz
quadrada simetrica e positiva–definida da matriz A.
Fica claro que podemos fazer mais de uma escolha da matriz R. Assim, uma outra forma de
escolher e a seguinte R =√
Λ Qt , que e denominada raiz quadrada da matriz A. Isto
mostra que a condicao (1 ) implica na condicao (4 ).
Considerando agora que existe uma matriz R nao singular tal que A = Rt R , vamos
mostrar que A e simetrica e positiva definida. A propriedade de simetria e imediata. Seja
x ∈ IRn nao nulo. Assim temos que
0 < 〈R x , R x 〉 = 〈Rt R x , x 〉 = 〈Ax , x 〉
o que mostra que a matriz A e positiva–definida. Assim mostramos que a condicao (4 )
implica na condicao (1 ). Desse modo, acabamos de mostrar que as condicoes (1 ) e (4 ) sao
equivalentes. O que completa a demonstracao. ¥
A seguir, enunciamos um resultado geometrico interessante para matriz simetrica e positiva–
definida, que mais a frente vamos utilizar na analise da velocidade de convergencia do Metodo
dos Gradientes Conjugados.
16 Metodos de Diferencas Finitas
Teorema 2.15 Seja A ∈ IMn(IR) uma matriz positiva–definida. Entao, a equacao
xtAx = 1 (2.3)
representa um hiper–elipsoide em IRn com centro na origem e cujos semi–eixos tem com-
primentos
1√λ1
, · · · ,1√λn
nas direcoes dos autovetores q1 , · · · , qn associados aos autovalores
0 < λ1 ≤ . . . ≤ λn .
Demonstracao Como A e positiva–definida, vamos utilizar a sua diagonalizacao
A = Q Λ Qt ,
onde
Λ = diag(λ1 , . . . , λj , . . . λn)
e uma matriz diagonal e
Q = [q1 · · · qj · · · qn]
e uma matriz ortogonal. Note que (λj , qj) e um autopar da matriz A.
Desse modo, podemos escrever a equacao (2.3) da seguinte forma:
xt Ax = ( Qt x )t Λ ( Qt x ) = 1 .
Fazendo a mudanca de variavel y = Qt x , obtemos a seguinte equacao
yt Λ y =n∑
j=1
λj y2
j =n∑
j=1
y2
j
a2
j
= 1 ,
onde
aj =1√λj
e o comprimento do semi–eixo na direcao do autovetor qj.
Portanto, o maior eixo esta na direcao do autovetor associado ao menor autovalor e o menor
eixo esta na direcao do autovetor associado ao maior autovalor. ¥
Capıtulo 2. Algebra Matricial Computacional 17
2.5 Norma Vetorial e Norma Matricial
Para uma analise de convergencia dos metodos numericos para sistemas lineares, bem como
para a analise de estabilidade dos esquemas de diferencas finitas, que vamos apresentar nos
proximos capıtulos, necessitaremos do conceito de norma matricial e de suas propriedades
para matrizes especiais, como por exemplo, simetrica e positiva–definida, e sua relacao com
os autovalores dessas matrizes. E importante observar, que no espaco vetorial real IRn todas
as normas sao equivalentes, assim a prova de convergencia de uma sequencia pode ser feita
com uma norma vetorial generica.
Definicao 2.15 (Norma Vetorial) Uma norma, ou uma norma vetorial, em IRn e uma
aplicacao ‖ · ‖ que associa a cada elemento x ∈ IRn um numero real ‖x ‖ , que possui as
seguintes propriedades:
1. para todo x ∈ IRn tem–se que ‖x ‖ ≥ 0 com ‖x ‖ = 0 ⇐⇒ x = 0
2. para todo x ∈ IRn e α ∈ IR tem–se que ‖α x ‖ = |α| ‖x ‖
3. para todo x, y ∈ IRn tem–se que ‖x + y ‖ ≤ ‖x ‖ + ‖ y ‖
As propriedades acima sao denominadas positividade, homogeneidade e desigualdade trian-
gular , respectivamente. No espaco vetorial real IRn temos os seguintes exemplos de normas
vetoriais
(a) Norma Euclidiana: ‖x ‖2 =
(n∑
i=1
|xi|2)1/2
(b) Norma do Maximo: ‖x ‖∞ = max1 ≤ i ≤ n
{ |xi| }
(c) Norma–1 ou Norma do Taxi: ‖x ‖1 =n∑
i=1
|xi|
(d) Norma Energia: ‖x ‖A =√
〈x , x 〉A
Note que, a norma Euclidiana pode ser escrita da seguinte forma ‖x ‖2 =√
〈x , x 〉,onde 〈 · , · 〉 e o produto interno usual do IRn. A norma energia ‖ · ‖A sera utilizada na
analise de convergencia do Metodo dos Gradientes Conjugados.
18 Metodos de Diferencas Finitas
E facil mostrar que as aplicacoes ‖ · ‖∞ e ‖ · ‖1 satisfazem as propriedades de norma
vetorial, utilizando simplesmente as propriedades dos numeros reais. Para mostrar que a
aplicacao ‖ · ‖2 satisfaz a propriedade da desigualdade triangular, vamos necessitar do
seguinte resultado.
Teorema 2.16 (Desigualdade de Cauchy-Schwarz) Seja V um espaco vetorial sobre
o corpo IF (IR ou C) e 〈 · , · 〉 um produto interno definido em V . Entao, para todo
u , v ∈ V tem–se que
|〈u , v 〉|2 ≤ 〈u , u 〉 〈 v , v 〉
alem disso, vale a igualdade se, e somente se, u e v sao linearmente dependentes.
Demonstracao No caso em que os elementos u e v sao linearmente dependentes, a
igualdade e obtida trivialmente. Vamos considerar u e v linearmente independentes, isto
e, u + λ v 6= 0 para todo λ ∈ IF . Desse modo, temos que
0 < 〈u + λ v , u + λ v 〉 = 〈u , u 〉 + 〈u , λ v 〉 + 〈λ v , u 〉 + |λ|2 〈 v , v 〉
= 〈u , u 〉 + λ 〈u , v 〉 + λ 〈 v , u 〉 + |λ|2 〈 v , v 〉
Para o caso complexo, vamos escrever 〈 v , u 〉 ∈ C da seguinte forma
〈 v , u 〉 = exp(i θ) |〈 v , u 〉| ; θ ∈ [0, 2π)
Assim, temos que
〈 v , u 〉 = 〈u , v 〉 = exp(−i θ) |〈 v , u 〉|
Desse modo, temos que
〈u , u 〉 + 2Re( λ exp(i θ) ) |〈u , v 〉| + |λ|2 〈 v , v 〉 > 0
Chamando β = λ exp(i θ) ∈ C , note que |λ|2 = |β|2, e observando que |Re( β )| ≤ |β|,encontramos
〈u , u 〉 + 2 |β| |〈u , v 〉| + |β|2 〈 v , v 〉 > 0
Podemos concluir que a funcao quadratica acima em |β| nao possui raızes reais. Desse
modo, temos que
4 |〈u , v 〉|2 − 4〈u , u 〉 〈 v , v 〉 < 0
o que completa a demonstracao. ¥
Capıtulo 2. Algebra Matricial Computacional 19
Definicao 2.16 (Bola Unitaria) Considere o espaco vetorial real IRn e ‖ · ‖α uma
norma vetorial em IRn. O subconjunto do IRn definido por
B = { x ∈ IRn / ‖x ‖α = 1 }
e denominado bola unitaria em IRn com relacao a norma vetorial ‖ · ‖α.
Exemplo 2.5 Faca a representacao grafica das bolas unitarias em IR2 com relacao as
normas vetoriais ‖ · ‖1 , ‖ · ‖∞ e ‖ · ‖2.
Definicao 2.17 (Normas Equivalentes) Considere o espaco vetorial real IRn. Dizemos
que as normas vetoriais ‖ · ‖α e ‖ · ‖β em IRn sao equivalentes se existem constantes
positivas m e M tais que
m ‖x ‖α ≤ ‖x ‖β ≤ M ‖x ‖α para todo x ∈ IRn
Exemplo 2.6 Mostre que para todo x ∈ IRn tem-se que
(a) ‖x ‖2 ≤ ‖x ‖1 ≤ √n ‖x ‖2
(b) ‖x ‖∞ ≤ ‖x ‖2 ≤ √n ‖x ‖∞
(c) ‖x ‖∞ ≤ ‖x ‖1 ≤ n ‖x ‖∞
20 Metodos de Diferencas Finitas
Definicao 2.18 (Norma Matricial) Considere o espaco vetorial IMn(IF ) sobre o corpo
IF . Uma Norma Matricial Consistente em IMn(IF ), e uma aplicacao ||| · ||| que para cada
matriz A associa o escalar |||A ||| ∈ IR, com as seguintes propriedades
1. |||A ||| > 0 com |||A ||| = 0 ⇐⇒ A = 0 (Positividade)
2. |||λA ||| = |λ| |||A ||| para todo λ ∈ IF (Homogeneidade Absoluta)
3. |||A + B ||| ≤ |||A ||| + |||B ||| (Desigualdade Triangular)
4. |||A B ||| ≤ |||A ||| |||B ||| (Consistencia)
Teorema 2.17 (Norma de Frobenius) Considere o espaco vetorial IMn(IF ) sobre o
corpo IF e a aplicacao ||| · |||F definida sobre IMn(IF ) da seguinte forma
|||A |||F =
(n∑
i=1
n∑
j=1
|aij|2)1/2
define uma norma matricial consistente em IMn(IF ), denominada de norma de Frobenius.
Demonstracao Note que, as propriedades 1–3 sao satisfeitas, pois a norma de Frobenius
pode ser vista como a norma vetorial Euclidiana. Vamos mostrar a propriedade de con-
sistencia, que sera obtida pela aplicacao da desigualdade de Cauchy–Schwarz. Definimos a
matriz C = AB , assim tem–se que
|||AB |||2F = |||C |||2F =n∑
i=1
n∑
j=1
|cij|2 =n∑
i=1
n∑
j=1
∣∣∣∣∣
n∑
k=1
aik bkj
∣∣∣∣∣
2
Aplicando a desigualdade de Cauchy–Schwarz na expressao | · |2, obtemos
|||AB |||2F ≤n∑
i=1
n∑
j=1
(n∑
k=1
|aik|2n∑
k=1
|bkj|2)
=
(n∑
i=1
n∑
k=1
|aik|2) (
n∑
j=1
n∑
k=1
|bkj|2)
Portanto, encontramos |||AB |||2F ≤ |||A |||2F |||B |||2F , o que completa a demonstracao. ¥
Capıtulo 2. Algebra Matricial Computacional 21
Definicao 2.19 (Traco de uma Matriz) Seja A ∈ IMn(IR), definimos o traco da matriz
A, que denotamos por tr(A), da seguinte forma
tr(A) =n∑
i=1
aii
Exemplo 2.7 Mostre que a aplicacao traco e uma aplicacao linear de IMn(IR) em IR.
Podemos mostrar que a norma de Frobenius pode ser escrita da seguinte forma:
|||A |||F =√
tr(At A) =√
tr(A At) . (2.4)
Teorema 2.18 Sejam A ∈ IMn(IR) e Q1, Q2 ∈ IMn(IR) matrizes ortogonais. Entao,
|||A |||F = |||Q1 AQ2 |||F ,
isto e, a norma de Frobenius e invariante por transformacoes ortogonais.
Demonstracao O resultado e imediato utilizando a norma de Frobenius escrita em funcao
do traco da matriz A, como em (2.4). ¤
Teorema 2.19 Seja A ∈ IMn(IR) simetrica com autovalores λ1, · · · , λn. Entao,
|||A |||F =
√√√√n∑
i=1
λ2
i
Demonstracao Como A e simetrica, pelo Teorema 2.13 da secao 2.2, sabemos que existe
uma matriz Λ = diag(λ1, . . . , λn) diagonal e uma matriz ortogonal Q tais que
A = Q Λ Qt . Desse modo, o resultado e obtido utilizando o Teorema 2.18 da secao 2.5. ¥
Definicao 2.20 Considere o espaco vetorial IMn(IF ) sobre o corpo IF e ‖ · ‖α uma
norma vetorial em IF n. Definimos uma aplicacao ||| · |||α sobre IMn(IF ) da seguinte
forma
|||A |||α = max
{ ‖Ax ‖α
‖x ‖α
; x 6= 0IRn
}
ou de modo analogo
|||A |||α = max { ‖Ax ‖α ; ‖x ‖α = 1 }
22 Metodos de Diferencas Finitas
Teorema 2.20 Sejam a norma ‖ · ‖α em IRn e a aplicacao ||| · |||α em IMn(IR). Entao,
vale a seguinte desigualdade
‖Ax ‖α ≤ |||A |||α ‖x ‖α .
Demonstracao – Para x = 0IRn a igualdade e trivialmente satisfeita. Para x 6= 0IRn ,
tem–se que
‖Ax ‖α
‖x ‖α
≤ max
{ ‖Az ‖α
‖ z ‖α
; z 6= 0IRn
}= |||A |||α
Portanto, obtemos ‖Ax ‖α ≤ |||A |||α ‖x ‖α para x ∈ IRn nao nulo. ¥
Teorema 2.21 A aplicacao ||| · |||α satisfaz as propriedades de norma matricial consistente
1. |||A |||α > 0
2. |||λA |||α = |λ| |||A |||α3. |||A + B |||α ≤ |||A |||α + |||B |||α4. |||A B |||α ≤ |||A |||α |||B |||α
Demonstracao Note que, as propriedades 1–3 sao obtidas pelas propriedades 1–3 de
norma vetorial, respectivamente. A propriedade 4 e obtida pelo resultado do Teorema 2.20.
De fato,
‖AB x ‖α ≤ |||A |||α ‖B x ‖α ≤ |||A |||α |||B |||α ‖x ‖α
para todo x ∈ IRn nao nulo. Desse modo, temos que
|||AB |||α = max
{ ‖AB x ‖α
‖x ‖α
; ‖x ‖α 6= 0IRn
}≤ |||A |||α |||B |||α
o que completa a demonstracao. ¥
Exemplo 2.8 Considere a matriz
A =
[1 2
0 2
]
Faca a representacao grafica das imagens das bolas unitarias em IR2, com relacao as normas
vetoriais ‖ · ‖∞ e ‖ · ‖1 , pela transformacao linear TA : IR2 −→ IR2 definida pela matriz
A. Determine |||A |||∞
e |||A |||1
utilizando a representacao grafica obtida anteriormente.
Capıtulo 2. Algebra Matricial Computacional 23
Teorema 2.22 A norma matricial
|||A |||1
= max
{n∑
i=1
|aij| ; j = 1, · · · n
}
e induzida (subordinada) pela norma vetorial ‖ · ‖1.
Demonstracao Para todo x ∈ IRn nao nulo, temos que
‖Ax ‖1 =n∑
i=1
∣∣∣∣∣
n∑
j=1
aij xj
∣∣∣∣∣ ≤n∑
i=1
n∑
j=1
|aij| |xj| =n∑
j=1
n∑
i=1
|aij| |xj|
≤n∑
j=1
(max1≤k≤n
{n∑
i=1
|aik|} )
|xj| =
(max1≤k≤n
{n∑
i=1
|aik|} )
‖x ‖1
Assim, mostramos que
‖Ax ‖1
‖x ‖1
≤ max1≤j≤n
{n∑
i=1
|aij|}
Para obtermos o resultado desejado, temos que exibir um elemento x ∈ IRn nao nulo que
realiza a igualdade, isto e,
‖Ax ‖1
‖x ‖1
= max1≤j≤n
{n∑
i=1
|aij|}
Vamos supor que o maximo seja atingido na k–esima coluna de A. Assim, basta tomar
x = ek, onde ek e o k–esimo elemento da base canonica do IRn. ¥
24 Metodos de Diferencas Finitas
Teorema 2.23 A norma matricial
|||A |||∞
= max
{n∑
j=1
|aij| ; i = 1, · · · n
}
e induzida (subordinada) pela norma vetorial ‖ · ‖∞.
Demonstracao Para todo x ∈ IRn nao nulo, temos que
‖Ax ‖∞ = max1≤i≤n
{ ∣∣∣∣∣
n∑
j=1
aij xj
∣∣∣∣∣
}≤ max
1≤i≤n
{n∑
j=1
|aij| |xj|}
≤ max1≤i≤n
{n∑
j=1
|aij|}
‖x ‖∞
Assim, mostramos que
‖Ax ‖∞‖x ‖∞
≤ max1≤i≤n
{n∑
j=1
|aij|}
Para obtermos o resultado desejado, temos que exibir um elemento x ∈ IRn nao nulo que
realiza a igualdade, isto e,
‖Ax ‖∞‖x ‖∞
= max1≤i≤n
{n∑
j=1
|aij|}
Vamos supor que o maximo seja atingido na k–esima linha da matriz A. Tomando x da
seguinte forma
xj =
1 se akj ≥ 0
−1 se akj < 0
para j = 1, . . . , n
temos que
n∑
j=1
akj xj =n∑
j=1
|akj| = ‖Ax ‖∞
pois ‖x ‖∞ = 1, O que completa a demonstracao. ¥
Capıtulo 2. Algebra Matricial Computacional 25
Teorema 2.24 Sejam A ∈ IMn(IR) e Q1 , Q2 ∈ IMn(IR) matrizes ortogonais. Entao,
|||A |||2
= |||Q1 AQ2 |||2 ,
isto e, a norma ||| · |||2
e invariante por transformacoes ortogonais.
Demonstracao A prova segue da definicao de norma matricial induzida e do fato que a
norma Euclidiana em IRn e invariante por transformacao ortogonal. ¤
Teorema 2.25 Seja A ∈ IMn(IR) simetrica com autovalores λ1, · · · , λn. Entao,
|||A |||2
= λmax = max{ |λj| ; j = 1 , · · · , n }
Demonstracao Como A e simetrica, pelo Teorema 2.13 da secao 2.2, sabemos que existe
uma matriz Λ = diag(λ1, . . . , λn) diagonal e uma matriz ortogonal Q tais que
A = Q Λ Qt . Fazendo uso da definicao de norma induzida, temos que
|||A |||2
= max{ ‖Ax ‖2 ; ‖x ‖2 = 1 } = max{ ‖ (Q Λ Qt) x ‖2 ; ‖x ‖2 = 1 }
Chamando Qt x = y e usando o fato que ‖ y ‖2 = ‖x ‖2 = 1, pois a norma Euclidiana e
invariante por transformacao ortogonal, temos que
|||A |||2
= max{ ‖Q (Λ y) ‖2 ; ‖ y ‖2 = 1 } = max{ ‖Λ y ‖2 ; ‖ y ‖2 = 1 }
Note que
‖Λ y ‖2
2=
n∑
j=1
λ2
j y2
j ≤ λ2
max
Para obtermos o resultado desejado temos que exibir um elemento y que realiza a igualdade.
Para isso, vamos supor de λmax = |λk| para algum k, com 1 ≤ k ≤ n. Desse modo,
basta tomar y = ek , onde ek e o k–esimo elemento da base canonica do IRn, o que
completa a demonstracao. ¥
26 Metodos de Diferencas Finitas
Teorema 2.26 Seja A ∈ IMn(IR). Entao, |||A |||2
=√
|||AtA |||2.
Demonstracao Vamos usar a definicao da norma matricial ||| · |||2
como ponto de partida
|||A |||2
= max{ ‖Ax ‖2 ; ‖x ‖2 = 1 }
Para simplificar a analise vamos definir uma funcao auxiliar g(x) = ‖Ax ‖2
2, que pode
ser escrita tambem como g(x) = 〈Ax , Ax 〉 = 〈AtAx , x 〉. Desse modo, temos que
encontrar o ponto de maximo da funcao g na bola unitaria e seu respectivo valor.
Temos que a matriz C = AtA e simetrica. Assim, sabemos que C = Q Λ Qt, onde
Λ = diag(λ1 , . . . , λn) uma matriz diagonal e Q = [q1 . . . qn] uma matriz ortogonal, com
(λj , qj) um autopar da matriz C.
Como a matriz C pode ser semipositiva–definida, temos que seus autovalores sao todos nao
negativos. Assim, podemos ordena–los da seguinte forma:
0 ≤ λmin = λ1 < . . . < λn = λmax .
Desse modo, podemos escrever a funcao g da seguinte forma:
g(x) = 〈AtAx , x 〉 = xt C x = ( Qt x )t Λ ( Qt x )
Fazendo a mudanca de variavel y = Qt x , obtemos
g(x(y)) = yt Λ y =n∑
j=1
λj y2
j ≤ λmax
n∑
j=1
y2
j = λmax ‖ y ‖2
2= λmax
Note que ‖ y ‖2
2= ‖Qtx ‖2
2= ‖x ‖2
2= 1.
Portanto, a funcao g tem seu ponto de maximo em x = qn, que corresponde a y = en,
que e o n–esimo vetor da base canonica do IRn e assume o valor maximo g(vn) = λmax.
Agora voltando ao problema inicial, temos
|||A |||2
= max{ ‖Ax ‖2 ; ‖x ‖2 = 1 }
= max{√
g(x) ; ‖x ‖2 = 1 }
=√
λmax =√
|||C |||2
pelo Teorema 2.25 da secao 2.5, o que completa a demonstracao. ¥
Capıtulo 2. Algebra Matricial Computacional 27
Definicao 2.21 (Numero de Condicao) Seja A ∈ IMn(IR) nao singular. Definimos o
numero de condicao da matriz com relacao a norma matricial ||| · |||α da seguinte forma
Kα(A) = |||A |||α |||A−1 |||α
Podemos mostrar que para toda norma matricial induzida ||| · |||α tem–se que |||I |||α = 1
e que Kα(A) ≥ 1.
Teorema 2.27 Seja A ∈ IMn(IR) simetrica nao singular, com autovalores λ1 , · · · , λn.
Entao,
K2(A) =λmax
λmin
onde
λmin = min{ |λj| ; j = 1 , · · · , n }
λmax = max{ |λj| ; j = 1 , · · · , n }
Demonstracao A prova segue do fato de que se λ e um autovalor de A, entao1
λe um
autovalor de A−1, pois A e nao singular, e do Teorema 2.25. ¤
Exemplo 2.9 Calcular o numero de condicao K2(A) da seguinte matriz simetrica
A =
[4 2
2 4
]
A matriz A e positiva–definida ?
Exemplo 2.10 Seja ε uma constante positiva muito pequena, e considere a matriz
A =
[ε 0
0 ε
]
Calcular K2(A) e det(A). O que podemos concluir ?
28 Metodos de Diferencas Finitas
2.6 Analise de Sensibilidade para Sistemas Lineares
Nesta secao vamos apresentar alguns resultados de como o numero de condicao da matriz do
sistema linear afeta sua solucao, com relacao a uma perturbacao tanto na matriz quanto no
vetor do lado direito. Estas perturbacoes podem ter varias origens. Mostraremos que a pior
situacao depende da direcao do vetor do lado direito e da direcao do vetor que fornece a per-
turbacao do lado direito, por exemplo. Faremos tambem uma analise para o caso particular
de uma matriz simetrica e positiva–definida, pois fica bem simples encontrar as direcoes que
irao causar a maior perturbacao na solucao do sistema linear.
Seja A ∈ IMn(IR) uma matriz nao singular e b ∈ IRn um vetor nao nulo. Consideremos o
Sistema Linear: encontrar x∗ ∈ IRn solucao da equacao
Ax = b (2.5)
Como A e nao singular, tem-se que x∗ = A−1b e a solucao exata do sistema linear (2.5).
Vamos considerar que a perturbacao do sistema (2.5) seja dada no vetor b. Assim, temos
o seguinte Sistema Linear Perturbado: encontrar x ∈ IRn solucao da equacao
A(x + δx) = b + δb (2.6)
onde δb ∈ IRn e a perturbacao. Tem–se que x = x∗ + δx∗ e a solucao do sistema
perturbado (2.6), onde δx∗ e a solucao do sistema linear
A(δx) = δb (2.7)
isto e, δx∗ = A−1(δb) e que vai fornecer a perturbacao da solucao do sistema linear (2.5)
em funcao da perturbacao δb do vetor b.
Seja ‖ · ‖ uma norma vetorial em IRn e ||| · ||| a norma matricial em IMn(IR), induzida
pela norma vetorial. Desse modo, temos que
‖ δx∗ ‖ = ‖A−1(δb) ‖ ≤ |||A−1 ||| ‖ δb ‖ (2.8)
Com uma simples manipulacao em (2.8) obtemos
‖ δx∗ ‖‖x∗ ‖ ≤ |||A−1 ||| |||A ||| ‖ δb ‖
|||A ||| ‖x∗ ‖ (2.9)
Como x∗ e a solucao do sistema linear (2.5), temos que
‖ b ‖ = ‖Ax∗ ‖ ≤ |||A ||| ‖x∗ ‖ (2.10)
Capıtulo 2. Algebra Matricial Computacional 29
Substituindo (2.10) em (2.9) e utilizando a definicao do numero de condicao da matriz
A, que e dado por
K(A) = |||A ||| |||A−1 |||
obtemos
‖ δx∗ ‖‖x∗ ‖ ≤ K(A)
‖ δb ‖‖ b ‖ (2.11)
Assim temos um majorante para o erro relativo da solucao do sistema linear (2.5)
quando consideramos uma perturbacao no vetor b.
2.6.1 Direcoes de Maximo Erro Relativo
Vamos analisar a possibilidade de encontrarmos uma direcao para o vetor b ∈ IRn e uma
direcao para o vetor de perturbacao δb ∈ IRn de modo que tenhamos a igualdade em (2.11)
‖ δx∗ ‖‖x∗ ‖ = K(A)
‖ δb ‖‖ b ‖ (2.12)
Nestas condicoes, podemos concluir que, se K(A) for muito grande, uma pequena per-
turbacao no vetor b vai significar um grande erro relativo na solucao do sistema linear (2.5).
Para facilitar a analise e possibilitar uma visualizacao geometrica do numero de condicao,
vamos introduzir as seguintes definicoes:
Definicao 2.22 (Maxima Ampliacao) Para A ∈ IMn(IR) , definimos
maxmag(A) = max
{ ‖Ax ‖‖x ‖ ; x ∈ IRn nao nulo
}= |||A |||
e a maxima ampliacao dada pela matriz A e o vetor x ∈ IRn que satisfaz
maxmag(A) =‖Ax ‖‖x ‖ = |||A |||
a direcao de maxima ampliacao dada pela matriz A.
Definicao 2.23 (Mınima Ampliacao) Para A ∈ IMn(IR) , definimos
minmag(A) = min
{ ‖Ax ‖‖x ‖ ; x ∈ IRn nao nulo
}
e a mınima ampliacao dada pela matriz A e o vetor x ∈ IRn que satisfaz
minmag(A) =‖Ax ‖‖x ‖
a direcao de mınima ampliacao dada pela matriz A.
30 Metodos de Diferencas Finitas
Proposicao 2.1 Seja A ∈ IMn(IR) nao singular. Entao,
1. maxmag(A) =1
minmag(A−1)
2. maxmag(A−1) =1
minmag(A)
3. K(A) =maxmag(A)
minmag(A)
Demonstracao A prova pode ficar a cargo do leitor. ¤
Voltando ao problema da analise de sensibilidade do sistema linear. Vamos procurar uma
direcao para o vetor b e uma direcao para o vetor δb de modo que tenhamos a igualdade
em (2.12). Da equacao (2.7), tem-se que
‖ δx∗ ‖ = ‖A−1(δb) ‖
Vamos analisar a maxima ampliacao dada pela matriz A−1, isto e,
|||A−1 ||| = max
{ ‖A−1 z ‖‖ z ‖ ; z ∈ IRn nao nulo
}=
‖A−1z ‖‖ z ‖ (2.13)
Portanto, z e a direcao que realiza a maxima ampliacao dada pela matriz A−1.
Desse modo, escolhendo o vetor de perturbacao δb = εz, obtemos
‖ δx∗ ‖ = ‖A−1(δb) ‖ = |||A−1 ||| ‖ δb ‖ (2.14)
Analisando agora a maxima ampliacao dada pela matriz A, isto e,
|||A ||| = max
{ ‖Aw ‖‖w ‖ ; w ∈ IRn nao nulo
}=
‖Aw ‖‖w ‖ (2.15)
Portanto, w e a direcao que realiza a maxima ampliacao dada pela matriz A.
Escolhendo o vetor b, nao nulo, de modo que a solucao x∗ do sistema linear (2.5) esteja
na direcao de maxima ampliacao dada pela matriz A. Assim, obtemos
‖ b ‖ = ‖Ax∗ ‖ = |||A ||| ‖x∗ ‖ =⇒ ‖x∗ ‖ =‖ b ‖|||A ||| (2.16)
Capıtulo 2. Algebra Matricial Computacional 31
Portanto, das equacoes (2.14) e (2.16), temos a igualdade procurada
‖ δx∗ ‖‖x∗ ‖ = K(A)
‖ δb ‖‖ b ‖ (2.17)
A seguir, enunciamos uma proposicao, onde a matriz do sistema linear e simetrica e positiva–
definida, que mostra as direcoes que levam a igualdade (2.17). Esse resultado sera muito
interessante para a analise de sensibilidade dos sistemas lineares provenientes de discretizacoes
de problemas de valores de contorno.
Proposicao 2.2 Considere o sistema linear (2.5) e o sistema linear perturbado (2.6) no
caso em que A ∈ IMn(IR) seja simetrica e positiva–definida. Entao, a igualdade (2.12) e
obtida para a norma–2 quando o vetor b = α vn nao nulo, com vn o autovetor associado
ao autovalor λn de maior valor, e o vetor de perturbacao δb = ε v1, com v1 o autovetor
associado ao autovalor λ1 de menor valor.
Demonstracao Como A e uma matriz simetrica e positiva–definida, seus autovalores sao
todos positivos. Vamos representa-los da seguinte forma: λ1 ≤ λ2 ≤ · · · ≤ λn. E sejam
v1 , v2 , · · · , vn os autovetores associados.
Da equacao (2.7), temos que
‖ δx∗ ‖2 = ‖A−1 (δb) ‖2 (2.18)
Sabemos que
maxmag(A−1) = max
{ ‖A−1 z ‖2
‖ z ‖2
; z ∈ IRn nao nulo
}= |||A−1 |||
2=
1
λ1
(2.19)
Portanto, z = v1 e a direcao que realiza a maxima ampliacao dada pela matriz A−1.
Desse modo, considerando δb = ε v1 temos que
‖ δx∗ ‖2 = |||A−1 |||2‖ δb ‖2 =
‖ δb ‖2
λ1
(2.20)
Note que, a equacao (2.20) esta dizendo que o erro da solucao do sistema linear e ampliado
pelo maior autovalor da matriz A−1. Da equacao (2.5), temos que
‖Ax∗ ‖2 = ‖ b ‖2 (2.21)
Sabemos tambem que
maxmag(A) = max
{ ‖Az ‖2
‖ z ‖2
; z ∈ IRn nao nulo
}= |||A |||
2= λn (2.22)
32 Metodos de Diferencas Finitas
Portanto, z = vn e a direcao que realiza a maxima ampliacao dada pela matriz A. Desse
modo, escolhendo b = α vn nao nulo, temos que x∗ esta na direcao de maxima ampliacao
da matriz A. Assim, obtemos
‖x∗ ‖2 =‖Ax∗ ‖2
|||A |||2
=‖ b ‖2
λn
(2.23)
Das equacoes (2.20) e (2.23) temos que
‖ δx∗ ‖2
‖x∗ ‖2
= K2(A)‖ δb ‖2
‖ b ‖2
(2.24)
o que completa a demonstracao. ¥
Como a matriz A e simetrica e positiva–definida, de (2.19) e (2.22), temos que o numero
de condicao da matriz A com relacao a norma matricial ||| · |||2
e dado por
K2(A) =λn
λ1
(2.25)
Desse modo, a igualdade (2.24) e um caso extremo do seguinte resultado:
Proposicao 2.3 Seja A ∈ IMn(IR) simetrica e positiva–definida e b ∈ IRn. Entao, a
solucao do sistema linear Ax = b , x∗ = A−1b e a solucao do sistema linear perturbado
δx∗ = A−1δb satisfazem as seguintes relacoes
‖x∗ ‖2 ≥ ‖ b ‖2
λn
e ‖ δx∗ ‖2 ≤ ‖ δb ‖2
λ1
(2.26)
e o erro relativo e limitado por
‖ δx∗ ‖2
‖x∗ ‖2
≤ λn
λ1
‖ δb ‖2
‖ b ‖2
= K2(A)‖ δb ‖2
‖ b ‖2
(2.27)
Proposicao 2.4 Seja A ∈ IMn(IR) simetrica e nao singular. Considere o sistema linear
Ax = b e o sistema linear perturbado A (x + δx) = b + δb. Entao,
‖ δx∗ ‖2
‖x∗ ‖2
= K2(A)‖ δb ‖2
‖ b ‖2
(2.28)
quando o vetor b = α vn nao nulo, com vn o autovetor associado ao autovalor λn de
maior valor em modulo, e o vetor de perturbacao δb = ε v1, com v1 o autovetor associado
ao autovalor λ1 de menor valor em modulo.
Demonstracao – A prova pode ficar a cargo do leitor. ¤
Capıtulo 2. Algebra Matricial Computacional 33
Exemplo 2.11 Dada a matriz A ∈ IM3(IR) simetrica e positiva-definida
A =
2 −1 0
−1 2 −1
0 −1 2
Pede–se:
• calcule |||A |||2
e |||A−1 |||2
atraves de seus autovalores.
• Determine as direcoes para os vetores b e δb em IR3 de modo que o erro relativo
da solucao do sistema linear Ax = b seja o maior possıvel, isto e,
‖x∗ − x ‖2
‖x∗ ‖2
=λmax
λmin
‖ δb ‖2
‖ b ‖2
(2.29)
onde x = x∗ + δx∗ e a solucao do sistema linear perturbado
A (x + δx) = b + δb
34 Metodos de Diferencas Finitas
Exemplo 2.12 Considere o sistema linear Ax = b onde
A =
[1.00 0.99
0.99 0.98
]e b =
[1.99
1.97
](2.30)
que tem como solucao
x∗ =
[1.0
1.0
].
Pede–se:
(a) Calcule K2(A)
(b) Encontre a solucao x = x∗ + δx∗ do sistema linear perturbado
A (x + δx) = b + δb (2.31)
considerando uma perturbacao do vetor b dada por
δb =
[−9.7 × 10−8
1.06 × 10−7
](2.32)
(c) Compare as grandezas
‖ δx∗ ‖2
‖x∗ ‖2
e K2(A)‖ δb ‖2
‖ b ‖2
(2.33)
Calcule o angulo entre o vetor b e o autovetor v2 associado ao autovalor λ2 de
maior valor em modulo.
Calcule o angulo entre o vetor δb e o autovetor v1 associado ao autovalor λ1 de
menor valor em modulo.
O que podemos concluir ?
Capıtulo 2. Algebra Matricial Computacional 35
Os autovalores da matriz A sao λ1 = −5.050376 × 10−5 e λ2 = 1.980051. Logo, a
matriz A nao e positiva–definida. Como A e simetrica e nao singular, temos que
K2(A) =λmax
λmin
= 3.920601 × 104 (2.34)
indicando que A e uma matriz mal–condicionada.
Note que, a solucao exata do sistema linear e
x∗ =
[1
1
].
Assim, basta resolver o sistema linear A(δx) = δb para obtermos δx∗.
Encontramos
δx∗ =
[2.0
−2.02030
]× 10−3 e x =
[1.0020
0.99797970)
].
Desse modo, temos que
‖ δx∗ ‖2
‖x∗ ‖2
= 2.010176 × 10−3 e K2(A)‖ δb ‖2
‖ b ‖2
= 2.011751 × 10−3 (2.35)
Calculando o angulo entre os vetores b e v2, obtemos
cos(θ1) =〈 b , v2 〉
‖ b ‖2 ‖ v2 ‖2
= 3.1415925 =⇒ θ1 = 180.000 o (2.36)
Calculando o angulo entre os vetores δb e v1, obtemos
cos(θ2) =〈 δb , v1 〉
‖ δb ‖2 ‖ v1 ‖2
= 3.1023370 =⇒ θ2 = 177.751 o (2.37)
Analisando os resultados apresentados em (2.35)–(2.37), podemos concluir que estamos muito
proximos da pior situacao.
36 Metodos de Diferencas Finitas
Considerando o sistema A−1b = x e o sistema perturbado A−1(b + δb) = (x + δx),
obtemos a seguinte desigualdade
1
K(A)
‖ δb ‖‖ b ‖ ≤ ‖ δx∗ ‖
‖x∗ ‖ (2.38)
Desse modo, temos as seguintes desigualdades
1
K(A)
‖ δb ‖‖ b ‖ ≤ ‖ δx∗ ‖
‖x∗ ‖ ≤ K(A)‖ δb ‖‖ b ‖ (2.39)
Fixamos uma matriz A e um vetor b, ambos aleatorios. Consideramos varios erros relativos
do vetor b, tambem aleatorios. Na Figura (2.1) temos uma ilustracao para as desigualdades
apresentadas em (2.39). Construımos o sistema linear (2.5) escolhendo o vetor b de modo
que a solucao exata seja
x∗ =
1...
1...
1
∈ IRn .
Nesta simulacao temos K2(A) = 80.9018.
Capıtulo 2. Algebra Matricial Computacional 37
10−12.8
10−12.6
10−12.4
10−12.2
10−15
10−14
10−13
10−12
10−11
10−10
Figura 2.1: Ilustracao das desigualdades definidas em (2.39). Consideramos uma matriz
aleatoria A, de dimensao n = 8, e varios erros relativos δb do vetor b, tambem aleatorios.
Neste caso, temos que K2(A) = 80.9018.
Exemplo 2.13 Analisar a possibilidade de encontrar uma direcao para o vetor b ∈ IRn e
uma direcao para a perturbacao δb ∈ IRn de modo que tenhamos a igualdade em (2.38)
‖ δx∗ ‖‖x∗ ‖ =
1
K(A)
‖ δb ‖‖ b ‖ (2.40)
Nesta situacao teremos o mınimo erro relativo na solucao do sistema linear (2.5), decorrente
da perturbacao δb.
38 Metodos de Diferencas Finitas
Exemplo 2.14 Considere o sistema linear Ax = b onde
A =
2 −1 0
−1 2 −1
0 −1 2
e b =
0.5858
0.8284
0.5858
(2.41)
que tem como solucao
x∗ =
1.0
1.4142
1.0
.
Pede–se:
(a) Calcule K2(A).
(b) Encontre a solucao x = x∗ + δx∗ do sistema linear perturbado
A (x + δx) = b + δb (2.42)
considerando uma perturbacao do vetor b dada por
δb =
0.1250 × 10−6
−0.1768 × 10−6
0.1250 × 10−6
(2.43)
(c) Compare as grandezas
‖ δx∗ ‖2
‖x∗ ‖2
,1
K2(A)
‖ δb ‖2
‖ b ‖2
e K2(A)‖ δb ‖2
‖ b ‖2
(2.44)
Calcule o angulo entre o vetor b e o autovetor v1 associado ao menor autovalor λ1.
Calcule o angulo entre o vetor δb e o autovetor v3 associado ao maior autovalor λ3.
O que podemos concluir ?
Capıtulo 2. Algebra Matricial Computacional 39
Vamos considerar que a perturbacao do sistema (2.5) seja dada na matriz A. Assim, temos
o seguinte Sistema Linear Perturbado: encontrar x ∈ IRn solucao da equacao
(A + ∆A)(x + δx) = b (2.45)
onde ∆A ∈ IMn(IR) e uma perturbacao da matriz A, de modo que A + ∆A seja nao
singular. Vamos denotar por x = x∗ + δx∗ a solucao do sistema linear perturbado (2.25).
Desse modo, temos que
x∗ + δx∗ = (A + ∆A)−1 b (2.46)
Logo, δx∗ e obtido da seguinte forma
δx∗ = ( (A + ∆A)−1 − A−1 ) b (2.47)
Chamando B = A + ∆A, temos a seguinte identidade
B−1 − A−1 = A−1 (A − B) B−1 (2.48)
Substituindo (2.48) em (2.47) e utilizando (2.46), obtemos
δx∗ = −A−1 ∆A (A + ∆A)−1 b = A−1 ∆A (x∗ + δx∗) (2.49)
Tomando a norma de ambos os membros de (2.49), tem–se que
‖ δx∗ ‖ ≤ |||A−1 ||| |||∆A ||| ‖x∗ + δx∗ ‖ (2.50)
Finalmente, obtemos
‖ δx∗ ‖‖x∗ + δx∗ ‖ ≤ K(A)
|||∆A ||||||A ||| (2.51)
De forma analoga, podemos mostrar que
1
K(A)
|||∆A ||||||A ||| ≤ ‖ δx∗ ‖
‖x∗ + δx∗ ‖ (2.52)
Das desigualdades (2.51) e (2.52), obtemos
1
K(A)
|||∆A ||||||A ||| ≤ ‖ δx∗ ‖
‖x∗ + δx∗ ‖ ≤ K(A)|||∆A ||||||A ||| (2.53)
40 Metodos de Diferencas Finitas
Fixamos uma matriz A e um vetor b, ambos aleatorios. Consideramos varios erros relativos
da matriz A, tambem aleatorios. Na Figura (2.2) temos uma ilustracao para as desigualdades
(2.53). Construımos o sistema linear (2.5) escolhendo o vetor b de modo que a solucao exata
seja
x∗ =
1...
1...
1
∈ IRn .
10−13
10−12
10−11
10−15
10−14
10−13
10−12
10−11
10−10
10−9
Figura 2.2: Ilustracao das desigualdades definidas em (2.53). Consideramos uma matriz
aleatoria A, de dimensao n = 10, e varios erros relativos ∆A da matriz A, tambem
aleatorios. Neste caso, temos que K2(A) = 80.5347.
Capıtulo 2. Algebra Matricial Computacional 41
2.6.2 Perturbacoes na Forma Parametrica
Vamos apresentar uma nova forma para a Analise de Sensibilidade de Sistemas Lineares ,
onde a perturbacao e dada tanto na matriz A quanto no vetor b de maneira parametrica.
Consideramos que a perturbacao no sistema linear (2.5) seja dada na matriz A e no vetor
b de forma parametrica. Assim, temos o seguinte Sistema Linear Perturbado: encontrar
x(ε) ∈ IRn solucao da equacao
(A + εF )x(ε) = b + εf ; ε ∈ IR (2.54)
onde F ∈ IMn(IR), f ∈ IRn sao fixas, porem arbitrarias, e x(0) = x∗.
Como a matriz A e nao singular, temos que x(ε) e uma funcao diferenciavel em uma
vizinhanca de ε = 0.
Derivando a equacao (2.54) com relacao ao parametro ε, obtemos
Fx(ε) + (A + εF )dx
dε(ε) = f ; ε ∈ IR (2.55)
Derivando a equacao (2.55) com relacao ao parametro ε, obtemos
2 Fdx
dε(ε) + (A + εF )
d2x
dε2(ε) = 0 ; ε ∈ IR (2.56)
Fazendo ε = 0 na equacao (2.55) e na equacao (2.56), obtemos
dx
dε(0) = A−1 (f − Fx∗)
d2x
dε2(0) = −2 (A−1 F )
dx
dε(0)
(2.57)
Consideramos agora a Formula de Taylor da funcao x(ε) numa vizinhanca de ε = 0
x(ε) = x∗ +dx
dε(0)ε + O(ε2)
x(ε) = x∗ + A−1 (f − Fx∗)ε + O(ε2)
(2.58)
42 Metodos de Diferencas Finitas
Tomando a norma de ambos os membros de (2.58), tem–se que
‖ x(ε) − x∗ ‖ ≤ ε |||A−1 ||| { ‖F ‖ ‖x∗ ‖ + ‖ f ‖ } + O(ε2)
‖ x(ε) − x∗ ‖‖x∗ ‖ ≤ ε |||A−1 |||
{‖F ‖ +
‖ f ‖‖x∗ ‖
}+ O(ε2)
(2.59)
Como x∗ e a solucao exata do sistema linear (2.5), temos que
‖x∗ ‖ ≥ ‖ b ‖|||A ||| (2.60)
Utilizando a desigualdade (2.60) na desigualdade (2.59), obtemos
‖ x(ε) − x∗ ‖‖x∗ ‖ ≤ |||A ||| |||A−1 |||
{ε‖F ‖|||A ||| + ε
‖ f ‖‖ b ‖
}+ O(ε2) (2.61)
Utilizando a definicao do numero de condicao da matriz A, em relacao a norma matricial
||| · ||| , que e dado por
K(A) = |||A ||| |||A−1 ||| (2.62)
obtemos
‖ x(ε) − x∗ ‖‖x∗ ‖ ≤ K(A)
{ε‖F ‖|||A ||| + ε
‖ f ‖‖ b ‖
}+ O(ε2) (2.63)
Na desigualdade (2.63), temos que
ρA = ε‖F ‖|||A ||| ; ε ∈ IR
ρb = ε‖ f ‖‖ b ‖ ; ε ∈ IR
(2.64)
representam o erro relativo na matriz A e o erro relativo no vetor b, respectivamente.
Portanto, o erro relativo na solucao do sistema sistema linear (2.5) e proporcional ao erro
relativo ( ρA + ρb ), onde K(A) e o fator de proporcionalidade. Neste sentido, o numero
de condicao K(A) quantifica a sensibilidade do problema Ax = b.
Capıtulo 2. Algebra Matricial Computacional 43
Vamos apresentar atraves de exemplos uma comparacao entre o numero de condicao de e o
valor do determinante, de uma matriz nao singular.
Considere a matriz B ∈ IMn(IR) triangular inferior definida da seguinte forma
B =
1 0 0 · · · · · · 0
−1 1 0 · · · · · · 0
−1 −1 1 · · · · · · 0...
......
. . ....
......
.... . .
...
−1 −1 −1 · · · −1 1
(2.65)
Temos que det(B) = 1 para todo n. Entretanto, K1(B) = n 2n−1 o que torna a matriz
mal–condicionada quando n cresce.
Exemplo 2.15 Faca a construcao da matriz B−1 mostrando que e dada por
B−1 =
1 0 0 · · · · · · 0
1 1 0 · · · · · · 0
2 1 1 · · · · · · 0
4 2...
. . ....
......
.... . .
...
2n−2 2n−3 · · · · · · 1 1
(2.66)
e que |||B−1 |||1
= 2n−1.
Por outro lado, podemos dar exemplo de uma matriz que e bem–condicionada com deter-
minante muito pequeno. De fato, considere a matriz diagonal D ∈ IMn(IR) definida da
seguinte forma
D = diag(10−1, · · · , 10−1, · · · , 10−1) (2.67)
Temos que det(D) = 10−n, que e muito pequeno quando n cresce. Entretanto, temos que
Kα(D) = 1, que e o numero de condicao em relacao a norma matricial ||| · |||α induzida
pela norma vetorial ‖ · ‖α.
Portanto, a sensibilidade do problema Ax = b nao esta relacionada com o det(A), mas
especificamente com o numero de condicao da matriz do sistema linear.
44 Metodos de Diferencas Finitas
2.7 Armazenamento de Matrizes Esparsas
Vamos apresentar dois esquemas para armazenamento de matrizes esparsas que geralmente
sao utilizados para a implementacao computacional dos metodos da famılia dos gradientes
conjugados, assim como nos pacotes computacionais de fatoracao LU . Por simplicidade,
consideramos o seguinte exemplo de matriz esparsa
A =
1.0 0.0 0.0 −1.0 0.0
2.0 0.0 −2.0 0.0 3.0
0.0 −3.0 0.0 0.0 0.0
0.0 4.0 0.0 −4.0 0.0
5.0 0.0 −5.0 0.0 6.0
para em seguida descrever os dois esquemas de armazenamento.
2.7.1 Esquema de Coordenadas
Vamos denotar por (ilin(k),jcol(k)) a posicao do k-esimo elemento nao nulo e por A(k)
o valor do k-esimo elemento nao nulo da matriz.
k 1 2 3 4 5 6 7 8 9 10 11
ilin(k) 1 5 2 4 2 1 3 5 4 5 2
jcol(k) 4 5 5 2 1 1 2 3 4 1 3
A(k) -1.0 6.0 3.0 4.0 2.0 1.0 -3.0 -5.0 -4.0 5.0 -2.0
2.7.2 Esquema de Colecao de Vetores Esparsos
Denotamos por irowst(i) o inıcio da i-esima linha nos vetores jcol e A , por lenrow(i)
o numero de elementos nao nulos na i-esima linha, por jcol as posicoes das colunas dos
elementos nao nulos e por A o vetor que contem os elementos nao nulos da matriz.
k 1 2 3 4 5 6 7 8 9 10 11
jcol(k) 4 1 5 1 3 4 2 5 1 3 2
A(k) -1.0 1.0 3.0 2.0 -2.0 -4.0 4.0 6.0 5.0 -5.0 -3.0
linha i 1 2 3 4 5
lenrow(i) 2 3 1 2 3
irowst(i) 1 3 11 6 8
Capıtulo 2. Algebra Matricial Computacional 45
2.7.3 Produto de Matriz Esparsa por Vetor
A seguir, vamos escrever o algoritmo para o calculo do produto de A ∈ IMn(IR) por um ve-
tor, isto e, dado x ∈ IRn vamos calcular y = Ax, para o caso em que a matriz esparsa esta
armazenada pelo Esquema de Coordenadas. Denotamos por nelem o numero de elementos
nao nulos da matriz.
Algoritmo: Produto de Matriz Esparsa por um Vetor
for i = 1,2, ... , n
y(i) = 0.0
end
for k = 1,2, ... , nelem
y(ilin(k)) = y(ilin(k)) + A(k)*x(jcol(k))
end
Vamos agora escrever o algoritmo para o calculo do produto de A ∈ IMn(IR) por um vetor,
isto e, dado x ∈ IRn vamos calcular y = Ax, para o caso em que a matriz esparsa esta
armazenada pelo Esquema de Colecao de Vetores Esparsos.
Algoritmo: Produto de Matriz Esparsa por um Vetor
for i = 1,2, ... , n
y(i) = 0.0
for j = 1, ... , lenrow(i)
k = irowst(i) + j - 1
y(i) = y(i) + A(k)*x(jcol(k))
end
end
Os algoritmos apresentados, para produto de matriz esparsa por um vetor, sao os mais uti-
lizados na implementacao computacional dos metodos da famılia dos gradientes conjugados,
por sua simplicidade e eficiencia.
46 Metodos de Diferencas Finitas
2.8 Exercıcios
Exercıcio 2.1 Sejam a1 , · · · , an reais quaisquer. Mostre que
(a1 + · · · + an
n
)2
≤ ( a2
1+ · · · + a2
n ) / n
Exercıcio 2.2 Sejam a1 , · · · , an reais estritamente positivos. Mostre que
( a1 + · · · + an )
(1
a1
+ · · · +1
an
)≥ n2
Exercıcio 2.3 Seja A ∈ IMn(C) . Se v1 , · · · , vk sao autovetores associados aos autova-
lores distintos λ1 , · · · , λk. Entao, v1 , · · · , vk sao linearmente independentes.
Exercıcio 2.4 Seja Q ∈ IMn(IR) uma matriz ortogonal. Entao, det(Q) = ±1.
Exercıcio 2.5 Seja A ∈ IMn(IR) nao singular e (λ, v) um autopar de A. Mostre que(1
λ, v
)e um autopar da matriz A−1.
Exercıcio 2.6 Seja U ∈ IMn(C) uma matriz unitaria. Entao, |det(U)| = 1.
Exercıcio 2.7 Se λ e um autovalor de uma matriz unitaria, entao λ = λ−1. De modo
equivalente, λ λ = 1 ou |λ|2 = 1.
Exercıcio 2.8 Seja U ∈ IMn(C) uma matriz unitaria. Entao, autovetores associados a
autovalores distintos sao ortogonais.
Exercıcio 2.9 Seja A ∈ IMn(C) Hermitiana. Se A e unitariamente similar a matriz B,
entao B e Hermitiana.
Exercıcio 2.10 Seja A ∈ IMn(IR) simetrica. Se A e ortogonalmente similar a matriz B,
entao B e simetrica.
Exercıcio 2.11 Seja A ∈ IMn(C) Hermitiana. Entao, 〈Ax , x 〉 ∈ IR para todo x ∈ Cn.
Exercıcio 2.12 Seja A ∈ IMn(C) Hermitiana. Entao, seus autovalores sao reais.
Capıtulo 2. Algebra Matricial Computacional 47
Exercıcio 2.13 Seja A ∈ IMn(C) Hermitiana. Entao, autovetores associados a autovalores
distintos sao ortogonais.
Exercıcio 2.14 Seja A ∈ IMn(IR) simetrica. Entao, seus autovalores sao reais.
Exercıcio 2.15 Seja A ∈ IMn(IR) simetrica. Entao, autovetores associados a autovalores
distintos sao ortogonais.
Exercıcio 2.16 Seja A ∈ IMn(IR) positiva-definida. Se B e ortogonalmente similar a A,
entao B e positiva-definida.
Exercıcio 2.17 Seja A ∈ IMn(IR) positiva-definida. Entao, seus autovalores sao positivos.
Exercıcio 2.18 Sejam A, B ∈ IMn(IR). Mostre que tr(AB) = tr(BA).
Exercıcio 2.19 Sejam A, B ∈ IMn(IR) similares. Mostre que tr(A) = tr(B).
Exercıcio 2.20 Seja A ∈ IMn(IR). Mostre que o tr(A) e igual a soma de seus autovalores.
Exercıcio 2.21 Seja A ∈ IMn(IR). Mostre que o det(A) e igual ao produto de seus
autovalores.
Exercıcio 2.22 Mostre que a matriz A de ordem n, dada abaixo, e positiva–definida.
A =
d1 −1
−1 d2 −1
−1 d3 −1. . . . . . . . .
−1 dn−1 −1
−1 dn
onde di = ( 2 + σi h2 ) e σi > 0 para i = 1, 2, · · · , n , com h =
1
(n + 1).
48 Metodos de Diferencas Finitas
Exercıcio 2.23 Seja A ∈ IMn(IR) simetrica e positiva-definida e Q ∈ IMn(IR) ortogonal:
(V) (F) QtAQ e simetrica e positiva-definida
(V) (F) QtAQ tem os mesmos autovalores de A
(V) (F) QtAQ e uma matriz diagonal.
Exercıcio 2.24 Seja A ∈ IMn(IR) uma matriz estritamente diagonalmente dominante por
linhas e P = D−1A − I , com D a matriz diagonal formada pela diagonal principal da
matriz A. Mostre que |||P |||∞
< 1.
Exercıcio 2.25 Seja A ∈ IMn(IR) uma matriz estritamente diagonalmente dominante por
colunas e P = AD−1 − I , com D a matriz diagonal formada pela diagonal principal da
matriz A. Mostre que |||P |||1
< 1.
Exercıcio 2.26 Seja Q ∈ IMn(IR) uma matriz ortogonal. Entao, K2(Q) = 1.
Exercıcio 2.27 Se U ∈ IMn(C) e uma matriz unitaria. Entao, K2(U) = 1.
Exercıcio 2.28 Seja A ∈ IMn(IR) uma matriz nao singular e b ∈ IRn . Se δb ∈ IRn e
uma perturbacao dada no vetor b, mostre que a solucao x∗ do sistema linear Ax = b
satisfaz a seguinte relacao
1
K(A)
‖ δb ‖‖ b ‖ ≤ ‖ δx∗ ‖
‖x∗ ‖
Sugestao:
considere o sistema linear A−1b = x e o sistema linear perturbado A−1(b+δb) = (x+δx).
Exercıcio 2.29 Seja A ∈ IMn(IR) uma matriz nao singular e b ∈ IRn . Se δA ∈ IMn(IR)
e uma perturbacao dada na matriz A, mostre que a solucao x∗ do sistema linear Ax = b
satisfaz a seguinte relacao
‖ δx∗ ‖‖ x ‖ ≤ K(A)
|||δA ||||||A |||
onde x = x∗ + δx∗ e a solucao do sistema linear perturbado (A + δA) (x + δx) = b.
Capıtulo 2. Algebra Matricial Computacional 49
Exercıcio 2.30 Seja A ∈ IMm×n(IR) com m ≥ n e posto(A) = n, isto e, as colunas de
A formam um conjunto linearmente independente em IRm. Mostre que a matriz At A e
simetrica e positiva–definida.
Exercıcio 2.31 Seja A ∈ IMm×n(IR) com n ≥ m e posto(A) = m, isto e, as linhas de
A formam um conjunto linearmente independente em IRn. Mostre que a matriz AAt e
simetrica e positiva–definida.
Exercıcio 2.32 Seja P ∈ IMn(IR) uma matriz idempotente, isto e, P 2 = P . Mostre que
para qualquer norma matricial consistente ||| · ||| tem-se que |||P ||| ≥ 1.
Exercıcio 2.33 Seja A ∈ IMn(IR) uma matriz auto-reflexiva, isto e, A2 = I. Mostre que
|||A |||2F ≥ √n.
Exercıcio 2.34 Mostre que para toda matriz A ∈ IMn(IR) tem-se que |||A |||2
≤ |||A |||F .
Exercıcio 2.35 Seja A ∈ IMn(IF ). Mostre que ‖Ax ‖2 ≤ |||A |||F ‖x ‖2.
Exercıcio 2.36 Dada a matriz A simetrica e positiva-definida, abaixo, calcular |||A |||2
e
|||A−1 |||2
atraves de seus autovalores.
A =
[2 −1
−1 2
]
Determine as respectivas direcoes para os vetores b e δb de modo que o erro relativo da
solucao do sistema linear Ax = b seja o maior possıvel, isto e,
‖ δx∗ ‖2
‖x∗ ‖2
= K2(A)‖ δb ‖2
‖ b ‖2
=λmax
λmin
‖ δb ‖2
‖ b ‖2
Exercıcio 2.37 Seja A ∈ IMn(IR) simetrica e positiva–definida e C ∈ IMn(IR) nao
singular. Mostre que a matriz B = CtAC e simetrica e positiva–definida.
50 Metodos de Diferencas Finitas