Logo Passei Direto
Buscar
Material

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

AUTOVALORES E AUTOVETORES 
 
Luiz Carlos Guimarães 
 
 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
O objetivo desta seção é desenvolver um método para o 
estudo da geometria das transformações lineares do plano. O método 
será posteriormente generalizado para lidar com transformações 
lineares de um espaço vetorial em si mesmo, para qualquer dimensão. 
Vamos examinar primeiro alguns exemplos, que vão servir 
para compreender exatamente o que queremos dizer com a palavra 
geometria nesse caso. 
Considere inicialmente 
o exemplo da reflexão ortogonal 
em relação à reta x = y . Se A é 
a matriz que representa essa 
transformação, podemos 
concluir que todos os vetores da 
forma ( x, x) são mantidos 
fixos quando multiplicados por A 
(ver figura 1). 
Da geometria da reflexão concluímos também que os 
vetores da forma (-x, x) são levados em ( x,-x), isto é, multiplicar pela 
matriz que representa a transformação tem um efeito simples sobre 
esses vetores: o mesmo efeito de multiplica-los pelo número -1. 
O que se passa com os vetores que não estão sobre 
nenhuma das duas retas ? A figura deixa claro que, ao serem refletidos 
em relação à reta, eles mudam de direção. 
A matriz A que efetua essa reflexão é 0 1
1 0





 . Não seria tão 
difícil deduzir diretamente que a geometria de uma reflexão está 
embutida nessa matriz ... afinal, reflexões são transformações muito 
particulares. Mas que dizer de matrizes como A1=
2 4
1 1−





 e A2=
2 2
1 0−





 
? Certamente nenhuma delas representa uma reflexão ortogonal: nós 
sabemos como as matrizes se parecem nesse caso. Mas, as reflexões, 
 u = ( x,y )
figura 1 
 reta
 x = y
 
reta
 y = -x
 
o
 reflexão de u
 
 
2 
 
como vimos, mantém fixas as direções de duas retas (distintas, e 
apenas duas) que passam pela origem. Será isso verdade também para 
A1 e A2 ? 
Não se trata de obter uma resposta automática a essa 
pergunta, valendo para todas as transformações lineares – nós já vimos 
exemplos onde a transformação se comporta de forma diferente: 
• uma rotação de ângulo menor que 1800 , por exemplo, 
muda a direção de qualquer reta passando pela origem; 
• um cisalhamento horizontal, como o efetuado pela 
matriz 
1 1
0 1





 , muda a direção de cada vetor ( x, y) com 
y ≠0, o que significa que apenas a direção da reta 
horizontal y = 0 é mantida inalterada após 
multiplicação por essa matriz. 
 
Exercício: Liste exemplos para cada um dos casos abaixo: 
1. A matriz não muda a direção de nenhuma reta; 
2. A matriz só não muda a direção de duas retas passando pela origem; 
3. A matriz só não muda a direção de uma reta passando pela origem. 
Existem outras possibilidades? Como você classificaria a matriz 





00
01
? 
 
Atenção:... escalonar definitivamente não ajuda a resolver esse 
problema! Se escalonamos por exemplo a matriz de reflexão 
0 1
1 0





 , 
obtemos a matriz 
1 0
0 1





 , e toda a geometria da reflexão se perde. 
 
Antes de buscar métodos para examinar matrizes em geral, 
vamos olhar um outro exemplo. Vamos considerar o que poderia ser o 
relacionamento entre as cervejas número 1 e número 2 no mercado ou, 
no mesmo tipo de situação, entre os dois candidatos no segundo turno 
da próxima eleição para Alcaide em nossa cidade. Digamos que se 
acaba de realizar uma pesquisa, constatando que a número 1 detém 
hoje 70% do mercado, contra 30% da concorrente. Para avaliar a 
tendência, a pesquisa também busca informação sobre a variação de 
preferencia na última semana, constatando que, no período, 93% dos 
consumidores da número 1 não se mostraram dispostos a mudar de 
marca, enquanto 7% adotaram a número 2. Em relação à número 2, 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
3 
 
enquanto isso, 93,5% dos seus consumidores se mantém fieis, e os 
restantes 6,5% passaram a preferir a outra cerveja. 
 
O que pode significar isso em termos de mercado ? 
Inicialmente não muito. A persistir a tendência, na próxima semana o 
consumo se dividirá da seguinte maneira: 
para a número 1: 0,93 ⋅ 70% + 0,065 ⋅ 30% = 67% 
aproximadamente 
para a número 2: 0,07 ⋅ 70% + 0,935 ⋅ 30% = 33% 
aproximadamente 
 
 Para avaliar a tendência a médio prazo, considere 
apenas a matriz formada com os coeficientes que expressam a variação 
de preferência no período de uma semana: A = 





0 93 0 065
0 07 0 935
, ,
, ,
. Represente 
a divisão do mercado em um dado momento como um vetor ( x, y) , 
onde x + y = 100. Observe que A transforma vetores de mercado em 
novos vetores de mercado: se (x1,y1) é o vetor que representa as 
percentagens na semana seguinte, então 
 











=





y
x
y
x
935,007,0
065,093,0
1
1 , com x1 + y1 = x + y = 100. 
 
 
 
Representamos essa situação com 
um diagrama na figura ao lado: o 
efeito da matriz A sobre o 
segmento 
x + y = 100, 
onde 0 ≤ x ≤ 1 e 0 ≤ y ≤ 1, 
é “encolher ” esse segmento. 
 figura 2 
 
Observe que se aplicarmos A repetidamente o efeito é 
obter segmentos cada vez menores, “imprensando” os vetores An 





y
x
 
 ( 0,100)
 (6.5 , 93.5)=A ( 0,100)
 x +y = 100
 ( 93, 7)=A (100, 0)
 o ( 100, 0 )
 
 
4 
 
em um quadrante com ângulo cada vez mais agudo na origem à medida 
que n cresce. 
Exercício: O que você espera que aconteça no limite, quando n cresce ? 
 
À medida que n cresce, o ângulo do quadrante tende a zero, 
e vai se definindo um vetor que não será alterado pela multiplicação por 
A. O vetor que se define por esse procedimento expressa a tendência de 
equilíbrio do mercado, se as preferências se mantiverem inalteradas por 
algum tempo, sempre descritas pela mesma matriz A. 
Exercício: 
1. Explique porque a posição de equilíbrio do mercado não depende da 
divisão inicial entre as marcas; 
2. Tente generalizar o raciocínio para três marcas. E para mais de três 
? 
3. Faça as contas com uma calculadora: simule a evolução do mercado 
em semanas sucessivas. Você vai verificar que, para felicidade das 
empresas de publicidade, a número 1 não pode permitir que essa 
situação se mantenha, pois ficaria rapidamente reduzida a pouco 
mais de 48 % do mercado. 
Claramente, existe também outra direção que é mantida 
fixa neste exemplo. A multiplicação por A mantém cada vetor da reta 
x + y = k sobre a mesma reta (embora em geral esse vetor mude de 
inclinação ! ) . Isto é verdadeiro em particular para os vetores da única 
dessas retas que passa pela origem, a reta x + y = 0 . Conclui-se que os 
vetores dessa reta devem manter a sua direção, mesmo depois de 
multiplicados por A (por que ?). Uma verificação direta apenas confirma 
isso: 
0,93 0,065
0.865
0,07 0,935
x x x
A
x x x
      
= =      
− − −      
. 
 
Vamos adotar uma nomenclatura para o que estamos observando : 
dizemos que o número 0,865, que aparece na última expressão, é um 
autovalor da matriz A. 
Qualquer vetor não nulo da forma
(x, -x) é chamado de autovetor 
associado ao autovalor 0,865. O vetor que aparece como limite no 
processo descrito na figura 2 também é um autovetor: a multiplicação 
por A não altera esse vetor nem qualquer de seus múltiplos, o que nos 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
5 
 
leva a estipular que o número 1 é o autovalor associado a esse 
autovetor. 
 
No caso da reflexão considerada no primeiro exemplo, os 
autovalores são 1 e -1, associados respectivamente a autovetores da 
forma ( x, x) e (-x, x). Repare que no último caso os vetores mudam de 
sentido, mas não sua direção, quando multiplicados pela matriz de 
reflexão. 
Como buscar os autovalores/vetores em um exemplo qualquer, a partir 
da matriz ? Uma observação simples vai sugerir um procedimento 
algébrico. 
Suponha que tivéssemos um número k , e um vetor não 
nulo tal que A u = k⋅u. Como k⋅u = (k I ) u , teríamos 
(A - k⋅I) u = 0. 
Em outras palavras, o vetor não nulo u teria que pertencer 
ao núcleo da matriz (A - k⋅I) . Isto significa que essa matriz não pode 
ser inversível ( por que ?). Em particular, as colunas dessa matriz são 
linearmente dependentes. Se calcularmos o determinante dessa matriz 
devemos ter portanto det(A – k⋅I) = 0. 
Mas quem é det(A – k⋅I) ? Se A = 





a b
c d
 então 
det(A – k⋅I) = 




 −











 =
−
−





 = − − −det det ( )( )
a b
c d
k
k
a k b
c d k
a k d k bc
0
0
. 
Assim, det(A - k⋅I) = − + +k a d k A2 ( ) det( ) . 
Portanto, os únicos valores de k que são admissíveis são 
as raízes da equação k2 + (a + d)⋅k + det(A) = 0. 
Definição: A equação k2 + (a + d)⋅k + det(A) = 0 é chamada de 
equação característica da matriz A , e o polinômio 
p(k) = k2 + (a + d)⋅k + det(A) = det(A - k⋅I) 
é chamado de polinômio característico da matriz A . 
 
 
6 
 
Definição: As raízes da equação característica são chamadas de 
autovalores de A 1. Um autovetor correspondente ao 
autovalor k é um vetor não nulo u tal que A u = k⋅u. 
 
Uma vez conhecido um autovalor k1 para A 





=
dc
ba
, é 
possível encontrar os autovetores correspondentes resolvendo o sistema 
linear indeterminado 
( )
( )
a k x b y
c x d k y
− + =
+ − =



1
1
0
0
 . 
As soluções não nulas são os autovetores associados a 
esse autovalor. 
 
Exemplo: 
1. Para encontrar os autovalores de A=
−






2 4
1 1
 escrevemos 
primeiramente o seu polinômio característico 
p(k) = det(A- k⋅I ) = det 2 4
1 1
62
−
− −





 = − −
k
k
k k 
2. Os autovalores são portanto k1 = 3 e k2 = -2, as raízes de p(k). Para 
encontrar os autovetores associados a k1, resolvemos o sistema 
indeterminado 
( )
( )
2 3 4 0
1 3 0
− + =
+ − − =



x y
x y
 e selecionamos as soluções não 
nulas. 
Os autovetores procurados são os vetores (x, y) tais que 
 x = 4y e x ≠ 0 . 
3. Da mesma forma, para encontrar os autovetores associados a k 2 , 
resolvemos o sistema indeterminado 
( )
( )
2 2 4 0
1 2 0
+ + =
+ − + =



x y
x y
 e 
selecionamos as soluções não nulas. 
Os autovetores nesse caso são os vetores (x, y) tais que 
x = -y e x ≠ 0 . 
 
 
1
 Autovalores e autovetores são também chamados de valores/vetores característicos. 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
7 
 
Exercício: Observe que as duas retas contendo os autovetores não são 
colineares. Mostre que isto é sempre verdadeiro: se k1 e k2 
são autovalores distintos, e u, v são autovetores 
correspondentes, então u e v são linearmente independentes. 
 
4. Vamos agora selecionar um 
autovetor u associado a k1 e 
um autovetor v associado a 
k2, por exemplo u = ( 4, 1) e 
v = ( -1, 1). Observe que esses 
dois vetores não são 
colineares2. Considere agora 
uma reta na direção do vetor v. 
Escreva os pontos w que 
estão sobre essa reta como 
w = r u + s v : se r é mantido 
fixo e s varia assumindo todos 
os valores reais o vetor w 
percorre toda a reta. 
Se computamos os vetores A w levando em conta que u e 
v são autovetores, temos 
 (*) A w = A ( r⋅⋅⋅⋅u + s⋅v ) = r A ( u )+ s A ( v ) = r 3u + s (-2)v 
Observe que a situação é análoga quando variamos s 
mantendo o valor de r fixo: a imagem de uma reta paralela ao vetor v 
é também uma reta paralela ao mesmo vetor: a imagem será apenas 
deslocada em relação à reta inicial (está três vezes mais distante da 
origem), e é percorrida no sentido oposto a v com velocidade duas 
vezes maior à medida que o valor de s cresce. 
Repare que se tivéssemos mantido s fixo e variado o valor 
de r , teríamos percorrido desta vez uma reta paralela ao vetor u , a 
qual seria também levada por A sobre uma reta paralela a si mesma. 
Temos então dois sistemas de retas, oblíquos entre si, que são mantidos 
pela transformação linear que é representada no sistema canônico de 
coordenadas pela matriz A. 
 
2
 Veja também o exercício acima. 
reta
r u +s v
 ru
u
 sv
 o v
 figura 3
 
 
8 
 
As figuras 4 e 5, a seguir, ilustram essa situação: a figura 4 
mostra um paralelogramo, com lados paralelos aos vetores u e v , e 
circunscrito a um círculo de raio 1. A figura 5 mostra como essa figura 
ficará, se multiplicarmos cada um de seus pontos pela matriz A. 
figura 4 
 Imagem pela
iiillllll
 
Exercício: Imagine uma folha de papel milimetrado, onde as linhas 
fossem paralelas aos vetores u e v. Qual seria o efeito de aplicar a 
transformação A a todos os pontos dessa folha ? 
É natural então perguntar qual seria a matriz que 
representa a mesma transformação no sistema de coordenadas definido 
pela base {u, v}. Como o vetor representado nessa base pelas 
 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
9 
 
coordenadas (r, s) é justamente o vetor w = r u + s v, A expressão (*) 
que calculamos na página anterior nos fornece essa matriz 
diretamente:. o vetor A w = r 3u + s (-2)v é representado, nesse 
mesmo sistema, pelas coordenadas ( 3r,-2s). A matriz que transforma 
o vetor de coordenadas (r, s) no vetor de coordenadas ( 3r,-2s) é a 
matriz diagonal 
3 0
0 2−





 . 
Volte agora ao exercício que você fez com o "papel 
milimetrado". A transformação que você aplicou aos pontos da folha não 
depende da inclinação das linhas. A escolha de linhas com a mesma 
inclinação que os vetores u e v apenas faz com que o efeito de 
transformar os pontos da folha fique especialmente nítido. Veja 
portanto que, ao mudarmos para um sistema de coordenadas 
constituído por autovetores, a mesma transformação que era 
originalmente descrita pela matriz A =
−






2 4
1 1
 passa agora a ter uma 
descrição ( pela matriz 3 0
0 2−





 ) que torna a compreensão do seu efeito 
sobre os vetores do plano infinitamente mais simples. 
As coordenadas de um vetor no sistema original são obtidas 
a partir de suas coordenadas na base {u, v} , multiplicando pela matriz 
U cujas colunas são as coordenadas de u e de v na base original. O 
fato das duas matrizes, 
2 4
1 1−





 e 
3 0
0 2−





 representarem a mesma 
transformação, cada uma com respeito ao sistema de coordenadas 
relevante no caso, é descrito pela igualdade
matricial 
2 4
1 1−





 U = U 3 0
0 2−





 
Para saber se podemos aplicar o mesmo esquema de 
raciocínio no caso de um exemplo genérico de matriz A = 





a b
c d
, vamos 
estabelecer alguns resultados gerais relacionados às observações que 
fizemos ao estudar o exemplo anterior. 
Primeiramente vamos verificar que havermos encontrado 
dois autovetores formando uma base não foi puramente acidental: 
 
 
 
10 
 
Proposição: Autovetores associados a autovalores distintos são 
linearmente independentes. 
 
Demonstração: Suponha que Au = k1 u e Av = k2 v, com k2 ≠ k1 e u, v 
ambos vetores não nulos. Se u e v fossem colineares teríamos, para 
algum valor (também não nulo) do parâmetro r, a igualdade u = r v, e 
portanto 
k
1
u = Au = A( r v) = r⋅Av = r k
2
v = k
2
 (r v) = k
2
u 
o que é claramente impossível, concluindo a demonstração. 
 
Portanto, para saber se podemos garantir a existência de 
uma base composta por autovetores da matriz A = 





a b
c d
, basta 
examinar o seu polinômio característico. Se ele tiver duas raízes reais 
distintas, k1 e k2, resolvemos os sistemas lineares homogêneos 
(A – k1⋅Id) = 0 e (A – k2⋅Id) = 0 . As soluções não nulas são os 
autovetores que buscamos. Escolhemos um autovetor associado a cada 
uma desses autovalores, e teremos assim a base desejada. 
Vamos resumir esses resultados, levando em conta o sinal 
do discriminante da equação característica: 
 
Proposição: Se ( ) ( )a d ad bc+ > −2 4 então a transformação possui 
dois autovalores reais distintos. Podemos portanto 
encontrar uma base formada pelos autovetores da matriz 
a b
c d





 . Nessa base, a transformação linear originalmente 
representada pela matriz 
a b
c d





 se escreve como a 
matriz diagonal 
k
k
1
2
0
0





 , com os autovalores de 
a b
c d





 na diagonal principal. 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
11 
 
 
Antes de discutir os casos onde não se aplica a hipótese da 
proposição, vamos examinar alguns fatos gerais acerca de 
autovalores/vetores e matrizes de transformações lineares. Quando 
estipulamos uma transformação a partir da descrição direta do seu 
efeito sobre os vetores do plano, como no caso da reflexão em nosso 
primeiro exemplo, esse efeito não depende das coordenadas usadas 
para representar o vetor. Portanto, um autovetor será um autovetor 
independentemente do sistema de coordenadas usado para representa-
lo. Uma vez escolhido um sistema de coordenadas, no entanto, existe 
exatamente uma matriz que efetua a transformação: o efeito da 
transformação sobre um dado vetor é obtido multiplicando por essa 
matriz as coordenadas do vetor. 
Se mudamos o sistema de coordenadas utilizado para 
representar os vetores, mudam as coordenadas de cada ponto, mas eles 
não mudam de lugar, da mesma forma que uma mudança no nome ou 
na numeração das casas de nossa rua pode mudar nosso endereço mas 
não muda o lugar onde vivemos. 
Da mesma forma, muda a matriz que efetua a 
transformação se mudamos o sistema de coordenadas, mas não muda o 
seu efeito sobre os vetores do plano. Em particular, se a igualdade 
Au = k⋅u for verificada em um dado sistema de coordenadas, ela será 
também verdadeira em cada sistema de coordenadas que utilizarmos 
para representar o vetor u por um par de números e a transformação 
A por uma matriz. O autovalor k é portanto uma característica 
intrínseca: todas as matrizes que puderem representar essa mesma 
transformação em algum sistema de coordenadas devem ter exatamente 
os mesmos autovalores. 
Isso motiva a seguinte definição: 
Definição: Duas transformações lineares L e T são similares3 se existe 
uma transformação linear inversível U tal que L = U-1TU. 
 
Exercícios: 
1. Mostre que a similaridade é uma relação de equivalência. 
 
3
 O nome semelhança e o adjetivo semelhante são também usados como sinônimos. 
 
 
12 
 
2. Mostre que duas transformações similares têm exatamente os 
mesmos autovalores. 
 
As conclusões a que chegamos, partindo de um raciocínio 
geométrico acerca da transformação, podem ser verificadas novamente, 
de forma algébrica, a partir da definição do polinômio característico e da 
matriz de mudança de coordenadas: 
se denotarmos por u o vetor no sistema inicial de 
coordenadas, por w o mesmo vetor escrito em coordenadas relativas a 
uma nova base, e por U a matriz que nos dá as coordenadas antigas a 
partir das novas coordenadas, teremos a igualdade u = U w. A equação 
matricial (A - k⋅I) u = 0 se torna, quando escrita nas novas 
coordenadas, a equação 
(U −1 (A - k⋅I) U ) w = 0 ⇔⇔⇔⇔ (U −1 AU- k⋅I ) w = 0 
como w ≠≠≠≠ 0, isto significa que devemos ter 
det (U −1 AU- k⋅I ) = det( U −1 (A- k⋅I )U ) = 0. 
Mas det( U −1 (A- k⋅I )U ) = det(A - k⋅I) é exatamente o polinômio 
característico de A . Demonstramos dessa forma a seguinte 
Proposição: Os coeficientes do polinômio característico não mudam 
quando mudamos o sistema de coordenadas utilizado 
para representar a matriz da transformação A. 
 
Faz sentido portanto referir-nos ao polinômio característico 
de uma transformação linear: é o mesmo polinômio obtido a partir da 
representação da transformação por uma matriz em qualquer sistema de 
coordenadas. Observe também que a definição de similaridade permite 
reescrever a proposição anterior como: 
Proposição: Duas matrizes semelhantes têm exatamente o mesmo 
polinômio característico. 
 
Essa proposição fornece um critério fácil para investigar se 
duas transformações podem ser similares: se elas forem similares os 
coeficientes dos seus polinômios característicos devem coincidir. Como, 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
13 
 
no caso de transformações em ℜ 2, esses coeficientes são exatamente o 
traço e o determinante da matriz da transformação, então se duas 
matrizes são similares elas necessariamente têm o mesmo traço e o 
mesmo determinante. 
Exercício: Mostre que se ( ) ( )a d ad bc+ > −2 4 então qualquer matriz com 
o mesmo traço e mesmo determinante é similar a 
a b
c d





 . 
Calcule o traço e o determinante de 





k
k
0
1
e 





k
k
0
0
. Elas são similares ? 
 
Vamos agora voltar ao segundo exemplo desta seção: a 
matriz de Markov A = 0 93 0 065
0 07 0 935
, ,
, ,





 . Vimos que os autovalores dessa 
matriz são 1 e 0,865. Mas o processo que utilizamos para encontrar os 
autovetores nesse exemplo não dependeu do cálculo anterior dos 
autovalores: nós simplesmente multiplicamos a matriz repetidamente, 
a partir de um vetor inicial escolhido ao acaso. 
Para entender o que aconteceu, escolha um vetor w 
qualquer no plano, e observe que se denotamos por u um autovetor 
correspondente ao autovalor 1, e por v um autovalor correspondente 
ao autovalor 0,865 , podemos sempre escrever w = ru + sv , para uma 
escolha apropriada dos coeficientes r e s . 
Podemos então escrever o efeito de A sobre o vetor w em 
termos do seu efeito sobre os autovalores: 
Aw = r Au + s Av = r u + s (0,865)v. Observe que a componente na 
direção do autovetor v diminui após a multiplicação por A. Se 
repetirmos a operação, a cada vez a componente na direção de v será 
multiplicada por 0,865, enquanto a componente na direção de u 
permanece constante, de sorte que após n repetições teremos 
A n w = r u + s (0,865) n v. 
Como (0,865)
n tende a zero quando n cresce , o vetor A n w converge 
para o autovetor r u, exceto no caso de havermos escolhido o vetor 
inicial w exatamente na mesma direção de v (isto é, quando r = 0 ). 
 
 
14 
 
Este exemplo pode ser generalizado: quando traço(A) 2 > 
4⋅det(A) e traço(A) ≠ 0 existirá um autovalor com o maior módulo 
(explique porquê). Se o vetor w não for escolhido exatamente na direção 
correspondente aos autovetores do outro autovalor, a direção de A n w 
converge para aquela dos autovetores associados ao autovalor de maior 
módulo: para ver isto, escreva w = ru + sv e efetue 
A n w = r k n1 u + s k n2 v = k n1 ( r u + s kk
n
2
1





 v) 
Observe que, se |k1| > |k2|, então 0
1
2 →





n
k
k
, e 
wA
wA
n
n
�
�
 converge para 
um autovetor associado a k1, exceto quando r = 0. Temos que dividir 
pelo módulo para evitar problemas quando |k1| ≠ 1. Note que não 
precisamos conhecer nada sobre autovalores/vetores de A antes de 
iniciar o processo. Podemos experimentar um vetor inicial w qualquer, 
iniciar o processo, e checar a convergência. O limite, se existir, é um 
autovetor da matriz A. Este fato é utilizado na página que acompanha 
esta seção para buscar os autovetores de uma matriz qualquer. Espera-
se que você se utilize dele a partir deste momento, para adquirir 
familiaridade com o problema de estudar a geometria das 
transformações lineares. 
O que fazer quando k1 = - k2 ? O processo acima 
evidentemente não converge nesse caso, mas podemos contornar o 
problema lançando mão de uma observação que nos vai ser muito útil 
no futuro. Apesar de evidente convém destacá-la como: 
 
Proposição: Os autovetores da transformação A - s I são exatamente 
os autovetores de A, mas os autovalores correspondentes 
são deslocados pelo mesmo valor s. 
Demonstração: Au = λ u ⇔ (A - s⋅I )u = (λ - s)u 
 
Portanto, os autovetores de transformações que são 
similares a múltiplos de reflexões podem ser encontrados pelo processo 
descrito acima, se utilizamos o artificio de somar um múltiplo da 
identidade à transformação original. Dessa forma passamos a ter 
autovalores com módulos diferentes, com os mesmos autovalores, e 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
15 
 
podemos encontrar aquele correspondente ao de maior módulo pelo 
processo acima. Um ‘shift’ no sentido oposto nos dá o outro autovetor. 
 
O caso (a + d )2 < 4⋅(ad - bc) 
 
Quando as raízes do polinômio característico são números 
complexos conjugados, temos de concluir que a transformação A 
modifica a direção de todos os vetores do plano. Se existir um vetor u 
cuja direção não é modificada quando o multiplicamos pela matriz A, 
então necessariamente existirá um número real k tal que Au = ku . 
Mas nesse caso k seria um autovalor real de A, o que é impossível. 
Portanto, se (a + d )2 < 4⋅(ad - bc) não existem autovetores ! 
A estratégia de buscar uma base de autovetores para estudar a 
geometria da transformação não funciona neste caso. Mas a proposta 
de buscar uma base onde o efeito da transformação seja mais evidente 
continua válida, como veremos a seguir. 
Compare por exemplo as transformações dadas, na base 
que estamos utilizando, pelas matrizes 
0 1
1 0
−




 e A = 
1 2
1 1
−
−





 . A 
primeira é nossa velha conhecida: se nosso sistema de coordenadas é 
ortonormal temos a rotação de pi/2 radianos, no sentido anti-horário. O 
que podemos dizer da segunda matriz ? Em comum ambas têm as 
raízes do polinômio característico: k1 = i e k2 = -i (confira !). 
Cabe perguntar o que aconteceria em outro sistema de 
coordenadas: a rotação não seria representada necessariamente pela 
mesma matriz mas, e a segunda transformação ? Seria obviamente 
vantajoso se, em algum outro sistema, a segunda transformação fosse 
representada pela primeira matriz. Nesse caso poderíamos enxergá-la 
como uma rotação que, de alguma maneira, está torta em relação ao 
círculo . Em outras palavras, como as duas matrizes têm os mesmos 
autovalores, é razoável esperar que elas sejam similares. Para mostrar 
que elas realmente são similares, no entanto, é preciso encontrar a 
mudança de coordenadas que transforma uma na outra. 
 
 
16 
 
Para ver melhor as coisas, vamos buscar o sistema de 
coordenadas adequado. Conjeturamos então que, para alguma 
mudança de coordenadas U = 
u v
u v
1 1
2 2





 , vamos ter 
1 2
1 1
−
−






u v
u v
1 1
2 2





 = 
u v
u v
1 1
2 2






0 1
1 0
−




 . 
Observe que isto significa 
1 2
1 1
−
−






u
u
v
v
1
2
1
2





 =





 e 
1 2
1 1
−
−





 





−=





2
1
2
1
u
u
v
v
! 
Em outras palavras: se, para alguma base, a matriz que 
representa a transformação A é a mesma matriz que representava a 
rotação de pi/2 radianos no sistema original, então o primeiro vetor dessa 
nova base é levado no seguinte após a multiplicação por A! Observe que 
essa é exatamente a situação que os vetores da base original 
mantinham com respeito à rotação de pi/2 radianos. 
Temos total liberdade de escolha com relação aos 
coeficientes do primeiro vetor da base. Vamos fixar, como exemplo, 
�
u
u
u
=





 =
−






1
2
1 5
2
 como primeiro vetor da nova base. Segue-se então que 
�
v
v
v
=





 =
1
2
1 2
1 1
−
−






1 5
2
3 5
1 5
−





 =
− −
− −





 é o segundo vetor dessa base. Neste 
exemplo, e para essa escolha de primeiro vetor, os dois vetores por 
acaso são mutuamente ortogonais (embora não seja possível escolhê-
los ao mesmo tempo ortogonais e de mesmo tamanho !). 
Vamos agora recapitular o que sabemos sobre cada uma 
dessas transformações: 
a primeira leva o primeiro vetor da base original no segundo 
vetor dessa base. Como se trata de uma rotação em torno da origem, 
vetores sobre o círculo unitário são levados em pontos desse mesmo 
círculo após a rotação: o vetor (cos(θ), sen(θ)) é levado em 
(cos(θ + pi/2), sen(θ + pi/2)). 
a segunda transformação também leva o primeiro vetor da 
nova base no segundo vetor dessa base. Certamente a imagem do 
círculo unitário não é o círculo unitário, mas que dizer do vetor que, em 
termos da nova base, tem coordenadas (cos(θ), sen(θ)) ? 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
17 
 
Primeiramente vamos obter as coordenadas desse mesmo 
vetor na base original: para isso basta multiplicá-lo pela matriz de 
mudança de coordenadas, obtendo então o vetor de coordenadas 
1 5 3 5
2 1 5
− − −
− −





 





)(
)cos(
θ
θ
sen
. O vetor transformado tem, na base original, as 
coordenadas 
1 2
1 1
−
−






1 5 3 5
2 1 5
− − −
− −






cos( )
sen( )
θ
θ





 . 
Mas observe que nossa escolha de vetores para a nova base 
força a igualdade 
 
1 2
1 1
−
−






1 5 3 5
2 1 5
− − −
− −






cos( )
sen( )
θ
θ





 = 
1 5 3 5
2 1 5
− − −
− −






0 1
1 0
−





cos( )
sen( )
θ
θ





 
 =
1 5 3 5
2 1 5
− − −
− −






cos( )
sen( )
θ pi
θ pi
+
+










2
2
. 
Se permitirmos que a variável θ assuma todos os valores 
possíveis entre 0 e 2pi, o lugar geométrico descrito pelos pontos da 
forma 
1 5 3 5
2 1 5
− − −
− −






cos( )
sen( )
θ
θ





 é a imagem do círculo unitário 
centrado na origem, isto é, uma elipse com centro na origem. 
A igualdade que foi deduzida acima significa que pontos 
sobre essa elipse são levados, após multiplicação por 
1 2
1 1
−
−





 , em 
pontos sobre essa mesma elipse: são apenas deslocados sobre ela para 
uma posição correspondente a somar pi/2 ao valor de θ . 
A figura abaixo, onde representamos primeiramente o 
círculo unitário e sua imagem pela transformação, e depois disso a 
elipse que é mantida invariante pela transformação, juntamente com os 
novos eixos, dá uma idéia do que estamos querendo dizer: 
 
 
18 
 
figura 5 
 
 
Antes de tratar o caso geral, vamos examinar a geometria 
das rotações Rθ=
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−




 e de suas ‘irmãs’ : as matrizes 
Aθ =
a b
c d





 que têm como raízes da equação característica os números 
complexos cos(θ) ± i sen(θ). 
Observe que as igualdades 
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−





1
0
1
0
0
1





 =





 =





 +






cos( )
sen( ) cos( ) sen( )
θ
θ θ θ 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
19 
 
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−





0
1





 = 
−




 = −





 +






sen( )
cos( ) sen( ) cos( )
θ
θ θ θ
1
0
0
1
 
nos dão uma especificação para a posição das imagens dos vetores da 
base, relativamente às suas posições iniciais. 
Suponha agora que tivéssemos encontrado uma base, na 
qual a transformação que era originalmente representada pela matriz 
a b
c d





 tivesse como matriz 
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−




 . Se a matriz que 
transforma coordenadas, dessa nova base para coordenadas na base 
original, é dada por 
u v
u v
1 1
2 2





 (isto é, os vetores da nova base são 
u
u
1
2





 e 
v
v
1
2





 ) então devemos ter a igualdade: 
a b
c d






u v
u v
1 1
2 2





 = 
u v
u v
1 1
2 2






cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−




 
Lida coluna a coluna, essa igualdade significa 
(i) 
a b
c d






u
u
1
2





 = cos(θ)
u
u
1
2





 + sen(θ)
v
v
1
2





 
(ii) 
a b
c d






v
v
1
2





 = − sen(θ)
u
u
1
2





 + cos(θ)
v
v
1
2





 
Em outras palavras: as imagens dos vetores dessa nova 
base mantém a mesma posição relativa a suas posições iniciais, que as 
imagens dos vetores da base original tem após submetidos à rotação ! 
Qualquer das duas igualdades vetoriais acima pode ser lida 
como a especificação de um vetor da base em termos do outro. Por 
exemplo, a primeira delas se lê, depois de reagrupados os termos: 
v
v
1
2





 =
1
sen( )
cos( )
cos( )θ
θ
θ
a b
c d
−
−






u
u
1
2





 
Repare que a hipótese inicial, ( ) ( )a d ad bc+ < −2 4 , nos 
garante sen(θ)≠0 (confira !). 
 
 
20 
 
A matriz 
1
sen( )
cos( )
cos( )θ
θ
θ
a b
c d
−
−





 tem como raízes do 
polinômio característico os números imaginários puros k i1 = e 
k i2 = − . exatamente como no exemplo inicial desta seção! 
Exercício : Confira esta última afirmativa ! 
Trata-se portanto, como naquele caso, de uma ‘rotação 
torta’, correspondente a um ângulo positivo de pi/2 radianos. Isto 
imediatamente nos garante que dois vetores satisfazendo a igualdade (i) 
são necessariamente não colineares. 
Exercício: Verifique que efetuar duas multiplicações sucessivas por essa 
matriz sobre um vetor qualquer equivale a multiplicar esse vetor por 
−1. 
Exercício: Verifique que a igualdade vetorial (ii) define exatamente a 
mesma relação necessária entre os vetores da base procurada que (i). 
Sugestão: podemos reescrevê-la reagrupando os seus termos como 
u
u
1
2





 =
−
−
−






1
sen( )
cos( )
cos( )θ
θ
θ
a b
c d
v
v
1
2





 . 
 
Como tratar a matriz se as raízes do polinômio 
característico são α ± i β ? Basta reescrever 
α β α β α
α β
β
α β
± = +
+
±
+








i i2 2
2 2 2 2
. Se definimos 
cos( ) , sen( )θ α
α β
θ β
α β
=
+
=
+2 2 2 2
 , verificamos que 
a b
c d





 é 
múltiplo de uma matriz que se enquadra no tipo anteriormente 
estudado: 
a b
c d





 = α β
α β
2 2
2 2
1
+
+














a b
c d
. (Confira !) 
As raízes da equação característica da matriz 
1
2 2α β+














a b
c d
 são cos( ) sen( )θ θ± i . Podemos portanto obter, pelo 
mesmo procedimento anterior, uma base na qual a transformação 
definida por essa matriz se escreve como 
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−




 . A 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
21 
 
transformação originalmente definida por 
a b
c d





 se escreve nessa 
base como 
 α β2 2+ cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−




 = α β2 2+
α
α β
β
α β
β
α β
α
α β
2 2 2 2
2 2 2 2
+
−
+
+ +












=
α β
β α
−




 . 
 
Verificamos assim um interessante resultado: 
 
Proposição: Se as raízes da equação característica da matriz 
a b
c d





 são 
α + i⋅β = ρ⋅(cos(θ) + i⋅cos(θ)) e α - i⋅β = ρ⋅(cos(θ) - i⋅cos(θ)), 
e 
u
u
1
2





 é um vetor não nulo qualquer, então o vetor 
v
v
1
2





 = 





−
−
)cos(
)cos(
)sen(
1
θρ
θρ
θρ dc
ba u
u
1
2





 
nos dá, juntamente com 
u
u
1
2





 , uma base na qual a 
transformação dada anteriormente por 
a b
c d





 será 
representada pela matriz 
α β
β α
−




 . 
 
 
Corolário: Duas matrizes reais 2x2, com autovalores complexos, são 
similares se e só se têm os mesmos valores característicos. 
 
 
 
22 
 
O caso (a + d ) 2 = 4(ad - bc) 
 
Nesse caso, o polinômio característico tem duas raízes reais 
iguais a λ. É sempre possível encontrar uma direção a partir da origem 
que não é modificada quando transformada pela matriz, mas em geral 
não se pode obter uma segunda direção independente da primeira, pois 
os dois
autovalores obtidos são iguais. 
Se existir essa segunda direção, então teremos dois vetores 
independentes, u e v, tais que Au = λu e Av = λv. Ora, como u e v 
são, por hipótese, linearmente independentes, podemos escrever 
qualquer vetor w na forma w = α·u + β·v. Multiplicando por A, vem 
Aw = A(α·u + β·v) = α·Au + β· A v = α·λu + β·λ v = λ (α·u + β·v) = λ·w. 
Vemos portanto que, nesse caso, o efeito de multiplicar 
qualquer vetor w pela matriz A é idêntico ao de multiplicar esse 
mesmo vetor pelo escalar λ. A matriz A é então necessariamente a 
matriz 





λ
λ
0
0
, isto é, um múltiplo da identidade. 
Se A não for um múltiplo da matriz identidade, e tiver dois 
autovalores iguais, então só podemos encontrar uma direção de 
autovetores para A. Seja u um vetor que tem essa direção, e seja v 
um vetor linearmente independente de u. Podemos escrever Av como 
combinação linear de u e de v, isto é, Av = ku + sv. A matriz que 
corrresponde a A nessa base é, portanto, 





s
k
0
λ
. Mas observe que os 
autovalores dessa matriz são os mesmos da matriz A, isto é, ambos 
iguais a λ. O único valor possível para s é portanto s = λ. 
 
Provamos dessa forma a seguinte proposição: 
 
Proposicão: Se ambos os autovalores da matriz A são iguais a λ, e A 
não é um múltiplo da identidade, então a matriz que 
corresponde a A, em qualquer base formada tomando um 
O CASO DE TRANSFORMAÇÕES DO PLANO 
 
23 
 
autovetor u e um segundo vetor v linearmente 
independente de u, tem a forma 





λ
λ
0
k
. 
 
Vemos, dessa forma, que a matriz A representa um múltiplo 
de um cisalhamento, e que u determina a direção desse cisalhamento. 
Um exemplo é a matriz A = 




 −
31
11
. Seus autovalores são 
λ1 = λ2 = 2, e a única direção de autovetores é a dada pelo vetor ( 1,-1). 
Se escolhemos por exemplo a base dada pelos vetores u = ( 1,-1) e v = 
( 1, 1), a matriz que corresponde a A nessa base é obtida calculando 
Au = 2u + 0v, Av = 




 −
31
11






1
1
= -2 





−1
1
+ 2 





1
1
= -2u + 2v, 
o que nos dá a matriz 




 −
=




 −
10
11
2
20
22
. A matriz A cisalha numa 
direção que faz 135º com o eixo original x, e em seguida multiplica os 
vetores por 2.

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?