Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
AUTOVALORES E AUTOVETORES
Luiz Carlos Guimarães
O CASO DE TRANSFORMAÇÕES DO PLANO
O objetivo desta seção é desenvolver um método para o
estudo da geometria das transformações lineares do plano. O método
será posteriormente generalizado para lidar com transformações
lineares de um espaço vetorial em si mesmo, para qualquer dimensão.
Vamos examinar primeiro alguns exemplos, que vão servir
para compreender exatamente o que queremos dizer com a palavra
geometria nesse caso.
Considere inicialmente
o exemplo da reflexão ortogonal
em relação à reta x = y . Se A é
a matriz que representa essa
transformação, podemos
concluir que todos os vetores da
forma ( x, x) são mantidos
fixos quando multiplicados por A
(ver figura 1).
Da geometria da reflexão concluímos também que os
vetores da forma (-x, x) são levados em ( x,-x), isto é, multiplicar pela
matriz que representa a transformação tem um efeito simples sobre
esses vetores: o mesmo efeito de multiplica-los pelo número -1.
O que se passa com os vetores que não estão sobre
nenhuma das duas retas ? A figura deixa claro que, ao serem refletidos
em relação à reta, eles mudam de direção.
A matriz A que efetua essa reflexão é 0 1
1 0
. Não seria tão
difícil deduzir diretamente que a geometria de uma reflexão está
embutida nessa matriz ... afinal, reflexões são transformações muito
particulares. Mas que dizer de matrizes como A1=
2 4
1 1−
e A2=
2 2
1 0−
? Certamente nenhuma delas representa uma reflexão ortogonal: nós
sabemos como as matrizes se parecem nesse caso. Mas, as reflexões,
u = ( x,y )
figura 1
reta
x = y
reta
y = -x
o
reflexão de u
2
como vimos, mantém fixas as direções de duas retas (distintas, e
apenas duas) que passam pela origem. Será isso verdade também para
A1 e A2 ?
Não se trata de obter uma resposta automática a essa
pergunta, valendo para todas as transformações lineares – nós já vimos
exemplos onde a transformação se comporta de forma diferente:
• uma rotação de ângulo menor que 1800 , por exemplo,
muda a direção de qualquer reta passando pela origem;
• um cisalhamento horizontal, como o efetuado pela
matriz
1 1
0 1
, muda a direção de cada vetor ( x, y) com
y ≠0, o que significa que apenas a direção da reta
horizontal y = 0 é mantida inalterada após
multiplicação por essa matriz.
Exercício: Liste exemplos para cada um dos casos abaixo:
1. A matriz não muda a direção de nenhuma reta;
2. A matriz só não muda a direção de duas retas passando pela origem;
3. A matriz só não muda a direção de uma reta passando pela origem.
Existem outras possibilidades? Como você classificaria a matriz
00
01
?
Atenção:... escalonar definitivamente não ajuda a resolver esse
problema! Se escalonamos por exemplo a matriz de reflexão
0 1
1 0
,
obtemos a matriz
1 0
0 1
, e toda a geometria da reflexão se perde.
Antes de buscar métodos para examinar matrizes em geral,
vamos olhar um outro exemplo. Vamos considerar o que poderia ser o
relacionamento entre as cervejas número 1 e número 2 no mercado ou,
no mesmo tipo de situação, entre os dois candidatos no segundo turno
da próxima eleição para Alcaide em nossa cidade. Digamos que se
acaba de realizar uma pesquisa, constatando que a número 1 detém
hoje 70% do mercado, contra 30% da concorrente. Para avaliar a
tendência, a pesquisa também busca informação sobre a variação de
preferencia na última semana, constatando que, no período, 93% dos
consumidores da número 1 não se mostraram dispostos a mudar de
marca, enquanto 7% adotaram a número 2. Em relação à número 2,
O CASO DE TRANSFORMAÇÕES DO PLANO
3
enquanto isso, 93,5% dos seus consumidores se mantém fieis, e os
restantes 6,5% passaram a preferir a outra cerveja.
O que pode significar isso em termos de mercado ?
Inicialmente não muito. A persistir a tendência, na próxima semana o
consumo se dividirá da seguinte maneira:
para a número 1: 0,93 ⋅ 70% + 0,065 ⋅ 30% = 67%
aproximadamente
para a número 2: 0,07 ⋅ 70% + 0,935 ⋅ 30% = 33%
aproximadamente
Para avaliar a tendência a médio prazo, considere
apenas a matriz formada com os coeficientes que expressam a variação
de preferência no período de uma semana: A =
0 93 0 065
0 07 0 935
, ,
, ,
. Represente
a divisão do mercado em um dado momento como um vetor ( x, y) ,
onde x + y = 100. Observe que A transforma vetores de mercado em
novos vetores de mercado: se (x1,y1) é o vetor que representa as
percentagens na semana seguinte, então
=
y
x
y
x
935,007,0
065,093,0
1
1 , com x1 + y1 = x + y = 100.
Representamos essa situação com
um diagrama na figura ao lado: o
efeito da matriz A sobre o
segmento
x + y = 100,
onde 0 ≤ x ≤ 1 e 0 ≤ y ≤ 1,
é “encolher ” esse segmento.
figura 2
Observe que se aplicarmos A repetidamente o efeito é
obter segmentos cada vez menores, “imprensando” os vetores An
y
x
( 0,100)
(6.5 , 93.5)=A ( 0,100)
x +y = 100
( 93, 7)=A (100, 0)
o ( 100, 0 )
4
em um quadrante com ângulo cada vez mais agudo na origem à medida
que n cresce.
Exercício: O que você espera que aconteça no limite, quando n cresce ?
À medida que n cresce, o ângulo do quadrante tende a zero,
e vai se definindo um vetor que não será alterado pela multiplicação por
A. O vetor que se define por esse procedimento expressa a tendência de
equilíbrio do mercado, se as preferências se mantiverem inalteradas por
algum tempo, sempre descritas pela mesma matriz A.
Exercício:
1. Explique porque a posição de equilíbrio do mercado não depende da
divisão inicial entre as marcas;
2. Tente generalizar o raciocínio para três marcas. E para mais de três
?
3. Faça as contas com uma calculadora: simule a evolução do mercado
em semanas sucessivas. Você vai verificar que, para felicidade das
empresas de publicidade, a número 1 não pode permitir que essa
situação se mantenha, pois ficaria rapidamente reduzida a pouco
mais de 48 % do mercado.
Claramente, existe também outra direção que é mantida
fixa neste exemplo. A multiplicação por A mantém cada vetor da reta
x + y = k sobre a mesma reta (embora em geral esse vetor mude de
inclinação ! ) . Isto é verdadeiro em particular para os vetores da única
dessas retas que passa pela origem, a reta x + y = 0 . Conclui-se que os
vetores dessa reta devem manter a sua direção, mesmo depois de
multiplicados por A (por que ?). Uma verificação direta apenas confirma
isso:
0,93 0,065
0.865
0,07 0,935
x x x
A
x x x
= =
− − −
.
Vamos adotar uma nomenclatura para o que estamos observando :
dizemos que o número 0,865, que aparece na última expressão, é um
autovalor da matriz A.
Qualquer vetor não nulo da forma
(x, -x) é chamado de autovetor
associado ao autovalor 0,865. O vetor que aparece como limite no
processo descrito na figura 2 também é um autovetor: a multiplicação
por A não altera esse vetor nem qualquer de seus múltiplos, o que nos
O CASO DE TRANSFORMAÇÕES DO PLANO
5
leva a estipular que o número 1 é o autovalor associado a esse
autovetor.
No caso da reflexão considerada no primeiro exemplo, os
autovalores são 1 e -1, associados respectivamente a autovetores da
forma ( x, x) e (-x, x). Repare que no último caso os vetores mudam de
sentido, mas não sua direção, quando multiplicados pela matriz de
reflexão.
Como buscar os autovalores/vetores em um exemplo qualquer, a partir
da matriz ? Uma observação simples vai sugerir um procedimento
algébrico.
Suponha que tivéssemos um número k , e um vetor não
nulo tal que A u = k⋅u. Como k⋅u = (k I ) u , teríamos
(A - k⋅I) u = 0.
Em outras palavras, o vetor não nulo u teria que pertencer
ao núcleo da matriz (A - k⋅I) . Isto significa que essa matriz não pode
ser inversível ( por que ?). Em particular, as colunas dessa matriz são
linearmente dependentes. Se calcularmos o determinante dessa matriz
devemos ter portanto det(A – k⋅I) = 0.
Mas quem é det(A – k⋅I) ? Se A =
a b
c d
então
det(A – k⋅I) =
−
=
−
−
= − − −det det ( )( )
a b
c d
k
k
a k b
c d k
a k d k bc
0
0
.
Assim, det(A - k⋅I) = − + +k a d k A2 ( ) det( ) .
Portanto, os únicos valores de k que são admissíveis são
as raízes da equação k2 + (a + d)⋅k + det(A) = 0.
Definição: A equação k2 + (a + d)⋅k + det(A) = 0 é chamada de
equação característica da matriz A , e o polinômio
p(k) = k2 + (a + d)⋅k + det(A) = det(A - k⋅I)
é chamado de polinômio característico da matriz A .
6
Definição: As raízes da equação característica são chamadas de
autovalores de A 1. Um autovetor correspondente ao
autovalor k é um vetor não nulo u tal que A u = k⋅u.
Uma vez conhecido um autovalor k1 para A
=
dc
ba
, é
possível encontrar os autovetores correspondentes resolvendo o sistema
linear indeterminado
( )
( )
a k x b y
c x d k y
− + =
+ − =
1
1
0
0
.
As soluções não nulas são os autovetores associados a
esse autovalor.
Exemplo:
1. Para encontrar os autovalores de A=
−
2 4
1 1
escrevemos
primeiramente o seu polinômio característico
p(k) = det(A- k⋅I ) = det 2 4
1 1
62
−
− −
= − −
k
k
k k
2. Os autovalores são portanto k1 = 3 e k2 = -2, as raízes de p(k). Para
encontrar os autovetores associados a k1, resolvemos o sistema
indeterminado
( )
( )
2 3 4 0
1 3 0
− + =
+ − − =
x y
x y
e selecionamos as soluções não
nulas.
Os autovetores procurados são os vetores (x, y) tais que
x = 4y e x ≠ 0 .
3. Da mesma forma, para encontrar os autovetores associados a k 2 ,
resolvemos o sistema indeterminado
( )
( )
2 2 4 0
1 2 0
+ + =
+ − + =
x y
x y
e
selecionamos as soluções não nulas.
Os autovetores nesse caso são os vetores (x, y) tais que
x = -y e x ≠ 0 .
1
Autovalores e autovetores são também chamados de valores/vetores característicos.
O CASO DE TRANSFORMAÇÕES DO PLANO
7
Exercício: Observe que as duas retas contendo os autovetores não são
colineares. Mostre que isto é sempre verdadeiro: se k1 e k2
são autovalores distintos, e u, v são autovetores
correspondentes, então u e v são linearmente independentes.
4. Vamos agora selecionar um
autovetor u associado a k1 e
um autovetor v associado a
k2, por exemplo u = ( 4, 1) e
v = ( -1, 1). Observe que esses
dois vetores não são
colineares2. Considere agora
uma reta na direção do vetor v.
Escreva os pontos w que
estão sobre essa reta como
w = r u + s v : se r é mantido
fixo e s varia assumindo todos
os valores reais o vetor w
percorre toda a reta.
Se computamos os vetores A w levando em conta que u e
v são autovetores, temos
(*) A w = A ( r⋅⋅⋅⋅u + s⋅v ) = r A ( u )+ s A ( v ) = r 3u + s (-2)v
Observe que a situação é análoga quando variamos s
mantendo o valor de r fixo: a imagem de uma reta paralela ao vetor v
é também uma reta paralela ao mesmo vetor: a imagem será apenas
deslocada em relação à reta inicial (está três vezes mais distante da
origem), e é percorrida no sentido oposto a v com velocidade duas
vezes maior à medida que o valor de s cresce.
Repare que se tivéssemos mantido s fixo e variado o valor
de r , teríamos percorrido desta vez uma reta paralela ao vetor u , a
qual seria também levada por A sobre uma reta paralela a si mesma.
Temos então dois sistemas de retas, oblíquos entre si, que são mantidos
pela transformação linear que é representada no sistema canônico de
coordenadas pela matriz A.
2
Veja também o exercício acima.
reta
r u +s v
ru
u
sv
o v
figura 3
8
As figuras 4 e 5, a seguir, ilustram essa situação: a figura 4
mostra um paralelogramo, com lados paralelos aos vetores u e v , e
circunscrito a um círculo de raio 1. A figura 5 mostra como essa figura
ficará, se multiplicarmos cada um de seus pontos pela matriz A.
figura 4
Imagem pela
iiillllll
Exercício: Imagine uma folha de papel milimetrado, onde as linhas
fossem paralelas aos vetores u e v. Qual seria o efeito de aplicar a
transformação A a todos os pontos dessa folha ?
É natural então perguntar qual seria a matriz que
representa a mesma transformação no sistema de coordenadas definido
pela base {u, v}. Como o vetor representado nessa base pelas
O CASO DE TRANSFORMAÇÕES DO PLANO
9
coordenadas (r, s) é justamente o vetor w = r u + s v, A expressão (*)
que calculamos na página anterior nos fornece essa matriz
diretamente:. o vetor A w = r 3u + s (-2)v é representado, nesse
mesmo sistema, pelas coordenadas ( 3r,-2s). A matriz que transforma
o vetor de coordenadas (r, s) no vetor de coordenadas ( 3r,-2s) é a
matriz diagonal
3 0
0 2−
.
Volte agora ao exercício que você fez com o "papel
milimetrado". A transformação que você aplicou aos pontos da folha não
depende da inclinação das linhas. A escolha de linhas com a mesma
inclinação que os vetores u e v apenas faz com que o efeito de
transformar os pontos da folha fique especialmente nítido. Veja
portanto que, ao mudarmos para um sistema de coordenadas
constituído por autovetores, a mesma transformação que era
originalmente descrita pela matriz A =
−
2 4
1 1
passa agora a ter uma
descrição ( pela matriz 3 0
0 2−
) que torna a compreensão do seu efeito
sobre os vetores do plano infinitamente mais simples.
As coordenadas de um vetor no sistema original são obtidas
a partir de suas coordenadas na base {u, v} , multiplicando pela matriz
U cujas colunas são as coordenadas de u e de v na base original. O
fato das duas matrizes,
2 4
1 1−
e
3 0
0 2−
representarem a mesma
transformação, cada uma com respeito ao sistema de coordenadas
relevante no caso, é descrito pela igualdade
matricial
2 4
1 1−
U = U 3 0
0 2−
Para saber se podemos aplicar o mesmo esquema de
raciocínio no caso de um exemplo genérico de matriz A =
a b
c d
, vamos
estabelecer alguns resultados gerais relacionados às observações que
fizemos ao estudar o exemplo anterior.
Primeiramente vamos verificar que havermos encontrado
dois autovetores formando uma base não foi puramente acidental:
10
Proposição: Autovetores associados a autovalores distintos são
linearmente independentes.
Demonstração: Suponha que Au = k1 u e Av = k2 v, com k2 ≠ k1 e u, v
ambos vetores não nulos. Se u e v fossem colineares teríamos, para
algum valor (também não nulo) do parâmetro r, a igualdade u = r v, e
portanto
k
1
u = Au = A( r v) = r⋅Av = r k
2
v = k
2
(r v) = k
2
u
o que é claramente impossível, concluindo a demonstração.
Portanto, para saber se podemos garantir a existência de
uma base composta por autovetores da matriz A =
a b
c d
, basta
examinar o seu polinômio característico. Se ele tiver duas raízes reais
distintas, k1 e k2, resolvemos os sistemas lineares homogêneos
(A – k1⋅Id) = 0 e (A – k2⋅Id) = 0 . As soluções não nulas são os
autovetores que buscamos. Escolhemos um autovetor associado a cada
uma desses autovalores, e teremos assim a base desejada.
Vamos resumir esses resultados, levando em conta o sinal
do discriminante da equação característica:
Proposição: Se ( ) ( )a d ad bc+ > −2 4 então a transformação possui
dois autovalores reais distintos. Podemos portanto
encontrar uma base formada pelos autovetores da matriz
a b
c d
. Nessa base, a transformação linear originalmente
representada pela matriz
a b
c d
se escreve como a
matriz diagonal
k
k
1
2
0
0
, com os autovalores de
a b
c d
na diagonal principal.
O CASO DE TRANSFORMAÇÕES DO PLANO
11
Antes de discutir os casos onde não se aplica a hipótese da
proposição, vamos examinar alguns fatos gerais acerca de
autovalores/vetores e matrizes de transformações lineares. Quando
estipulamos uma transformação a partir da descrição direta do seu
efeito sobre os vetores do plano, como no caso da reflexão em nosso
primeiro exemplo, esse efeito não depende das coordenadas usadas
para representar o vetor. Portanto, um autovetor será um autovetor
independentemente do sistema de coordenadas usado para representa-
lo. Uma vez escolhido um sistema de coordenadas, no entanto, existe
exatamente uma matriz que efetua a transformação: o efeito da
transformação sobre um dado vetor é obtido multiplicando por essa
matriz as coordenadas do vetor.
Se mudamos o sistema de coordenadas utilizado para
representar os vetores, mudam as coordenadas de cada ponto, mas eles
não mudam de lugar, da mesma forma que uma mudança no nome ou
na numeração das casas de nossa rua pode mudar nosso endereço mas
não muda o lugar onde vivemos.
Da mesma forma, muda a matriz que efetua a
transformação se mudamos o sistema de coordenadas, mas não muda o
seu efeito sobre os vetores do plano. Em particular, se a igualdade
Au = k⋅u for verificada em um dado sistema de coordenadas, ela será
também verdadeira em cada sistema de coordenadas que utilizarmos
para representar o vetor u por um par de números e a transformação
A por uma matriz. O autovalor k é portanto uma característica
intrínseca: todas as matrizes que puderem representar essa mesma
transformação em algum sistema de coordenadas devem ter exatamente
os mesmos autovalores.
Isso motiva a seguinte definição:
Definição: Duas transformações lineares L e T são similares3 se existe
uma transformação linear inversível U tal que L = U-1TU.
Exercícios:
1. Mostre que a similaridade é uma relação de equivalência.
3
O nome semelhança e o adjetivo semelhante são também usados como sinônimos.
12
2. Mostre que duas transformações similares têm exatamente os
mesmos autovalores.
As conclusões a que chegamos, partindo de um raciocínio
geométrico acerca da transformação, podem ser verificadas novamente,
de forma algébrica, a partir da definição do polinômio característico e da
matriz de mudança de coordenadas:
se denotarmos por u o vetor no sistema inicial de
coordenadas, por w o mesmo vetor escrito em coordenadas relativas a
uma nova base, e por U a matriz que nos dá as coordenadas antigas a
partir das novas coordenadas, teremos a igualdade u = U w. A equação
matricial (A - k⋅I) u = 0 se torna, quando escrita nas novas
coordenadas, a equação
(U −1 (A - k⋅I) U ) w = 0 ⇔⇔⇔⇔ (U −1 AU- k⋅I ) w = 0
como w ≠≠≠≠ 0, isto significa que devemos ter
det (U −1 AU- k⋅I ) = det( U −1 (A- k⋅I )U ) = 0.
Mas det( U −1 (A- k⋅I )U ) = det(A - k⋅I) é exatamente o polinômio
característico de A . Demonstramos dessa forma a seguinte
Proposição: Os coeficientes do polinômio característico não mudam
quando mudamos o sistema de coordenadas utilizado
para representar a matriz da transformação A.
Faz sentido portanto referir-nos ao polinômio característico
de uma transformação linear: é o mesmo polinômio obtido a partir da
representação da transformação por uma matriz em qualquer sistema de
coordenadas. Observe também que a definição de similaridade permite
reescrever a proposição anterior como:
Proposição: Duas matrizes semelhantes têm exatamente o mesmo
polinômio característico.
Essa proposição fornece um critério fácil para investigar se
duas transformações podem ser similares: se elas forem similares os
coeficientes dos seus polinômios característicos devem coincidir. Como,
O CASO DE TRANSFORMAÇÕES DO PLANO
13
no caso de transformações em ℜ 2, esses coeficientes são exatamente o
traço e o determinante da matriz da transformação, então se duas
matrizes são similares elas necessariamente têm o mesmo traço e o
mesmo determinante.
Exercício: Mostre que se ( ) ( )a d ad bc+ > −2 4 então qualquer matriz com
o mesmo traço e mesmo determinante é similar a
a b
c d
.
Calcule o traço e o determinante de
k
k
0
1
e
k
k
0
0
. Elas são similares ?
Vamos agora voltar ao segundo exemplo desta seção: a
matriz de Markov A = 0 93 0 065
0 07 0 935
, ,
, ,
. Vimos que os autovalores dessa
matriz são 1 e 0,865. Mas o processo que utilizamos para encontrar os
autovetores nesse exemplo não dependeu do cálculo anterior dos
autovalores: nós simplesmente multiplicamos a matriz repetidamente,
a partir de um vetor inicial escolhido ao acaso.
Para entender o que aconteceu, escolha um vetor w
qualquer no plano, e observe que se denotamos por u um autovetor
correspondente ao autovalor 1, e por v um autovalor correspondente
ao autovalor 0,865 , podemos sempre escrever w = ru + sv , para uma
escolha apropriada dos coeficientes r e s .
Podemos então escrever o efeito de A sobre o vetor w em
termos do seu efeito sobre os autovalores:
Aw = r Au + s Av = r u + s (0,865)v. Observe que a componente na
direção do autovetor v diminui após a multiplicação por A. Se
repetirmos a operação, a cada vez a componente na direção de v será
multiplicada por 0,865, enquanto a componente na direção de u
permanece constante, de sorte que após n repetições teremos
A n w = r u + s (0,865) n v.
Como (0,865)
n tende a zero quando n cresce , o vetor A n w converge
para o autovetor r u, exceto no caso de havermos escolhido o vetor
inicial w exatamente na mesma direção de v (isto é, quando r = 0 ).
14
Este exemplo pode ser generalizado: quando traço(A) 2 >
4⋅det(A) e traço(A) ≠ 0 existirá um autovalor com o maior módulo
(explique porquê). Se o vetor w não for escolhido exatamente na direção
correspondente aos autovetores do outro autovalor, a direção de A n w
converge para aquela dos autovetores associados ao autovalor de maior
módulo: para ver isto, escreva w = ru + sv e efetue
A n w = r k n1 u + s k n2 v = k n1 ( r u + s kk
n
2
1
v)
Observe que, se |k1| > |k2|, então 0
1
2 →
n
k
k
, e
wA
wA
n
n
�
�
converge para
um autovetor associado a k1, exceto quando r = 0. Temos que dividir
pelo módulo para evitar problemas quando |k1| ≠ 1. Note que não
precisamos conhecer nada sobre autovalores/vetores de A antes de
iniciar o processo. Podemos experimentar um vetor inicial w qualquer,
iniciar o processo, e checar a convergência. O limite, se existir, é um
autovetor da matriz A. Este fato é utilizado na página que acompanha
esta seção para buscar os autovetores de uma matriz qualquer. Espera-
se que você se utilize dele a partir deste momento, para adquirir
familiaridade com o problema de estudar a geometria das
transformações lineares.
O que fazer quando k1 = - k2 ? O processo acima
evidentemente não converge nesse caso, mas podemos contornar o
problema lançando mão de uma observação que nos vai ser muito útil
no futuro. Apesar de evidente convém destacá-la como:
Proposição: Os autovetores da transformação A - s I são exatamente
os autovetores de A, mas os autovalores correspondentes
são deslocados pelo mesmo valor s.
Demonstração: Au = λ u ⇔ (A - s⋅I )u = (λ - s)u
Portanto, os autovetores de transformações que são
similares a múltiplos de reflexões podem ser encontrados pelo processo
descrito acima, se utilizamos o artificio de somar um múltiplo da
identidade à transformação original. Dessa forma passamos a ter
autovalores com módulos diferentes, com os mesmos autovalores, e
O CASO DE TRANSFORMAÇÕES DO PLANO
15
podemos encontrar aquele correspondente ao de maior módulo pelo
processo acima. Um ‘shift’ no sentido oposto nos dá o outro autovetor.
O caso (a + d )2 < 4⋅(ad - bc)
Quando as raízes do polinômio característico são números
complexos conjugados, temos de concluir que a transformação A
modifica a direção de todos os vetores do plano. Se existir um vetor u
cuja direção não é modificada quando o multiplicamos pela matriz A,
então necessariamente existirá um número real k tal que Au = ku .
Mas nesse caso k seria um autovalor real de A, o que é impossível.
Portanto, se (a + d )2 < 4⋅(ad - bc) não existem autovetores !
A estratégia de buscar uma base de autovetores para estudar a
geometria da transformação não funciona neste caso. Mas a proposta
de buscar uma base onde o efeito da transformação seja mais evidente
continua válida, como veremos a seguir.
Compare por exemplo as transformações dadas, na base
que estamos utilizando, pelas matrizes
0 1
1 0
−
e A =
1 2
1 1
−
−
. A
primeira é nossa velha conhecida: se nosso sistema de coordenadas é
ortonormal temos a rotação de pi/2 radianos, no sentido anti-horário. O
que podemos dizer da segunda matriz ? Em comum ambas têm as
raízes do polinômio característico: k1 = i e k2 = -i (confira !).
Cabe perguntar o que aconteceria em outro sistema de
coordenadas: a rotação não seria representada necessariamente pela
mesma matriz mas, e a segunda transformação ? Seria obviamente
vantajoso se, em algum outro sistema, a segunda transformação fosse
representada pela primeira matriz. Nesse caso poderíamos enxergá-la
como uma rotação que, de alguma maneira, está torta em relação ao
círculo . Em outras palavras, como as duas matrizes têm os mesmos
autovalores, é razoável esperar que elas sejam similares. Para mostrar
que elas realmente são similares, no entanto, é preciso encontrar a
mudança de coordenadas que transforma uma na outra.
16
Para ver melhor as coisas, vamos buscar o sistema de
coordenadas adequado. Conjeturamos então que, para alguma
mudança de coordenadas U =
u v
u v
1 1
2 2
, vamos ter
1 2
1 1
−
−
u v
u v
1 1
2 2
=
u v
u v
1 1
2 2
0 1
1 0
−
.
Observe que isto significa
1 2
1 1
−
−
u
u
v
v
1
2
1
2
=
e
1 2
1 1
−
−
−=
2
1
2
1
u
u
v
v
!
Em outras palavras: se, para alguma base, a matriz que
representa a transformação A é a mesma matriz que representava a
rotação de pi/2 radianos no sistema original, então o primeiro vetor dessa
nova base é levado no seguinte após a multiplicação por A! Observe que
essa é exatamente a situação que os vetores da base original
mantinham com respeito à rotação de pi/2 radianos.
Temos total liberdade de escolha com relação aos
coeficientes do primeiro vetor da base. Vamos fixar, como exemplo,
�
u
u
u
=
=
−
1
2
1 5
2
como primeiro vetor da nova base. Segue-se então que
�
v
v
v
=
=
1
2
1 2
1 1
−
−
1 5
2
3 5
1 5
−
=
− −
− −
é o segundo vetor dessa base. Neste
exemplo, e para essa escolha de primeiro vetor, os dois vetores por
acaso são mutuamente ortogonais (embora não seja possível escolhê-
los ao mesmo tempo ortogonais e de mesmo tamanho !).
Vamos agora recapitular o que sabemos sobre cada uma
dessas transformações:
a primeira leva o primeiro vetor da base original no segundo
vetor dessa base. Como se trata de uma rotação em torno da origem,
vetores sobre o círculo unitário são levados em pontos desse mesmo
círculo após a rotação: o vetor (cos(θ), sen(θ)) é levado em
(cos(θ + pi/2), sen(θ + pi/2)).
a segunda transformação também leva o primeiro vetor da
nova base no segundo vetor dessa base. Certamente a imagem do
círculo unitário não é o círculo unitário, mas que dizer do vetor que, em
termos da nova base, tem coordenadas (cos(θ), sen(θ)) ?
O CASO DE TRANSFORMAÇÕES DO PLANO
17
Primeiramente vamos obter as coordenadas desse mesmo
vetor na base original: para isso basta multiplicá-lo pela matriz de
mudança de coordenadas, obtendo então o vetor de coordenadas
1 5 3 5
2 1 5
− − −
− −
)(
)cos(
θ
θ
sen
. O vetor transformado tem, na base original, as
coordenadas
1 2
1 1
−
−
1 5 3 5
2 1 5
− − −
− −
cos( )
sen( )
θ
θ
.
Mas observe que nossa escolha de vetores para a nova base
força a igualdade
1 2
1 1
−
−
1 5 3 5
2 1 5
− − −
− −
cos( )
sen( )
θ
θ
=
1 5 3 5
2 1 5
− − −
− −
0 1
1 0
−
cos( )
sen( )
θ
θ
=
1 5 3 5
2 1 5
− − −
− −
cos( )
sen( )
θ pi
θ pi
+
+
2
2
.
Se permitirmos que a variável θ assuma todos os valores
possíveis entre 0 e 2pi, o lugar geométrico descrito pelos pontos da
forma
1 5 3 5
2 1 5
− − −
− −
cos( )
sen( )
θ
θ
é a imagem do círculo unitário
centrado na origem, isto é, uma elipse com centro na origem.
A igualdade que foi deduzida acima significa que pontos
sobre essa elipse são levados, após multiplicação por
1 2
1 1
−
−
, em
pontos sobre essa mesma elipse: são apenas deslocados sobre ela para
uma posição correspondente a somar pi/2 ao valor de θ .
A figura abaixo, onde representamos primeiramente o
círculo unitário e sua imagem pela transformação, e depois disso a
elipse que é mantida invariante pela transformação, juntamente com os
novos eixos, dá uma idéia do que estamos querendo dizer:
18
figura 5
Antes de tratar o caso geral, vamos examinar a geometria
das rotações Rθ=
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−
e de suas ‘irmãs’ : as matrizes
Aθ =
a b
c d
que têm como raízes da equação característica os números
complexos cos(θ) ± i sen(θ).
Observe que as igualdades
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−
1
0
1
0
0
1
=
=
+
cos( )
sen( ) cos( ) sen( )
θ
θ θ θ
O CASO DE TRANSFORMAÇÕES DO PLANO
19
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−
0
1
=
−
= −
+
sen( )
cos( ) sen( ) cos( )
θ
θ θ θ
1
0
0
1
nos dão uma especificação para a posição das imagens dos vetores da
base, relativamente às suas posições iniciais.
Suponha agora que tivéssemos encontrado uma base, na
qual a transformação que era originalmente representada pela matriz
a b
c d
tivesse como matriz
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−
. Se a matriz que
transforma coordenadas, dessa nova base para coordenadas na base
original, é dada por
u v
u v
1 1
2 2
(isto é, os vetores da nova base são
u
u
1
2
e
v
v
1
2
) então devemos ter a igualdade:
a b
c d
u v
u v
1 1
2 2
=
u v
u v
1 1
2 2
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−
Lida coluna a coluna, essa igualdade significa
(i)
a b
c d
u
u
1
2
= cos(θ)
u
u
1
2
+ sen(θ)
v
v
1
2
(ii)
a b
c d
v
v
1
2
= − sen(θ)
u
u
1
2
+ cos(θ)
v
v
1
2
Em outras palavras: as imagens dos vetores dessa nova
base mantém a mesma posição relativa a suas posições iniciais, que as
imagens dos vetores da base original tem após submetidos à rotação !
Qualquer das duas igualdades vetoriais acima pode ser lida
como a especificação de um vetor da base em termos do outro. Por
exemplo, a primeira delas se lê, depois de reagrupados os termos:
v
v
1
2
=
1
sen( )
cos( )
cos( )θ
θ
θ
a b
c d
−
−
u
u
1
2
Repare que a hipótese inicial, ( ) ( )a d ad bc+ < −2 4 , nos
garante sen(θ)≠0 (confira !).
20
A matriz
1
sen( )
cos( )
cos( )θ
θ
θ
a b
c d
−
−
tem como raízes do
polinômio característico os números imaginários puros k i1 = e
k i2 = − . exatamente como no exemplo inicial desta seção!
Exercício : Confira esta última afirmativa !
Trata-se portanto, como naquele caso, de uma ‘rotação
torta’, correspondente a um ângulo positivo de pi/2 radianos. Isto
imediatamente nos garante que dois vetores satisfazendo a igualdade (i)
são necessariamente não colineares.
Exercício: Verifique que efetuar duas multiplicações sucessivas por essa
matriz sobre um vetor qualquer equivale a multiplicar esse vetor por
−1.
Exercício: Verifique que a igualdade vetorial (ii) define exatamente a
mesma relação necessária entre os vetores da base procurada que (i).
Sugestão: podemos reescrevê-la reagrupando os seus termos como
u
u
1
2
=
−
−
−
1
sen( )
cos( )
cos( )θ
θ
θ
a b
c d
v
v
1
2
.
Como tratar a matriz se as raízes do polinômio
característico são α ± i β ? Basta reescrever
α β α β α
α β
β
α β
± = +
+
±
+
i i2 2
2 2 2 2
. Se definimos
cos( ) , sen( )θ α
α β
θ β
α β
=
+
=
+2 2 2 2
, verificamos que
a b
c d
é
múltiplo de uma matriz que se enquadra no tipo anteriormente
estudado:
a b
c d
= α β
α β
2 2
2 2
1
+
+
a b
c d
. (Confira !)
As raízes da equação característica da matriz
1
2 2α β+
a b
c d
são cos( ) sen( )θ θ± i . Podemos portanto obter, pelo
mesmo procedimento anterior, uma base na qual a transformação
definida por essa matriz se escreve como
cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−
. A
O CASO DE TRANSFORMAÇÕES DO PLANO
21
transformação originalmente definida por
a b
c d
se escreve nessa
base como
α β2 2+ cos( ) sen( )
sen( ) cos( )
θ θ
θ θ
−
= α β2 2+
α
α β
β
α β
β
α β
α
α β
2 2 2 2
2 2 2 2
+
−
+
+ +
=
α β
β α
−
.
Verificamos assim um interessante resultado:
Proposição: Se as raízes da equação característica da matriz
a b
c d
são
α + i⋅β = ρ⋅(cos(θ) + i⋅cos(θ)) e α - i⋅β = ρ⋅(cos(θ) - i⋅cos(θ)),
e
u
u
1
2
é um vetor não nulo qualquer, então o vetor
v
v
1
2
=
−
−
)cos(
)cos(
)sen(
1
θρ
θρ
θρ dc
ba u
u
1
2
nos dá, juntamente com
u
u
1
2
, uma base na qual a
transformação dada anteriormente por
a b
c d
será
representada pela matriz
α β
β α
−
.
Corolário: Duas matrizes reais 2x2, com autovalores complexos, são
similares se e só se têm os mesmos valores característicos.
22
O caso (a + d ) 2 = 4(ad - bc)
Nesse caso, o polinômio característico tem duas raízes reais
iguais a λ. É sempre possível encontrar uma direção a partir da origem
que não é modificada quando transformada pela matriz, mas em geral
não se pode obter uma segunda direção independente da primeira, pois
os dois
autovalores obtidos são iguais.
Se existir essa segunda direção, então teremos dois vetores
independentes, u e v, tais que Au = λu e Av = λv. Ora, como u e v
são, por hipótese, linearmente independentes, podemos escrever
qualquer vetor w na forma w = α·u + β·v. Multiplicando por A, vem
Aw = A(α·u + β·v) = α·Au + β· A v = α·λu + β·λ v = λ (α·u + β·v) = λ·w.
Vemos portanto que, nesse caso, o efeito de multiplicar
qualquer vetor w pela matriz A é idêntico ao de multiplicar esse
mesmo vetor pelo escalar λ. A matriz A é então necessariamente a
matriz
λ
λ
0
0
, isto é, um múltiplo da identidade.
Se A não for um múltiplo da matriz identidade, e tiver dois
autovalores iguais, então só podemos encontrar uma direção de
autovetores para A. Seja u um vetor que tem essa direção, e seja v
um vetor linearmente independente de u. Podemos escrever Av como
combinação linear de u e de v, isto é, Av = ku + sv. A matriz que
corrresponde a A nessa base é, portanto,
s
k
0
λ
. Mas observe que os
autovalores dessa matriz são os mesmos da matriz A, isto é, ambos
iguais a λ. O único valor possível para s é portanto s = λ.
Provamos dessa forma a seguinte proposição:
Proposicão: Se ambos os autovalores da matriz A são iguais a λ, e A
não é um múltiplo da identidade, então a matriz que
corresponde a A, em qualquer base formada tomando um
O CASO DE TRANSFORMAÇÕES DO PLANO
23
autovetor u e um segundo vetor v linearmente
independente de u, tem a forma
λ
λ
0
k
.
Vemos, dessa forma, que a matriz A representa um múltiplo
de um cisalhamento, e que u determina a direção desse cisalhamento.
Um exemplo é a matriz A =
−
31
11
. Seus autovalores são
λ1 = λ2 = 2, e a única direção de autovetores é a dada pelo vetor ( 1,-1).
Se escolhemos por exemplo a base dada pelos vetores u = ( 1,-1) e v =
( 1, 1), a matriz que corresponde a A nessa base é obtida calculando
Au = 2u + 0v, Av =
−
31
11
1
1
= -2
−1
1
+ 2
1
1
= -2u + 2v,
o que nos dá a matriz
−
=
−
10
11
2
20
22
. A matriz A cisalha numa
direção que faz 135º com o eixo original x, e em seguida multiplica os
vetores por 2.