Logo Passei Direto
Buscar

AULAS 8 até 16 - P2

User badge image

Enviado por Júlia Nogueira em

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

AULA 11.pdf
A´lgebra Linear I - Aula 11
1. Transformac¸o˜es lineares.
2. Exemplos de Transformac¸o˜es lineares.
Roteiro
1 Transformac¸o˜es lineares
Definic¸a˜o 1 (Transformac¸a˜o linear). Uma transformac¸a˜o linear T definida
de Rn em Rm (pense, por exemplo, em n e m iguais a 2 ou 3) e´ uma aplicac¸a˜o
T : Rn → Rm que verifica as seguintes propriedades:
• T (u + v) = T (u) + T (v), para todo par de vetores u e v de Rn,
• T (σu) = σ T (u) para todo vetor u de Rn e todo nu´mero real σ.
A definic¸a˜o significa que uma transformac¸a˜o linear preserva as operac¸o˜es
de adic¸a˜o de vetores e multiplicac¸a˜o de um vetor por um escalar. Como
consequeˆncia da definic¸a˜o de transformac¸a˜o linear temos que
T (0¯) = T (0¯ + 0¯) = T (2 0¯) = 2T (0¯), T (0¯) = 0¯.
Observe que T (0¯) = 0¯ e´ uma condic¸a˜o necessa´ria para que a transformac¸a˜o
T seja linear, mas esta condic¸a˜o na˜o e´ suficiente. Veja o seguinte exemplo, a
transformac¸a˜o T
T : R → R, T (x) = x2,
verifica T (0) = 0 mas, em geral, T (x + y) 6= T (x) + T (y):
T (x + y) = (x + y)2 = x2 + y2 + 2x y 6= x2 + y2 = T (x) + T (y),
sempre que x e y sejam os dois simultaneamente na˜o nulos.
Vejamos outros exemplos de transformac¸o˜es que na˜o sa˜o lineares:
1
• T : R2 → R2, T (x, y) = (x+ 2, y + 1), na˜o e´ uma transformac¸a˜o linear,
pois T (0, 0) = (2, 1) 6= (0, 0).
• T : R2 → R2, T (x, y) = (senx, sen y) verifica T (0, 0) = (0, 0), pore´m
na˜o e´ uma transformac¸a˜o linear. Deixamos v. verificar os detalhes,
observamos que o fato de T na˜o ser linear segue de que, em geral,
sen (x + x′) 6= sen (x) + sen (x′).
Da definic¸a˜o de transformac¸a˜o linear obtemos as seguintes propriedades
(que v. deve verificar como exerc´ıcio):
Propriedade 1.1. Considere duas transformac¸o˜es de lineares T e S,
T, S : Rn → Rm,
e um nu´mero real λ. Enta˜o
• A soma das transformac¸o˜es lineares T + S : Rn → Rm, definida como
(T + S)(u) = T (u) + S(u),
e´ uma transformc¸a˜o linear,
• O produto por um nu´mero real λ de uma transformac¸a˜o linear T , defi-
nida como (λT )(u) = λ (T (u)), e´ uma transformac¸a˜o linear.
Definic¸a˜o 2 (Conjunto imagem). A imagem do conjunto V pela trans-
formac¸a˜o T e´ o conjunto:
im(T (V)) = {w ∈ Rm tal que existe v ∈ V tal que w = T (v)}.
Propriedade 1.2. Se V e´ um subespac¸o vetorial e T e´ uma transformac¸a˜o
linear, enta˜o a imagem T (V) tambe´m e´ um subespac¸o.
Em particular, a imagem por uma transformac¸a˜o linear de uma reta ou
um plano que conte´m a origem tambe´m e´ uma reta ou um plano que conte´m
a origem ou o vetor 0¯.
Prova: Para provar que im(T (V)) e´ um subespac¸o considere vetores w1 e
w2 de im(T (V)). Temos que provar que w1 + w2 ∈ im(T (V)). Da definic¸a˜o
de imagem, existem vetores v1 e v2 ∈ V tais que
w1 = T (v1) e w2 = T (w2).
2
Como T e´ linear:
w1 + w2 = T (v1) + T (v2) = T (v1 + v2).
Como v1, v2 ∈ V e V e´ um subespac¸o, v1 + v2 = v3 ∈ V. Portanto,
w1 + w2 = T (v3), v3 ∈ V.
Logo, w1 + w2 ∈ im(T (V)).
Deixamos como exerc´ıcio verificar que se w ∈ im(T (V)) e λ e´ um nu´mero
real enta˜o λw ∈ im(T (V)). Veja que se w = T (v), v ∈ V, enta˜o λw = T (λ v)
onde λ v ∈ V, (complete os detalhes). ¤
Considere uma transformac¸a˜o linear T : R3 → R3. Veremos que a imagem
de uma reta r que conte´m a origem e´ ou outra reta que conte´m a origem ou
o vetor nulo. A princ´ıpio, como a imagem da reta deve ser um subespac¸o de
R
3, a imagem da reta poderia ser um plano que conte´m a origem ou todo
R
3. Seja v o vetor diretor da reta, enta˜o: r : {t v, t ∈ R}.
Seja w = T (v). Afirmamos que T (r) e´ a reta r′ que conte´m a origem cujo
vetor diretor e´ w, isto e´,
r′ : {t w, t ∈ R}.
Observamos que se w = 0¯, enta˜o T (r) = 0¯ (deixamos v. conferir esta
afirmac¸a˜o). Vejamos as duas incluso˜es:
T (r) ⊂ r′: seja u ∈ T (r), enta˜o u = T (t v) para certo t. Como T e´ linear,
u = t T (v) = t w. Portanto, u ∈ r′.
r′ ⊂ T (r): seja u ∈ r′, enta˜o u = t w = t T (v), para certo t. Como T
e´ linear, u = T (t v) = T (ℓ), onde (por definicc¸a˜o) ℓ ∈ r. Portanto,
u ∈ T (r).
De forma ana´loga temos que a imagem por uma transformac¸a˜o linear de
um plano π que conte´m a origem e´ ou um plano ou uma reta contendo a
origem ou o vetor nulo. Suponha que o plano π e´ gerado pelos vetores v e w.
As equac¸o˜es parame´tricas de π sa˜o,
π : u = t v + sw, t, s ∈ R.
Sejam T (v) = v′ e T (w) = w′. Temos as seguintes possibilidades para a
imagem T (π):
3
• um plano ρ: se os vetores v′ e w′ na˜o sa˜o paralelos e sa˜o na˜o nulos. De
fato, o plano ρ e´ o plano que conte´m a origem e e´ paralelo aos vetores
v′ e w′.
• uma reta r: se os vetores v′ e w′ sa˜o paralelos e um deles na˜o e´ nulo
(por exemplo, v′ 6= 0¯). De fato, r e´ a reta que conte´m a origem e e´
paralela a v′.
• o vetor 0¯: se v′ e w′ sa˜o nulos.
Vejamos, por exemplo, que se v′ = T (v) 6= 0¯ e w′ = T (w) 6= 0¯ na˜o sa˜o
paralelos, se verifica que o plano ρ paralelo a v′ e w′ que conte´m a origem
conte´m T (π) (as outras incluso˜es e os outros casos seguem exatamente como
no exemplo acima e sera˜o omitidos). Seja ℓ′ ∈ T (π), enta˜o, por definic¸a˜o,
existe um vetor ℓ ∈ π tal que T (ℓ) = ℓ′. Como ℓ ∈ π, ℓ = t v + sw. Como T
e´ linear,
ℓ′ = T (ℓ) = T (t v + sw) = t T (v) + s T (w) = t v′ + sw′.
Assim, pela definic¸a˜o de ρ, ℓ ∈ ρ.
2 Exemplos de Transformac¸o˜es lineares
A seguir veremos alguns exemplos de transformac¸o˜es lineares (v. deve com-
pletar os detalhes).
1. A transformac¸a˜o linear nula, definida por T (u) = 0¯ para todo vetor u.
2. A transformac¸a˜o linear identidade, T (u) = u para todo vetor u.
3. Transformac¸o˜es de escala, T (u) = σ u para todo vetor u, onde σ ∈ R.
Se |σ| < 1 dizemos que e´ uma contrac¸a˜o e se |σ| > 1 e´ uma dilatac¸a˜o.
4. Transformac¸o˜es V : R2 → R2 de cisalhamento vertical e
V (x, y) = (x, α x + y)
e H : R2 → R2 de cisalhamento horizontal
H(x, y) = (x + α y, y).
Veja a Figura 1.
4
i
j
V
V
V (i)
V (j)
R V (R)
Figura 1: Cisalhamento vertical
5. Projec¸a˜o ortogonal em um vetor u definida por
P (v) =
v · u
u · u
u.
Veja a Figura 2.
Escreveremos P (x, y, z) em coordenadas. Podemos supor, sem perda
de generalidade que o vetor u = (a, b, c) e´ unita´rio. Em coordenadas
temos,
P (x, y, z) = ((x, y, z) · (a, b, c)) (a, b, c) = (a x + b y + c z) (a, b, c) =
= (a2 x + a b y + a c z, a b x + b2 y + b c z, a c x + b c y + c2 z).
6. Reflexo˜es em torno dos eixos coordenados X e Y, definidas como
R(x, y) = (x,−y), S(x, y) = (−x, y),
respectivamente. Veja a Figura 3.
7. Reflexa˜o na origem,
T (x, y) = (−x,−y).
5
u
v
P (v)
Figura 2: Projec¸a˜o ortogonal
8. Dado um vetor u de R3, definimos a transformac¸a˜o linear T : R3 → R
como T (v) = v · u (produto escalar). O fato de T ser linear segue das
propriedades do produto escalar.
9. Dado um vetor u de R3, definimos a transformac¸a˜o linear T : R3 → R3
como T (v) = v×u (produto vetorial). O fato de T ser linear segue das
propriedades do produto vetorial.
u
R(u)
S(u)
T (u)
Figura 3: Reflexo˜es
Deixamos, como exerc´ıcio, verificar que as transformac¸o˜es anteriores sa˜o
lineares.
Observe que todas as transformac¸o˜es lineares exibidas ate´ agora sa˜o da
forma
T (x, y) = (a x + b y, c x + d y),
6
no caso de transformac¸o˜es do plano no plano, e da forma
T (x, y, z) = (a x + b y + c z, d x + e y + f z, g x + h y + k z),
no caso de transformac¸o˜es de R3 em R3. Por exemplo, a transformac¸a˜o linear
T : R3 → R3, T (v) = v × w,
para certo vetor w tem a seguinte forma. Suponha que w = (a, b, c), enta˜o
T
(x, y, z) =
∣
∣
∣
∣
∣
∣
i j k
x y z
a b c
∣
∣
∣
∣
∣
∣
= (c y − b z, a z − b x, b x− a y).
Finalmente, no caso da transformac¸a˜o linear
T : R3 → R, T (v) = v · u,
se o vetor u = (a, b, c) temos
T (x, y, z) = a x + b y + c z.
Temos tambe´m que as seguintes transformac¸o˜es sa˜o lineares:
T : R2 → R, T (x, y) = a x + b y,
T : R3 → R, T (x, y, z) = a x + b y + c z,
T : R3 → R2, T (x, y, z) = (a x + b y + c z, d x + e y + f z)
T : R2 → R3, T (x, y) = (a x + b y, c x + d y, e x + f y),
onde a, b, c, d, e, f sa˜o nu´meros reais.
De fato, temos o seguinte, toda transformac¸a˜o linear tem a forma das
transformac¸o˜es acima.
7
AULA 12.pdf
A´lgebra Linear I - Aula 12
1. Rotac¸o˜es no plano.
2. Projec¸o˜es
3. Espelhamentos
4. Caso geral.
Roteiro
1 Exemplos de Transformac¸o˜es lineares (con-
tinuac¸a˜o)
1.1 Rotac¸o˜es no plano
A Rotac¸a˜o no plano de aˆngulo θ no sentido anti-hora´rio e´ definida como:
Rθ(x, y) = ((cos θ) x − (sen θ) y, (cos θ )y + (sen θ) x),
veja a Figura 1.
Esta transformac¸o˜e e´ uma caso particular das descritas acima, onde
a = cos θ, b = −sen θ, c = sen θ e d = cos θ.
Calcularemos o aˆngulo formado entre um vetor u e sua imagem Rθ(u), e
veremos que este aˆngulo e´ θ. Considere o vetor u = (a, b). Primeiro veremos
que os mo´dulos de u e Rθ(u) sa˜o iguais:
|Rθ(a, b)|
2 = ((cos θ)2 a2 + (sen θ)2 b2 − 2 (cos θ) a (sen θ) b+
+(cos θ)2 b2 + (sen θ)2 a2 + 2 (cos θ) a (sen θ) b =
= ((cos θ)2 + (sen θ)2) a2 + ((cos θ)2 + (sen θ)2) b2) =
= a2 + b2 = |(a, b)|2.
1
u
Rθ(u)
θ
Figura 1: Rotac¸a˜o
Por outra parte, e como |u| = |Rθ(u)|,
u · Rθ(u) = |u| |Rθ(u)| cos α = |u|
2 cos α,
onde α e´ o aˆngulo formado por u e Rθ(u). Calculemos agora o aˆngulo α.
(a, b) · Rθ(a, b) = (a, b) · ((cos θ) a − (sen θ) b, (cos θ) b + (sen θ) a) =
= (cos θ) a2 − (sen θ) a b + (sen θ) a b + (cos θ) b2 =
= (cos θ) (a2 + b2) = cos θ |u|2.
Das duas fo´rmulas anteriores temos que o aˆngulo entre u e Rθ(u) e´ exatamente
o aˆngulo de rotac¸a˜o θ.
Usando o mesmo tipo de racioc´ınio v. pode provar que o aˆngulo entre os
vetores u e v e´ igual ao aˆngulo entre Rθ(u) e Rθ(v). Deixamos a prova da
afirmac¸a˜o como exerc´ıcio.
1.2 Projec¸a˜o em uma reta r
Estudaremos agora a transformac¸a˜o linear T projec¸a˜o em uma reta r de R2
na direc¸a˜o do vetor v, onde a reta r conte´m a origem e o vetor v na˜o e´
paralela a` reta, veja a Figura 2.
Esta transformac¸a˜o e´ definida como segue. Considere a reta de projec¸a˜o
r de equac¸a˜o cartesiana ax + by = 0 e o vetor v = (c, d) que determina a
2
u
v
r
s
n
T (u)
Figura 2: Projec¸a˜o na˜o ortogonal em uma reta
direc¸a˜o de projec¸a˜o. A imagem do vetor u = (u1, u2) e´ o vetor OP , onde P
e´ o ponto de intersec¸a˜o das retas s de equac¸a˜o parame´trica
s : (u1 + t c, u2 + t d), t ∈ R,
e a reta r de projec¸a˜o, r : ax+ by = 0 (equac¸a˜o cartesiana). Determinaremos
o valor de t que fornece o ponto de intersec¸a˜o,
a(u1 + t c) + b(u2 + t d) = 0, t(a c + b d) = −(a u1 + b u2),
isto e´,
t =
−(a u1 + b u2)
a c + b d
.
Observe que se verifica
a c + b d 6= 0,
isto decorre do fato da direc¸a˜o de projec¸a˜o na˜o ser paralela a` reta de projec¸a˜o,
ou seja (c, d) na˜o e´ ortogonal ao vetor normal n = (a, b) da reta (isto e´,
0 6= (c, d) · (a, b) = a c + b d). Logo
T (u1, u2) =
(
u1 −
a c u1 + b c u2
a c + b d
, u2 −
a d u1 + b d u2
a c + b d
)
.
Pela discussa˜o acima, T e´ uma transformac¸a˜o linear.
Outra forma de obter a transformac¸a˜o anterior e´ a seguinte. Considere
uma base β = {u, v} de R2 tal que u e´ um vetor diretor da reta de projec¸a˜o
3
e v e´ a direc¸a˜o de projec¸a˜o. Como estes vetores na˜o sa˜o paralelos temos que
β e´ uma base.
Dado um vetor w escrevemos w na base β: w = xu + y v. Enta˜o consi-
deramos a transformac¸a˜o definida como
S(w) = xu.
Deixamos como exerc´ıcio verificar que S e´ uma transformac¸a˜o linear. Ob-
servamos que esta “nova” transformac¸a˜o linear S coincide com a T definida
anteriormente. Para isso lembre que duas transformac¸o˜es lineares sa˜o iguais
se, e somente se, elas coincidem em uma base. Portanto e´ suficiente observar
S e T coincidem na base β. Veja que u = 1 u+0 v e pela definic¸a˜o S(u) = u.
Veja tambe´m que v = 0 u + 1 v e pela definic¸a˜o S(v) = 0¯. Portanto,
S(u) = u = T (u), S(v) = v = T (v).
1.3 Projec¸a˜o em um plano pi
Estudaremos agora a transformac¸a˜o linear projec¸a˜o em um plano pi de R3 na
direc¸a˜o do vetor v, onde o plano conte´m a origem e o vetor v na˜o e´ paralelo
ao plano.
Esta transformac¸a˜o e´ definida como segue. Considere o plano de projec¸a˜o
pi de equac¸a˜o a x + b y + c z = 0 e o vetor v = (v1, v2, v3) que determina a
direc¸a˜o de projec¸a˜o. A imagem do vetor u = (u1, u2, u3) e´ o vetor OP , onde
P e´ a intersec¸a˜o da reta s de equac¸a˜o parame´trica
s : (u1 + tv1, u2 + tv2 + u3 + tv3), t ∈ R,
e o plano pi : a x+b y+c z = 0 (equac¸a˜o cartesiana). Determinaremos o valor
de t que fornece o ponto de intersec¸a˜o,
a (u1 + t v1) + b (u2 + t v2) + c (u3 + t v3) = 0,
logo,
t (a v1 + b v2 + c v3) = −(a u1 + b u2 + c u3),
isto e´,
t =
−(a u1 + b u2 + c u3)
a v1 + b v2 + c v3
.
Observe que se verifica a v1 + b v2 + c v3 6= 0, isto decorre do fato da direc¸a˜o
de projec¸a˜o na˜o ser paralela ao plano de projec¸a˜o, ou seja (v1, v2, v3) na˜o
4
e´ ortogonal ao vetor normal n = (a, b, c) do plano (isto e´, 0 6= (v1, v2, v3) ·
(a, b, c) = a v1 + b v2 + c v3). Logo
T (u1, u2, u3) = ((1 − (
av1
av1+bv2+cv3
) u1 − (
bv1
av1+bv2+cv3
) u2 − (
cv1
av1+bv2+cv3
) u3,
,−( av2
av1+bv2+cv3
) u1 + (1 − (
bv2
av1+bv2+cv3
) u2 − (
cv2
av1+bv2+cv3
) u3,
,−( av3
av1+bv2+cv3
) u1 − (
bv3
av1+bv2+cv3
) u2 + (1 − (
cv3
av1+bv2+cv3
) u3).
Pela discussa˜o acima, T e´ uma transformac¸a˜o linear.
Como nos casos anteriores esta projec¸a˜o pode ser obtida como segue.
Considere uma base β = {u1, u2, v} de R
3 tal que {u1, u2} e´ uma base do
plano pi de projec¸a˜o e v e´ a direc¸a˜o de projec¸a˜o. Como a direc¸a˜o v na˜o e´
paralela a plano temos que β e´ uma base.
Observe que podemos usar o crite´rio do produto misto para ver que β e´
uma base:
(u1 × u2) · v 6= 0,
pois
u1 × u2 = n
onde n e´ o vetor normal do plano. Temos que n · v 6= 0, pois caso contra´rio
v seria paralelo ao plano.
Dado um vetor w escrevemos w na base β: w = x1 u1 +x2 u2 +y v. Enta˜o
consideramos a transformac¸a˜o definida como
S(w) = xu1 + y u2.
Deixamos como exerc´ıcio verificar que S e´ uma transformac¸a˜o linear. Ob-
servamos que esta “nova” transformac¸a˜o linear S coincide com a T definida
anteriormente. Como no caso das projec¸o˜es em uma reta lembramos que
duas transformac¸o˜es lineares sa˜o iguais se, e somente se, elas coincidem em
uma base. Portanto e´ suficiente observar S e T coincidem na base β. Veja
que u1 = 1 u1 +0 u20 v e pela definic¸a˜o S(u1) = u1. Analogamente temos que
S(u2) = u2. Veja tambe´m que v = 0 u1 +0 u2 +1 v e pela definic¸a˜o S(v) = 0¯.
Portanto,
S(u1) = u1 = T (u1), S(u2) = u2 = T (u2), S(v) = v = T (v).
5
1.4 Projec¸a˜o em uma reta em R3
Estudaremos agora a transformac¸a˜o linear T projec¸a˜o uma reta r de R3 na
direc¸a˜o do vetor pi, onde a reta conte´m a origem e o plano pi na˜o e´ paralelo
a` reta e conte´m a origem.
Esta transformac¸a˜o e´ definida como segue. Considere o plano de projec¸a˜o
pi de equac¸a˜o a x + b y + c z = 0 e o vetor v = (v1, v2, v3) diretor da reta de
projec¸a˜o. A imagem do vetor u
= (u1, u2, u3) e´ o vetor OP , onde P e´ a
intersec¸a˜o da reta r e do plano ρ que conte´m o ponto P e e´ paralelo ao plano
pi.
Deixamos como exerc´ıcio calcular a fo´rmula expl´ıcita desta transformac¸a˜o
linear. Veja que esta transformac¸a˜o deixa fixos os vetores paralelos a r e
transforma no vetor zero os vetore paralelos ao plano pi.
Como nos casos anteriores esta projec¸a˜o pode ser obtida como segue.
Considere uma base β = {u1, u2, v} de R
3 tal que {u1, u2} e´ uma base do
plano pi que definie a direc¸a˜o de projec¸a˜o e v e´ um vetor diretor da reta de
projec¸a˜o. Como a direc¸a˜o v na˜o e´ paralela a plano temos que β e´ uma base.
Dado um vetor w escrevemos w na base β: w = x1 u1 +x2 u2 +y v. Enta˜o
temos que
T (w) = y v.
1.5 Espelhamentos em retas e planos
Consideramos um plano pi de R3 que conte´m a origem e uma base ortogonal
β = {n1, n2, v} de R
3 onde {n1, n2} e´ uma base do plano pi.
Dado um vetor w ∈ R3 o espelhamento S de w no plano pi e´ definido com
segue. Escrevemos
w = xn1 + y n2 + z v,
e definimos
S(w) = xn1 + y n2 − z w.
Como no caso das projec¸o˜es temos que S e´ uma aplicac¸a˜o linear (confira).
Observe que a projec¸a˜o ortogonal T no plano pi do vetor w e´
T (w) = xn1 + y n2.
Portanto, temos se Id e´ a aplicac¸a˜o linear identidade temos
S(w) = 2 T (w) − Id(w).
6
Confira os ca´lculos.
De forma similar podemos definir o espelhamento E em uma reta r que
conte´m a origem. Para isso consideramos uma base ortogonal {v, v1, v2} onde
v e´ o vetor diretor da reta r.
Dado um vetor w ∈ R3 o espelhamento E de w no plano pi e´ definido com
segue:
w = x v + y v1 + z v2
e definimos
S(w) = x v − y v1 − z v2.
Como no caso das projec¸o˜es temos que S e´ uma aplicac¸a˜o linear (confira).
Observe que a projec¸a˜o ortogonal P na reta r do vetor w e´
P (w) = x v.
Como no caso dos espelhamentos em planos temos
E(w) = 2 P (w) − Id(w).
Confira os ca´lculos.
1.6 Um caso mais geral
As projec¸o˜es e espelhamentos em retas e planos estudados acima sa˜o exem-
plos particulares do seguinte tipo de transformac¸o˜es lineares mais gerais.
Dada uma base {v1, v2, v3} de R
3 e nu´meros reais a1, a2, a3, definimos T (w)
como segue. Seja w = x1 v1 + x2 v2 + x3 v3, enta˜o
T (w) = a1 x1 v1 + a2 x2 v2 + a3 x3 v3.
Vejamos que T e´ linear. Veremos apenas que T (w + w′) = T (w) + T (w′)
(v. e´ convidado a verificar que T (λw) = λT (w)). Escrevemos
w′ = x′1 v1 + x
′
2 v2 + x
′
3 v3.
Portanto
T (w′) = a1 x
′
1 v1 + a2 x
′
2 v2 + a3 x
′
3 v3.
Temos
T (w) + T (w′) = (a1 x1 v1 + a2 x2 v2 + a3 x3 v3) + (a1 x
′
1 v1 + a2 x
′
2 v2 + a3 x
′
3 v3)
= a1 (x1 + x
′
1) v1 + a2 (x2 + x
′
2) v2 + a3 (x3 + x3)
′ v3.
7
Por outro lado
w + w′ = (x1 + x
′
1) v1 + (x2 + x
′
2) v2 + (x3 + x3)
′ v3.
e pela definic¸a˜o de T
T (w + w′) = a1 (x1 + x
′
1) v1 + a2 (x2 + x
′
2) v2 + a3 (x3 + x3)
′ v3.
Portanto T (w + w′) = T (w) + T (w′).
No caso das projec¸o˜es em um plano temos a1 = a2 = 1 e a3 = 0 e no
caso de projec¸e˜os em retas a1 = 1 e a2 = a3 = 0. No caso dos espelhamentos
a1 = a2 = 1 e a3 = −1 (em planos) e a1 = 1 e a2 = a3 = −1 (em retas).
8
AULA 13.pdf
A´lgebra Linear I - Aula 13
1. Determinac¸a˜o de uma transformac¸a˜o linear.
2. Matrizes.
3. Forma matricial de uma transformac¸a˜o linear.
1 Determinac¸a˜o de uma transformac¸a˜o linear
Uma transformac¸a˜o linear T fica totalmente determinada quando sa˜o conhe-
cidas as imagens dos vetores de uma base do espac¸o de saida de T (domı´nio).
Por exemplo, suponhamos que T e´ uma transformac¸a˜o linear cujo domı´nio e´
R
3. Seja β = {v1, v2, v3} uma base de R
3 e suponha determinadas as imagens
dos vetores da base:
w1 = T (v1), w2 = T (v2), w3 = T (v3).
Como β e´ uma base temos que dado qualquer vetor v ∈ R3,
v = λ1 v1 + λ2 v2 + λ3 v3
para certos (u´nicos) λ1, λ2 e λ3. Portanto, como T e´ uma transformac¸a˜o
linear,
T (v) = T (λ1 v1 + λ2 v2 + λ3 v3) = λ1 T (v1) + λ2 T (v2) + λ3 T (v3) =
= λ1 w1 + λ2 w2 + λ3 w3,
logo a imagem T (v) de qualquer vetor v esta´ determinada pelas imagens dos
vetores da base β.
Exemplo 1. Estudas se existe uma transformac¸a˜o linear T : R3 → R2 tal
que
T (1, 0, 1) = (2, 1), T (1, 1, 1) = (1, 1),
T (1, 1, 0) = (2, 3), T (3, 1, 1) = (5, 6).
1
Resposta: Observe que os vetores (1, 0, 1), (1, 1, 1) e (1, 1, 0) formam uma
base de R3. Para isto e´ suficiente verificar que na˜o sa˜o coplanares (ou que
sa˜o linearmente independentes),
(1, 0, 1) · ((1, 1, 1)× (1, 1, 0)) =
∣∣∣∣∣∣
1 0 1
1 1 1
1 1 0
∣∣∣∣∣∣ = −1 6= 0.
Consideramos a base
β = {(1, 0, 1), (1, 1, 1), (1, 1, 0)}
Portanto, caso a transformac¸a˜o linear T exista, ela esta´ totalmente determi-
nada pelas imagens dos treˆs vetores da base β. Verifique que:
(3, 1, 1) = 2 (1, 0, 1)− (1, 1, 1) + 2 (1, 1, 0).
Portanto, como T e´ linear,
T (3, 1, 1) = 2T (1, 0, 1)− T (1, 1, 1) + 2T (1, 1, 0) =
= 2 (2, 1)− (1, 1) + 2 (2, 3) = (7, 9) 6= (5, 6).
Portanto, na˜o existe tal transformac¸a˜o linear. ¤
Exemplo 2. Determine uma transformac¸a˜o linear T que transforme o pa-
ralelogramo de ve´rtices
A = (0, 0), B = (2, 1), C = (1, 4) e D = (3, 5),
(os lados do paralelogramo sa˜o os segmentos AB, AC, BD e CD) no para-
lelogramo de ve´rtices
A′ = A = (0, 0), B′ = (−1,−1), C ′ = (2, 6), e D1 = (1, 5),
(os lados sa˜o A′B′, A′C ′, B′D′ e C ′D′).
Resposta: Pelas afirmac¸o˜es acima, uma estrate´gia e´ considerar a trans-
formac¸a˜o que leva os lados do primeiro retaˆngulo nos lados do segundo. Mais
precisamente, considere os vetores
u = AB = (2, 1), v = AC = (1, 4),
w = A′B′ = (−1,−1), ℓ = A′C ′ = (2, 6)
2
e a transformac¸a˜o linear T definida por
T (u) = T (2, 1) = w = (−1,−1), T (v) = T (1, 4) = (2, 6) = ℓ.
Como {(2, 1), (1, 4)} e´ uma base de R2, a transformac¸a˜o T esta´ totalmente
determinada. Por construc¸a˜o, T transforma os ve´rtices do primeiro para-
lelogramo nos ve´rtices do segundo paralelogramo (confira). Afirmamos que
tambe´m transforma os lados do primeiro paralelogramo nos lados do segundo
paralelogramo.
Vejamos, por exemplo, que T transforma o segmento (lado) BD no seg-
mento (lado) B′D′. Observe primeiro que o segmento BD esta´ formado pelos
pontos X tais que
OX = AX = AB + t AC = u+ t v, onde t ∈ [0, 1].
Analogamente, o segmento B′D′ esta´ formado pelos pontos Y tais que
OY = A′X = A′B′ + t A′C ′ = w + t ℓ, onde t ∈ [0, 1].
Considere um ponto X do lado BD, enta˜o, como T e´ linear,
OY = T (OX) = T (u) + t T (v) = w + t ℓ, onde t ∈ [0, 1].
Portanto, o extremo Y do vetor T (OX) verifica a condic¸a˜o de pertencer ao
segmento B′D′. Portanto, a imagem do lado BD do primeiro paralelogramo
esta´ contida no lado B′D′ do segundo paralelogramo. Para ver a inclusa˜o em
sentido contra´rio, considere qualquer ponto Y do segmento B′D′ e escreva
OY = w + t ℓ, onde t ∈ [0, 1].
Por definic¸a˜o, temos,
OY = w + t ℓ = T (u) + t T (v) = T (u+ t v) = T (OX).
Como t ∈ [0, 1], temos que o ponto X pertence ao lado BD.
Um racioc´ınio ideˆntico (que omitimos) mostra que a transformac¸a˜o leva
os lados AB, AC, BD e CD do primeiro paralelogramo nos lados A′B′, A′C ′,
B′D′ e C ′D′, respetivamente, do segundo paralelogramo. ¤
3
2 Matrizes
Uma matriz n×m (onde n representa o nu´mero de linhas e m o nu´mero de
colunas) M e´ definida como segue:
A =


a1,1 a1,2 . . . a1,m
a2,1 a2,2 . . . a2,m
...
...
. . .
...
an,1 an,2 . . . an,m


Dizemos que (aj,1, aj,2, aj,m) e´ a j-e´sima linha de A e que (a1,j, a2,j, an,j) e´ a
j-e´sima coluna de A. Quando n = m, dizemos que a matriz e´ quadrada.
Dadas duas matrizes A e B das mesmas dimenso˜es n×m,
A =


a1,1 a1,2 . . . a1,m
a2,1 a2,2 . . . a2,m
...
...
. . .
...
an,1 an,2 . . . an,m

 , B =


b1,1 b1,2 . . . b1,m
b2,1 b2,2 . . . b2,m
...
...
. . .
...
bn,1 bn,2 . . . bn,m

 ,
definimos a soma e a substrac¸a˜o de matrizes S = A+B e D = A−B, como
segue,
S =


a1,1 + b1,1 a1,2 + b1,2 . . . a1,m + b1,m
a2,1 + b2,1 a2,2 + b2,2 . . . a2,m + b2,m
...
...
. . .
...
an,1 + bn,1 an,2 + bn,2 . . . an,m + bn,m

 ,
e
D =


a1,1 − b1,1 a1,2 − b1,2 . . . a1,m − b1,m
a2,1 − b2,1 a2,2 − b2,2 . . . a2,m − b2,m
...
...
. . .
...
an,1 − bn,1 an,2 − bn,2 . . . an,m − bn,m

 ,
isto e´, S e D sa˜o matrizes das mesmas dimeno˜es n×m que A e B, onde os
coefientes si,j e di,j das matrizes soma S e substrac¸a˜o D sa˜o:
si,j = ai,j + bi,j, di,j = ai,j − bi,j.
A multiplicac¸a˜o da matriz A pelo escalar λ e´ a matriz E, n × m, cujos
coeficientes sa˜o
ei,j = λ ai,j.
4
Finalmente, dadas matrizes A, n ×m, e B, r × k, o produto P = AB esta´
definido quando r = m e e´ uma matriz n × k, o coeficiente pi,j da matriz
produto e´ dado por
pi,j = ai,1 b1,j + ai,2 b2,j + · · ·+ ai,m bm,j.
Mais tarde veremos como o produto de duas matrizes aparece de forma na-
tural: a regra de multiplicac¸a˜o ficara´ clara quando estudemos a composic¸a˜o
de transformac¸o˜es lineares.
V. pode interpretar os coeficientes da matriz produto como segue. Escreva
A =


a1,1 a1,2 . . . a1,m
a2,1 a2,2 . . . a2,m
...
...
. . .
...
an,1 an,2 . . . an,m

 =


ℓ1
ℓ2
...
ℓn

 ,
onde cada ℓi e´ um vetor linha de R
m da forma
ℓi = (ai,1, ai,2, . . . , ai,m).
Analogamente, escreva
B =


b1,1 b1,2 . . . b1,k
b2,1 b2,2 . . . b2,k
...
...
. . .
...
bm,1 bm,2 . . . bm,k

 =

 c1 c2 ck


cada cj e´ um vetor coluna de R
m da forma
cj =


b1,j
b2,j
...
bm,j

 .
Enta˜o, pi,j e´ obtido como o produto escalar dos vetores ℓi e cj,
pi,j = ℓi · cj.
Observe que o produto AB de duas matrizes pode estar definido e o
produto BA pode na˜o esta-lo. Por exemplo, se a matriz A e´ 3 × 2 e B e´
5
2 × 1. Neste caso AB e´ uma matriz 3 × 1 e na˜o e´ poss´ıvel fazer o produto
BA.
Tambe´m pode acontecer que os dois produtos estejam definidos e os re-
sultados dos produtos serem matrizes de dimenso˜es diferentes. Por exemplo,
se A e´ 3× 2 e B e´ 2× 3, temos que AB esta´ definido e e´ uma matriz 3× 3,
e AB tambe´m esta´ definido e e´ uma matriz 2 × 2. Portanto, o produto de
matrizes na˜o e´ (em geral) comutativo: mesmo quando as matrizes AB e BA
teˆm as mesmas dimenso˜es. Um exemplo desta situac¸a˜o e´
A =
(
2 1
1 1
)
, B =
(
1 3
1 1
)
.
Temos
AB =
(
2 1
1 1
) (
1 3
1 1
)
=
(
3 7
2 4
)
e
BA =
(
1 3
1 1
) (
1 2
1 1
)
=
(
5 4
3 2
)
.
Portanto, os dois produtos esta˜o definidos, pore´m
AB 6= BA.
3 Forma matricial de uma transformac¸a˜o li-
near
Lembramos que se T e L sa˜o transformac¸o˜es lineares de R3 em R3 e de R2
em R2 sa˜o da forma:
T : R3 → R3,
T (x, y, z) = (a1 x+ a2 y + a3 z, b1 x+ b2 y + b3 z, c1 x+ c2 y + c3 z),
L : R2 → R2,
L(x, y) = (a1 x+ a2 y, b1 x+ b2 y).
Observe que
T (1, 0, 0) = (a1, b1, c1),
T (0, 1, 0) = (a2, b2, c2),
T (0, 0, 1) = (a3, b3, c3),
L(1, 0) = (a1, b1),
L(0, 1) = (a2, b2).
6
As transformac¸o˜es lineares T e L teˆm as seguintes representac¸o˜es matri-
ciais (representando os vetores na sua forma coluna):
[T ]

 xy
z

 =

 a1 a2 a3b1 b2 b3
c1 c2 c3



 xy
z

 , [L]
(
x
y
)
=
(
a1 a2
b1 b2
)(
x
y
)
.
Isto significa que se escrevemos um vetor v na forma coluna [v] e fazemos o
produto das matrizes [T ] [v] obtemos como resultado o vetor T (v) na forma
coluna: seja v = (x, y, z), enta˜o
[v] =

 xy
z


e
[T ]

 xy
z

 =

 a1 a2 a3b1 b2 b3
c1 c2 c3



 xy
z

 =

 a1 x+ a2 y + a3 zb1 x+ b2 y + b3 z
c1 x+ c2 y + c3 z

 .
Pelos comenta´rios ja´ feitos temos a seguinte interpretac¸a˜o das colunas da
matriz [T ].
• A primeira coluna e´ a imagem de T (1, 0, 0),
• a segunda coluna e´ a imagem de T (0, 1, 0),
• a u´ltima coluna e´ a imagem de T (0, 0, 1).
Comenta´rios ana´logos podem ser feitos para a matriz [L].
7
AULA 14.pdf
A´lgebra Linear I - Aula 14
1. Forma matricial de uma transformac¸a˜o linear. Exemplos.
1 Forma matricial de uma matriz. Exemplos
Exemplos 1.
• As transformac¸o˜es lineares identidade e nula teˆm como matrizes as-
sociadas as matrizes identidade (diagonal igual a 1 e todos os outros
coeficientes nulos) e a matriz nula (todos os coeficientes sa˜o zero).
• As matrizes das transformac¸o˜eso lineares de cisalhamento horizontal
H(x, y) = (x, αx + y) e vertical V (x, y) = (x + αy, y) sa˜o
[H] =
(
1 0
α 1
)
e [V ] =
(
1 α
0 1
)
.
• Lembrando que a projec¸a˜o ortogonal no vetor unita´rio (a, b, c) de R3 e´
da forma
P (x, y, z) = (a2x + aby + acz, abx + b2y + bcz, acx + bcy + c2z).
temos
[P ] =

 a
2 ab ac
ab b2 bc
ac bc c2

 .
Por exemplo, as matrizes projec¸o˜es ortogonais nos eixos X, Y e Z sa˜o,
respetivamente,
 1 0 00 0 0
0 0 0

 ,

 0 0 00 1 0
0 0 0

 ,

 0 0 00 0 0
0 0 1

 .
Analogamente, lembrando as definic¸o˜es da ortogonais em um plano
temos que a projec¸o˜es ortogonais nos planos XY, X, Z e YZ sa˜o da
forma 
 1 0 00 1 0
0 0 0

 ,

 1 0 00 0 0
0 0 1

 ,

 0 0 00 1 0
0 0 1

 .
1
Por exemplo, para a projec¸a˜o ortogonal P no plano XY e´ suficiente
observar que
P (i) = i, P(j) = j, P(k) = k).
• Lembrando a fo´rmula das reflexo˜es R e S (em R2) em torno dos eixos
X e Y e T em torno da origem
R(x, y) = (x,−y), S(x, y) = (−x, y), T (x, y) = (−x,−y),
(veja a u´ltima aula) temos
[R] =
(
1 0
0 −1
)
, [S] =
(
−1 0
0 1
)
, [T ] =
(
−1 0
0 −1
)
.
• Lembrando a expressa˜o da rotac¸a˜o de aˆngulo θ no sentido anti-hora´rio
Rθ(x, y) = ((cos θ) x− (senθ) y, (cos θ )y + (senθ) x),
temos
[Rθ] =
(
cos θ −senθ
senθ cos θ
)
.
• Consideremos agora a de projec¸a˜o T na reta ax + by = 0 segundo a
direc¸a˜o do vetor v = (c, d). Pelos resultados da aula anterior,
T (x, y) =
(
x−
ax + by
ac + bd
c, y −
ax + by)
ac + bd
d
)
.
Portanto,
[T ] =

 1−
ac
ac + bd
−
bc
ac + bd
−
ad
ac + bd
1−
bd
ac + bd

 .
• Determinaremos a seguir a matriz da projec¸a˜o ortogonal no plano x +
y+z =. Para isso temos que determinar P (1, 0, 0), P (0, 1, 0) e P (0, 0, 1).
Para isso consideramos a base ortogonal
{u1 = (1, 1, 1), u2 = (1, 0,−1), u3 = (1,−2, 1),
E observamos que
P (u1) = 0, P (u2) = u2, P (u3) = u3.
2
Para determinar P (1, 0, 0) Escrevemos
(1, 0, 0) = x (1, 1, 1) + y (1, 0,−1) + z (1,−2, 1).
Observe que
P (1, 0, 0) = P
(
x (1, 1, 1) + y (1, 0,−1) + z (1,−2, 1)
)
=
= xP (1, 1, 1) + y P (1, 0,−1) + z P (1,−2, 1)
= y (1, 0,−1) + z (1,−2, 1).
Observe que o coeficiente x e´ irrelevante.
Calculamos y e z. Como a base e´ ortogonal temos
(1, 0, 0) · (1, 0,−1) = y (1, 0,−1) · (1, 0,−1) = 2 y, y = 1/2
e
(1, 0, 0) · (1,−2, 1) = z (1,−2, 1) · (1,−2, 1) = 6 z, z = 1/6.
Logo
P (1, 0, 0) = 1/2 (1, 0,−1) + 1/6 (1,−2, 1) = (2/3,−1/3,−1/3).
Para determinar P (0, 1, 0) escrevemos
(0, 1, 0) = x (1, 1, 1) + y (1, 0,−1) + z (1,−2, 1)
e observamos que
P (0, 1, 0) = y (1, 0,−1) + z (1,−2, 1).
Calculamos y e z. Como a base e´ ortogonal temos
(0, 1, 0) · (1, 0,−1) = y (1, 0,−1) · (1, 0,−1) = 2 y, y = 0
e
(0, 1, 0) · (1,−2, 1) = z (1,−2, 1) · (1,−2, 1) = 6 z, z = −1/3.
Logo
P (0, 1, 0) = (−1/3, 2/3,−1/3).
3
Raciocinando de forma similar obtemos
P (0, 0, 1) = (−1/3,−1/3, 2/3).
Portanto
[P ] =

 2/3 −1/3 −1/3−1/3 2/3 −1/3
−1/3 −1/3 2/3

 .
Exemplo 1. Considere as retas
r : (t, 2 t, t), t ∈ R e s : (t + 1, 2 t, t− 5), t ∈ R
e o plano
pi : x + y + z = 0.
(a) Determine a matriz (na base canoˆnica) da transformac¸a˜o linear T
projec¸a˜o no plano pi na direc¸a˜o da reta r.
(b) Determine a matriz (na base canoˆnica) da transformac¸a˜o linear L
projec¸a˜o na reta r na direc¸a˜o do plano pi.
(c) Determine a forma matricial (na base canoˆnica) da transformac¸a˜o afim
A projec¸a˜o na reta s na direc¸a˜o do plano pi.
Resposta:
a) Observe que (1, 2, 1) e´ um vetor paralelo a` direc¸a˜o de projec¸a˜o, logo
T (1, 2, 1) = (0, 0, 0)
Temos que o vetor (−1, 2,−1) e´ um vetor do plano de projec¸a˜o. Portanto,
T (−1, 2,−1) = (−1, 2,−1)
Somando as igualdades,
T (0, 4, 0) = T ((−1, 2,−1) + (1, 2, 1)) = (−1, 2,−1).
Portanto
T (0, 1, 0) = (−1/4, 2/4,−1/4).
4
Temos tambe´m que que o vetor (1,−1, 0) e´ um vetor do plano de projec¸a˜o.
Portanto,
T (1, 0, 0)− T (0, 1, 0) = T (1,−1, 0) = (1,−1, 0).
Isto e´
T (1, 0, 0) = T (0, 1, 0) + (1,−1, 0) =
= (−1/4, 2/4,−1/4) + (1,−1, 0) =
= (3/4,−2/4,−1/4).
Finalmente, o vetor (0,−1, 1) e´ um vetor do plano de projec¸a˜o. Portanto,
T (0, 0, 1)− T (0, 1, 0) = T (0,−1, 1) = (0,−1, 1).
Isto e´
T (0, 0, 1) = T (0, 1, 0) + (0,−1, 1) =
= (−1/4, 2/4,−1/4) + (0,−1, 1) =
= (−1/4,−2/4, 3/4).
Portanto,
[T ] =

 3/4 −1/4 −1/4−2/4 2/4 −2/4
−1/4 −1/4 3/4

 .
V. pode resolver o problema usando geometria anal´ıtica. Temos que
T (a, b, c) e´ o vetor OQ, onde Q e´ a intersec¸a˜o da reta (a + t, b + 2 t, c + t) e
o plano x + y + z = 0. Esta intersec¸a˜o ocorre quando
a + t + b + 2 t + c + t = 0, 4 t = −a− b− c, t = −
a + b + c
4
.
Isto e´
T (a, b, c) =
(
3 a− b− c
4
,
−2 a + 2 b− 2 c
4
,
−a− b + 3 c
4
)
.
Tomando os vetores (1, 0, 0), (0, 1, 0) e (0, 0, 1) obtemos
T (1, 0, 0) = (3/4,−2/4,−1/4),
T (0, 1, 0) = (−1/4, 2/4,−1/4),
T (0, 0, 1) = (−1/4,−2/4, 3/4).
b) Raciocinamos como no primeiro item. Observe que (1, 2, 1) e´ um vetor
5
da reta de projec¸a˜o, logo
L(1, 2, 1) = (1, 2, 1)
Temos que o vetor (−1, 2,−1) e´ um vetor paralelo a` direc¸a˜o de projec¸a˜o.
Portanto,
L(−1, 2,−1) = (0, 0, 0)
Somando as igualdades,
L(0, 4, 0) = L((1, 2, 1) + (−1, 2,−1)) = (1, 2, 1).
Portanto
L(0, 1, 0) = (1/4, 2/4, 1/4).
Temos tambe´m que que o vetor (1,−1, 0) e´ paralelo ao plano direc¸a˜o projec¸a˜o.
Portanto,
L(1, 0, 0)− L(0, 1, 0) = L(1,−1, 0) = (0, 0, 0).
Isto e´
L(1, 0, 0) = L(0, 1, 0) = (1/4, 2/4, 1/4).
Analogamente, o vetor (0,−1, 1) e´ paralelo a` direc¸a˜o projec¸a˜o. Portanto,
L(0, 0, 1)− L(0, 1, 0) = L(0,−1, 1) = (0, 0, 0).
Isto e´
L(0, 0, 1) = L(0, 1, 0) = (1/4, 2/4, 1/4).
Portanto,
[L] =

 1/4 1/4 1/42/4 2/4 2/4
1/4 1/4 1/4

 .
V. pode usar tambe´m geometria anal´ıtica como no caso anterior. Outra
possibilidade e´ observar que dado um vetor v se verifica
v = vr + vpi,
onde vr e´ um vetor paralelo a` reta r e vpi e´ paralelo ao plano pi. Portanto,
T (v) = vpi, L(v) = vr.
6
Ou seja,
v = T (v) + L(v) = Id(v).
Isto significa que a soma das matrizes [T ] e [L] e´ a matriz identidade, isto e´,
[L] =

 1 0 00 1 0
0 0 1

−

 3/4 −1/4 −1/4−2/4 2/4 −2/4
−1/4 −1/4 3/4

 =

 1/4 1/4 1/42/4 2/4 2/4
1/4 1/4 1/4

 .
c) Para determinar a forma matricial devemos achar A(0, 0, 0), obtido como
a intersec¸a˜o do plano pi e a reta s. Ou seja, devemos encontrar o valor de t
que verifica
(t + 1) + (2 t) + (t− 5) = 0, 4 t = 4, t = 1.
Logo
A(0, 0, 0) = (2, 2,−4).
Assim a forma matricial de A e´
 1/4 1/4 1/42/4 2/4 2/4
1/4 1/4 1/4



 xy
z

+

 22
−4

 .
¤
Exemplo 2. Determine a matriz da transformac¸a˜o linear
T : R3 → R3, T (u) = u× v,
onde v = (1, 1, 1).
Resposta: Para isto determinaremos a forma geral de T . Observe que
T (x, y, z) = (x, y, z)× (1, 1, 1) =
∣∣∣∣∣∣
i j k
x y z
1 1 1
∣∣∣∣∣∣ = (y − z, z − x, x− y).
Portanto,
T (1, 0, 0) = (0,−1, 1), T (0, 1, 0) = (1, 0,−1), T (0, 0, 1) = (−1, 1, 0).
7
Finalmente, obtemos
[T ] =

 0 1 −1−1 0 1
1 −1 0

 .
¤
Exemplo 3. Determinar a matriz da transformac¸a˜o linear
T : R3 → R3, T (u) = (u · v) w,
onde v = (1, 1, 1) e w = (1, 2, 3).
Resposta: Calcularemos as imagens dos vetores i, j e k. Temos
T (1, 0, 0) = ((1, 0, 0) · (1, 1, 1)) (1, 2, 3) = (1, 2, 3),
T (0, 1, 0) = ((0, 1, 0) · (1, 1, 1)) (1, 2, 3) = (1, 2, 3),
T (0, 0, 1) = ((0, 0, 1) · (1, 1, 1)) (1, 2, 3) = (1, 2, 3).
Portanto,
[T ] =

 1 1 12 2 2
3 3 3

 .
¤
Analogamente, dada uma matriz [T ] temos uma transformac¸a˜o linear T
associada a dita matriz. Dada a matriz
[T ] =

 a1 a2 a3b1 b2 b3
c1 c2 c3


sua transformac¸a˜o linear associada e´
T (x, y, z) = (a1 x + a2 y + a3 z, b1 x + b2 y + b3 z, c1 x + c2 y + c3 z).
Ou de outra forma, escrevendo os vetores em froma coluna,
[T ]

 xy
z

 =

 a1 a2 a3b1 b2 b3
c1 c2 c3



 xy
z

 .
8
AULA 15.pdf
A´lgebra Linear I - Aula 15
1. Composic¸a˜o de transformac¸o˜es lineares.
2. Produto de matrizes.
3. Determinante do produto de matrizes.
1 Composic¸a˜o de transformac¸o˜es lineares
Considere duas transformac¸o˜es lineares T e L,
T : Rm → Rk, L : Rn → Rℓ.
Se ℓ e´ igual a m temos que dado um vetor u de Rn sua imagem L(u) esta´
em Rℓ = Rm, que e´ o domı´nio de T , portanto podemos aplicar T a L(u),
obtendo T (L(u)). Neste caso podemos definir a composic¸a˜o T ◦ L como
T ◦ L(u) = T (L(u)).
Analogamente, se k e´ igual a n, dado qualquer vetor v de Rm sua imagem
T (v) esta´ em Rk = Rn, que e´ o domı´nio de L, portanto podemos aplicar L a
T (v), obtendo L(T (v)). Neste caso podemos definir a composic¸a˜o L ◦ T .
Dadas duas transformac¸o˜es lineares
T : Rm → Rk, L : Rn → Rm,
a composic¸a˜o T ◦ L
T ◦ L : Rn → Rk,
e´ uma nova transformac¸a˜o linear:
• T ◦ L(u+ v) = T (L(u+ v)) = T (L(u) + L(v)) = T (L(u)) + T (L(v)) =
T ◦ L(u) + T ◦ L(v),
• T ◦ L(σu) = T (L(σu)) = T (σL(u)) = σT (L(u)) = σ(T ◦ L(u)).
1
Observac¸a˜o: Como no caso do produto de matrizes, a composic¸a˜o de
transformac¸o˜es lineares na˜o e´ comutativa. Em alguns casos a composic¸a˜o
T ◦L pode estar definida e a composic¸a˜o L ◦ T na˜o. Mesmo quando as duas
composic¸o˜es esta˜o definidas pode acontecer que T ◦ L 6= L ◦ T .
Veremos a seguir alguns exemplos:
(1) Considere os cisalhamentos
T (x, y) = (x + α y, y), e L(x, y) = (x, β x + y).
Enta˜o
L ◦ T (x, y) = L((x + α y, y)) = (x + α y, y + β α y + β x),
e
T ◦ L(x, y) = T ((x, β x + y)) = (x + α y + αβ x, y
+ βx),
que obviamente sa˜o (em geral) diferentes.
(2) Seja T : R3 −→ R3 a transformac¸a˜o linear projec¸a˜o ortogonal na reta
(t, 0, 0) e seja L : R3 −→ R3 a transformac¸a˜o linear definida por
L(v) = v × u, onde u = (1,−1, 1).
Enta˜o
L ◦ T (x, y, z) = L((x, 0, 0)) = (0,−x,−x),
e
T ◦ L(x, y, z) = T ((y + z,−x + z,−x− y)) = (y + z, 0, 0)
que sa˜o obviamente transformac¸o˜es lineares distintas, por exemplo:
L ◦ T (1, 2, 3) = L((1, 0, 0)) = (0,−1,−1),
mas
T ◦ L(1, 2, 3) = T ((5, 2,−3)) = (5, 0, 0)
Observe que, neste caso, L◦T (v) = T◦L(v) se, e somente se, v = (0, k,−k), k ∈
R. Nestas condic¸o˜es L◦T (0, k,−k) = T ◦L(0, k,−k) = (0, 0, 0) o que mostra
2
que essas transformac¸o˜es, L ◦T e T ◦L, na˜o sa˜o injetoras. Verifique tambe´m
que elas na˜o sa˜o sobrejetoras!
(3) Seja T : R2 −→ R3 a transformac¸a˜o linear definida por T (x, y) =
(x, y, x + y) e seja L : R3 −→ R2 a transformac¸a˜o linear definida por
L(x, y, z) = (2x, y + z). Enta˜o
L ◦ T (x, y) = L((x, y, x + y)) = (2x, x + 2y),
e
T ◦ L(x, y, z) = T ((2x, y + z)) = (2x, y + z, 2x + y + z)
que sa˜o obviamente transformac¸o˜es lineares distintas. Observe inclusive que
L ◦ T : R2 −→ R2 enquanto que T ◦ L : R3 −→ R3.
Vale a pena voceˆ conferir que, neste caso, L ◦ T e´ injetora e sobrejetora
enquanto que T ◦ L na˜o e´ injetora nem sobrejetora.
(4) Seja T : R2 −→ R2 a transformac¸a˜o linear identidade, ou seja, T (x, y) =
(x, y) e seja L : R2 −→ R3 a transformac¸a˜o linear definida por L(x, y) =
(x, 0, y). Enta˜o
L ◦ T (x, y) = L((x, y)) = (x, 0, y),
mas, neste caso T ◦ L na˜o esta´ definida.
Para pensar: apresente, se poss´ıvel, duas transformac¸o˜es lineares T e L
de modo que para todo vetor v se tenha T ◦ L(v) = L ◦ T (v). Na˜o vale
T = L = Id, nem T (v) = 2 e L(w) = 3w e coisas similares!
2 Produto de matrizes
A seguir calcularemos a matriz associada a` composic¸a˜o de duas transformac¸o˜es
lineares. Por simplicidade, faremos os ca´lculos em R2, os ca´lculos em R3 sa˜o
ideˆnticos.
Sejam T e L transformac¸o˜es lineares cujas matrizes sa˜o
[T ] =
(
a1 a2
b1 b2
)
, [L] =
(
c1 c2
d1 d2
)
.
Para determinar a matriz de L◦T e´ suficiente calcular L◦T (1, 0) e L◦T (0, 1),
que sera˜o as colunas da nova matriz.
3
L ◦ T (1, 0) = L((a1, b1)) = a1 L(1, 0) + b1 L(0, 1) =
= a1 (c1, d1) + b1 (c2, d2) =
= (a1 c1 + b1 c2, a1 d1 + b1 d2).
L ◦ T (0, 1) = L((a2, b2)) = a2 L(1, 0) + b2 L(0, 1) =
= a2 (c1, d1) + b2 (c2, d2) =
= (a2 c1 + b2 c2, a2 d1 + b2 d2).
Obtendo a nova matriz:
[L ◦ T ] =
(
c1 a1 + c2 b1 c1 a2 + c2 b2
d1 a1 + d2 b1 d1 a2 + d2 b2.
)
.
Finalmente, observamos que os ca´lculos feitos para calcular o produto de duas
matrizes fornece a seguinte regra geral. Considere os vetores c = (c1, c2) e
d = (d1, d2) que determinam as linhas de [L], e os vetores u = (a1, b1) e
v = (a2, b2) que determinam as colunas de [T ]. Temos a seguinte expressa˜o:
[L][T ] =
(
c · u c · v
d · u d · v
)
.
Dessa forma, vamos verificar a matriz associada a` composic¸a˜o de duas trans-
formac¸o˜es lineares nos quatro exemplos que apresentamos acima:
(1) L e T sa˜o dois cisalhamentos definidos por:
T (x, y) = (x + α y, y), e L(x, y) = (x, β x + y).
Nestas condic¸o˜es:
[L ◦ T ] = [L][T ] =
(
1 0
β 1
)(
1 α
0 1
)
=
(
1 α
β αβ + 1
)
e
[T ◦ L] = [T ][L] =
(
1 α
0 1
)(
1 0
β 1
)
=
(
1 + αβ α
β 1
)
.
(2) T : R3 −→ R3 e´ a transformac¸a˜o linear projec¸a˜o ortogonal na reta (t, 0, 0)
e L : R3 −→ R3 e´ a transformac¸a˜o linear definida por L(v) = v × u para
u = (1,−1, 1).
4
Nestas condic¸o˜es:
[L ◦ T ] = [L][T ] =

 0 1 1−1 0 1
−1 −1 0



 1 0 00 0 0
0 0 0

 =

 0 0 0−1 0 0
−1 0 0


e
[T ◦ L] = [T ][L] =

 1 0 00 0 0
0 0 0



 0 1 1−1 0 1
−1 −1 0

 =

 0 1 10 0 0
0 0 0

 .
(3) T : R2 −→ R3 e´ a transformac¸a˜o linear definida por T (x, y) = (x, y, x+y)
e L : R3 −→ R2 e´ a transformac¸a˜o linear definida por L(x, y, z) = (2x, y+z).
Nestas condic¸o˜es:
[L ◦ T ] = [L][T ] =
(
2 0 0
0 1 1
) 1 00 1
1 1

 =
(
2 0
1 2
)
.
e
[T ◦ L] = [T ][L] =

 1 00 1
1 1

( 2 0 0
0 1 1
)
=

 2 0 00 1 1
2 1 1

 .
(4) T : R2 −→ R2 e´ a transformac¸a˜o linear identidade, ou seja, T (x, y) =
(x, y) e L : R2 −→ R3 e´ a transformac¸a˜o linear definida por L(x, y) = (x, 0, y).
Nestas condic¸o˜es:
[L ◦ T ] = [L][T ] =

 1 00 0
0 1

( 1 0
0 1
)
=

 1 00 0
0 1


e o produto de matrizes [T ][L] na˜o esta´ definido.
3 Determinante do produto de duas matrizes
Considere as matrizes triangulares
[A]
(
a b
0 c
)
e [B]
(
d e
0 f
)
.
5
Denote por det[M ] o determinante de uma matriz quadrada (mesmo nu´mero
de linhas que de colunas). Observe que
det[A] = a c det[B] = d f.
Observe que
[AB] = [A][B] =
(
ad ae + bf
0 cf
)
e que
det[AB] = (a d) (c f) = det[A] det[B].
Neste caso temos que o determinante da matriz produto e´ o produto dos de-
terminantes.
De fato, sempre, o determinante do produto de duas matrizes (quadradas)
e´ o produto dos determinantes das duas matrizes. Uma justificativa e´ a se-
guinte: reduzindo a` forma escalonada, o determinante na˜o muda, assim a
afirmac¸a˜o decorre da afirmac¸a˜o sobre o produto de matrizes triangulares.
Os exemplos (1) e (2) da sec¸a˜o acima, envolvem a composic¸a˜o de trans-
formac¸o˜es lineares de domı´nio e contra-domı´nio iguais. Logo, as matrizes re-
presentantes dessas transformac¸o˜es sa˜o quadradas e, desta forma, e´ poss´ıvel
calcular seus respectivos determinantes. Observe que, nestes casos, o deter-
minante da matriz representante da transformac¸a˜o composic¸a˜o e´ o produto
dos determinantes das matrizes de cada uma das transformac¸o˜es envolvidas
na composic¸a˜o. Conferindo enta˜o, temos:
(1) L e T sa˜o dois cisalhamentos definidos por:
T (x, y) = (x + α y, y), e L(x, y) = (x, β x + y).
Nestas condic¸o˜es:
det[L ◦ T ] = det[L] det[T ] =
∣∣∣∣ 1 0β 1
∣∣∣∣
∣∣∣∣ 1 α0 1
∣∣∣∣ = 1 · 1 =
∣∣∣∣ 1 αβ αβ + 1
∣∣∣∣ = 1.
(2) T : R3 −→ R3 e´ a transformac¸a˜o linear projec¸a˜o ortogonal na reta (t, 0, 0)
e L : R3 −→ R3 e´ a transformac¸a˜o linear definida por L(v) = v × u para
6
u = (1,−1, 1). Nestas condic¸o˜es:
det[L ◦ T ] = det[L] det[T ] =
∣∣∣∣∣∣
0 1 1
−1 0 1
−1 −1 0
∣∣∣∣∣∣
∣∣∣∣∣∣
1 0 0
0 0 0
0 0 0
∣∣∣∣∣∣ =
∣∣∣∣∣∣
0 0 0
−1 0 0
−1 0 0
∣∣∣∣∣∣ = 0.
7
AULA 16.pdf
A´lgebra Linear I - Aula 16
1. Transformac¸a˜o linear inversa.
2. Condic¸o˜es para a existeˆncia da inversa.
Roteiro
1 Transformac¸a˜o linear inversa
Definic¸a˜o 1. Dada uma transformac¸a˜o linear T : Rn → Rn sua inversa e´
uma nova transformac¸a˜o linear T−1 que verifica a seguinte propriedade: para
todo vetor u,
T−1 ◦ T (u) = T ◦ T−1(u) = u, (isto e´, T−1 ◦ T = T ◦ T−1 = Id).
Observamos que, em geral, ha´ transformac¸o˜es lineares que na˜o teˆm in-
versa. Por exemplo, considere uma transformac¸a˜o linear T : R3 → R3 tal que
T (1, 1, 1) = 0¯, por exemplo, a transformac¸a˜o linear
T (x, y, z) = (x− y, x− z, y − z).
Se a transformac¸a˜o linear inversa de T existisse, T−1 deveria verificar
T−1(0, 0, 0) = (1, 1, 1),
pois T−1 ◦ T (1, 1, 1) = (1, 1, 1), isto e´, T−1(0, 0, 0) = (1, 1, 1). Mas se T−1 for
linear enta˜o T−1(0, 0, 0) = 0¯.
Em qualquer caso, mesmo se a T−1 na˜o for linear haveria um problema:
como T e´ linear,
temos T (1, 1, 1) = 0¯ = T (2, 2, 2). Portanto, T−1(0, 0, 0)
deveria tomar dois valores, (1, 1, 1) e (2, 2, 2), o que e´ imposs´ıvel.
Na pro´xima sec¸a˜o veremos condic¸o˜es para a existeˆncia da transformac¸a˜o
linear inversa T−1.
Observe que se a transformac¸a˜o inversa T−1 existe enta˜o e´ uma trans-
formac¸a˜o linear: Suponha que T (u1) = v1 e T (u2) = v2, logo T (u1 + u2) =
v1 + v2. Isto significa que,
T−1(v1) = u1, T
−1(v2) = u2, T
−1(v1 + v2) = u1 + u2.
1
Finalmente,
T−1(v1 + v2) = u1 + u2 = T
−1(v1) + T
−1(v2).
Para verificar a condic¸a˜o
T−1(σ v1) = σ T
−1(v1)
observe que T (σ u1) = σ T (u1) = σ v1. Logo
T−1(σ v1) = σ u1 = σ T
−1(v1).
Finalmente, observe que
[T−1] ◦ [T ] = [T ] ◦ [T−1] = Id.
Logo, usando as propriedades do determinante, obtemos que:
• det[T−1] = 1/ det[T ].
• Se T tem inversa enta˜o det[T ] 6= 0, (de fato veremos que isto e´ condic¸a˜o
necessa´ria e suficiente).
2 Definic¸a˜o de T−1. Condic¸o˜es para a exis-
teˆncia da inversa
Veremos agora como definir a transformac¸a˜o T−1. Em primeiro lugar observe
que se T (u) = v enta˜o, necessariamente pela definic¸a˜o de inversa, T−1(v) = u.
Portanto, uma condic¸a˜o necessa´ria para a existeˆncia de inversa e´ que a trans-
formac¸a˜o seja injetora, isto e´, se u 6= w enta˜o T (u) 6= T (w) (veremos na Ob-
servac¸a˜o 1 que no caso das transformac¸o˜es lineares ser injetora e´ equivalente
a T (u) = 0¯ se, e somente se, u = 0¯).
Suponha que ha´ vetores diferentes u e v tais que T (u) = T (v) = w (de
fato isto acontecia no exemplo anterior, por exemplo T (1, 2, 2) = T (2, 3, 3) =
T (0, 1, 1) = (−1,−1, 0)), enta˜o deveriamos ter T−1(w) = v e T−1(w) = u, o
que e´ imposs´ıvel.
As condic¸o˜es (necessa´rias e suficientes) para a existeˆncia de transformac¸a˜o
linear inversa sa˜o:
2
• Injetividade: Se u 6= w enta˜o, T (u) 6= T (w). Observe que se T (u) =
T (w) = v enta˜o, T−1(u) = v e T−1(u) = w, logo u deveria tomar dois
valores!.
• Sobrejetividade de T : para todo vetor u existe v tal que T (v) = u. Se a
transformac¸a˜o for injetora o vetor v e´ u´nico. Em tal caso, T−1(u) = v:
T−1 ◦ T (v) = T−1(u) = v, T ◦ T−1(v) = T (u) = v.
Estas duas condic¸o˜es se verificam se, e somente se, det[T ] e´ na˜o nulo.
Pensaremos as condic¸o˜es anteriores em termos de sistemas de equac¸o˜es. Su-
ponha, para simplificar, que T : R2 → R2 e que
[T ] =
(
a b
c d
)
.
Dado um vetor v = (α, β), para calcular T−1(v) devemos encontrar um vetor
(x, y) tal que T (x, y) = (α, β) (e em tal caso T−1(α, β) = (x, y)). Ou seja,
devemos resolver o sistema a seguir e verificar que tal sistema tem soluc¸a˜o
u´nica:
ax + by = α, cx + dy = β.
Isto e´, para que exista a inversa o sistema anterior deve ter soluc¸a˜o sempre,
e dita soluc¸a˜o deve ser u´nica. Estas condic¸o˜es esta˜o garantidas se (e somente
se) det[T ] 6= 0.
Observac¸a˜o 1 (Sobre a condic¸a˜o de injetividade). No caso em que T e´
injetora se verifica T (u) = 0¯ se e somente se u = 0¯.
Para ver a afirmac¸a˜o e´ suficiente observar que se T na˜o e´ injectiva existem
vetores diferentes u e v tais que T (u) = T (v). Portanto,
T (u)− T (v) = 0¯, T (u− v) = 0¯,
onde u− v 6= 0¯. Claramente, se T e´ injetiva T (0) = 0¯ e para todo vetor na˜o
nulo u temos T (u) 6= 0¯.
Propriedade 2.1 (Injetividade e sobrejetividade). Quando uma transformac¸a˜o
linear T : Rn → Rn e´ injetora tambe´m e´ sobrejetora, e vice-versa.
3
Veremos a afirmac¸a˜o anterior quando T : R3 → R3. Veremos que se e´
injetora tambe´m e´ sobrejetora. Considere uma base de R3, u1, u2 e u3. Afir-
mamos que os vetores T (u1), T (u2) e T (u3) sa˜o linearmente independentes.
Caso contra´rio um deles poderia ser escrito como combinac¸a˜o linear dos ou-
tros. Por exemplo,
T (u3) = λT (u1) + σ T (u2) = T (λu1 + σ u2).
Como T e´ injetora,
u3 = λu1 + σ u2, λ u1 + σ u2 − u3 = 0.
Obtemos assim uma combinac¸a˜o linear dos vetores u1, u2 e u3 dando o vetor
nulo, o que e´ imposs´ıvel pois os vetores sa˜o l.i..
Agora como T (u1), T (u2) e T (u3) sa˜o l.i. formam uma base. Para ter-
minar a prova, e´ suficiente ver que dado qualquer w ∈ R3 existe u tal que
T (u) = w. Como {T (u1), T (u2), T (u3)} e´ uma base,
w = λT (u1) + σ T (u2) + γ T (u3) = T (λu1 + σ u2 + γ u3).
Isto termina a prova.
Fica como exerc´ıcio verificar que se T e´ sobrejetora enta˜o e´ injetora. Para
motivar e como dica veremos o caso R2. Se T na˜o for injetora existe um vetor
na˜o nulo u tal que T (u) = 0¯. Considere agora uma base {u, v} de R2 contendo
o vetor u. Suponha que T (v) = w. Suponhamos que w 6= 0¯.
Afirmamos que a imagem de T e´ reta de vetor diretor w (portanto, na˜o e´
R
2). Dado um vetor ℓ temos ℓ = λ v + σ u, logo T (ℓ) = σ w, e portante sua
imagem esta´ na reta vetorial de vetor diretor w que conte´m a origem.
Exemplos 1. Estudar se as transformac¸o˜es lineares a seguir possuem inver-
sas. Determine estas caso existam.
• T (x, y) = (2x, x + y).
• T (x, y, z) = (2x + y + z, x + y + z, x).
Resposta: No primeiro caso existe inversa: para determinar T−1(u) e
suficiente encontrar v tal que T (v) = u e ver que esta soluc¸a˜o e´ u´nica. Isto
e´, se u = (a, b) devemos resolver o sistema:
2x = a, x + y = b.
4
A soluc¸a˜o e´ x = a/2 e y = b− a/2. Ou seja,
T−1(a, b) = (a/2, b− a/2).
Portanto, temos,
[T−1] =
(
1/2 0
−1/2 1
)
.
Verifique que [T−1] ◦ [T ] = [T ] ◦ [T−1] = Id.
No segundo caso na˜o existe inversa. A transformac¸a˜o T na˜o e´ nem sobre-
jetiva nem injetiva. Veremos isto resolvendo um sistema da forma.
2x + y + z = a, x + y + z = b, x = c,
isto e´, dado um vetor (a, b, c) estamos calculando os vetores (x, y, z) tais que
T (x, y, z) = (a, b, c). Escalonando,
x = c, y + z = a− 2c, y + z = b− c.
Continuando o escalonamento,
x = c, y + z = a− 2c, 0 = b + c− a.
Ou seja, para que o sistema admita soluc¸a˜o o vetor deve ser da forma (a, b, a−
b). Isto e´, na˜o e´ poss´ıvel definir (por exemplo) T−1(1, 1, 1).
Calcule agora a matriz associada a T e determine seu determinante (ob-
viamente, det(T ) = 0, justifique sem fazer as contas!). ¤
3 Me´todos para determinar T−1
Explicaremos de forma sucinta dois me´todos para calcular a matriz de T−1.
Para fixar ideias suporemos que a matriz associada a T e´ 3× 3.
3.1 Via sistemas de equac¸o˜es
Este me´todo ja´ foi esboc¸ado no exemplo da sec¸a˜o anterior. Devemos deter-
minar T−1 dos vetores (1, 0, 0), (0, 1, 0) e (0, 0, 1). Conhecidos estes vetores
a matriz [T−1] tera´ por colunas estes vetores. Para isto e´ suficiente resolver
os sistemas
5
• T (x, y, z) = (1, 0, 0), cuja soluc¸a˜o e´ T−1(1, 0, 0),
• T (x, y, z) = (0, 1, 0), cuja soluc¸a˜o e´ T−1(0, 1, 0),
• T (x, y, z) = (0, 0, 1), cuja soluc¸a˜o e´ T−1(0, 0, 1).
Exemplo 1. Determine a matriz inversa da transformac¸a˜o linear T cuja
matriz associada e´
[T ] =

 1 1 10 1 1
1 1 0


Resposta: Resolveremos o sistema geral T (x, y, z) = (a, b, c). Temos o
sistema,
x + y + z = a, y + z = b, x + y = c.
A soluc¸a˜o deste sistema e´
(a− b, b− a + c, a− c).
Fazendo (a, b, c) igual a (1, 0, 0), (0, 1, 0) e (0, 0, 1) obtemos
T−1(1, 0, 0) = (1,−1, 1),
T−1(0, 1, 0) = (−1, 1, 0),
T−1(0, 0, 1) = (0, 1,−1).
Portanto,
[T−1] =

 1 −1 0−1 1 1
1 0 −1

 .
Verifique que [T−1] e´ de fato a inversa de [T ] (calcule [T−1][T ] e veja que o
resultado e´ a matriz identidade). ¤
3.2 Me´todo de Gauss
Outra forma para encontrar a inversa de uma matriz A e´ o me´todo de Gauss,
que consiste em, utilizando operac¸o˜es elementares, transformar a matriz A
na matriz identidade. Este me´todo segue a mesma filosofia do me´todo de
resoluc¸a˜o
de equac¸o˜es lineares usando o me´todo de escalonamento. V. repete
cada operac¸a˜o efetuada na matriz A na matriz identidade, e o resultado final
e´ a matriz inversa A−1 (justificaremos esta afirmac¸a˜o mais tarde).
Entendemos por operac¸o˜es elementares:
6
• multiplicac¸a˜o de uma linha por um nu´mero diferente de zero,
• permutac¸o˜es na ordem das linhas,
• substituir uma linha ℓ por uma nova linha obtida como combinac¸a˜o
linear de essa linha e outras linhas da matriz (o coeficiente de ℓ na˜o e´
nulo)
Exemplo 2. Usando o me´todo de Gauss, calcule a inversa de
T =

 1 1 11 2 2
1 3 2


Resposta:

 1 1 1 | 1 0 01 2 2 | 0 1 0
1 3 2 | 0 0 1

 (a)

 1 1 1 | 1 0 00 1 1 | −1 1 0
0 2 1 | −1 0 1

 .
(b)

 1 1 1 | 1 0 00 1 1 | −1 1 0
0 0 −1 | 1 −2 1

 (c)

 1 1 1 | 1 0 00 1 1 | −1 1 0
0 0 1 | −1 2 −1


(d)

 1 1 0 | 2 −2 10 1 0 | 0 −1 1
0 0 1 | −1 2 −1

 (e)

 1 0 0 | 2 −1 00 1 0 | 0 −1 1
0 0 1 | −1 2 −1

 .
Logo
T−1 =

 2 −1 00 −1 1
−1 2 −1

 .
Verifique!. ¤
As operac¸o˜es elementares efetuadas nos diferentes passos foram:
a) segunda linha menos primeira linha, e terceira linha menos a primeira,
b) terceira linha menos duas vezes a segunda,
c) a terceira linha e´ multiplicada por (−1).
d) segunda linha menos terceira linha, e primeira menos terceira,
7
e) primeira menos segunda.
A seguir identificaremos cada passo como as multiplicac¸o˜es das matrizes
T e Id por matrices A, B, C, D e E correspondentes aos passoa (a), (b), (c),
(d) e (e).
Passo (a) multiplicar (a` esquerda) por
A =

 1 0 0−1 1 0
−1 0 1

 .
Passo (b) multiplicar (a` esquerda) por
B =

 1 0 00 1 0
0 −2 1

 .
Passo (c) multiplicar (a` esquerda) por
C =

 1 0 00 1 0
0 0 −1

 .
Passo (d) multiplicar (a` esquerda) por
D =

 1 0 −10 1 −1
0 0 1

 .
Passo (e) multiplicar (a` esquerda) por
E =

 1 −1 00 1 0
0 0 1

 .
Observe que obtivemos duas matrizes
(EDCBA)T = Id, EDCBA.
8
Onde (EDCBA) e´ (por definic¸a˜o) a inversa de T .
Descobra agora quais seriam as matrices envolvidas caso v. multiplicase
pela direita, em vez de pela esquerda.
Tente repetir o processo anterior com a matriz
B =

 1 6 42 4 −1
−1 2 5

 .
O determinante e´ nulo, portanto na˜o e´ invers´ıvel. Quando v. repete o pro-
cesso obtem o seguinte:

 1 6 4 | 1 0 00 −8 −9 | −2 1 0
0 0 0 | −1 1 1

 .
Interprete!.
Finalmente, quando a matriz e´ dois por dois, o me´todo dos cofatores (que
na˜o explicaremos agora) e´ muito pra´tico: a inversa da matriz
A =
(
a b
c d
)
,
onde ad− bc 6= 0 (isto e´, det(A) 6= 0) e´ dada por
A−1 =
(
d/ detA −b/ detA
−c/ detA a/ detA
)
.
Verifique que A ◦ A−1 = Id = A−1 ◦ A.
9
AULA 8.pdf
A´lgebra Linear I - Aula 8
1. Distaˆncia de um ponto a uma reta.
2. Distaˆncia de um ponto a um plano.
3. Distaˆncia entre uma reta e um plano.
4. Distaˆncia entre dois planos.
5. Distaˆncia entre duas retas.
Roteiro
1 Distaˆncia de um ponto P a uma reta r
Dado um ponto P e uma reta r, a distaˆncia do ponto P a` reta r e´ o menor
comprimento dos segmentos PQ onde Q e´ um ponto da reta. Este mı´nimo
e´ atingido quando o vetor PQ e´ ortogonal ao vetor diretor da reta. Observe
que, neste caso, dado qualquer ponto R da reta r, os pontos P , Q e R sa˜o
os ve´rtices de um triaˆngulo retaˆngulo, onde os segmentos PQ e QR sa˜o os
catetos e PR a hipotenusa. Portanto, temos
|PQ| = |PR| sen (θ),
onde θ e´ o aˆngulo formado pelos segmentos PR e RQ; como sen (θ) ≤ 1,
temos que |PQ| ≤ |PR|, o que prova a afirmac¸a˜o. Veja a Figura 1
Vejamos primeiro como calcular a distaˆncia no plano. Neste caso, escolhemos
qualquer ponto R da reta, a distaˆncia e´ o mo´dulo da projec¸a˜o ortogonal do
vetor RP no vetor normal da reta, n (em R2 a direc¸a˜o do vetor esta´ bem
determinada, isto na˜o ocorre em R3, justifique). Observe que este ca´lculo e´
independente do ponto R. Isto e´: a projec¸a˜o ortogonal de RP em n e´ igual
a` projec¸a˜o ortogonal de AP em n, para qualquer ponto A de r (justifique
tambe´m esta afirmac¸a˜o!).
1
P
Q R
v
r
Figura 1: Distaˆncia entre ponto e reta
Vejamos agora o ca´lculo da distaˆncia de P a r no caso geral. Pelos
comenta´rios anteriores, o problema consiste em achar o ponto Q tal que PQ
seja ortogonal a r.
Me´todo 1: Considere o plano pi normal a r que conte´m P . Calcule o ponto
de intersec¸a˜o Q de pi e r. A distaˆncia procurada e´ a distaˆncia entre P e Q.
Veja a Figura 2.
Me´todo 2: Considere um ponto qualquer R de r e o vetor diretor v de r.
Calcule o produto vetorial PR× v. Enta˜o a distaˆncia d procurada e´
d =
||PR× v||
||v|| .
Veja a Figura 3.
Para ver esta afirmac¸a˜o observe que a a´rea do paralelogramo determinado
por PR e v e´
||PR× v|| = (base b do paralelogramo) (altura h do paralelogramo).
Onde b = ||v|| e h e´ a distaˆncia procurada.
Veja que este me´todo e´ independente da escolha do ponto R.
Exemplo 1. Calcule a distaˆncia do ponto P = (1, 0, 1) a` reta (t, 2t, 3), t ∈ R.
2
PQpi
r
Figura 2: Distaˆncia entre ponto e reta
Resposta: Usando o primeiro me´todo, temos que o plano pi normal a r
que conte´m o ponto P e´ da forma
pi : x + 2 y = d.
Como (1, 0, 1) ∈ pi temos d = 1.
A intersec¸a˜o de r e pi ocorre para o paraˆmetro t que verifica
t + 2 (2 t) = 1,
logo t = 1/5. Temos que o ponto Q de intersec¸ao e´ (1/5, 2/5, 3). Logo
PQ = (−4/5, 2/5, 10/5)
que tem mo´dulo
√
16 + 4 + 100/5 =
√
120/5 =
√
24/5. Este mo´dulo e´ a
distaˆncia procurada.
Para o segundo me´todo escolhemos um ponto R qualquer de r (por exem-
plo, (0, 0, 3)). Logo
PR = (1, 0,−2).
Temos (1, 2, 0)× (1, 0,−2) = (4,−2, 2). Logo a distaˆncia e´
|(4,−2, 2)|/|(1, 0,−2)| =
√
24/
√
5.
Obviamente obtemos o mesmo resultado. ¤
3
P
R
d
v
h
A = (b)(h)
b
Figura 3: Distaˆncia entre ponto e reta: usando produto vetorial
2 Distaˆncia de um ponto P a um plano pi
Dado um ponto P e um plano pi, a distaˆncia entre P e pi e´ a menor das
distaˆncias d(P,Q), onde Q e´ um ponto de pi. Como no caso da distaˆncia de
um ponto a uma reta, este mı´nimo ocorre quando o vetor PQ e´ ortogonal ao
plano (ou seja, paralelo ao vetor normal do plano). Esta afirmac¸a˜o e´ obtida
exatamente como no caso da distaˆncia de um ponto a uma reta.
Para calcular a distaˆncia de P a pi veremos treˆs me´todos:
• Me´todo 1: Considere a reta r normal ao plano pi que conte´m P .
Calcule o ponto de intersec¸a˜o Q de pi e r. A distaˆncia procurada e´ a
distaˆncia entre P e Q.
• Me´todo 2: Considere um ponto qualquer R de pi e o vetor normal n
de pi. Calcule o vetor w obtido como a projec¸a˜o do vetor PR em n. O
mo´dulo de w e´ a distaˆncia procurada.
• Me´todo 3: Usando o produto misto. Considere dois vetores v e w
paralelos ao plano pi e um ponto Q do plano pi. Considere o parale-
lep´ıpedo Π com arestas v, w e PQ. O volume do paralelep´ıpedo Π
e´
|PQ · (v × w)| = (a´rea base) · ([h]altura) = ||v × w|| · h.
4
Temos que h e´ exatamente a distaˆncia de P a pi.
Exerc´ıcio 1. Com a notac¸a˜o acima, que propriedade verifica o ponto T =
P − w?
P
R
pi
d w
T
n
Figura 4: Distaˆncia entre ponto e plano: usando projec¸o˜es
Exemplo 2. Calcule a distaˆncia do ponto P = (1, 0, 1) ao plano pi : x+2 y−
z = 1.
Resposta: Usando o primeiro me´todo, temos que r = (1 + t, 2t, 1− t). A
intersec¸a˜o da reta r e do plano pi ocorre quando t verifica (substituindo a
equac¸a˜o da reta na do plano)
(1 + t) + 2 (2 t)− (1− t) = 1,
isto e´, t = 1/6. Logo Q = (7/6, 2/6, 5/6) e PQ = (1/6, 2/6,−1/6). A
distaˆncia e´ o mo´dulo de PQ = (1/6, 2/6,−1/6), ou seja, 1/√6.
Usando o segundo me´todo escolhemos o ponto R = (1, 0, 0) do plano
pi, logo PR = (0, 0,−1). Consideremos um vetor unita´rio normal ao plano
n = (1/
√
6, 2/
√
6,−1/√6). A projec¸a˜o de PR em n e´
(PR · n) n = 1/
√
6(1/
√
6, 2/
√
6,−1/
√
6) = (1/6, 2/6,−1/6).
Este vetor tem mo´dulo (que e´ a distaˆncia procurada) igual a 1/
√
6.
Obviamente, T e´ o ponto Q do primeiro me´todo! (isto responde ao Exer-
c´ıcio 1). ¤
5
3 Distaˆncia de uma reta r a um plano pi
A distaˆncia entre uma reta r e um plano pi e´ a menor das distaˆncias entre
pontos P da reta r e Q do plano pi. Obviamente, se a reta e o plano se
intersectam a distaˆncia e´ nula.
Seja n um vetor normal ao plano pi e v um vetor diretor da reta r. Existem
duas possibilidades:
• ou a reta e´ paralela ao plano (em tal caso n · v = 0),
• a reta na˜o e´ paralela ao plano (isto ocorre se n · v 6= 0). Neste caso a
reta intersecta o plano em um ponto, a distaˆncia e´ zero.
No primeiro caso, a distaˆncia de r a pi e´ a distaˆncia de qualquer ponto
P de r a pi. Logo e´ suficiente escolher qualquer ponto de r e calcular a
distaˆncia a pi, caindo em um caso ja´ estudado. A afirmac¸a˜o e´ obtida como
segue: sejam P e Q pontos da reta, e sejam T e R os pontos do plano mais
pro´ximos de P e de Q, enta˜o os vetores PT e QR sa˜o paralelos e os quatro
pontos determinam um retaˆngulo, portanto, |PT | = |QR|.
Exemplo 3. Calcule a distaˆncia da reta r = (1 + t,−t, 1 − t) ao plano
pi : x + 2 y − z = 1.
Resposta: Temos que que um vetor diretor da reta e´ (1,−1,−1) e um
vetor normal do plano e´ (1, 2,−1). Como
(1,−1,−1) · (1, 2,−1) = 0,
temos que o vetor diretor da reta e´ ortogonal ao vetor normal ao plano.
Portanto, a reta e´ paralela ao plano.
Como o ponto (1, 0, 1) pertence a r, o exerc´ıcio ja´ esta´ resolvido no exem-
plo distaˆncia entre ponto e plano, e a distaˆncia e´ 1/
√
6. ¤
4 Distaˆncia entre dois planos pi e ρ
A distaˆncia entre os planos pi e ρ e´ a menor das distaˆncias entre pontos P de
pi e Q de ρ.
Sejam n e m vetores normais dos plano pi e ρ, respectivamente. Existem
duas possibilidades: ou os planos sa˜o paralelos (em tal caso n = σ m para
6
algum σ 6= 0) ou na˜o. No u´ltimo caso, os planos se intersectam e a distaˆncia
e´ zero.
No primeiro caso, a distaˆncia de ρ a pi e´ a distaˆncia de qualquer ponto P
de ρ a pi. Logo e´ suficiente escolher qualquer ponto de ρ e calcular a distaˆncia
a pi, caindo em um caso ja´ estudado.
Exemplo 4. A distaˆncia entre os planos
pi : x + y + z = 0 e ρ : 2x + y − z = 0
e´ zero, pois os planos na˜o sa˜o paralelos (os vetores normais na˜o sa˜o paralelos)
e portanto se intersectam.
Exemplo 5. Calcule a distaˆncia entre os planos paralelos pi : x + y + z = 0
e ρ : x + y + z = 1.
Resposta: Podemos calcular a distaˆncia como segue: considere o ponto
P = (0, 0, 0) ∈ pi e o ponto Q = (1, 0, 0) ∈ ρ. A distaˆncia e´ o mo´dulo da
projec¸a˜o de PQ = (1, 0, 0) no vetor normal (1/
√
3, 1/
√
3, 1/
√
3) do plano,
w = ((1, 0, 0) · (1/
√
3, 1/
√
3, 1/
√
3))(1/
√
3, 1/
√
3, 1/
√
3) = (1/3, 1/3, 1/3).
A distaˆncia e´ ||w|| = 1/√3. ¤
5 Distaˆncia entre duas retas r e s
Calcularemos a distaˆncia entre duas retas r e s, que denotaremos por d(r, s).
Esta distaˆncia e´ o mı´nimo das distaˆncias dist(P,Q), onde P e´ um ponto na
reta r e Q e´ um ponto na reta s.
Obviamente, se as retas se intersectam a distaˆncia d(r, s) = 0. Neste
caso, podemos escolher P = Q o ponto de intersec¸a˜o das retas. Portanto,
consideraremos que as retas sa˜o disjuntas.
Suponhamos em primeiro lugar que as retas r e s sa˜o paralelas. Neste
caso, a distaˆncia d entre as retas e´ igual a distaˆncia entre qualquer ponto
P ∈ r e a reta s, caso ja´ considerado (distaˆncia de ponto a reta). Observe
que a escolha do ponto P e´ totalmente irrelevante.
Suponhamos agora que as retas na˜o sa˜o paralelas (isto e´, sa˜o reversas).
Um me´todo para calcular a distaˆncia e´ o seguinte. Consideremos pontos P
e Q de r e s, respectivamente, e vetores diretores v e w de r e s, respectiva-
mente.
7
r
v
w
w
s
t
P
Q
pi
Figura 5: Distaˆncia entre duas retas
• Considere os planos pi paralelo a s que conte´m r e ρ paralelo a r que
conte´m s. No desenho, a reta t e´ uma reta paralela a s contida em pi
com vetor diretor w. Escolhemos como ponto P a intersec¸a˜o das retas
t e r.
• Observe que estes planos sa˜o paralelos e que dois vetores (na˜o paralelos)
de pi e ρ sa˜o v e w.
• Observe que a distaˆncia d entre as retas r e s e´ a distaˆncia entre os dois
planos.
• Esta distaˆncia d e´, por exemplo, a distaˆncia de qualquer ponto Q da
reta s ao plano pi. Esta distaˆncia pode ser calculada usando o produto
misto como fizemos anteriormente. Consideramos vetores diretores v e
w das retas r e s, obtendo:
d =
|PQ · (v × w)|
||v × w|| .
8
5.1 Posic¸a˜o relativa de duas retas na˜o paralelas
O me´todo anterior fornece um sistema para saber se duas retas na˜o para-
lelas se intersectam (sem necessidade de resolver um sistema): as retas se
intersectam se e somente se
PQ · (v × w) = 0.
Mais uma vez, a escolha dos pontos P e Q e´ irrelevante.
Exemplo 6. Calcule a distaˆncia entre as retas r = (t, 1+t, 2 t) e s = (t, t, 1).
Resposta: Vetores diretores das retas r e s sa˜o v = (1, 1, 2) e w = (1, 1, 0),
respectivamente. Um ponto P ∈ r e´ (0, 1, 0) e um ponto Q ∈ s e´ (0, 0, 1),
logo PQ = (0,−1, 1). Portanto, a distaˆncia d entre r e s e´
d =
|(0,−1, 1) · (1, 1, 2)× (1, 1, 0)|
|(1, 1, 2)× (1, 1, 0)| =
|(0,−1, 1) · (−2, 2, 0)|
|(−2, 2, 0)| =
2√
8
=
1√
2
.
Logo a distaˆncia e´ 1/
√
2. ¤
9
AULA 9.pdf
A´lgebra Linear I - Aula 9
1. Combinac¸a˜o linear de vetores.
2. Subespac¸os e geradores.
Roteiro
1 Combinac¸a˜o linear de vetores
Definic¸a˜o 1 (Combinac¸a˜o linear de vetores). Dada um conjunto de vetores
U = {u1, u2, . . . , um} uma combinac¸a˜o linear dos vetores de U e´ um vetor v
da forma
v = λ1 u1 + λ2 u2 + · · ·+ λm um,
onde λ1, . . . , λm sa˜o nu´meros reais.
Por exemplo, o vetor v = (1, 1, 4) de R3 e´ combinac¸a˜o linear dos vetores
i j e k, pois
v = 1 i + 1j + 4k.
O vetor v tambe´m e´ combinac¸a˜o linear dos vetores v1 = (1, 0, 1), v2 = (1, 1, 0)
e v3 = (0, 1, 1). Para provar esta afirmac¸a˜o devemos encontrar nu´meros reais
x, y, z tais que
(1, 1, 4) = x (1, 0, 1) + y (1, 1, 0) + z (0, 1, 1).
Escrevendo a equac¸a˜o em coordenadas obtemos o sistema:
1 = x + y, 1 = y + z, 4 = x + z.
Verifique que o sistema admite a soluc¸a˜o u´nica
x = 2, y = −1, z = 2.
Portanto, obtemos a combinac¸a˜o linear
(1, 1, 4) = 2 (1, 0, 1)− (1, 1, 0) + 2(0, 1, 1).
Caso o sistema anterior na˜o tivesse soluc¸a˜o, teriamos que o vetor na˜o seria
combinac¸a˜o linear do conjunto de vetores considerado. Veremos a seguir um
exemplo dessa situac¸a˜o.
1
Exerc´ıcio 1. Veja que o vetor (1, 2, 3) na˜o e´ combinac¸a˜o linear dos vetores
(1, 1, 1), (1, 0, 1), (2, 1, 2) e (0, 1, 0).
Resposta: Como no exemplo acima, devemos ver se existem nu´meros reais
x, y, z e w tais que
(1, 2, 3) = x (1, 1, 1) + y (1, 0, 1) + z (2, 1, 2) + w (0, 1, 0).
Escrevendo em coordenadas, obtemos o sistema de equac¸o˜es:
1 = x + y + 2z, 2 = x + z + w, 3 = x + y + 2z.
Escalonando,
1 = x + y + 2z, 1 = −y − z + w, 2 = 0.
Logo o sistema na˜o tem soluc¸a˜o. Portanto, o vetor (1, 2, 3) na˜o e´ combinac¸a˜o
linear dos vetores (1, 1, 1), (1, 0, 1), (2, 1, 2) e (0, 1, 0). ¤
Resumindo, para determinar se um vetor e´ combinac¸a˜o linear de outros
vetores (e em caso afirmativo encontrar uma combinac¸a˜o linear), devemos
resolver um sistema de equac¸o˜es lineares. Quando o sistema na˜o tem soluc¸a˜o
o vetor na˜o e´ combinac¸a˜o linear dos vetores dados.
Observamos que, em certas situac¸o˜es, um vetor pode se escrever de mais
de uma forma como combinac¸a˜o linear de um conjunto de vetores
Exemplo 1. Considere o vetor (1, 2,−3) e o conjunto de vetores
U = {(1, 1,−2), (1, 0,−1), (−1, 2,−1)}.
Enta˜o se verifica
(1, 2,−3) = 2 (1, 1,−2)− (1, 0,−1)
e tambe´m
(1, 2,−3) = 2 (1, 0,−1)− (1, 2,−1).
De fato, o vetor (1, 2, 3) pode ser escrito de infinitas formas como combinac¸a˜o
linear dos vetores de U . Encontre novas combinac¸o˜es lineares.
Exemplo 2. Determinar o conjunto dos vetores que sa˜o combinac¸a˜o linear
dos vetores coplanares (1, 1, 1), (1, 0, 1), (2, 1, 2) e (0, 1, 0).
2
Resposta: Raciocinando como nos exemplos anteriores, temos que um
vetor (a, b, c) de R3 e´ combinac¸a˜o linear dos vetores (1, 1, 1), (1, 0, 1), (2, 1, 2)
e (0, 1, 0) se, e somente se, o sistema abaixo tem soluc¸a˜o:
a = x + y + 2z, b = x + z + w, c = x + y + 2z,
O sistema anterior e´ equivalente a
a = x + y + 2z, b− a = −y − z + w, c− a = 0,
Logo uma condic¸a˜o necessa´ria e´ a = c. Logo, a priori, os vetores que sa˜o
combinac¸a˜o linear sa˜o vetores da forma (a, b, a). Observe que o sistema
a = x + y + 2z, b− a = −y − z + w,
admite soluc¸a˜o, por exemplo, x = a, y = z = 0, w = (b − a)/2. De fato,
e´ fa´cil ver que este sistema admite infinitas soluc¸o˜es (encontre v. mesmo
outras soluc¸o˜es). Portanto, os vetores da forma (a, b, a) podem ser escritos
de infinitas formas diferentes como combinac¸a˜o linear dos vetores dados.
De fato, obtemos que o conjunto de vetores procurado e´ o plano vetorial
ρ : x− z = 0. Isto e´, o conjunto de vetores w = OP , onde P e´ um ponto do
plano ρ. ¤
2 Subespac¸os vetorias (de R2 e R3). Gerado-
res
Definic¸a˜o 2 (Subespac¸os). Dizemos que um conjunto V de vetores de R2
ou R3 e´ um subespac¸o vetorial se para cada par de vetores u e v de V e todo
nu´mero real λ se verifica que
• u + v ∈ V e
• λu ∈ V.
Em particular, 0¯ ∈ V (e´ suficiente considerar 0 u¯ = 0¯).
De forma ana´loga a como fizemos acima, a retas e planos podemos associar
conjuntos de vetores. A uma reta r associamos o conjunto de vetores Vr
formado pelos vetores w da forma w = OP , onde P ∈ r. Analogamente, a
um plano pi associamos o conjunto de vetores Vpi formado pelos vetores w da
forma w = OP , onde P ∈ pi.
3
Exemplos 1. Retas e planos que conteˆm a origem sa˜o os subsespac¸os de R2
e R3. Isto e´, se r e pi sa˜o retas e planos que conteˆm a origem enta˜o Vr e Vpi
sa˜o subespac¸os vetorias.
De fato, estes conjuntos sa˜o os u´nicos subespac¸os vetorias na˜o triviais
(diferentes do vetor 0¯, que e´ um subespac¸o vetorial (!), verifique) de R2 ou
R
3. Em outras palavras,
• se V e´ um subespac¸o de R2 diferente de {0¯} e de R2 enta˜o existe uma
reta r que conte´m a origem tal que V = Vr,
• se V e´ um subespac¸o de R3 diferente de {0¯} e de R3 enta˜o existem uma
reta r ou um plano pi que conteˆm a origem tais que V = Vr ou V = Vpi.
Resposta: Considere uma reta r que conte´m a origem (de R2 ou R3). Para
ver que Vr e´ um subespac¸o vetorial usaremos a equac¸a˜o parame´trica da reta
r. Um ponto P pertence a r se, e somente se, o vetor OP e´ paralelo ao vetor
diretor u¯ da reta r: OP = t u¯. Portanto,
Vr : v¯ = t u¯, t ∈ R,
onde u¯ e´ um vetor diretor da reta r.
Se consideramos dois vetores v¯1 e v¯2 de Vr temos v¯1 = OP1 = t1 u¯ e
v¯2 = OP2 = t2 u¯, onde P1 e P2 sa˜o pontos da reta. Portanto,
v¯1 + v¯2 = t1 u¯ + t2 u¯ = (t1 + t2) u¯ = OP3,
onde P3 e´ um ponto de r. Portanto, o vetor soma v1 + v2 ∈ Vr.
Para o produto de um vetor por um escalar procedemos de forma ana´loga
(deixamos como exerc´ıcio v. completar os detalhes).
Para ver que se pi e´ um plano de R3 que conte´m a origem enta˜o Vpi e´
um subespac¸o vetorial, usaremos tambe´m a equac¸a˜o parame´trica do plano
pi. Um ponto P pertence ao plano pi se, e somente se,
OP = t u¯ + s w¯, t, s ∈ R,
onde u¯ e w¯ sa˜o dois vetores diretores do plano na˜o paralelos.
Se consideramos dois vetores v¯1 = OP1 e v¯2 = OP2, P1, P2 ∈ pi, de Vpi
temos
v¯1 = t1 u¯ + s1 w¯ e v¯2 = t2 u¯ + s2 w¯.
4
Assim,
v¯1 + v¯2 = (t1 + t2) u¯ + (s1 + s2) w¯ = OP3,
onde P3 ∈ pi Portanto, o vetor soma v1 + v2 pertence a Vpi.
Para verificar que o produto de um vetor por um escalar pertence a Vpi
procedemos de forma ana´loga (mais uma vez, deixamos como exerc´ıcio v.
completar os detalhes).
V. pode fazer os racioc´ınios anteriores usando as equac¸o˜es cartesianas de
retas e de planos. Por exemplo, para ver que se pi e´ um plano de equac¸a˜o
cartesiana a x + b y + c z = 0 enta˜o Vpi e´ um subespac¸o vetorial, observe que
um vetor u = (α, β, γ) pertence a Vpi se, e somente se, as coordenadas do
vetor u verificam a equac¸a˜o do plano:
a α + b β + c γ = 0.
Isto e´ equivalente a
u · n = 0,
onde n e´ o vetor normal do plano.
Devemos ver que dados dois vetores u e v quaisquer de Vpi se verifica
u + v ∈ Vpi. Mas u ∈ Vpi e´ equivalente a u ·n = 0. Analogamente, v ∈ Vpi se,
e somente se, u · n = 0. Portanto, devemos ver que (u + v) · n = 0. Mas isto
decorre das propriedades do produto escalar:
(u + v) · n = u · n + v · n = 0.
Analogamente, e´ imediato conferir que λ v ∈ Vpi para todo nu´mero real.
E´ simples ver que uma reta r ou um plano pi se na˜o conte´m a origem enta˜o
V = Vr ou V = Vpi na˜o e´ um subsespac¸o. Em primeiro lugar, e´ suficiente
ver que na˜o verifica a condic¸a˜o necessa´ria de subespac¸o: 0¯ 6∈ V. Tambe´m
podemos raciocinar diretamente. Vejamos no caso de um plano. A equac¸a˜o
cartesiana do plano pi e´
pi : a x + b y + c z = d.
Como o plano na˜o conte´m a origem, temos que d 6= 0. Escolhemos dois
vetores de Vpi, v = OP1 = (v1, v2, v3) e w = OP2 = (w1, w2, w3) onde P1, P2 ∈
pi. Isto e´, as coordenadas dos vetores verificam
a v1 + b v2 + c v3 = d, a w1 + bw2 + c w3 = d.
5
Somando as equac¸o˜es:
a (v1 + w1) + b (v2 + w2) + c (v3 + w3) = 2 d 6= d.
Ou seja, as coordenadas do vetor soma v¯ + w¯ na˜o verificam a equac¸a˜o do
plano. Portanto, u¯ + v¯ 6= OP3, para qualquer ponto P3 ∈ pi.
¿Um outro exemplo: dada a circunfereˆncia C centrada em (−1, 0) de
raio 1 temos que VC na˜o e´ um subespac¸o de R
2. A circunfereˆncia conte´m
a origem, portanto o vetor 0¯ pertence a VC . Mas isto na˜o e´ suficiente para
VC ser um subespac¸o. O vetor (−2, 0) pertence a VC . Mas se multiplicamos
este vetor por qualquer nu´mero diferente de zero ou de 1 o vetor resultante,
w, na˜o pertence a VC : w 6= 0P para todo P ∈ C. ¤
Resumindo, considere uma reta r ou um plano pi (suponhamos em equac
co˜es cartesianas para simplificar). Se consideramos Vr: um vetor w = (a, b, c)
pertence a Vr se e somente P = (a, b, c) verifica a equac¸a˜o da reta. Se
consideramos Vpi: um vetor w = (a, b, c) pertence a Vpi se e somente P =
(a, b, c) verifica a equac¸a˜o do plano pi.
Por este motivo, quando consideramos retas e planos, com certo abuso de
notac¸a˜o, simplesmente escrevemos Vr = r e Vpi = pi.
Definic¸a˜o 3 (Subsespac¸o gerado por vetores). Dado um conjunto de vetores
W = {u1, . . . , um} o subespac¸o W gerado pelos vetores de W e´ o de conjunto
de vetores que podem se escrever da forma
v = λ1 u1 + λ2 u2 + · · ·+ λm um,
onde λ1, . . . , λm sa˜o nu´meros reais.
Observamos que W e´ um subespac¸o
vetorial. Devemos verificar que para
todo par de vetores u, v ∈ W e todo nu´mero real σ ∈ R se verifica:
u + v ∈ W e σ u ∈ W.
Veja que se
v = λ1 u1 + λ2 u2 + · · ·+ λm um e w = σ1 u1 + σ2 u2 + · · ·+ σm um,
enta˜o
v + w = (λ1 + σ1) u1 + (λ2 + σ2) u2 + · · ·+ (λm + σm) um
6
e
σ v = (σ λ1) u1 + (σ λ2) u2 + · · ·+ (σ λm) um.
Portanto, por definic¸a˜o de subespac¸o gerado, os vetores soma e produto por
um escalar pertencem a W.
Exemplo 3. Pelos argumentos da sec¸a˜o anterior, o subespac¸o vetorial gerado
pelos vetores
W = {(1, 1, 1), (1, 0, 1), (2, 1, 2), (0, 1, 0)}
e´ o conjunto de vetores
W = {(x, y, x) : x ∈ R, y ∈ R}.
Ou seja, o plano que conte´m a origem e tem vetores paralelos a (1, 0, 1) e a
(0, 1, 0). Ou em forma cartesiana, o plano de equac¸a˜o x− z = 0,
Definic¸a˜o 4 (Geradores de um subespac¸o). Dado um subespac¸o vetorial W
dizemos que u1, u2 . . . , um sa˜o geradores de W se todo vetor w de W pode se
escrever como combinac¸a˜o linear dos vetores u1, u2 . . . , um.
Observe que a equac¸a˜o parame´trica de um plano pi e a equac¸a˜o pa-
rame´trica de uma reta r (contendo a origem) determinam os geradores de Vpi
e Vr:
• Um plano e´ gerado por dois vetores paralelos ao plano na˜o paralelos
entre si.
• Uma reta e´ gerada pelo seu vetor diretor.
Por exemplo, para determinar os geradores do plano vetorial Vpi : x−z = 0
e´ suficiente considerar dois vetores paralelos a pi e na˜o paralelos entre si. Por
exemplo, (1, 0, 1) e (0, 1, 0). Observe que (1, 0, 1), (1, 1, 1) e (1, 2, 1) tambe´m
sa˜o geradores. Veremos, que o mais conveniente e´ encontrar um conjunto de
geradores com o menor nu´mero poss´ıvel de elementos.
Exemplos 2. Determinar dois vetores que gerem o plano vetorial Vpi : x +
y − 2 z = 0. Determinar um vetor que gere a reta vetorial definida como a
intersec¸a˜o dos planos vetorias x + y + z = 0 e x + 2 y + 3 z = 0.
7
Resposta: Temos que os vetores (2, 0, 1) e (1,−1, 0) sa˜o paralelos ao plano,
e´ suficiente ver que a˜o ortogonais ao vetor normal do plano
(2, 0, 1) · (1, 1,−2) = 0, (1,−1, 0) · (1, 1,−2) = 0.
Obviamente, estes vetores na˜o sa˜o paralelos entre si. Portanto, (2, 0, 1) e
(1,−1, 0) geram o plano pi. Assim, uma equac¸a˜o parame´trica de pi e´
pi : (2t + s,−s, t), t, s ∈ R.
Finalmente, um vetor diretor da reta e´ (1, 1, 1) × (1, 2, 3) = (1,−2, 1).
Obviamente, o vetor (1,−2, 1) gera a reta. ¤
2.1 Geradores de R2 e R3
Para gerar R2 necessitamos dois vetores na˜o paralelos. Por exemplo (1, 0) e
(0, 1). Ou (1, 1) e (1, 2). Por exemplo, (1, 1), (2, 2) e (3, 3) na˜o geram R2,
somente geram a reta (t, t), t ∈ R.
Para gerar R3 necessitamos treˆs vetores na˜o coplanares. Sabemos qual e´
o teste de coplanaridade:
• u, v e w sa˜o coplanares se, e somente se, u · (v × w) = 0.
Exemplos 3.
• (1, 0, 0), (0, 1, 0) e (0, 0, 1) geram R3.
• (1, 1, 1), (1, 2, 2) e (1, 2, 3) geram R3. Para ver isto, verifique que
(1, 1, 1) · (1, 2, 2)× (1, 2, 3) = 1 6= 0.
• Os vetores (1, 1, 1), (1, 1, 2) e (2, 2, 3) na˜o geram R3. Veja que seu
produto misto e´ zero. Veja tambe´m que o vetor (1, 2, 3) na˜o esta´ no
subespac¸o gerado por estes vetores. Finalmente, verifique que o subes-
pac¸o gerado por estes treˆs vetores e´ o plano vetorial x = y.
Exerc´ıcio 2. Verifique se (1, 1, 1), (1, 1, 2), (2, 2, 3), e (0, 0, 1) geram R3.
Resposta: A resposta e´ negativa: veja que sa˜o coplanares. Observe que
neste caso na˜o e´ poss´ıvel calcular o produto misto (pois temos quatro veto-
res!). Raciocinamos da seguinte forma:
8
• Os vetores (1, 1, 1) e (1, 1, 2) sa˜o na˜o paralelos. Temos que geram o
plano vetorial Vpi : x− y = 0.
• O vetor (2, 2, 3) pertence a pi. Isto pode ser feito de duas formas. Cal-
culando (2, 2, 3) · (1, 1, 1)× (1, 1, 2) e vendo que e´ zero (portanto, os treˆs
vetores sa˜o coplanares, e o plano determinado e´ necessariamente pi).
Ou vendo que (2, 2, 3) verifica x− y = 0. Isto significa que os conjun-
tos de vetores {(1, 1, 1), (1, 1, 2)} e {(1, 1, 1), (1, 1, 2), (2, 2, 3)} geram o
mesmo subespac¸o (ou seja, o vetor (2, 2, 3) nada acrescenta).
• Finalmente, repetimos o argumento anterior com o vetor (0, 0, 1): este
vetor esta´ no plano x− y = 0.
Conclusa˜o, a famı´lia de vetores {(1, 1, 1), (1, 1, 2), (2, 2, 3), (0, 0, 1)} gera o
plano x− y = 0.
Voltando ao conjunto de vetores do exemplo. Se
{(1, 1, 1), (1, 1, 2), (2, 2, 3), (0, 0, 1)}
gerasse R3, todo vetor (a, b, c) de R3 poderia ser escrito da forma
(a, b, c) = x (1, 1, 1) + y (1, 1, 2) + z (2, 2, 3) + w (0, 0, 1).
Isto e´, o sistema em x, y, z e w,
a = x + y + 2 z, b = x + y + 2 z, c = x + 2 y + 3 z + w,
sempre teria soluc¸a˜o. Escalonando o sistema temos,
a = x + y + 2 z, b− a = 0, c− a = y + z + w.
Logo b tem que ser igual a a, isto e´ somente vetores da forma (a, a, c) se
podem escrever como combinac ca˜o linear dos vetores dados. Portanto, esses
vetores geram o plano x− y = 0. ¤
9
AULA 10.pdf
A´lgebra Linear I - Aula 10
1. Dependeˆncia e independeˆncia linear.
2. Bases.
3. Coordenadas.
4. Bases de R3 e produto misto.
Roteiro
1 Dependeˆncia e independeˆncia linear de ve-
tores
Definic¸a˜o 1 (Dependeˆncia linear). Dizemos que os vetores
{u1, u2, . . . um}
sa˜o linearmente dependentes (l.d.) se existem nu´meros reais σ1, σ2, . . . , σm
na˜o todos nulos tais que
σ1 u1 + σ2 u2 + · · · + σm um = 0¯.
A definic¸a˜o implica que se os vetores u1, u2, . . . , um sa˜o l.d. enta˜o algum
vetor da colec¸a˜o {u1, u2, . . . , um} pode ser escrito como combinac¸a˜o linear
dos outros. Supondo, por exemplo, que σ1 6= 0, temos
u1 = −
σ2
σ1
u2 − · · · −
σm
σ1
um.
Portanto, u1 e´ combinac¸a˜o linear dos vetores u2, . . . , um.
Observe que se um vetor, por exemplo o vetor u1, e´ combinac¸a˜o linear
dos outros vetores, enta˜o a colec¸a˜o de vetores e´ linearmente dependente:
u1 = σ2 u2 + · · · + σm um.
1
Observe que na˜o sabemos se os coeficientes σ2, . . . , σm sa˜o diferentes de zero.
Mas,
u1 − σ2 u2 − · · · − σm um = 0¯.
Como o coeficiente de u1 e´ na˜o nulo, os vetores sa˜o linearmente dependentes.
Observe que qualquer colec¸a˜o de vetores contendo o vetor nulo e´ linear-
mente dependente. Por exemplo, {u1, 0¯, u2}, temos
0¯ = 0 u1, +(15) 0¯ + 0 u2.
Exemplo 1. Treˆs vetores coplanares de R3 sa˜o linearmente dependentes.
(Teste do produto misto): fac¸a operac¸o˜es de escalonamento no determinante,
o processo de escalonamento fornece a combinac¸a˜o linear dos vetores igual a
zero.
Por exemplo, considere os vetores
u1 = (1, 2, 1), u2 = (2, 3, 1), u3 = (1, 0,−1).
Consideramos o determinante escrevendo no lado o vetor que representa cada
linha: ∣
∣
∣
∣
∣
∣
1 2 1
2 3 1
1 0 −1
∣
∣
∣
∣
∣
∣
u1
u2
u3
.
Cada operac¸a˜o com as linhas corresponde a uma operac¸a˜o com os vetores:
∣
∣
∣
∣
∣
∣
1 2 1
0 −1 −1
0 −2 −2
∣
∣
∣
∣
∣
∣
u1
u2 − 2 u1
u3 − u1
.
Trocando sinais nas duas u´ltimas linhas:
∣
∣
∣
∣
∣
∣
1 2 1
0 1 1
0 2 2
∣
∣
∣
∣
∣
∣
u1
2 u1 − u2
u1 − u3
.
Finalmente, ∣
∣
∣
∣
∣
∣
1 2 1
0 1 1
0 0 0
∣
∣
∣
∣
∣
∣
u1
2 u1 − u2
u1 − u3 − 2 (2 u1 − u2)
.
Obtemos assim,
0¯ = u1 − u3 − 2 (2 u1 − u2) = −3 u1 + 2 u2 − u3.
Observamos que dois vetores paralelos de R2 sa˜o linearmente dependentes.
2
Definic¸a˜o 2 (Independeˆncia linear). Os vetores {u1, u2, . . . um} sa˜o line-
armente independentes (l.i.) se na˜o sa˜o linearmente dependentes, isto e´,
a u´nica forma de obter o vetor nulo como combinac¸a˜o linear dos vetores
u1, u2, . . . um e´ tomando todos os coeficientes σ1, σ2, . . . , σm iguais a zero:
σ1 u1 + σ2 u2 + · · · + σm um = 0¯
se, e somente se,
σ1 = σ2 = · · · = σm = 0.
Outra forma de entender a independeˆncia linear e´ a seguinte: nenhum
vetor ui pode ser escrito como combinac¸a˜o linear dos outros (m− 1) vetores
u1, . . . ui−1, ui+1, . . . um. Suponhamos que
ui = σ1 u1 + · · · + σi−1 ui−1 + σi+1 ui+1 + · · · + σm um,
enta˜o,
σ1 u1 + · · · + σi−1 ui−1 − ui + σi+1 ui+1 + · · · + σm um = 0¯
obtendo uma combinac¸a˜o linear na˜o trivial (no mı´nimo o coeficiente de ui e´
na˜o nulo (!)) dando o vetor nulo.
Propriedade 1.1. Se um vetor v pode se escrever como combinac¸a˜o linear
dos vetores u1, u2, u3 de duas formas diferentes, enta˜o u1, u2, u3 sa˜o linear-
mente dependentes.
Prova: Suponha que existem nu´meros reais x1, x2, x3 e y1, y2, y3 com
(x1, x2, x3) 6= (y1, y2, y3) tais que
u = x1 u1 + x2 u2 + x3 u3 = y1 u1 + y2 u2 + y3 u3.
Logo,
(x1 − y1) u1 + (x2 − y2) u2 + (x3 − y3) u3 = 0¯.
Como (x1 − y1), (x2 − y2) e (x3 − y3) na˜o sa˜o todos nulos, obtemos uma
combinac¸a˜o linear de na˜o trivial de u1, u2 e u3 dando o vetor nulo. Portanto,
os vetores u1, u2 e u3 sa˜o l.d.. ¤
Exemplo 2. Os vetores
• (1, 0, 0), (0, 1, 0) e (0, 0, 1) sa˜o l.i..
3
• (1, 1, 1), (1, 2, 2) e (1, 2, 3) sa˜o l.i.
• Os vetores (1, 1, 1), (1, 1, 2) e (2, 2, 3) na˜o sa˜o l.i..
• (1, 1, 1), (1, 1, 2), (2, 2, 3), e (0, 0, 1) na˜o sa˜o l.i..
Temos as seguintes propriedades sobre dependeˆncia linear:
Propriedade 1.2.
• Um conjunto de vetores de R3 com quatro ou mais vetores e´ l.d..
• Um conjunto de vetores de R2 com treˆs ou mais vetores e´ l.d..
Prova: Vejamos o caso de R2. Consideremos um conjunto com treˆs vetores
u1, u2 e u3.
Se u1 e u2 sa˜o paralelos, enta˜o u2 = σu1 (por exemplo) e u2 − σu1 = 0¯,
logo os vetores sa˜o l.d..
Se u1 e u2 na˜o sa˜o paralelos enta˜o geram R
2. Logo u3 = σu1 + βu2, logo
u3 − σu1 − βu2 = 0¯ e os vetores sa˜o l.d..
Repita este tipo de argumento com quatro vetores de R3. ¤
Exemplos 1. Estude se as afirmac¸o˜es a seguir sa˜o verdadeiras ou falsas:
a) Se {v1, v2} e´ um conjunto de vetores linearmente dependente enta˜o se
verifica v1 = σ v2 e v2 = λ v1 para certos nu´meros reais λ e σ.
b) Se {v1, v2, v3} e´ um conjunto de vetores linearmente independente tambe´m
o e´ o conjunto {κ v1, κv2, κ v3} para todo κ na˜o nulo.
c) Se {v1, v2, v3} e´ um conjunto de vetores linearmente dependente enta˜o
cada vetor pode ser obtido como combinac¸a˜o linear dos outros dois.
d) Se {v1, v2, v3} e´ um conjunto de vetores linearmente independente tambe´m
o e´ o conjunto {κ v1, λv2, σ v3} para todo κ, λ, σ na˜o nulos.
Resposta: As afirmac¸o˜es (a) e (c) sa˜o falsas. Para a afirmac¸a˜o (a) considere
os vetores (1, 1) e (0, 0), por exemplo. Para a afirmac¸a˜o (c) considere v1 =
(1, 1, 1), v2 = (2, 2, 2), v3 = (1, 0, 1). Claramente, o vetor v3 na˜o pode ser
escrito como combinac¸a˜o linear de v1 e v2.
4
A afirmac¸a˜o (b) e´ verdadeira: considere uma combinac¸a˜o linear os vetores
κ v1, κv2, κ v3, que seja o vetor nulo:
σ1 κ v1 + σ2 κ v2 + σ3 κ v3 = 0¯.
Ou seja
κ (σ1 v1 + σ2 v2 + σ3 v3) = 0¯.
Como κ 6= 0, temos
σ1 v1 + σ2 v2 + σ3 v3 = 0¯.
E como v1, v2 e v3 sa˜o l.i., σ1 = σ2 = σ3 = 0, logo os vetores sa˜o l.i..
Finalmente, a afirmac¸a˜o (d) tambe´m e´ verdadeira, e a prova segue como
o caso anterior. Complete os detalhes. ¤
2 Bases
Definic¸a˜o 3 (Base). Considere um subespac¸o vetorial W e um conjunto de
vetores u1, u2, . . . , um de W. Dizemos que
β = {u1, u2, . . . , um}
e´ uma base de W se
• os vetores de β geram W, isto e´, todo vetor v ∈ W pode ser escrito
da forma v = σ1 u1 + σ2 u2 + · · · + σm um (ou seja, todo vetor de e´
combinac¸a˜o linear dos vetores da base β).
• os vetores de β sa˜o linearmente independentes.
Por exemplo, os vetores
β = {(1, 1, 1), (1, 2, 2), (1, 3, 3), (1, 2, 1), (2, 1, 1)}
geram R3, e´ suficiente verificar se os vetores (1, 1, 1), (1, 2, 2), (1, 2, 1) na˜o sa˜o
coplanares ∣
∣
∣
∣
∣
∣
1 1 1
1 2 2
1 2 1
∣
∣
∣
∣
∣
∣
=
∣
∣
∣
∣
∣
∣
1 1 1
1 2 2
0 1 0
∣
∣
∣
∣
∣
∣
= −1.
5
Pore´m aqueles vetores na˜o formam uma base pois na˜o sa˜o linearmente in-
dependentes (um conjunto de mais de treˆs vetores de R3 na˜o e´ linearmente
independente).
Observe que e´ poss´ıvel, obter uma base de R3 a partir da colec¸a˜o β,
eliminando alguns vetores. Por exemplo,
β′ = {(1, 1, 1), (1, 2, 2), (1, 2, 1)}
e´ uma base de R3. Ja´ vimos que sa˜o linearmente independentes, e treˆs vetores
linearmente independentes geram R3.
Observamos que se acrescentamos qualquer vetor a β′, os vetores geram
R
3, pore´m na˜o sera˜o linearmente independentes (justifique!), portanto, na˜o
formam uma base.
Observe tambe´m que se a famı´lia de vetores β = {u1, u2, . . . , um} e´ uma
base de W enta˜o, se eliminamos qualquer vetor ui da base β, o novo conjunto
na˜o e´ gerador de W. E´ suficiente observar que o vetor ui ∈ W na˜o pode ser
escrito como combinac¸a˜o linear dos vetores restantes: caso fosse escrito os
vetores de β na˜o seriam linearmente independentes, e portanto na˜o formariam
uma base. Complete os detalhes.
Propriedade 2.1. As seguintes propriedades sobre bases se verificam:
• Uma base de R2 sempre tem dois vetores.
• Uma base de R3 sempre tem treˆs vetores.
• Uma base de um plano de R3 (contendo a origem) sempre tem dois
vetores de R3.
• Uma base de uma reta de R3 ou R2 (contendo a origem) sempre tem
um vetor deR3 ou de R2.
• Dois vetores linearmente independentes de R2 formam uma base de R2.
• Treˆs vetores linearmente independentes de R3 formam uma base de R3.
• Dois vetores linearmente independentes de um plano pi de R3 contendo
a origem formam uma base de pi.
Exemplos 2.
• E = {i = (1, 0), j = (0, 1)} e´ uma base de R2, a chamada base canoˆnica.
6
• E = {i = (1, 0, 0), j = (0, 1, 0),k = (0, 0, 1)} e´ uma base de R3, a
chamada base canoˆnica.
• β1 = {(1, 1), (1, 2)}, β2 = {(3, 1), (1, 4)} e β3 = {(1, 0), (1, 1)}, sa˜o
bases de R2.
• β1 = {(1, 1, 1), (1, 2, 3), (1, 0, 1)}, β2 = {(2, 1, 2), (1, 4, 1), (3, 5, 0} e β3 =
{(1, 0, 0), (1, 1, 0), (1, 1, 1)}, sa˜o bases de R3.
• Os vetores (1, 0, 1) e (1,−1,−1) formam uma base do plano de equac¸a˜o
cartesiana pi : x + 2 y − z = 0.
Exerc´ıcio 1. Suponha que γ = {u1, u2, u3} e´ uma base de R
3. Estude se
β = {u1, u2, u1 + u2 + u3} tambe´m e´ uma base de R
3.
Resposta: Pela propriedade acima (treˆs vetores l.i. de R3 formam uma
base) e´ suficiente ver que os vetores sa˜o linearmente independentes. Escreva
x1 u1 + x2 u2 + x3 (u1 + u2 + u3) = 0¯,
isto e´,
(x1 + x3) u1 + (x2 + x3) u2 + x3 u3 = 0¯.
Como os vetores u1, u2 e u3 sa˜o l.i., todos os coeficiente de uma combinac¸a˜o
linear dando o vetor zero devem ser necessariamente nulos,
x1 + x3 = 0 = x2 + x3 = x3.
Portanto, resolvendo os sistema, x1 = x2 = x3 = 0. Assim, os vetores sa˜o l.i.
e formam uma base de R3. ¤
3 Coordenadas em uma base β
Definic¸a˜o 4 (Coordenadas). Considere uma base β = {u1, u2, u3} de R
3.
As coordenadas do vetor v na base β, denotada (v)β, sa˜o (v)β = (x1, x2, x3),
onde
v = x1 u1 + x2 u2 + x3 u3.
7
Observe que as coordenadas de v na base γ = {u2, u3, u1} sa˜o (v)γ =
(x2, x3, x1).
Ideˆnticos comenta´rios valem para bases em R2.
Observamos que as coordenadas de um vetor v em uma base β sa˜o u´nicas:
se houvesse mais possibilidades de coordenadas ter´ıamos o seguinte. Supo-
nhamos que as coordenadas de v na base β sejam simultaneamente (x1, x2, x3)
e (y1, y2, y3). Enta˜o,
v = x1 u1 + x2 u2 + x3 u3 = y1 u1 + y2 u2 + y3 u3.
Portanto,
(x1 − y1) u1 + (x2 − y2) u2 + (x3 − y3) u3 = 0¯.
Como os vetores u1, u2, u3 sa˜o
linearmente independentes, temos
x1 − y1 = 0 = x2 − y2 = x3 − y3.
Logo
x1 = y1, x2 = y2, x3 = y3.
4 Bases de R3 e produto misto
Propriedade 4.1. Considere treˆs vetores u, v e w de R3. Se u · (v×w) 6= 0
enta˜o os vetores sa˜o l.i.. Portanto, formam uma base de R3. O rec´ıproco e´
verdadeiro (complete os detalhes). Portanto, treˆs vetores de R3 formam uma
base se, e somente se u · (v × w) 6= 0¯.
Exerc´ıcio 2. Determine uma base de R3 formada por dois vetores paralelos
ao plano x − y − z = 0 e outro ortogonal a estes vetores.
Resposta: {(1, 1, 0), (1, 0, 1), (1,−1,−1)}. ¤
Exemplo 3. Considere vetores na˜o nulos u e v de R3 tais que
(u + v) · (u + v) = (u − v) · (u − v).
Enta˜o
β = {u × v, u, v}
e´ uma base de R3 formada por vetores ortogonais.
8
Resposta: Da condic¸a˜o (u + v) · (u + v) = (u− v) · (u− v) obteremos que
u · v = 0. Temos
(u + v) · (u + v) = u · u + u · v + v · u + v · v = u · u + 2 (u · v) + v · v,
e
(u − v) · (u − v) = u · u − u · v − v · u + v · v = u · u − 2 (u · v) + v · v.
Igualando estas equac¸o˜es obtemos
u · u + 2 (u · v) + v · v = u · u − 2 (u · v) + v · v.
Isto e´,
4 (u · v) = 0, u · v = 0.
Logo os vetores u e v sa˜o ortogonais (e portanto, l.i.). Claramente u × v e´
ortogonal a u e v. Logo os vetores de β sa˜o ortogonais. Logo somente falta
ver que estes vetores sa˜o l.i..
Tambe´m sabemos o produto misto de u × v, u e v e´ na˜o nulo:
(u × v) · (u × v) = |u × v|2 = (|u||v|sen(pi/2))2 6= 0.
Logo os vetores na˜o sa˜o coplanares. Logo sa˜o l.i.. O argumento termina
observando que treˆs vetores l.i. formam uma base de R3 . ¤
Exemplo 4. Considere uma base β = {u1, u2, u3} de R
3. Veja que
γ = {u1, u2, u1 + u2 + u3}
tambe´m e´ uma base de R3. Finalmente, sabendo que as coordenadas de v na
base β sa˜o (v)β = (x1, x2, x3), determine as coordenadas de (v)γ = (y1, y2, y3)
de v na base γ.
Resposta: Para ver que γ e´ uma base e´ suficiente observar que
(u1 + u2 + u3) · (u1 × u2) = u1 · (u1 × u2) + u2 · (u1 × u2) + u3 · (u1 × u2) =
= u3 · (u1 × u2) = u1 · (u2 × u3) 6= 0.
Onde a u´ltima afirmac¸a˜o decorre da independeˆncia linear dos vetores u1, u2
e u3. (Justifique cuidadosamente todas as passagens do racioc´ınio anterior).
9
Para o ca´lculo das coordenadas, sabemos que
v = y1 u1 + y2 u2 + y3 (u1 + u2 + u3) = (y1 + y3) u1 + (y2 + y3) u2 + y3 u3.
Logo, da unicidade das coordenadas na base β,
x1 = y1 + y3, x2 = y2 + y3, e x3 = y3.
Logo
y1 = x1 − x3, y2 = x2 − x3, y3 = x3.
Completamos assim a resposta. ¤
10

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?