Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
AULA 11.pdf A´lgebra Linear I - Aula 11 1. Transformac¸o˜es lineares. 2. Exemplos de Transformac¸o˜es lineares. Roteiro 1 Transformac¸o˜es lineares Definic¸a˜o 1 (Transformac¸a˜o linear). Uma transformac¸a˜o linear T definida de Rn em Rm (pense, por exemplo, em n e m iguais a 2 ou 3) e´ uma aplicac¸a˜o T : Rn → Rm que verifica as seguintes propriedades: • T (u + v) = T (u) + T (v), para todo par de vetores u e v de Rn, • T (σu) = σ T (u) para todo vetor u de Rn e todo nu´mero real σ. A definic¸a˜o significa que uma transformac¸a˜o linear preserva as operac¸o˜es de adic¸a˜o de vetores e multiplicac¸a˜o de um vetor por um escalar. Como consequeˆncia da definic¸a˜o de transformac¸a˜o linear temos que T (0¯) = T (0¯ + 0¯) = T (2 0¯) = 2T (0¯), T (0¯) = 0¯. Observe que T (0¯) = 0¯ e´ uma condic¸a˜o necessa´ria para que a transformac¸a˜o T seja linear, mas esta condic¸a˜o na˜o e´ suficiente. Veja o seguinte exemplo, a transformac¸a˜o T T : R → R, T (x) = x2, verifica T (0) = 0 mas, em geral, T (x + y) 6= T (x) + T (y): T (x + y) = (x + y)2 = x2 + y2 + 2x y 6= x2 + y2 = T (x) + T (y), sempre que x e y sejam os dois simultaneamente na˜o nulos. Vejamos outros exemplos de transformac¸o˜es que na˜o sa˜o lineares: 1 • T : R2 → R2, T (x, y) = (x+ 2, y + 1), na˜o e´ uma transformac¸a˜o linear, pois T (0, 0) = (2, 1) 6= (0, 0). • T : R2 → R2, T (x, y) = (senx, sen y) verifica T (0, 0) = (0, 0), pore´m na˜o e´ uma transformac¸a˜o linear. Deixamos v. verificar os detalhes, observamos que o fato de T na˜o ser linear segue de que, em geral, sen (x + x′) 6= sen (x) + sen (x′). Da definic¸a˜o de transformac¸a˜o linear obtemos as seguintes propriedades (que v. deve verificar como exerc´ıcio): Propriedade 1.1. Considere duas transformac¸o˜es de lineares T e S, T, S : Rn → Rm, e um nu´mero real λ. Enta˜o • A soma das transformac¸o˜es lineares T + S : Rn → Rm, definida como (T + S)(u) = T (u) + S(u), e´ uma transformc¸a˜o linear, • O produto por um nu´mero real λ de uma transformac¸a˜o linear T , defi- nida como (λT )(u) = λ (T (u)), e´ uma transformac¸a˜o linear. Definic¸a˜o 2 (Conjunto imagem). A imagem do conjunto V pela trans- formac¸a˜o T e´ o conjunto: im(T (V)) = {w ∈ Rm tal que existe v ∈ V tal que w = T (v)}. Propriedade 1.2. Se V e´ um subespac¸o vetorial e T e´ uma transformac¸a˜o linear, enta˜o a imagem T (V) tambe´m e´ um subespac¸o. Em particular, a imagem por uma transformac¸a˜o linear de uma reta ou um plano que conte´m a origem tambe´m e´ uma reta ou um plano que conte´m a origem ou o vetor 0¯. Prova: Para provar que im(T (V)) e´ um subespac¸o considere vetores w1 e w2 de im(T (V)). Temos que provar que w1 + w2 ∈ im(T (V)). Da definic¸a˜o de imagem, existem vetores v1 e v2 ∈ V tais que w1 = T (v1) e w2 = T (w2). 2 Como T e´ linear: w1 + w2 = T (v1) + T (v2) = T (v1 + v2). Como v1, v2 ∈ V e V e´ um subespac¸o, v1 + v2 = v3 ∈ V. Portanto, w1 + w2 = T (v3), v3 ∈ V. Logo, w1 + w2 ∈ im(T (V)). Deixamos como exerc´ıcio verificar que se w ∈ im(T (V)) e λ e´ um nu´mero real enta˜o λw ∈ im(T (V)). Veja que se w = T (v), v ∈ V, enta˜o λw = T (λ v) onde λ v ∈ V, (complete os detalhes). ¤ Considere uma transformac¸a˜o linear T : R3 → R3. Veremos que a imagem de uma reta r que conte´m a origem e´ ou outra reta que conte´m a origem ou o vetor nulo. A princ´ıpio, como a imagem da reta deve ser um subespac¸o de R 3, a imagem da reta poderia ser um plano que conte´m a origem ou todo R 3. Seja v o vetor diretor da reta, enta˜o: r : {t v, t ∈ R}. Seja w = T (v). Afirmamos que T (r) e´ a reta r′ que conte´m a origem cujo vetor diretor e´ w, isto e´, r′ : {t w, t ∈ R}. Observamos que se w = 0¯, enta˜o T (r) = 0¯ (deixamos v. conferir esta afirmac¸a˜o). Vejamos as duas incluso˜es: T (r) ⊂ r′: seja u ∈ T (r), enta˜o u = T (t v) para certo t. Como T e´ linear, u = t T (v) = t w. Portanto, u ∈ r′. r′ ⊂ T (r): seja u ∈ r′, enta˜o u = t w = t T (v), para certo t. Como T e´ linear, u = T (t v) = T (ℓ), onde (por definicc¸a˜o) ℓ ∈ r. Portanto, u ∈ T (r). De forma ana´loga temos que a imagem por uma transformac¸a˜o linear de um plano π que conte´m a origem e´ ou um plano ou uma reta contendo a origem ou o vetor nulo. Suponha que o plano π e´ gerado pelos vetores v e w. As equac¸o˜es parame´tricas de π sa˜o, π : u = t v + sw, t, s ∈ R. Sejam T (v) = v′ e T (w) = w′. Temos as seguintes possibilidades para a imagem T (π): 3 • um plano ρ: se os vetores v′ e w′ na˜o sa˜o paralelos e sa˜o na˜o nulos. De fato, o plano ρ e´ o plano que conte´m a origem e e´ paralelo aos vetores v′ e w′. • uma reta r: se os vetores v′ e w′ sa˜o paralelos e um deles na˜o e´ nulo (por exemplo, v′ 6= 0¯). De fato, r e´ a reta que conte´m a origem e e´ paralela a v′. • o vetor 0¯: se v′ e w′ sa˜o nulos. Vejamos, por exemplo, que se v′ = T (v) 6= 0¯ e w′ = T (w) 6= 0¯ na˜o sa˜o paralelos, se verifica que o plano ρ paralelo a v′ e w′ que conte´m a origem conte´m T (π) (as outras incluso˜es e os outros casos seguem exatamente como no exemplo acima e sera˜o omitidos). Seja ℓ′ ∈ T (π), enta˜o, por definic¸a˜o, existe um vetor ℓ ∈ π tal que T (ℓ) = ℓ′. Como ℓ ∈ π, ℓ = t v + sw. Como T e´ linear, ℓ′ = T (ℓ) = T (t v + sw) = t T (v) + s T (w) = t v′ + sw′. Assim, pela definic¸a˜o de ρ, ℓ ∈ ρ. 2 Exemplos de Transformac¸o˜es lineares A seguir veremos alguns exemplos de transformac¸o˜es lineares (v. deve com- pletar os detalhes). 1. A transformac¸a˜o linear nula, definida por T (u) = 0¯ para todo vetor u. 2. A transformac¸a˜o linear identidade, T (u) = u para todo vetor u. 3. Transformac¸o˜es de escala, T (u) = σ u para todo vetor u, onde σ ∈ R. Se |σ| < 1 dizemos que e´ uma contrac¸a˜o e se |σ| > 1 e´ uma dilatac¸a˜o. 4. Transformac¸o˜es V : R2 → R2 de cisalhamento vertical e V (x, y) = (x, α x + y) e H : R2 → R2 de cisalhamento horizontal H(x, y) = (x + α y, y). Veja a Figura 1. 4 i j V V V (i) V (j) R V (R) Figura 1: Cisalhamento vertical 5. Projec¸a˜o ortogonal em um vetor u definida por P (v) = v · u u · u u. Veja a Figura 2. Escreveremos P (x, y, z) em coordenadas. Podemos supor, sem perda de generalidade que o vetor u = (a, b, c) e´ unita´rio. Em coordenadas temos, P (x, y, z) = ((x, y, z) · (a, b, c)) (a, b, c) = (a x + b y + c z) (a, b, c) = = (a2 x + a b y + a c z, a b x + b2 y + b c z, a c x + b c y + c2 z). 6. Reflexo˜es em torno dos eixos coordenados X e Y, definidas como R(x, y) = (x,−y), S(x, y) = (−x, y), respectivamente. Veja a Figura 3. 7. Reflexa˜o na origem, T (x, y) = (−x,−y). 5 u v P (v) Figura 2: Projec¸a˜o ortogonal 8. Dado um vetor u de R3, definimos a transformac¸a˜o linear T : R3 → R como T (v) = v · u (produto escalar). O fato de T ser linear segue das propriedades do produto escalar. 9. Dado um vetor u de R3, definimos a transformac¸a˜o linear T : R3 → R3 como T (v) = v×u (produto vetorial). O fato de T ser linear segue das propriedades do produto vetorial. u R(u) S(u) T (u) Figura 3: Reflexo˜es Deixamos, como exerc´ıcio, verificar que as transformac¸o˜es anteriores sa˜o lineares. Observe que todas as transformac¸o˜es lineares exibidas ate´ agora sa˜o da forma T (x, y) = (a x + b y, c x + d y), 6 no caso de transformac¸o˜es do plano no plano, e da forma T (x, y, z) = (a x + b y + c z, d x + e y + f z, g x + h y + k z), no caso de transformac¸o˜es de R3 em R3. Por exemplo, a transformac¸a˜o linear T : R3 → R3, T (v) = v × w, para certo vetor w tem a seguinte forma. Suponha que w = (a, b, c), enta˜o T (x, y, z) = ∣ ∣ ∣ ∣ ∣ ∣ i j k x y z a b c ∣ ∣ ∣ ∣ ∣ ∣ = (c y − b z, a z − b x, b x− a y). Finalmente, no caso da transformac¸a˜o linear T : R3 → R, T (v) = v · u, se o vetor u = (a, b, c) temos T (x, y, z) = a x + b y + c z. Temos tambe´m que as seguintes transformac¸o˜es sa˜o lineares: T : R2 → R, T (x, y) = a x + b y, T : R3 → R, T (x, y, z) = a x + b y + c z, T : R3 → R2, T (x, y, z) = (a x + b y + c z, d x + e y + f z) T : R2 → R3, T (x, y) = (a x + b y, c x + d y, e x + f y), onde a, b, c, d, e, f sa˜o nu´meros reais. De fato, temos o seguinte, toda transformac¸a˜o linear tem a forma das transformac¸o˜es acima. 7 AULA 12.pdf A´lgebra Linear I - Aula 12 1. Rotac¸o˜es no plano. 2. Projec¸o˜es 3. Espelhamentos 4. Caso geral. Roteiro 1 Exemplos de Transformac¸o˜es lineares (con- tinuac¸a˜o) 1.1 Rotac¸o˜es no plano A Rotac¸a˜o no plano de aˆngulo θ no sentido anti-hora´rio e´ definida como: Rθ(x, y) = ((cos θ) x − (sen θ) y, (cos θ )y + (sen θ) x), veja a Figura 1. Esta transformac¸o˜e e´ uma caso particular das descritas acima, onde a = cos θ, b = −sen θ, c = sen θ e d = cos θ. Calcularemos o aˆngulo formado entre um vetor u e sua imagem Rθ(u), e veremos que este aˆngulo e´ θ. Considere o vetor u = (a, b). Primeiro veremos que os mo´dulos de u e Rθ(u) sa˜o iguais: |Rθ(a, b)| 2 = ((cos θ)2 a2 + (sen θ)2 b2 − 2 (cos θ) a (sen θ) b+ +(cos θ)2 b2 + (sen θ)2 a2 + 2 (cos θ) a (sen θ) b = = ((cos θ)2 + (sen θ)2) a2 + ((cos θ)2 + (sen θ)2) b2) = = a2 + b2 = |(a, b)|2. 1 u Rθ(u) θ Figura 1: Rotac¸a˜o Por outra parte, e como |u| = |Rθ(u)|, u · Rθ(u) = |u| |Rθ(u)| cos α = |u| 2 cos α, onde α e´ o aˆngulo formado por u e Rθ(u). Calculemos agora o aˆngulo α. (a, b) · Rθ(a, b) = (a, b) · ((cos θ) a − (sen θ) b, (cos θ) b + (sen θ) a) = = (cos θ) a2 − (sen θ) a b + (sen θ) a b + (cos θ) b2 = = (cos θ) (a2 + b2) = cos θ |u|2. Das duas fo´rmulas anteriores temos que o aˆngulo entre u e Rθ(u) e´ exatamente o aˆngulo de rotac¸a˜o θ. Usando o mesmo tipo de racioc´ınio v. pode provar que o aˆngulo entre os vetores u e v e´ igual ao aˆngulo entre Rθ(u) e Rθ(v). Deixamos a prova da afirmac¸a˜o como exerc´ıcio. 1.2 Projec¸a˜o em uma reta r Estudaremos agora a transformac¸a˜o linear T projec¸a˜o em uma reta r de R2 na direc¸a˜o do vetor v, onde a reta r conte´m a origem e o vetor v na˜o e´ paralela a` reta, veja a Figura 2. Esta transformac¸a˜o e´ definida como segue. Considere a reta de projec¸a˜o r de equac¸a˜o cartesiana ax + by = 0 e o vetor v = (c, d) que determina a 2 u v r s n T (u) Figura 2: Projec¸a˜o na˜o ortogonal em uma reta direc¸a˜o de projec¸a˜o. A imagem do vetor u = (u1, u2) e´ o vetor OP , onde P e´ o ponto de intersec¸a˜o das retas s de equac¸a˜o parame´trica s : (u1 + t c, u2 + t d), t ∈ R, e a reta r de projec¸a˜o, r : ax+ by = 0 (equac¸a˜o cartesiana). Determinaremos o valor de t que fornece o ponto de intersec¸a˜o, a(u1 + t c) + b(u2 + t d) = 0, t(a c + b d) = −(a u1 + b u2), isto e´, t = −(a u1 + b u2) a c + b d . Observe que se verifica a c + b d 6= 0, isto decorre do fato da direc¸a˜o de projec¸a˜o na˜o ser paralela a` reta de projec¸a˜o, ou seja (c, d) na˜o e´ ortogonal ao vetor normal n = (a, b) da reta (isto e´, 0 6= (c, d) · (a, b) = a c + b d). Logo T (u1, u2) = ( u1 − a c u1 + b c u2 a c + b d , u2 − a d u1 + b d u2 a c + b d ) . Pela discussa˜o acima, T e´ uma transformac¸a˜o linear. Outra forma de obter a transformac¸a˜o anterior e´ a seguinte. Considere uma base β = {u, v} de R2 tal que u e´ um vetor diretor da reta de projec¸a˜o 3 e v e´ a direc¸a˜o de projec¸a˜o. Como estes vetores na˜o sa˜o paralelos temos que β e´ uma base. Dado um vetor w escrevemos w na base β: w = xu + y v. Enta˜o consi- deramos a transformac¸a˜o definida como S(w) = xu. Deixamos como exerc´ıcio verificar que S e´ uma transformac¸a˜o linear. Ob- servamos que esta “nova” transformac¸a˜o linear S coincide com a T definida anteriormente. Para isso lembre que duas transformac¸o˜es lineares sa˜o iguais se, e somente se, elas coincidem em uma base. Portanto e´ suficiente observar S e T coincidem na base β. Veja que u = 1 u+0 v e pela definic¸a˜o S(u) = u. Veja tambe´m que v = 0 u + 1 v e pela definic¸a˜o S(v) = 0¯. Portanto, S(u) = u = T (u), S(v) = v = T (v). 1.3 Projec¸a˜o em um plano pi Estudaremos agora a transformac¸a˜o linear projec¸a˜o em um plano pi de R3 na direc¸a˜o do vetor v, onde o plano conte´m a origem e o vetor v na˜o e´ paralelo ao plano. Esta transformac¸a˜o e´ definida como segue. Considere o plano de projec¸a˜o pi de equac¸a˜o a x + b y + c z = 0 e o vetor v = (v1, v2, v3) que determina a direc¸a˜o de projec¸a˜o. A imagem do vetor u = (u1, u2, u3) e´ o vetor OP , onde P e´ a intersec¸a˜o da reta s de equac¸a˜o parame´trica s : (u1 + tv1, u2 + tv2 + u3 + tv3), t ∈ R, e o plano pi : a x+b y+c z = 0 (equac¸a˜o cartesiana). Determinaremos o valor de t que fornece o ponto de intersec¸a˜o, a (u1 + t v1) + b (u2 + t v2) + c (u3 + t v3) = 0, logo, t (a v1 + b v2 + c v3) = −(a u1 + b u2 + c u3), isto e´, t = −(a u1 + b u2 + c u3) a v1 + b v2 + c v3 . Observe que se verifica a v1 + b v2 + c v3 6= 0, isto decorre do fato da direc¸a˜o de projec¸a˜o na˜o ser paralela ao plano de projec¸a˜o, ou seja (v1, v2, v3) na˜o 4 e´ ortogonal ao vetor normal n = (a, b, c) do plano (isto e´, 0 6= (v1, v2, v3) · (a, b, c) = a v1 + b v2 + c v3). Logo T (u1, u2, u3) = ((1 − ( av1 av1+bv2+cv3 ) u1 − ( bv1 av1+bv2+cv3 ) u2 − ( cv1 av1+bv2+cv3 ) u3, ,−( av2 av1+bv2+cv3 ) u1 + (1 − ( bv2 av1+bv2+cv3 ) u2 − ( cv2 av1+bv2+cv3 ) u3, ,−( av3 av1+bv2+cv3 ) u1 − ( bv3 av1+bv2+cv3 ) u2 + (1 − ( cv3 av1+bv2+cv3 ) u3). Pela discussa˜o acima, T e´ uma transformac¸a˜o linear. Como nos casos anteriores esta projec¸a˜o pode ser obtida como segue. Considere uma base β = {u1, u2, v} de R 3 tal que {u1, u2} e´ uma base do plano pi de projec¸a˜o e v e´ a direc¸a˜o de projec¸a˜o. Como a direc¸a˜o v na˜o e´ paralela a plano temos que β e´ uma base. Observe que podemos usar o crite´rio do produto misto para ver que β e´ uma base: (u1 × u2) · v 6= 0, pois u1 × u2 = n onde n e´ o vetor normal do plano. Temos que n · v 6= 0, pois caso contra´rio v seria paralelo ao plano. Dado um vetor w escrevemos w na base β: w = x1 u1 +x2 u2 +y v. Enta˜o consideramos a transformac¸a˜o definida como S(w) = xu1 + y u2. Deixamos como exerc´ıcio verificar que S e´ uma transformac¸a˜o linear. Ob- servamos que esta “nova” transformac¸a˜o linear S coincide com a T definida anteriormente. Como no caso das projec¸o˜es em uma reta lembramos que duas transformac¸o˜es lineares sa˜o iguais se, e somente se, elas coincidem em uma base. Portanto e´ suficiente observar S e T coincidem na base β. Veja que u1 = 1 u1 +0 u20 v e pela definic¸a˜o S(u1) = u1. Analogamente temos que S(u2) = u2. Veja tambe´m que v = 0 u1 +0 u2 +1 v e pela definic¸a˜o S(v) = 0¯. Portanto, S(u1) = u1 = T (u1), S(u2) = u2 = T (u2), S(v) = v = T (v). 5 1.4 Projec¸a˜o em uma reta em R3 Estudaremos agora a transformac¸a˜o linear T projec¸a˜o uma reta r de R3 na direc¸a˜o do vetor pi, onde a reta conte´m a origem e o plano pi na˜o e´ paralelo a` reta e conte´m a origem. Esta transformac¸a˜o e´ definida como segue. Considere o plano de projec¸a˜o pi de equac¸a˜o a x + b y + c z = 0 e o vetor v = (v1, v2, v3) diretor da reta de projec¸a˜o. A imagem do vetor u = (u1, u2, u3) e´ o vetor OP , onde P e´ a intersec¸a˜o da reta r e do plano ρ que conte´m o ponto P e e´ paralelo ao plano pi. Deixamos como exerc´ıcio calcular a fo´rmula expl´ıcita desta transformac¸a˜o linear. Veja que esta transformac¸a˜o deixa fixos os vetores paralelos a r e transforma no vetor zero os vetore paralelos ao plano pi. Como nos casos anteriores esta projec¸a˜o pode ser obtida como segue. Considere uma base β = {u1, u2, v} de R 3 tal que {u1, u2} e´ uma base do plano pi que definie a direc¸a˜o de projec¸a˜o e v e´ um vetor diretor da reta de projec¸a˜o. Como a direc¸a˜o v na˜o e´ paralela a plano temos que β e´ uma base. Dado um vetor w escrevemos w na base β: w = x1 u1 +x2 u2 +y v. Enta˜o temos que T (w) = y v. 1.5 Espelhamentos em retas e planos Consideramos um plano pi de R3 que conte´m a origem e uma base ortogonal β = {n1, n2, v} de R 3 onde {n1, n2} e´ uma base do plano pi. Dado um vetor w ∈ R3 o espelhamento S de w no plano pi e´ definido com segue. Escrevemos w = xn1 + y n2 + z v, e definimos S(w) = xn1 + y n2 − z w. Como no caso das projec¸o˜es temos que S e´ uma aplicac¸a˜o linear (confira). Observe que a projec¸a˜o ortogonal T no plano pi do vetor w e´ T (w) = xn1 + y n2. Portanto, temos se Id e´ a aplicac¸a˜o linear identidade temos S(w) = 2 T (w) − Id(w). 6 Confira os ca´lculos. De forma similar podemos definir o espelhamento E em uma reta r que conte´m a origem. Para isso consideramos uma base ortogonal {v, v1, v2} onde v e´ o vetor diretor da reta r. Dado um vetor w ∈ R3 o espelhamento E de w no plano pi e´ definido com segue: w = x v + y v1 + z v2 e definimos S(w) = x v − y v1 − z v2. Como no caso das projec¸o˜es temos que S e´ uma aplicac¸a˜o linear (confira). Observe que a projec¸a˜o ortogonal P na reta r do vetor w e´ P (w) = x v. Como no caso dos espelhamentos em planos temos E(w) = 2 P (w) − Id(w). Confira os ca´lculos. 1.6 Um caso mais geral As projec¸o˜es e espelhamentos em retas e planos estudados acima sa˜o exem- plos particulares do seguinte tipo de transformac¸o˜es lineares mais gerais. Dada uma base {v1, v2, v3} de R 3 e nu´meros reais a1, a2, a3, definimos T (w) como segue. Seja w = x1 v1 + x2 v2 + x3 v3, enta˜o T (w) = a1 x1 v1 + a2 x2 v2 + a3 x3 v3. Vejamos que T e´ linear. Veremos apenas que T (w + w′) = T (w) + T (w′) (v. e´ convidado a verificar que T (λw) = λT (w)). Escrevemos w′ = x′1 v1 + x ′ 2 v2 + x ′ 3 v3. Portanto T (w′) = a1 x ′ 1 v1 + a2 x ′ 2 v2 + a3 x ′ 3 v3. Temos T (w) + T (w′) = (a1 x1 v1 + a2 x2 v2 + a3 x3 v3) + (a1 x ′ 1 v1 + a2 x ′ 2 v2 + a3 x ′ 3 v3) = a1 (x1 + x ′ 1) v1 + a2 (x2 + x ′ 2) v2 + a3 (x3 + x3) ′ v3. 7 Por outro lado w + w′ = (x1 + x ′ 1) v1 + (x2 + x ′ 2) v2 + (x3 + x3) ′ v3. e pela definic¸a˜o de T T (w + w′) = a1 (x1 + x ′ 1) v1 + a2 (x2 + x ′ 2) v2 + a3 (x3 + x3) ′ v3. Portanto T (w + w′) = T (w) + T (w′). No caso das projec¸o˜es em um plano temos a1 = a2 = 1 e a3 = 0 e no caso de projec¸e˜os em retas a1 = 1 e a2 = a3 = 0. No caso dos espelhamentos a1 = a2 = 1 e a3 = −1 (em planos) e a1 = 1 e a2 = a3 = −1 (em retas). 8 AULA 13.pdf A´lgebra Linear I - Aula 13 1. Determinac¸a˜o de uma transformac¸a˜o linear. 2. Matrizes. 3. Forma matricial de uma transformac¸a˜o linear. 1 Determinac¸a˜o de uma transformac¸a˜o linear Uma transformac¸a˜o linear T fica totalmente determinada quando sa˜o conhe- cidas as imagens dos vetores de uma base do espac¸o de saida de T (domı´nio). Por exemplo, suponhamos que T e´ uma transformac¸a˜o linear cujo domı´nio e´ R 3. Seja β = {v1, v2, v3} uma base de R 3 e suponha determinadas as imagens dos vetores da base: w1 = T (v1), w2 = T (v2), w3 = T (v3). Como β e´ uma base temos que dado qualquer vetor v ∈ R3, v = λ1 v1 + λ2 v2 + λ3 v3 para certos (u´nicos) λ1, λ2 e λ3. Portanto, como T e´ uma transformac¸a˜o linear, T (v) = T (λ1 v1 + λ2 v2 + λ3 v3) = λ1 T (v1) + λ2 T (v2) + λ3 T (v3) = = λ1 w1 + λ2 w2 + λ3 w3, logo a imagem T (v) de qualquer vetor v esta´ determinada pelas imagens dos vetores da base β. Exemplo 1. Estudas se existe uma transformac¸a˜o linear T : R3 → R2 tal que T (1, 0, 1) = (2, 1), T (1, 1, 1) = (1, 1), T (1, 1, 0) = (2, 3), T (3, 1, 1) = (5, 6). 1 Resposta: Observe que os vetores (1, 0, 1), (1, 1, 1) e (1, 1, 0) formam uma base de R3. Para isto e´ suficiente verificar que na˜o sa˜o coplanares (ou que sa˜o linearmente independentes), (1, 0, 1) · ((1, 1, 1)× (1, 1, 0)) = ∣∣∣∣∣∣ 1 0 1 1 1 1 1 1 0 ∣∣∣∣∣∣ = −1 6= 0. Consideramos a base β = {(1, 0, 1), (1, 1, 1), (1, 1, 0)} Portanto, caso a transformac¸a˜o linear T exista, ela esta´ totalmente determi- nada pelas imagens dos treˆs vetores da base β. Verifique que: (3, 1, 1) = 2 (1, 0, 1)− (1, 1, 1) + 2 (1, 1, 0). Portanto, como T e´ linear, T (3, 1, 1) = 2T (1, 0, 1)− T (1, 1, 1) + 2T (1, 1, 0) = = 2 (2, 1)− (1, 1) + 2 (2, 3) = (7, 9) 6= (5, 6). Portanto, na˜o existe tal transformac¸a˜o linear. ¤ Exemplo 2. Determine uma transformac¸a˜o linear T que transforme o pa- ralelogramo de ve´rtices A = (0, 0), B = (2, 1), C = (1, 4) e D = (3, 5), (os lados do paralelogramo sa˜o os segmentos AB, AC, BD e CD) no para- lelogramo de ve´rtices A′ = A = (0, 0), B′ = (−1,−1), C ′ = (2, 6), e D1 = (1, 5), (os lados sa˜o A′B′, A′C ′, B′D′ e C ′D′). Resposta: Pelas afirmac¸o˜es acima, uma estrate´gia e´ considerar a trans- formac¸a˜o que leva os lados do primeiro retaˆngulo nos lados do segundo. Mais precisamente, considere os vetores u = AB = (2, 1), v = AC = (1, 4), w = A′B′ = (−1,−1), ℓ = A′C ′ = (2, 6) 2 e a transformac¸a˜o linear T definida por T (u) = T (2, 1) = w = (−1,−1), T (v) = T (1, 4) = (2, 6) = ℓ. Como {(2, 1), (1, 4)} e´ uma base de R2, a transformac¸a˜o T esta´ totalmente determinada. Por construc¸a˜o, T transforma os ve´rtices do primeiro para- lelogramo nos ve´rtices do segundo paralelogramo (confira). Afirmamos que tambe´m transforma os lados do primeiro paralelogramo nos lados do segundo paralelogramo. Vejamos, por exemplo, que T transforma o segmento (lado) BD no seg- mento (lado) B′D′. Observe primeiro que o segmento BD esta´ formado pelos pontos X tais que OX = AX = AB + t AC = u+ t v, onde t ∈ [0, 1]. Analogamente, o segmento B′D′ esta´ formado pelos pontos Y tais que OY = A′X = A′B′ + t A′C ′ = w + t ℓ, onde t ∈ [0, 1]. Considere um ponto X do lado BD, enta˜o, como T e´ linear, OY = T (OX) = T (u) + t T (v) = w + t ℓ, onde t ∈ [0, 1]. Portanto, o extremo Y do vetor T (OX) verifica a condic¸a˜o de pertencer ao segmento B′D′. Portanto, a imagem do lado BD do primeiro paralelogramo esta´ contida no lado B′D′ do segundo paralelogramo. Para ver a inclusa˜o em sentido contra´rio, considere qualquer ponto Y do segmento B′D′ e escreva OY = w + t ℓ, onde t ∈ [0, 1]. Por definic¸a˜o, temos, OY = w + t ℓ = T (u) + t T (v) = T (u+ t v) = T (OX). Como t ∈ [0, 1], temos que o ponto X pertence ao lado BD. Um racioc´ınio ideˆntico (que omitimos) mostra que a transformac¸a˜o leva os lados AB, AC, BD e CD do primeiro paralelogramo nos lados A′B′, A′C ′, B′D′ e C ′D′, respetivamente, do segundo paralelogramo. ¤ 3 2 Matrizes Uma matriz n×m (onde n representa o nu´mero de linhas e m o nu´mero de colunas) M e´ definida como segue: A = a1,1 a1,2 . . . a1,m a2,1 a2,2 . . . a2,m ... ... . . . ... an,1 an,2 . . . an,m Dizemos que (aj,1, aj,2, aj,m) e´ a j-e´sima linha de A e que (a1,j, a2,j, an,j) e´ a j-e´sima coluna de A. Quando n = m, dizemos que a matriz e´ quadrada. Dadas duas matrizes A e B das mesmas dimenso˜es n×m, A = a1,1 a1,2 . . . a1,m a2,1 a2,2 . . . a2,m ... ... . . . ... an,1 an,2 . . . an,m , B = b1,1 b1,2 . . . b1,m b2,1 b2,2 . . . b2,m ... ... . . . ... bn,1 bn,2 . . . bn,m , definimos a soma e a substrac¸a˜o de matrizes S = A+B e D = A−B, como segue, S = a1,1 + b1,1 a1,2 + b1,2 . . . a1,m + b1,m a2,1 + b2,1 a2,2 + b2,2 . . . a2,m + b2,m ... ... . . . ... an,1 + bn,1 an,2 + bn,2 . . . an,m + bn,m , e D = a1,1 − b1,1 a1,2 − b1,2 . . . a1,m − b1,m a2,1 − b2,1 a2,2 − b2,2 . . . a2,m − b2,m ... ... . . . ... an,1 − bn,1 an,2 − bn,2 . . . an,m − bn,m , isto e´, S e D sa˜o matrizes das mesmas dimeno˜es n×m que A e B, onde os coefientes si,j e di,j das matrizes soma S e substrac¸a˜o D sa˜o: si,j = ai,j + bi,j, di,j = ai,j − bi,j. A multiplicac¸a˜o da matriz A pelo escalar λ e´ a matriz E, n × m, cujos coeficientes sa˜o ei,j = λ ai,j. 4 Finalmente, dadas matrizes A, n ×m, e B, r × k, o produto P = AB esta´ definido quando r = m e e´ uma matriz n × k, o coeficiente pi,j da matriz produto e´ dado por pi,j = ai,1 b1,j + ai,2 b2,j + · · ·+ ai,m bm,j. Mais tarde veremos como o produto de duas matrizes aparece de forma na- tural: a regra de multiplicac¸a˜o ficara´ clara quando estudemos a composic¸a˜o de transformac¸o˜es lineares. V. pode interpretar os coeficientes da matriz produto como segue. Escreva A = a1,1 a1,2 . . . a1,m a2,1 a2,2 . . . a2,m ... ... . . . ... an,1 an,2 . . . an,m = ℓ1 ℓ2 ... ℓn , onde cada ℓi e´ um vetor linha de R m da forma ℓi = (ai,1, ai,2, . . . , ai,m). Analogamente, escreva B = b1,1 b1,2 . . . b1,k b2,1 b2,2 . . . b2,k ... ... . . . ... bm,1 bm,2 . . . bm,k = c1 c2 ck cada cj e´ um vetor coluna de R m da forma cj = b1,j b2,j ... bm,j . Enta˜o, pi,j e´ obtido como o produto escalar dos vetores ℓi e cj, pi,j = ℓi · cj. Observe que o produto AB de duas matrizes pode estar definido e o produto BA pode na˜o esta-lo. Por exemplo, se a matriz A e´ 3 × 2 e B e´ 5 2 × 1. Neste caso AB e´ uma matriz 3 × 1 e na˜o e´ poss´ıvel fazer o produto BA. Tambe´m pode acontecer que os dois produtos estejam definidos e os re- sultados dos produtos serem matrizes de dimenso˜es diferentes. Por exemplo, se A e´ 3× 2 e B e´ 2× 3, temos que AB esta´ definido e e´ uma matriz 3× 3, e AB tambe´m esta´ definido e e´ uma matriz 2 × 2. Portanto, o produto de matrizes na˜o e´ (em geral) comutativo: mesmo quando as matrizes AB e BA teˆm as mesmas dimenso˜es. Um exemplo desta situac¸a˜o e´ A = ( 2 1 1 1 ) , B = ( 1 3 1 1 ) . Temos AB = ( 2 1 1 1 ) ( 1 3 1 1 ) = ( 3 7 2 4 ) e BA = ( 1 3 1 1 ) ( 1 2 1 1 ) = ( 5 4 3 2 ) . Portanto, os dois produtos esta˜o definidos, pore´m AB 6= BA. 3 Forma matricial de uma transformac¸a˜o li- near Lembramos que se T e L sa˜o transformac¸o˜es lineares de R3 em R3 e de R2 em R2 sa˜o da forma: T : R3 → R3, T (x, y, z) = (a1 x+ a2 y + a3 z, b1 x+ b2 y + b3 z, c1 x+ c2 y + c3 z), L : R2 → R2, L(x, y) = (a1 x+ a2 y, b1 x+ b2 y). Observe que T (1, 0, 0) = (a1, b1, c1), T (0, 1, 0) = (a2, b2, c2), T (0, 0, 1) = (a3, b3, c3), L(1, 0) = (a1, b1), L(0, 1) = (a2, b2). 6 As transformac¸o˜es lineares T e L teˆm as seguintes representac¸o˜es matri- ciais (representando os vetores na sua forma coluna): [T ] xy z = a1 a2 a3b1 b2 b3 c1 c2 c3 xy z , [L] ( x y ) = ( a1 a2 b1 b2 )( x y ) . Isto significa que se escrevemos um vetor v na forma coluna [v] e fazemos o produto das matrizes [T ] [v] obtemos como resultado o vetor T (v) na forma coluna: seja v = (x, y, z), enta˜o [v] = xy z e [T ] xy z = a1 a2 a3b1 b2 b3 c1 c2 c3 xy z = a1 x+ a2 y + a3 zb1 x+ b2 y + b3 z c1 x+ c2 y + c3 z . Pelos comenta´rios ja´ feitos temos a seguinte interpretac¸a˜o das colunas da matriz [T ]. • A primeira coluna e´ a imagem de T (1, 0, 0), • a segunda coluna e´ a imagem de T (0, 1, 0), • a u´ltima coluna e´ a imagem de T (0, 0, 1). Comenta´rios ana´logos podem ser feitos para a matriz [L]. 7 AULA 14.pdf A´lgebra Linear I - Aula 14 1. Forma matricial de uma transformac¸a˜o linear. Exemplos. 1 Forma matricial de uma matriz. Exemplos Exemplos 1. • As transformac¸o˜es lineares identidade e nula teˆm como matrizes as- sociadas as matrizes identidade (diagonal igual a 1 e todos os outros coeficientes nulos) e a matriz nula (todos os coeficientes sa˜o zero). • As matrizes das transformac¸o˜eso lineares de cisalhamento horizontal H(x, y) = (x, αx + y) e vertical V (x, y) = (x + αy, y) sa˜o [H] = ( 1 0 α 1 ) e [V ] = ( 1 α 0 1 ) . • Lembrando que a projec¸a˜o ortogonal no vetor unita´rio (a, b, c) de R3 e´ da forma P (x, y, z) = (a2x + aby + acz, abx + b2y + bcz, acx + bcy + c2z). temos [P ] = a 2 ab ac ab b2 bc ac bc c2 . Por exemplo, as matrizes projec¸o˜es ortogonais nos eixos X, Y e Z sa˜o, respetivamente, 1 0 00 0 0 0 0 0 , 0 0 00 1 0 0 0 0 , 0 0 00 0 0 0 0 1 . Analogamente, lembrando as definic¸o˜es da ortogonais em um plano temos que a projec¸o˜es ortogonais nos planos XY, X, Z e YZ sa˜o da forma 1 0 00 1 0 0 0 0 , 1 0 00 0 0 0 0 1 , 0 0 00 1 0 0 0 1 . 1 Por exemplo, para a projec¸a˜o ortogonal P no plano XY e´ suficiente observar que P (i) = i, P(j) = j, P(k) = k). • Lembrando a fo´rmula das reflexo˜es R e S (em R2) em torno dos eixos X e Y e T em torno da origem R(x, y) = (x,−y), S(x, y) = (−x, y), T (x, y) = (−x,−y), (veja a u´ltima aula) temos [R] = ( 1 0 0 −1 ) , [S] = ( −1 0 0 1 ) , [T ] = ( −1 0 0 −1 ) . • Lembrando a expressa˜o da rotac¸a˜o de aˆngulo θ no sentido anti-hora´rio Rθ(x, y) = ((cos θ) x− (senθ) y, (cos θ )y + (senθ) x), temos [Rθ] = ( cos θ −senθ senθ cos θ ) . • Consideremos agora a de projec¸a˜o T na reta ax + by = 0 segundo a direc¸a˜o do vetor v = (c, d). Pelos resultados da aula anterior, T (x, y) = ( x− ax + by ac + bd c, y − ax + by) ac + bd d ) . Portanto, [T ] = 1− ac ac + bd − bc ac + bd − ad ac + bd 1− bd ac + bd . • Determinaremos a seguir a matriz da projec¸a˜o ortogonal no plano x + y+z =. Para isso temos que determinar P (1, 0, 0), P (0, 1, 0) e P (0, 0, 1). Para isso consideramos a base ortogonal {u1 = (1, 1, 1), u2 = (1, 0,−1), u3 = (1,−2, 1), E observamos que P (u1) = 0, P (u2) = u2, P (u3) = u3. 2 Para determinar P (1, 0, 0) Escrevemos (1, 0, 0) = x (1, 1, 1) + y (1, 0,−1) + z (1,−2, 1). Observe que P (1, 0, 0) = P ( x (1, 1, 1) + y (1, 0,−1) + z (1,−2, 1) ) = = xP (1, 1, 1) + y P (1, 0,−1) + z P (1,−2, 1) = y (1, 0,−1) + z (1,−2, 1). Observe que o coeficiente x e´ irrelevante. Calculamos y e z. Como a base e´ ortogonal temos (1, 0, 0) · (1, 0,−1) = y (1, 0,−1) · (1, 0,−1) = 2 y, y = 1/2 e (1, 0, 0) · (1,−2, 1) = z (1,−2, 1) · (1,−2, 1) = 6 z, z = 1/6. Logo P (1, 0, 0) = 1/2 (1, 0,−1) + 1/6 (1,−2, 1) = (2/3,−1/3,−1/3). Para determinar P (0, 1, 0) escrevemos (0, 1, 0) = x (1, 1, 1) + y (1, 0,−1) + z (1,−2, 1) e observamos que P (0, 1, 0) = y (1, 0,−1) + z (1,−2, 1). Calculamos y e z. Como a base e´ ortogonal temos (0, 1, 0) · (1, 0,−1) = y (1, 0,−1) · (1, 0,−1) = 2 y, y = 0 e (0, 1, 0) · (1,−2, 1) = z (1,−2, 1) · (1,−2, 1) = 6 z, z = −1/3. Logo P (0, 1, 0) = (−1/3, 2/3,−1/3). 3 Raciocinando de forma similar obtemos P (0, 0, 1) = (−1/3,−1/3, 2/3). Portanto [P ] = 2/3 −1/3 −1/3−1/3 2/3 −1/3 −1/3 −1/3 2/3 . Exemplo 1. Considere as retas r : (t, 2 t, t), t ∈ R e s : (t + 1, 2 t, t− 5), t ∈ R e o plano pi : x + y + z = 0. (a) Determine a matriz (na base canoˆnica) da transformac¸a˜o linear T projec¸a˜o no plano pi na direc¸a˜o da reta r. (b) Determine a matriz (na base canoˆnica) da transformac¸a˜o linear L projec¸a˜o na reta r na direc¸a˜o do plano pi. (c) Determine a forma matricial (na base canoˆnica) da transformac¸a˜o afim A projec¸a˜o na reta s na direc¸a˜o do plano pi. Resposta: a) Observe que (1, 2, 1) e´ um vetor paralelo a` direc¸a˜o de projec¸a˜o, logo T (1, 2, 1) = (0, 0, 0) Temos que o vetor (−1, 2,−1) e´ um vetor do plano de projec¸a˜o. Portanto, T (−1, 2,−1) = (−1, 2,−1) Somando as igualdades, T (0, 4, 0) = T ((−1, 2,−1) + (1, 2, 1)) = (−1, 2,−1). Portanto T (0, 1, 0) = (−1/4, 2/4,−1/4). 4 Temos tambe´m que que o vetor (1,−1, 0) e´ um vetor do plano de projec¸a˜o. Portanto, T (1, 0, 0)− T (0, 1, 0) = T (1,−1, 0) = (1,−1, 0). Isto e´ T (1, 0, 0) = T (0, 1, 0) + (1,−1, 0) = = (−1/4, 2/4,−1/4) + (1,−1, 0) = = (3/4,−2/4,−1/4). Finalmente, o vetor (0,−1, 1) e´ um vetor do plano de projec¸a˜o. Portanto, T (0, 0, 1)− T (0, 1, 0) = T (0,−1, 1) = (0,−1, 1). Isto e´ T (0, 0, 1) = T (0, 1, 0) + (0,−1, 1) = = (−1/4, 2/4,−1/4) + (0,−1, 1) = = (−1/4,−2/4, 3/4). Portanto, [T ] = 3/4 −1/4 −1/4−2/4 2/4 −2/4 −1/4 −1/4 3/4 . V. pode resolver o problema usando geometria anal´ıtica. Temos que T (a, b, c) e´ o vetor OQ, onde Q e´ a intersec¸a˜o da reta (a + t, b + 2 t, c + t) e o plano x + y + z = 0. Esta intersec¸a˜o ocorre quando a + t + b + 2 t + c + t = 0, 4 t = −a− b− c, t = − a + b + c 4 . Isto e´ T (a, b, c) = ( 3 a− b− c 4 , −2 a + 2 b− 2 c 4 , −a− b + 3 c 4 ) . Tomando os vetores (1, 0, 0), (0, 1, 0) e (0, 0, 1) obtemos T (1, 0, 0) = (3/4,−2/4,−1/4), T (0, 1, 0) = (−1/4, 2/4,−1/4), T (0, 0, 1) = (−1/4,−2/4, 3/4). b) Raciocinamos como no primeiro item. Observe que (1, 2, 1) e´ um vetor 5 da reta de projec¸a˜o, logo L(1, 2, 1) = (1, 2, 1) Temos que o vetor (−1, 2,−1) e´ um vetor paralelo a` direc¸a˜o de projec¸a˜o. Portanto, L(−1, 2,−1) = (0, 0, 0) Somando as igualdades, L(0, 4, 0) = L((1, 2, 1) + (−1, 2,−1)) = (1, 2, 1). Portanto L(0, 1, 0) = (1/4, 2/4, 1/4). Temos tambe´m que que o vetor (1,−1, 0) e´ paralelo ao plano direc¸a˜o projec¸a˜o. Portanto, L(1, 0, 0)− L(0, 1, 0) = L(1,−1, 0) = (0, 0, 0). Isto e´ L(1, 0, 0) = L(0, 1, 0) = (1/4, 2/4, 1/4). Analogamente, o vetor (0,−1, 1) e´ paralelo a` direc¸a˜o projec¸a˜o. Portanto, L(0, 0, 1)− L(0, 1, 0) = L(0,−1, 1) = (0, 0, 0). Isto e´ L(0, 0, 1) = L(0, 1, 0) = (1/4, 2/4, 1/4). Portanto, [L] = 1/4 1/4 1/42/4 2/4 2/4 1/4 1/4 1/4 . V. pode usar tambe´m geometria anal´ıtica como no caso anterior. Outra possibilidade e´ observar que dado um vetor v se verifica v = vr + vpi, onde vr e´ um vetor paralelo a` reta r e vpi e´ paralelo ao plano pi. Portanto, T (v) = vpi, L(v) = vr. 6 Ou seja, v = T (v) + L(v) = Id(v). Isto significa que a soma das matrizes [T ] e [L] e´ a matriz identidade, isto e´, [L] = 1 0 00 1 0 0 0 1 − 3/4 −1/4 −1/4−2/4 2/4 −2/4 −1/4 −1/4 3/4 = 1/4 1/4 1/42/4 2/4 2/4 1/4 1/4 1/4 . c) Para determinar a forma matricial devemos achar A(0, 0, 0), obtido como a intersec¸a˜o do plano pi e a reta s. Ou seja, devemos encontrar o valor de t que verifica (t + 1) + (2 t) + (t− 5) = 0, 4 t = 4, t = 1. Logo A(0, 0, 0) = (2, 2,−4). Assim a forma matricial de A e´ 1/4 1/4 1/42/4 2/4 2/4 1/4 1/4 1/4 xy z + 22 −4 . ¤ Exemplo 2. Determine a matriz da transformac¸a˜o linear T : R3 → R3, T (u) = u× v, onde v = (1, 1, 1). Resposta: Para isto determinaremos a forma geral de T . Observe que T (x, y, z) = (x, y, z)× (1, 1, 1) = ∣∣∣∣∣∣ i j k x y z 1 1 1 ∣∣∣∣∣∣ = (y − z, z − x, x− y). Portanto, T (1, 0, 0) = (0,−1, 1), T (0, 1, 0) = (1, 0,−1), T (0, 0, 1) = (−1, 1, 0). 7 Finalmente, obtemos [T ] = 0 1 −1−1 0 1 1 −1 0 . ¤ Exemplo 3. Determinar a matriz da transformac¸a˜o linear T : R3 → R3, T (u) = (u · v) w, onde v = (1, 1, 1) e w = (1, 2, 3). Resposta: Calcularemos as imagens dos vetores i, j e k. Temos T (1, 0, 0) = ((1, 0, 0) · (1, 1, 1)) (1, 2, 3) = (1, 2, 3), T (0, 1, 0) = ((0, 1, 0) · (1, 1, 1)) (1, 2, 3) = (1, 2, 3), T (0, 0, 1) = ((0, 0, 1) · (1, 1, 1)) (1, 2, 3) = (1, 2, 3). Portanto, [T ] = 1 1 12 2 2 3 3 3 . ¤ Analogamente, dada uma matriz [T ] temos uma transformac¸a˜o linear T associada a dita matriz. Dada a matriz [T ] = a1 a2 a3b1 b2 b3 c1 c2 c3 sua transformac¸a˜o linear associada e´ T (x, y, z) = (a1 x + a2 y + a3 z, b1 x + b2 y + b3 z, c1 x + c2 y + c3 z). Ou de outra forma, escrevendo os vetores em froma coluna, [T ] xy z = a1 a2 a3b1 b2 b3 c1 c2 c3 xy z . 8 AULA 15.pdf A´lgebra Linear I - Aula 15 1. Composic¸a˜o de transformac¸o˜es lineares. 2. Produto de matrizes. 3. Determinante do produto de matrizes. 1 Composic¸a˜o de transformac¸o˜es lineares Considere duas transformac¸o˜es lineares T e L, T : Rm → Rk, L : Rn → Rℓ. Se ℓ e´ igual a m temos que dado um vetor u de Rn sua imagem L(u) esta´ em Rℓ = Rm, que e´ o domı´nio de T , portanto podemos aplicar T a L(u), obtendo T (L(u)). Neste caso podemos definir a composic¸a˜o T ◦ L como T ◦ L(u) = T (L(u)). Analogamente, se k e´ igual a n, dado qualquer vetor v de Rm sua imagem T (v) esta´ em Rk = Rn, que e´ o domı´nio de L, portanto podemos aplicar L a T (v), obtendo L(T (v)). Neste caso podemos definir a composic¸a˜o L ◦ T . Dadas duas transformac¸o˜es lineares T : Rm → Rk, L : Rn → Rm, a composic¸a˜o T ◦ L T ◦ L : Rn → Rk, e´ uma nova transformac¸a˜o linear: • T ◦ L(u+ v) = T (L(u+ v)) = T (L(u) + L(v)) = T (L(u)) + T (L(v)) = T ◦ L(u) + T ◦ L(v), • T ◦ L(σu) = T (L(σu)) = T (σL(u)) = σT (L(u)) = σ(T ◦ L(u)). 1 Observac¸a˜o: Como no caso do produto de matrizes, a composic¸a˜o de transformac¸o˜es lineares na˜o e´ comutativa. Em alguns casos a composic¸a˜o T ◦L pode estar definida e a composic¸a˜o L ◦ T na˜o. Mesmo quando as duas composic¸o˜es esta˜o definidas pode acontecer que T ◦ L 6= L ◦ T . Veremos a seguir alguns exemplos: (1) Considere os cisalhamentos T (x, y) = (x + α y, y), e L(x, y) = (x, β x + y). Enta˜o L ◦ T (x, y) = L((x + α y, y)) = (x + α y, y + β α y + β x), e T ◦ L(x, y) = T ((x, β x + y)) = (x + α y + αβ x, y + βx), que obviamente sa˜o (em geral) diferentes. (2) Seja T : R3 −→ R3 a transformac¸a˜o linear projec¸a˜o ortogonal na reta (t, 0, 0) e seja L : R3 −→ R3 a transformac¸a˜o linear definida por L(v) = v × u, onde u = (1,−1, 1). Enta˜o L ◦ T (x, y, z) = L((x, 0, 0)) = (0,−x,−x), e T ◦ L(x, y, z) = T ((y + z,−x + z,−x− y)) = (y + z, 0, 0) que sa˜o obviamente transformac¸o˜es lineares distintas, por exemplo: L ◦ T (1, 2, 3) = L((1, 0, 0)) = (0,−1,−1), mas T ◦ L(1, 2, 3) = T ((5, 2,−3)) = (5, 0, 0) Observe que, neste caso, L◦T (v) = T◦L(v) se, e somente se, v = (0, k,−k), k ∈ R. Nestas condic¸o˜es L◦T (0, k,−k) = T ◦L(0, k,−k) = (0, 0, 0) o que mostra 2 que essas transformac¸o˜es, L ◦T e T ◦L, na˜o sa˜o injetoras. Verifique tambe´m que elas na˜o sa˜o sobrejetoras! (3) Seja T : R2 −→ R3 a transformac¸a˜o linear definida por T (x, y) = (x, y, x + y) e seja L : R3 −→ R2 a transformac¸a˜o linear definida por L(x, y, z) = (2x, y + z). Enta˜o L ◦ T (x, y) = L((x, y, x + y)) = (2x, x + 2y), e T ◦ L(x, y, z) = T ((2x, y + z)) = (2x, y + z, 2x + y + z) que sa˜o obviamente transformac¸o˜es lineares distintas. Observe inclusive que L ◦ T : R2 −→ R2 enquanto que T ◦ L : R3 −→ R3. Vale a pena voceˆ conferir que, neste caso, L ◦ T e´ injetora e sobrejetora enquanto que T ◦ L na˜o e´ injetora nem sobrejetora. (4) Seja T : R2 −→ R2 a transformac¸a˜o linear identidade, ou seja, T (x, y) = (x, y) e seja L : R2 −→ R3 a transformac¸a˜o linear definida por L(x, y) = (x, 0, y). Enta˜o L ◦ T (x, y) = L((x, y)) = (x, 0, y), mas, neste caso T ◦ L na˜o esta´ definida. Para pensar: apresente, se poss´ıvel, duas transformac¸o˜es lineares T e L de modo que para todo vetor v se tenha T ◦ L(v) = L ◦ T (v). Na˜o vale T = L = Id, nem T (v) = 2 e L(w) = 3w e coisas similares! 2 Produto de matrizes A seguir calcularemos a matriz associada a` composic¸a˜o de duas transformac¸o˜es lineares. Por simplicidade, faremos os ca´lculos em R2, os ca´lculos em R3 sa˜o ideˆnticos. Sejam T e L transformac¸o˜es lineares cujas matrizes sa˜o [T ] = ( a1 a2 b1 b2 ) , [L] = ( c1 c2 d1 d2 ) . Para determinar a matriz de L◦T e´ suficiente calcular L◦T (1, 0) e L◦T (0, 1), que sera˜o as colunas da nova matriz. 3 L ◦ T (1, 0) = L((a1, b1)) = a1 L(1, 0) + b1 L(0, 1) = = a1 (c1, d1) + b1 (c2, d2) = = (a1 c1 + b1 c2, a1 d1 + b1 d2). L ◦ T (0, 1) = L((a2, b2)) = a2 L(1, 0) + b2 L(0, 1) = = a2 (c1, d1) + b2 (c2, d2) = = (a2 c1 + b2 c2, a2 d1 + b2 d2). Obtendo a nova matriz: [L ◦ T ] = ( c1 a1 + c2 b1 c1 a2 + c2 b2 d1 a1 + d2 b1 d1 a2 + d2 b2. ) . Finalmente, observamos que os ca´lculos feitos para calcular o produto de duas matrizes fornece a seguinte regra geral. Considere os vetores c = (c1, c2) e d = (d1, d2) que determinam as linhas de [L], e os vetores u = (a1, b1) e v = (a2, b2) que determinam as colunas de [T ]. Temos a seguinte expressa˜o: [L][T ] = ( c · u c · v d · u d · v ) . Dessa forma, vamos verificar a matriz associada a` composic¸a˜o de duas trans- formac¸o˜es lineares nos quatro exemplos que apresentamos acima: (1) L e T sa˜o dois cisalhamentos definidos por: T (x, y) = (x + α y, y), e L(x, y) = (x, β x + y). Nestas condic¸o˜es: [L ◦ T ] = [L][T ] = ( 1 0 β 1 )( 1 α 0 1 ) = ( 1 α β αβ + 1 ) e [T ◦ L] = [T ][L] = ( 1 α 0 1 )( 1 0 β 1 ) = ( 1 + αβ α β 1 ) . (2) T : R3 −→ R3 e´ a transformac¸a˜o linear projec¸a˜o ortogonal na reta (t, 0, 0) e L : R3 −→ R3 e´ a transformac¸a˜o linear definida por L(v) = v × u para u = (1,−1, 1). 4 Nestas condic¸o˜es: [L ◦ T ] = [L][T ] = 0 1 1−1 0 1 −1 −1 0 1 0 00 0 0 0 0 0 = 0 0 0−1 0 0 −1 0 0 e [T ◦ L] = [T ][L] = 1 0 00 0 0 0 0 0 0 1 1−1 0 1 −1 −1 0 = 0 1 10 0 0 0 0 0 . (3) T : R2 −→ R3 e´ a transformac¸a˜o linear definida por T (x, y) = (x, y, x+y) e L : R3 −→ R2 e´ a transformac¸a˜o linear definida por L(x, y, z) = (2x, y+z). Nestas condic¸o˜es: [L ◦ T ] = [L][T ] = ( 2 0 0 0 1 1 ) 1 00 1 1 1 = ( 2 0 1 2 ) . e [T ◦ L] = [T ][L] = 1 00 1 1 1 ( 2 0 0 0 1 1 ) = 2 0 00 1 1 2 1 1 . (4) T : R2 −→ R2 e´ a transformac¸a˜o linear identidade, ou seja, T (x, y) = (x, y) e L : R2 −→ R3 e´ a transformac¸a˜o linear definida por L(x, y) = (x, 0, y). Nestas condic¸o˜es: [L ◦ T ] = [L][T ] = 1 00 0 0 1 ( 1 0 0 1 ) = 1 00 0 0 1 e o produto de matrizes [T ][L] na˜o esta´ definido. 3 Determinante do produto de duas matrizes Considere as matrizes triangulares [A] ( a b 0 c ) e [B] ( d e 0 f ) . 5 Denote por det[M ] o determinante de uma matriz quadrada (mesmo nu´mero de linhas que de colunas). Observe que det[A] = a c det[B] = d f. Observe que [AB] = [A][B] = ( ad ae + bf 0 cf ) e que det[AB] = (a d) (c f) = det[A] det[B]. Neste caso temos que o determinante da matriz produto e´ o produto dos de- terminantes. De fato, sempre, o determinante do produto de duas matrizes (quadradas) e´ o produto dos determinantes das duas matrizes. Uma justificativa e´ a se- guinte: reduzindo a` forma escalonada, o determinante na˜o muda, assim a afirmac¸a˜o decorre da afirmac¸a˜o sobre o produto de matrizes triangulares. Os exemplos (1) e (2) da sec¸a˜o acima, envolvem a composic¸a˜o de trans- formac¸o˜es lineares de domı´nio e contra-domı´nio iguais. Logo, as matrizes re- presentantes dessas transformac¸o˜es sa˜o quadradas e, desta forma, e´ poss´ıvel calcular seus respectivos determinantes. Observe que, nestes casos, o deter- minante da matriz representante da transformac¸a˜o composic¸a˜o e´ o produto dos determinantes das matrizes de cada uma das transformac¸o˜es envolvidas na composic¸a˜o. Conferindo enta˜o, temos: (1) L e T sa˜o dois cisalhamentos definidos por: T (x, y) = (x + α y, y), e L(x, y) = (x, β x + y). Nestas condic¸o˜es: det[L ◦ T ] = det[L] det[T ] = ∣∣∣∣ 1 0β 1 ∣∣∣∣ ∣∣∣∣ 1 α0 1 ∣∣∣∣ = 1 · 1 = ∣∣∣∣ 1 αβ αβ + 1 ∣∣∣∣ = 1. (2) T : R3 −→ R3 e´ a transformac¸a˜o linear projec¸a˜o ortogonal na reta (t, 0, 0) e L : R3 −→ R3 e´ a transformac¸a˜o linear definida por L(v) = v × u para 6 u = (1,−1, 1). Nestas condic¸o˜es: det[L ◦ T ] = det[L] det[T ] = ∣∣∣∣∣∣ 0 1 1 −1 0 1 −1 −1 0 ∣∣∣∣∣∣ ∣∣∣∣∣∣ 1 0 0 0 0 0 0 0 0 ∣∣∣∣∣∣ = ∣∣∣∣∣∣ 0 0 0 −1 0 0 −1 0 0 ∣∣∣∣∣∣ = 0. 7 AULA 16.pdf A´lgebra Linear I - Aula 16 1. Transformac¸a˜o linear inversa. 2. Condic¸o˜es para a existeˆncia da inversa. Roteiro 1 Transformac¸a˜o linear inversa Definic¸a˜o 1. Dada uma transformac¸a˜o linear T : Rn → Rn sua inversa e´ uma nova transformac¸a˜o linear T−1 que verifica a seguinte propriedade: para todo vetor u, T−1 ◦ T (u) = T ◦ T−1(u) = u, (isto e´, T−1 ◦ T = T ◦ T−1 = Id). Observamos que, em geral, ha´ transformac¸o˜es lineares que na˜o teˆm in- versa. Por exemplo, considere uma transformac¸a˜o linear T : R3 → R3 tal que T (1, 1, 1) = 0¯, por exemplo, a transformac¸a˜o linear T (x, y, z) = (x− y, x− z, y − z). Se a transformac¸a˜o linear inversa de T existisse, T−1 deveria verificar T−1(0, 0, 0) = (1, 1, 1), pois T−1 ◦ T (1, 1, 1) = (1, 1, 1), isto e´, T−1(0, 0, 0) = (1, 1, 1). Mas se T−1 for linear enta˜o T−1(0, 0, 0) = 0¯. Em qualquer caso, mesmo se a T−1 na˜o for linear haveria um problema: como T e´ linear, temos T (1, 1, 1) = 0¯ = T (2, 2, 2). Portanto, T−1(0, 0, 0) deveria tomar dois valores, (1, 1, 1) e (2, 2, 2), o que e´ imposs´ıvel. Na pro´xima sec¸a˜o veremos condic¸o˜es para a existeˆncia da transformac¸a˜o linear inversa T−1. Observe que se a transformac¸a˜o inversa T−1 existe enta˜o e´ uma trans- formac¸a˜o linear: Suponha que T (u1) = v1 e T (u2) = v2, logo T (u1 + u2) = v1 + v2. Isto significa que, T−1(v1) = u1, T −1(v2) = u2, T −1(v1 + v2) = u1 + u2. 1 Finalmente, T−1(v1 + v2) = u1 + u2 = T −1(v1) + T −1(v2). Para verificar a condic¸a˜o T−1(σ v1) = σ T −1(v1) observe que T (σ u1) = σ T (u1) = σ v1. Logo T−1(σ v1) = σ u1 = σ T −1(v1). Finalmente, observe que [T−1] ◦ [T ] = [T ] ◦ [T−1] = Id. Logo, usando as propriedades do determinante, obtemos que: • det[T−1] = 1/ det[T ]. • Se T tem inversa enta˜o det[T ] 6= 0, (de fato veremos que isto e´ condic¸a˜o necessa´ria e suficiente). 2 Definic¸a˜o de T−1. Condic¸o˜es para a exis- teˆncia da inversa Veremos agora como definir a transformac¸a˜o T−1. Em primeiro lugar observe que se T (u) = v enta˜o, necessariamente pela definic¸a˜o de inversa, T−1(v) = u. Portanto, uma condic¸a˜o necessa´ria para a existeˆncia de inversa e´ que a trans- formac¸a˜o seja injetora, isto e´, se u 6= w enta˜o T (u) 6= T (w) (veremos na Ob- servac¸a˜o 1 que no caso das transformac¸o˜es lineares ser injetora e´ equivalente a T (u) = 0¯ se, e somente se, u = 0¯). Suponha que ha´ vetores diferentes u e v tais que T (u) = T (v) = w (de fato isto acontecia no exemplo anterior, por exemplo T (1, 2, 2) = T (2, 3, 3) = T (0, 1, 1) = (−1,−1, 0)), enta˜o deveriamos ter T−1(w) = v e T−1(w) = u, o que e´ imposs´ıvel. As condic¸o˜es (necessa´rias e suficientes) para a existeˆncia de transformac¸a˜o linear inversa sa˜o: 2 • Injetividade: Se u 6= w enta˜o, T (u) 6= T (w). Observe que se T (u) = T (w) = v enta˜o, T−1(u) = v e T−1(u) = w, logo u deveria tomar dois valores!. • Sobrejetividade de T : para todo vetor u existe v tal que T (v) = u. Se a transformac¸a˜o for injetora o vetor v e´ u´nico. Em tal caso, T−1(u) = v: T−1 ◦ T (v) = T−1(u) = v, T ◦ T−1(v) = T (u) = v. Estas duas condic¸o˜es se verificam se, e somente se, det[T ] e´ na˜o nulo. Pensaremos as condic¸o˜es anteriores em termos de sistemas de equac¸o˜es. Su- ponha, para simplificar, que T : R2 → R2 e que [T ] = ( a b c d ) . Dado um vetor v = (α, β), para calcular T−1(v) devemos encontrar um vetor (x, y) tal que T (x, y) = (α, β) (e em tal caso T−1(α, β) = (x, y)). Ou seja, devemos resolver o sistema a seguir e verificar que tal sistema tem soluc¸a˜o u´nica: ax + by = α, cx + dy = β. Isto e´, para que exista a inversa o sistema anterior deve ter soluc¸a˜o sempre, e dita soluc¸a˜o deve ser u´nica. Estas condic¸o˜es esta˜o garantidas se (e somente se) det[T ] 6= 0. Observac¸a˜o 1 (Sobre a condic¸a˜o de injetividade). No caso em que T e´ injetora se verifica T (u) = 0¯ se e somente se u = 0¯. Para ver a afirmac¸a˜o e´ suficiente observar que se T na˜o e´ injectiva existem vetores diferentes u e v tais que T (u) = T (v). Portanto, T (u)− T (v) = 0¯, T (u− v) = 0¯, onde u− v 6= 0¯. Claramente, se T e´ injetiva T (0) = 0¯ e para todo vetor na˜o nulo u temos T (u) 6= 0¯. Propriedade 2.1 (Injetividade e sobrejetividade). Quando uma transformac¸a˜o linear T : Rn → Rn e´ injetora tambe´m e´ sobrejetora, e vice-versa. 3 Veremos a afirmac¸a˜o anterior quando T : R3 → R3. Veremos que se e´ injetora tambe´m e´ sobrejetora. Considere uma base de R3, u1, u2 e u3. Afir- mamos que os vetores T (u1), T (u2) e T (u3) sa˜o linearmente independentes. Caso contra´rio um deles poderia ser escrito como combinac¸a˜o linear dos ou- tros. Por exemplo, T (u3) = λT (u1) + σ T (u2) = T (λu1 + σ u2). Como T e´ injetora, u3 = λu1 + σ u2, λ u1 + σ u2 − u3 = 0. Obtemos assim uma combinac¸a˜o linear dos vetores u1, u2 e u3 dando o vetor nulo, o que e´ imposs´ıvel pois os vetores sa˜o l.i.. Agora como T (u1), T (u2) e T (u3) sa˜o l.i. formam uma base. Para ter- minar a prova, e´ suficiente ver que dado qualquer w ∈ R3 existe u tal que T (u) = w. Como {T (u1), T (u2), T (u3)} e´ uma base, w = λT (u1) + σ T (u2) + γ T (u3) = T (λu1 + σ u2 + γ u3). Isto termina a prova. Fica como exerc´ıcio verificar que se T e´ sobrejetora enta˜o e´ injetora. Para motivar e como dica veremos o caso R2. Se T na˜o for injetora existe um vetor na˜o nulo u tal que T (u) = 0¯. Considere agora uma base {u, v} de R2 contendo o vetor u. Suponha que T (v) = w. Suponhamos que w 6= 0¯. Afirmamos que a imagem de T e´ reta de vetor diretor w (portanto, na˜o e´ R 2). Dado um vetor ℓ temos ℓ = λ v + σ u, logo T (ℓ) = σ w, e portante sua imagem esta´ na reta vetorial de vetor diretor w que conte´m a origem. Exemplos 1. Estudar se as transformac¸o˜es lineares a seguir possuem inver- sas. Determine estas caso existam. • T (x, y) = (2x, x + y). • T (x, y, z) = (2x + y + z, x + y + z, x). Resposta: No primeiro caso existe inversa: para determinar T−1(u) e suficiente encontrar v tal que T (v) = u e ver que esta soluc¸a˜o e´ u´nica. Isto e´, se u = (a, b) devemos resolver o sistema: 2x = a, x + y = b. 4 A soluc¸a˜o e´ x = a/2 e y = b− a/2. Ou seja, T−1(a, b) = (a/2, b− a/2). Portanto, temos, [T−1] = ( 1/2 0 −1/2 1 ) . Verifique que [T−1] ◦ [T ] = [T ] ◦ [T−1] = Id. No segundo caso na˜o existe inversa. A transformac¸a˜o T na˜o e´ nem sobre- jetiva nem injetiva. Veremos isto resolvendo um sistema da forma. 2x + y + z = a, x + y + z = b, x = c, isto e´, dado um vetor (a, b, c) estamos calculando os vetores (x, y, z) tais que T (x, y, z) = (a, b, c). Escalonando, x = c, y + z = a− 2c, y + z = b− c. Continuando o escalonamento, x = c, y + z = a− 2c, 0 = b + c− a. Ou seja, para que o sistema admita soluc¸a˜o o vetor deve ser da forma (a, b, a− b). Isto e´, na˜o e´ poss´ıvel definir (por exemplo) T−1(1, 1, 1). Calcule agora a matriz associada a T e determine seu determinante (ob- viamente, det(T ) = 0, justifique sem fazer as contas!). ¤ 3 Me´todos para determinar T−1 Explicaremos de forma sucinta dois me´todos para calcular a matriz de T−1. Para fixar ideias suporemos que a matriz associada a T e´ 3× 3. 3.1 Via sistemas de equac¸o˜es Este me´todo ja´ foi esboc¸ado no exemplo da sec¸a˜o anterior. Devemos deter- minar T−1 dos vetores (1, 0, 0), (0, 1, 0) e (0, 0, 1). Conhecidos estes vetores a matriz [T−1] tera´ por colunas estes vetores. Para isto e´ suficiente resolver os sistemas 5 • T (x, y, z) = (1, 0, 0), cuja soluc¸a˜o e´ T−1(1, 0, 0), • T (x, y, z) = (0, 1, 0), cuja soluc¸a˜o e´ T−1(0, 1, 0), • T (x, y, z) = (0, 0, 1), cuja soluc¸a˜o e´ T−1(0, 0, 1). Exemplo 1. Determine a matriz inversa da transformac¸a˜o linear T cuja matriz associada e´ [T ] = 1 1 10 1 1 1 1 0 Resposta: Resolveremos o sistema geral T (x, y, z) = (a, b, c). Temos o sistema, x + y + z = a, y + z = b, x + y = c. A soluc¸a˜o deste sistema e´ (a− b, b− a + c, a− c). Fazendo (a, b, c) igual a (1, 0, 0), (0, 1, 0) e (0, 0, 1) obtemos T−1(1, 0, 0) = (1,−1, 1), T−1(0, 1, 0) = (−1, 1, 0), T−1(0, 0, 1) = (0, 1,−1). Portanto, [T−1] = 1 −1 0−1 1 1 1 0 −1 . Verifique que [T−1] e´ de fato a inversa de [T ] (calcule [T−1][T ] e veja que o resultado e´ a matriz identidade). ¤ 3.2 Me´todo de Gauss Outra forma para encontrar a inversa de uma matriz A e´ o me´todo de Gauss, que consiste em, utilizando operac¸o˜es elementares, transformar a matriz A na matriz identidade. Este me´todo segue a mesma filosofia do me´todo de resoluc¸a˜o de equac¸o˜es lineares usando o me´todo de escalonamento. V. repete cada operac¸a˜o efetuada na matriz A na matriz identidade, e o resultado final e´ a matriz inversa A−1 (justificaremos esta afirmac¸a˜o mais tarde). Entendemos por operac¸o˜es elementares: 6 • multiplicac¸a˜o de uma linha por um nu´mero diferente de zero, • permutac¸o˜es na ordem das linhas, • substituir uma linha ℓ por uma nova linha obtida como combinac¸a˜o linear de essa linha e outras linhas da matriz (o coeficiente de ℓ na˜o e´ nulo) Exemplo 2. Usando o me´todo de Gauss, calcule a inversa de T = 1 1 11 2 2 1 3 2 Resposta: 1 1 1 | 1 0 01 2 2 | 0 1 0 1 3 2 | 0 0 1 (a) 1 1 1 | 1 0 00 1 1 | −1 1 0 0 2 1 | −1 0 1 . (b) 1 1 1 | 1 0 00 1 1 | −1 1 0 0 0 −1 | 1 −2 1 (c) 1 1 1 | 1 0 00 1 1 | −1 1 0 0 0 1 | −1 2 −1 (d) 1 1 0 | 2 −2 10 1 0 | 0 −1 1 0 0 1 | −1 2 −1 (e) 1 0 0 | 2 −1 00 1 0 | 0 −1 1 0 0 1 | −1 2 −1 . Logo T−1 = 2 −1 00 −1 1 −1 2 −1 . Verifique!. ¤ As operac¸o˜es elementares efetuadas nos diferentes passos foram: a) segunda linha menos primeira linha, e terceira linha menos a primeira, b) terceira linha menos duas vezes a segunda, c) a terceira linha e´ multiplicada por (−1). d) segunda linha menos terceira linha, e primeira menos terceira, 7 e) primeira menos segunda. A seguir identificaremos cada passo como as multiplicac¸o˜es das matrizes T e Id por matrices A, B, C, D e E correspondentes aos passoa (a), (b), (c), (d) e (e). Passo (a) multiplicar (a` esquerda) por A = 1 0 0−1 1 0 −1 0 1 . Passo (b) multiplicar (a` esquerda) por B = 1 0 00 1 0 0 −2 1 . Passo (c) multiplicar (a` esquerda) por C = 1 0 00 1 0 0 0 −1 . Passo (d) multiplicar (a` esquerda) por D = 1 0 −10 1 −1 0 0 1 . Passo (e) multiplicar (a` esquerda) por E = 1 −1 00 1 0 0 0 1 . Observe que obtivemos duas matrizes (EDCBA)T = Id, EDCBA. 8 Onde (EDCBA) e´ (por definic¸a˜o) a inversa de T . Descobra agora quais seriam as matrices envolvidas caso v. multiplicase pela direita, em vez de pela esquerda. Tente repetir o processo anterior com a matriz B = 1 6 42 4 −1 −1 2 5 . O determinante e´ nulo, portanto na˜o e´ invers´ıvel. Quando v. repete o pro- cesso obtem o seguinte: 1 6 4 | 1 0 00 −8 −9 | −2 1 0 0 0 0 | −1 1 1 . Interprete!. Finalmente, quando a matriz e´ dois por dois, o me´todo dos cofatores (que na˜o explicaremos agora) e´ muito pra´tico: a inversa da matriz A = ( a b c d ) , onde ad− bc 6= 0 (isto e´, det(A) 6= 0) e´ dada por A−1 = ( d/ detA −b/ detA −c/ detA a/ detA ) . Verifique que A ◦ A−1 = Id = A−1 ◦ A. 9 AULA 8.pdf A´lgebra Linear I - Aula 8 1. Distaˆncia de um ponto a uma reta. 2. Distaˆncia de um ponto a um plano. 3. Distaˆncia entre uma reta e um plano. 4. Distaˆncia entre dois planos. 5. Distaˆncia entre duas retas. Roteiro 1 Distaˆncia de um ponto P a uma reta r Dado um ponto P e uma reta r, a distaˆncia do ponto P a` reta r e´ o menor comprimento dos segmentos PQ onde Q e´ um ponto da reta. Este mı´nimo e´ atingido quando o vetor PQ e´ ortogonal ao vetor diretor da reta. Observe que, neste caso, dado qualquer ponto R da reta r, os pontos P , Q e R sa˜o os ve´rtices de um triaˆngulo retaˆngulo, onde os segmentos PQ e QR sa˜o os catetos e PR a hipotenusa. Portanto, temos |PQ| = |PR| sen (θ), onde θ e´ o aˆngulo formado pelos segmentos PR e RQ; como sen (θ) ≤ 1, temos que |PQ| ≤ |PR|, o que prova a afirmac¸a˜o. Veja a Figura 1 Vejamos primeiro como calcular a distaˆncia no plano. Neste caso, escolhemos qualquer ponto R da reta, a distaˆncia e´ o mo´dulo da projec¸a˜o ortogonal do vetor RP no vetor normal da reta, n (em R2 a direc¸a˜o do vetor esta´ bem determinada, isto na˜o ocorre em R3, justifique). Observe que este ca´lculo e´ independente do ponto R. Isto e´: a projec¸a˜o ortogonal de RP em n e´ igual a` projec¸a˜o ortogonal de AP em n, para qualquer ponto A de r (justifique tambe´m esta afirmac¸a˜o!). 1 P Q R v r Figura 1: Distaˆncia entre ponto e reta Vejamos agora o ca´lculo da distaˆncia de P a r no caso geral. Pelos comenta´rios anteriores, o problema consiste em achar o ponto Q tal que PQ seja ortogonal a r. Me´todo 1: Considere o plano pi normal a r que conte´m P . Calcule o ponto de intersec¸a˜o Q de pi e r. A distaˆncia procurada e´ a distaˆncia entre P e Q. Veja a Figura 2. Me´todo 2: Considere um ponto qualquer R de r e o vetor diretor v de r. Calcule o produto vetorial PR× v. Enta˜o a distaˆncia d procurada e´ d = ||PR× v|| ||v|| . Veja a Figura 3. Para ver esta afirmac¸a˜o observe que a a´rea do paralelogramo determinado por PR e v e´ ||PR× v|| = (base b do paralelogramo) (altura h do paralelogramo). Onde b = ||v|| e h e´ a distaˆncia procurada. Veja que este me´todo e´ independente da escolha do ponto R. Exemplo 1. Calcule a distaˆncia do ponto P = (1, 0, 1) a` reta (t, 2t, 3), t ∈ R. 2 PQpi r Figura 2: Distaˆncia entre ponto e reta Resposta: Usando o primeiro me´todo, temos que o plano pi normal a r que conte´m o ponto P e´ da forma pi : x + 2 y = d. Como (1, 0, 1) ∈ pi temos d = 1. A intersec¸a˜o de r e pi ocorre para o paraˆmetro t que verifica t + 2 (2 t) = 1, logo t = 1/5. Temos que o ponto Q de intersec¸ao e´ (1/5, 2/5, 3). Logo PQ = (−4/5, 2/5, 10/5) que tem mo´dulo √ 16 + 4 + 100/5 = √ 120/5 = √ 24/5. Este mo´dulo e´ a distaˆncia procurada. Para o segundo me´todo escolhemos um ponto R qualquer de r (por exem- plo, (0, 0, 3)). Logo PR = (1, 0,−2). Temos (1, 2, 0)× (1, 0,−2) = (4,−2, 2). Logo a distaˆncia e´ |(4,−2, 2)|/|(1, 0,−2)| = √ 24/ √ 5. Obviamente obtemos o mesmo resultado. ¤ 3 P R d v h A = (b)(h) b Figura 3: Distaˆncia entre ponto e reta: usando produto vetorial 2 Distaˆncia de um ponto P a um plano pi Dado um ponto P e um plano pi, a distaˆncia entre P e pi e´ a menor das distaˆncias d(P,Q), onde Q e´ um ponto de pi. Como no caso da distaˆncia de um ponto a uma reta, este mı´nimo ocorre quando o vetor PQ e´ ortogonal ao plano (ou seja, paralelo ao vetor normal do plano). Esta afirmac¸a˜o e´ obtida exatamente como no caso da distaˆncia de um ponto a uma reta. Para calcular a distaˆncia de P a pi veremos treˆs me´todos: • Me´todo 1: Considere a reta r normal ao plano pi que conte´m P . Calcule o ponto de intersec¸a˜o Q de pi e r. A distaˆncia procurada e´ a distaˆncia entre P e Q. • Me´todo 2: Considere um ponto qualquer R de pi e o vetor normal n de pi. Calcule o vetor w obtido como a projec¸a˜o do vetor PR em n. O mo´dulo de w e´ a distaˆncia procurada. • Me´todo 3: Usando o produto misto. Considere dois vetores v e w paralelos ao plano pi e um ponto Q do plano pi. Considere o parale- lep´ıpedo Π com arestas v, w e PQ. O volume do paralelep´ıpedo Π e´ |PQ · (v × w)| = (a´rea base) · ([h]altura) = ||v × w|| · h. 4 Temos que h e´ exatamente a distaˆncia de P a pi. Exerc´ıcio 1. Com a notac¸a˜o acima, que propriedade verifica o ponto T = P − w? P R pi d w T n Figura 4: Distaˆncia entre ponto e plano: usando projec¸o˜es Exemplo 2. Calcule a distaˆncia do ponto P = (1, 0, 1) ao plano pi : x+2 y− z = 1. Resposta: Usando o primeiro me´todo, temos que r = (1 + t, 2t, 1− t). A intersec¸a˜o da reta r e do plano pi ocorre quando t verifica (substituindo a equac¸a˜o da reta na do plano) (1 + t) + 2 (2 t)− (1− t) = 1, isto e´, t = 1/6. Logo Q = (7/6, 2/6, 5/6) e PQ = (1/6, 2/6,−1/6). A distaˆncia e´ o mo´dulo de PQ = (1/6, 2/6,−1/6), ou seja, 1/√6. Usando o segundo me´todo escolhemos o ponto R = (1, 0, 0) do plano pi, logo PR = (0, 0,−1). Consideremos um vetor unita´rio normal ao plano n = (1/ √ 6, 2/ √ 6,−1/√6). A projec¸a˜o de PR em n e´ (PR · n) n = 1/ √ 6(1/ √ 6, 2/ √ 6,−1/ √ 6) = (1/6, 2/6,−1/6). Este vetor tem mo´dulo (que e´ a distaˆncia procurada) igual a 1/ √ 6. Obviamente, T e´ o ponto Q do primeiro me´todo! (isto responde ao Exer- c´ıcio 1). ¤ 5 3 Distaˆncia de uma reta r a um plano pi A distaˆncia entre uma reta r e um plano pi e´ a menor das distaˆncias entre pontos P da reta r e Q do plano pi. Obviamente, se a reta e o plano se intersectam a distaˆncia e´ nula. Seja n um vetor normal ao plano pi e v um vetor diretor da reta r. Existem duas possibilidades: • ou a reta e´ paralela ao plano (em tal caso n · v = 0), • a reta na˜o e´ paralela ao plano (isto ocorre se n · v 6= 0). Neste caso a reta intersecta o plano em um ponto, a distaˆncia e´ zero. No primeiro caso, a distaˆncia de r a pi e´ a distaˆncia de qualquer ponto P de r a pi. Logo e´ suficiente escolher qualquer ponto de r e calcular a distaˆncia a pi, caindo em um caso ja´ estudado. A afirmac¸a˜o e´ obtida como segue: sejam P e Q pontos da reta, e sejam T e R os pontos do plano mais pro´ximos de P e de Q, enta˜o os vetores PT e QR sa˜o paralelos e os quatro pontos determinam um retaˆngulo, portanto, |PT | = |QR|. Exemplo 3. Calcule a distaˆncia da reta r = (1 + t,−t, 1 − t) ao plano pi : x + 2 y − z = 1. Resposta: Temos que que um vetor diretor da reta e´ (1,−1,−1) e um vetor normal do plano e´ (1, 2,−1). Como (1,−1,−1) · (1, 2,−1) = 0, temos que o vetor diretor da reta e´ ortogonal ao vetor normal ao plano. Portanto, a reta e´ paralela ao plano. Como o ponto (1, 0, 1) pertence a r, o exerc´ıcio ja´ esta´ resolvido no exem- plo distaˆncia entre ponto e plano, e a distaˆncia e´ 1/ √ 6. ¤ 4 Distaˆncia entre dois planos pi e ρ A distaˆncia entre os planos pi e ρ e´ a menor das distaˆncias entre pontos P de pi e Q de ρ. Sejam n e m vetores normais dos plano pi e ρ, respectivamente. Existem duas possibilidades: ou os planos sa˜o paralelos (em tal caso n = σ m para 6 algum σ 6= 0) ou na˜o. No u´ltimo caso, os planos se intersectam e a distaˆncia e´ zero. No primeiro caso, a distaˆncia de ρ a pi e´ a distaˆncia de qualquer ponto P de ρ a pi. Logo e´ suficiente escolher qualquer ponto de ρ e calcular a distaˆncia a pi, caindo em um caso ja´ estudado. Exemplo 4. A distaˆncia entre os planos pi : x + y + z = 0 e ρ : 2x + y − z = 0 e´ zero, pois os planos na˜o sa˜o paralelos (os vetores normais na˜o sa˜o paralelos) e portanto se intersectam. Exemplo 5. Calcule a distaˆncia entre os planos paralelos pi : x + y + z = 0 e ρ : x + y + z = 1. Resposta: Podemos calcular a distaˆncia como segue: considere o ponto P = (0, 0, 0) ∈ pi e o ponto Q = (1, 0, 0) ∈ ρ. A distaˆncia e´ o mo´dulo da projec¸a˜o de PQ = (1, 0, 0) no vetor normal (1/ √ 3, 1/ √ 3, 1/ √ 3) do plano, w = ((1, 0, 0) · (1/ √ 3, 1/ √ 3, 1/ √ 3))(1/ √ 3, 1/ √ 3, 1/ √ 3) = (1/3, 1/3, 1/3). A distaˆncia e´ ||w|| = 1/√3. ¤ 5 Distaˆncia entre duas retas r e s Calcularemos a distaˆncia entre duas retas r e s, que denotaremos por d(r, s). Esta distaˆncia e´ o mı´nimo das distaˆncias dist(P,Q), onde P e´ um ponto na reta r e Q e´ um ponto na reta s. Obviamente, se as retas se intersectam a distaˆncia d(r, s) = 0. Neste caso, podemos escolher P = Q o ponto de intersec¸a˜o das retas. Portanto, consideraremos que as retas sa˜o disjuntas. Suponhamos em primeiro lugar que as retas r e s sa˜o paralelas. Neste caso, a distaˆncia d entre as retas e´ igual a distaˆncia entre qualquer ponto P ∈ r e a reta s, caso ja´ considerado (distaˆncia de ponto a reta). Observe que a escolha do ponto P e´ totalmente irrelevante. Suponhamos agora que as retas na˜o sa˜o paralelas (isto e´, sa˜o reversas). Um me´todo para calcular a distaˆncia e´ o seguinte. Consideremos pontos P e Q de r e s, respectivamente, e vetores diretores v e w de r e s, respectiva- mente. 7 r v w w s t P Q pi Figura 5: Distaˆncia entre duas retas • Considere os planos pi paralelo a s que conte´m r e ρ paralelo a r que conte´m s. No desenho, a reta t e´ uma reta paralela a s contida em pi com vetor diretor w. Escolhemos como ponto P a intersec¸a˜o das retas t e r. • Observe que estes planos sa˜o paralelos e que dois vetores (na˜o paralelos) de pi e ρ sa˜o v e w. • Observe que a distaˆncia d entre as retas r e s e´ a distaˆncia entre os dois planos. • Esta distaˆncia d e´, por exemplo, a distaˆncia de qualquer ponto Q da reta s ao plano pi. Esta distaˆncia pode ser calculada usando o produto misto como fizemos anteriormente. Consideramos vetores diretores v e w das retas r e s, obtendo: d = |PQ · (v × w)| ||v × w|| . 8 5.1 Posic¸a˜o relativa de duas retas na˜o paralelas O me´todo anterior fornece um sistema para saber se duas retas na˜o para- lelas se intersectam (sem necessidade de resolver um sistema): as retas se intersectam se e somente se PQ · (v × w) = 0. Mais uma vez, a escolha dos pontos P e Q e´ irrelevante. Exemplo 6. Calcule a distaˆncia entre as retas r = (t, 1+t, 2 t) e s = (t, t, 1). Resposta: Vetores diretores das retas r e s sa˜o v = (1, 1, 2) e w = (1, 1, 0), respectivamente. Um ponto P ∈ r e´ (0, 1, 0) e um ponto Q ∈ s e´ (0, 0, 1), logo PQ = (0,−1, 1). Portanto, a distaˆncia d entre r e s e´ d = |(0,−1, 1) · (1, 1, 2)× (1, 1, 0)| |(1, 1, 2)× (1, 1, 0)| = |(0,−1, 1) · (−2, 2, 0)| |(−2, 2, 0)| = 2√ 8 = 1√ 2 . Logo a distaˆncia e´ 1/ √ 2. ¤ 9 AULA 9.pdf A´lgebra Linear I - Aula 9 1. Combinac¸a˜o linear de vetores. 2. Subespac¸os e geradores. Roteiro 1 Combinac¸a˜o linear de vetores Definic¸a˜o 1 (Combinac¸a˜o linear de vetores). Dada um conjunto de vetores U = {u1, u2, . . . , um} uma combinac¸a˜o linear dos vetores de U e´ um vetor v da forma v = λ1 u1 + λ2 u2 + · · ·+ λm um, onde λ1, . . . , λm sa˜o nu´meros reais. Por exemplo, o vetor v = (1, 1, 4) de R3 e´ combinac¸a˜o linear dos vetores i j e k, pois v = 1 i + 1j + 4k. O vetor v tambe´m e´ combinac¸a˜o linear dos vetores v1 = (1, 0, 1), v2 = (1, 1, 0) e v3 = (0, 1, 1). Para provar esta afirmac¸a˜o devemos encontrar nu´meros reais x, y, z tais que (1, 1, 4) = x (1, 0, 1) + y (1, 1, 0) + z (0, 1, 1). Escrevendo a equac¸a˜o em coordenadas obtemos o sistema: 1 = x + y, 1 = y + z, 4 = x + z. Verifique que o sistema admite a soluc¸a˜o u´nica x = 2, y = −1, z = 2. Portanto, obtemos a combinac¸a˜o linear (1, 1, 4) = 2 (1, 0, 1)− (1, 1, 0) + 2(0, 1, 1). Caso o sistema anterior na˜o tivesse soluc¸a˜o, teriamos que o vetor na˜o seria combinac¸a˜o linear do conjunto de vetores considerado. Veremos a seguir um exemplo dessa situac¸a˜o. 1 Exerc´ıcio 1. Veja que o vetor (1, 2, 3) na˜o e´ combinac¸a˜o linear dos vetores (1, 1, 1), (1, 0, 1), (2, 1, 2) e (0, 1, 0). Resposta: Como no exemplo acima, devemos ver se existem nu´meros reais x, y, z e w tais que (1, 2, 3) = x (1, 1, 1) + y (1, 0, 1) + z (2, 1, 2) + w (0, 1, 0). Escrevendo em coordenadas, obtemos o sistema de equac¸o˜es: 1 = x + y + 2z, 2 = x + z + w, 3 = x + y + 2z. Escalonando, 1 = x + y + 2z, 1 = −y − z + w, 2 = 0. Logo o sistema na˜o tem soluc¸a˜o. Portanto, o vetor (1, 2, 3) na˜o e´ combinac¸a˜o linear dos vetores (1, 1, 1), (1, 0, 1), (2, 1, 2) e (0, 1, 0). ¤ Resumindo, para determinar se um vetor e´ combinac¸a˜o linear de outros vetores (e em caso afirmativo encontrar uma combinac¸a˜o linear), devemos resolver um sistema de equac¸o˜es lineares. Quando o sistema na˜o tem soluc¸a˜o o vetor na˜o e´ combinac¸a˜o linear dos vetores dados. Observamos que, em certas situac¸o˜es, um vetor pode se escrever de mais de uma forma como combinac¸a˜o linear de um conjunto de vetores Exemplo 1. Considere o vetor (1, 2,−3) e o conjunto de vetores U = {(1, 1,−2), (1, 0,−1), (−1, 2,−1)}. Enta˜o se verifica (1, 2,−3) = 2 (1, 1,−2)− (1, 0,−1) e tambe´m (1, 2,−3) = 2 (1, 0,−1)− (1, 2,−1). De fato, o vetor (1, 2, 3) pode ser escrito de infinitas formas como combinac¸a˜o linear dos vetores de U . Encontre novas combinac¸o˜es lineares. Exemplo 2. Determinar o conjunto dos vetores que sa˜o combinac¸a˜o linear dos vetores coplanares (1, 1, 1), (1, 0, 1), (2, 1, 2) e (0, 1, 0). 2 Resposta: Raciocinando como nos exemplos anteriores, temos que um vetor (a, b, c) de R3 e´ combinac¸a˜o linear dos vetores (1, 1, 1), (1, 0, 1), (2, 1, 2) e (0, 1, 0) se, e somente se, o sistema abaixo tem soluc¸a˜o: a = x + y + 2z, b = x + z + w, c = x + y + 2z, O sistema anterior e´ equivalente a a = x + y + 2z, b− a = −y − z + w, c− a = 0, Logo uma condic¸a˜o necessa´ria e´ a = c. Logo, a priori, os vetores que sa˜o combinac¸a˜o linear sa˜o vetores da forma (a, b, a). Observe que o sistema a = x + y + 2z, b− a = −y − z + w, admite soluc¸a˜o, por exemplo, x = a, y = z = 0, w = (b − a)/2. De fato, e´ fa´cil ver que este sistema admite infinitas soluc¸o˜es (encontre v. mesmo outras soluc¸o˜es). Portanto, os vetores da forma (a, b, a) podem ser escritos de infinitas formas diferentes como combinac¸a˜o linear dos vetores dados. De fato, obtemos que o conjunto de vetores procurado e´ o plano vetorial ρ : x− z = 0. Isto e´, o conjunto de vetores w = OP , onde P e´ um ponto do plano ρ. ¤ 2 Subespac¸os vetorias (de R2 e R3). Gerado- res Definic¸a˜o 2 (Subespac¸os). Dizemos que um conjunto V de vetores de R2 ou R3 e´ um subespac¸o vetorial se para cada par de vetores u e v de V e todo nu´mero real λ se verifica que • u + v ∈ V e • λu ∈ V. Em particular, 0¯ ∈ V (e´ suficiente considerar 0 u¯ = 0¯). De forma ana´loga a como fizemos acima, a retas e planos podemos associar conjuntos de vetores. A uma reta r associamos o conjunto de vetores Vr formado pelos vetores w da forma w = OP , onde P ∈ r. Analogamente, a um plano pi associamos o conjunto de vetores Vpi formado pelos vetores w da forma w = OP , onde P ∈ pi. 3 Exemplos 1. Retas e planos que conteˆm a origem sa˜o os subsespac¸os de R2 e R3. Isto e´, se r e pi sa˜o retas e planos que conteˆm a origem enta˜o Vr e Vpi sa˜o subespac¸os vetorias. De fato, estes conjuntos sa˜o os u´nicos subespac¸os vetorias na˜o triviais (diferentes do vetor 0¯, que e´ um subespac¸o vetorial (!), verifique) de R2 ou R 3. Em outras palavras, • se V e´ um subespac¸o de R2 diferente de {0¯} e de R2 enta˜o existe uma reta r que conte´m a origem tal que V = Vr, • se V e´ um subespac¸o de R3 diferente de {0¯} e de R3 enta˜o existem uma reta r ou um plano pi que conteˆm a origem tais que V = Vr ou V = Vpi. Resposta: Considere uma reta r que conte´m a origem (de R2 ou R3). Para ver que Vr e´ um subespac¸o vetorial usaremos a equac¸a˜o parame´trica da reta r. Um ponto P pertence a r se, e somente se, o vetor OP e´ paralelo ao vetor diretor u¯ da reta r: OP = t u¯. Portanto, Vr : v¯ = t u¯, t ∈ R, onde u¯ e´ um vetor diretor da reta r. Se consideramos dois vetores v¯1 e v¯2 de Vr temos v¯1 = OP1 = t1 u¯ e v¯2 = OP2 = t2 u¯, onde P1 e P2 sa˜o pontos da reta. Portanto, v¯1 + v¯2 = t1 u¯ + t2 u¯ = (t1 + t2) u¯ = OP3, onde P3 e´ um ponto de r. Portanto, o vetor soma v1 + v2 ∈ Vr. Para o produto de um vetor por um escalar procedemos de forma ana´loga (deixamos como exerc´ıcio v. completar os detalhes). Para ver que se pi e´ um plano de R3 que conte´m a origem enta˜o Vpi e´ um subespac¸o vetorial, usaremos tambe´m a equac¸a˜o parame´trica do plano pi. Um ponto P pertence ao plano pi se, e somente se, OP = t u¯ + s w¯, t, s ∈ R, onde u¯ e w¯ sa˜o dois vetores diretores do plano na˜o paralelos. Se consideramos dois vetores v¯1 = OP1 e v¯2 = OP2, P1, P2 ∈ pi, de Vpi temos v¯1 = t1 u¯ + s1 w¯ e v¯2 = t2 u¯ + s2 w¯. 4 Assim, v¯1 + v¯2 = (t1 + t2) u¯ + (s1 + s2) w¯ = OP3, onde P3 ∈ pi Portanto, o vetor soma v1 + v2 pertence a Vpi. Para verificar que o produto de um vetor por um escalar pertence a Vpi procedemos de forma ana´loga (mais uma vez, deixamos como exerc´ıcio v. completar os detalhes). V. pode fazer os racioc´ınios anteriores usando as equac¸o˜es cartesianas de retas e de planos. Por exemplo, para ver que se pi e´ um plano de equac¸a˜o cartesiana a x + b y + c z = 0 enta˜o Vpi e´ um subespac¸o vetorial, observe que um vetor u = (α, β, γ) pertence a Vpi se, e somente se, as coordenadas do vetor u verificam a equac¸a˜o do plano: a α + b β + c γ = 0. Isto e´ equivalente a u · n = 0, onde n e´ o vetor normal do plano. Devemos ver que dados dois vetores u e v quaisquer de Vpi se verifica u + v ∈ Vpi. Mas u ∈ Vpi e´ equivalente a u ·n = 0. Analogamente, v ∈ Vpi se, e somente se, u · n = 0. Portanto, devemos ver que (u + v) · n = 0. Mas isto decorre das propriedades do produto escalar: (u + v) · n = u · n + v · n = 0. Analogamente, e´ imediato conferir que λ v ∈ Vpi para todo nu´mero real. E´ simples ver que uma reta r ou um plano pi se na˜o conte´m a origem enta˜o V = Vr ou V = Vpi na˜o e´ um subsespac¸o. Em primeiro lugar, e´ suficiente ver que na˜o verifica a condic¸a˜o necessa´ria de subespac¸o: 0¯ 6∈ V. Tambe´m podemos raciocinar diretamente. Vejamos no caso de um plano. A equac¸a˜o cartesiana do plano pi e´ pi : a x + b y + c z = d. Como o plano na˜o conte´m a origem, temos que d 6= 0. Escolhemos dois vetores de Vpi, v = OP1 = (v1, v2, v3) e w = OP2 = (w1, w2, w3) onde P1, P2 ∈ pi. Isto e´, as coordenadas dos vetores verificam a v1 + b v2 + c v3 = d, a w1 + bw2 + c w3 = d. 5 Somando as equac¸o˜es: a (v1 + w1) + b (v2 + w2) + c (v3 + w3) = 2 d 6= d. Ou seja, as coordenadas do vetor soma v¯ + w¯ na˜o verificam a equac¸a˜o do plano. Portanto, u¯ + v¯ 6= OP3, para qualquer ponto P3 ∈ pi. ¿Um outro exemplo: dada a circunfereˆncia C centrada em (−1, 0) de raio 1 temos que VC na˜o e´ um subespac¸o de R 2. A circunfereˆncia conte´m a origem, portanto o vetor 0¯ pertence a VC . Mas isto na˜o e´ suficiente para VC ser um subespac¸o. O vetor (−2, 0) pertence a VC . Mas se multiplicamos este vetor por qualquer nu´mero diferente de zero ou de 1 o vetor resultante, w, na˜o pertence a VC : w 6= 0P para todo P ∈ C. ¤ Resumindo, considere uma reta r ou um plano pi (suponhamos em equac co˜es cartesianas para simplificar). Se consideramos Vr: um vetor w = (a, b, c) pertence a Vr se e somente P = (a, b, c) verifica a equac¸a˜o da reta. Se consideramos Vpi: um vetor w = (a, b, c) pertence a Vpi se e somente P = (a, b, c) verifica a equac¸a˜o do plano pi. Por este motivo, quando consideramos retas e planos, com certo abuso de notac¸a˜o, simplesmente escrevemos Vr = r e Vpi = pi. Definic¸a˜o 3 (Subsespac¸o gerado por vetores). Dado um conjunto de vetores W = {u1, . . . , um} o subespac¸o W gerado pelos vetores de W e´ o de conjunto de vetores que podem se escrever da forma v = λ1 u1 + λ2 u2 + · · ·+ λm um, onde λ1, . . . , λm sa˜o nu´meros reais. Observamos que W e´ um subespac¸o vetorial. Devemos verificar que para todo par de vetores u, v ∈ W e todo nu´mero real σ ∈ R se verifica: u + v ∈ W e σ u ∈ W. Veja que se v = λ1 u1 + λ2 u2 + · · ·+ λm um e w = σ1 u1 + σ2 u2 + · · ·+ σm um, enta˜o v + w = (λ1 + σ1) u1 + (λ2 + σ2) u2 + · · ·+ (λm + σm) um 6 e σ v = (σ λ1) u1 + (σ λ2) u2 + · · ·+ (σ λm) um. Portanto, por definic¸a˜o de subespac¸o gerado, os vetores soma e produto por um escalar pertencem a W. Exemplo 3. Pelos argumentos da sec¸a˜o anterior, o subespac¸o vetorial gerado pelos vetores W = {(1, 1, 1), (1, 0, 1), (2, 1, 2), (0, 1, 0)} e´ o conjunto de vetores W = {(x, y, x) : x ∈ R, y ∈ R}. Ou seja, o plano que conte´m a origem e tem vetores paralelos a (1, 0, 1) e a (0, 1, 0). Ou em forma cartesiana, o plano de equac¸a˜o x− z = 0, Definic¸a˜o 4 (Geradores de um subespac¸o). Dado um subespac¸o vetorial W dizemos que u1, u2 . . . , um sa˜o geradores de W se todo vetor w de W pode se escrever como combinac¸a˜o linear dos vetores u1, u2 . . . , um. Observe que a equac¸a˜o parame´trica de um plano pi e a equac¸a˜o pa- rame´trica de uma reta r (contendo a origem) determinam os geradores de Vpi e Vr: • Um plano e´ gerado por dois vetores paralelos ao plano na˜o paralelos entre si. • Uma reta e´ gerada pelo seu vetor diretor. Por exemplo, para determinar os geradores do plano vetorial Vpi : x−z = 0 e´ suficiente considerar dois vetores paralelos a pi e na˜o paralelos entre si. Por exemplo, (1, 0, 1) e (0, 1, 0). Observe que (1, 0, 1), (1, 1, 1) e (1, 2, 1) tambe´m sa˜o geradores. Veremos, que o mais conveniente e´ encontrar um conjunto de geradores com o menor nu´mero poss´ıvel de elementos. Exemplos 2. Determinar dois vetores que gerem o plano vetorial Vpi : x + y − 2 z = 0. Determinar um vetor que gere a reta vetorial definida como a intersec¸a˜o dos planos vetorias x + y + z = 0 e x + 2 y + 3 z = 0. 7 Resposta: Temos que os vetores (2, 0, 1) e (1,−1, 0) sa˜o paralelos ao plano, e´ suficiente ver que a˜o ortogonais ao vetor normal do plano (2, 0, 1) · (1, 1,−2) = 0, (1,−1, 0) · (1, 1,−2) = 0. Obviamente, estes vetores na˜o sa˜o paralelos entre si. Portanto, (2, 0, 1) e (1,−1, 0) geram o plano pi. Assim, uma equac¸a˜o parame´trica de pi e´ pi : (2t + s,−s, t), t, s ∈ R. Finalmente, um vetor diretor da reta e´ (1, 1, 1) × (1, 2, 3) = (1,−2, 1). Obviamente, o vetor (1,−2, 1) gera a reta. ¤ 2.1 Geradores de R2 e R3 Para gerar R2 necessitamos dois vetores na˜o paralelos. Por exemplo (1, 0) e (0, 1). Ou (1, 1) e (1, 2). Por exemplo, (1, 1), (2, 2) e (3, 3) na˜o geram R2, somente geram a reta (t, t), t ∈ R. Para gerar R3 necessitamos treˆs vetores na˜o coplanares. Sabemos qual e´ o teste de coplanaridade: • u, v e w sa˜o coplanares se, e somente se, u · (v × w) = 0. Exemplos 3. • (1, 0, 0), (0, 1, 0) e (0, 0, 1) geram R3. • (1, 1, 1), (1, 2, 2) e (1, 2, 3) geram R3. Para ver isto, verifique que (1, 1, 1) · (1, 2, 2)× (1, 2, 3) = 1 6= 0. • Os vetores (1, 1, 1), (1, 1, 2) e (2, 2, 3) na˜o geram R3. Veja que seu produto misto e´ zero. Veja tambe´m que o vetor (1, 2, 3) na˜o esta´ no subespac¸o gerado por estes vetores. Finalmente, verifique que o subes- pac¸o gerado por estes treˆs vetores e´ o plano vetorial x = y. Exerc´ıcio 2. Verifique se (1, 1, 1), (1, 1, 2), (2, 2, 3), e (0, 0, 1) geram R3. Resposta: A resposta e´ negativa: veja que sa˜o coplanares. Observe que neste caso na˜o e´ poss´ıvel calcular o produto misto (pois temos quatro veto- res!). Raciocinamos da seguinte forma: 8 • Os vetores (1, 1, 1) e (1, 1, 2) sa˜o na˜o paralelos. Temos que geram o plano vetorial Vpi : x− y = 0. • O vetor (2, 2, 3) pertence a pi. Isto pode ser feito de duas formas. Cal- culando (2, 2, 3) · (1, 1, 1)× (1, 1, 2) e vendo que e´ zero (portanto, os treˆs vetores sa˜o coplanares, e o plano determinado e´ necessariamente pi). Ou vendo que (2, 2, 3) verifica x− y = 0. Isto significa que os conjun- tos de vetores {(1, 1, 1), (1, 1, 2)} e {(1, 1, 1), (1, 1, 2), (2, 2, 3)} geram o mesmo subespac¸o (ou seja, o vetor (2, 2, 3) nada acrescenta). • Finalmente, repetimos o argumento anterior com o vetor (0, 0, 1): este vetor esta´ no plano x− y = 0. Conclusa˜o, a famı´lia de vetores {(1, 1, 1), (1, 1, 2), (2, 2, 3), (0, 0, 1)} gera o plano x− y = 0. Voltando ao conjunto de vetores do exemplo. Se {(1, 1, 1), (1, 1, 2), (2, 2, 3), (0, 0, 1)} gerasse R3, todo vetor (a, b, c) de R3 poderia ser escrito da forma (a, b, c) = x (1, 1, 1) + y (1, 1, 2) + z (2, 2, 3) + w (0, 0, 1). Isto e´, o sistema em x, y, z e w, a = x + y + 2 z, b = x + y + 2 z, c = x + 2 y + 3 z + w, sempre teria soluc¸a˜o. Escalonando o sistema temos, a = x + y + 2 z, b− a = 0, c− a = y + z + w. Logo b tem que ser igual a a, isto e´ somente vetores da forma (a, a, c) se podem escrever como combinac ca˜o linear dos vetores dados. Portanto, esses vetores geram o plano x− y = 0. ¤ 9 AULA 10.pdf A´lgebra Linear I - Aula 10 1. Dependeˆncia e independeˆncia linear. 2. Bases. 3. Coordenadas. 4. Bases de R3 e produto misto. Roteiro 1 Dependeˆncia e independeˆncia linear de ve- tores Definic¸a˜o 1 (Dependeˆncia linear). Dizemos que os vetores {u1, u2, . . . um} sa˜o linearmente dependentes (l.d.) se existem nu´meros reais σ1, σ2, . . . , σm na˜o todos nulos tais que σ1 u1 + σ2 u2 + · · · + σm um = 0¯. A definic¸a˜o implica que se os vetores u1, u2, . . . , um sa˜o l.d. enta˜o algum vetor da colec¸a˜o {u1, u2, . . . , um} pode ser escrito como combinac¸a˜o linear dos outros. Supondo, por exemplo, que σ1 6= 0, temos u1 = − σ2 σ1 u2 − · · · − σm σ1 um. Portanto, u1 e´ combinac¸a˜o linear dos vetores u2, . . . , um. Observe que se um vetor, por exemplo o vetor u1, e´ combinac¸a˜o linear dos outros vetores, enta˜o a colec¸a˜o de vetores e´ linearmente dependente: u1 = σ2 u2 + · · · + σm um. 1 Observe que na˜o sabemos se os coeficientes σ2, . . . , σm sa˜o diferentes de zero. Mas, u1 − σ2 u2 − · · · − σm um = 0¯. Como o coeficiente de u1 e´ na˜o nulo, os vetores sa˜o linearmente dependentes. Observe que qualquer colec¸a˜o de vetores contendo o vetor nulo e´ linear- mente dependente. Por exemplo, {u1, 0¯, u2}, temos 0¯ = 0 u1, +(15) 0¯ + 0 u2. Exemplo 1. Treˆs vetores coplanares de R3 sa˜o linearmente dependentes. (Teste do produto misto): fac¸a operac¸o˜es de escalonamento no determinante, o processo de escalonamento fornece a combinac¸a˜o linear dos vetores igual a zero. Por exemplo, considere os vetores u1 = (1, 2, 1), u2 = (2, 3, 1), u3 = (1, 0,−1). Consideramos o determinante escrevendo no lado o vetor que representa cada linha: ∣ ∣ ∣ ∣ ∣ ∣ 1 2 1 2 3 1 1 0 −1 ∣ ∣ ∣ ∣ ∣ ∣ u1 u2 u3 . Cada operac¸a˜o com as linhas corresponde a uma operac¸a˜o com os vetores: ∣ ∣ ∣ ∣ ∣ ∣ 1 2 1 0 −1 −1 0 −2 −2 ∣ ∣ ∣ ∣ ∣ ∣ u1 u2 − 2 u1 u3 − u1 . Trocando sinais nas duas u´ltimas linhas: ∣ ∣ ∣ ∣ ∣ ∣ 1 2 1 0 1 1 0 2 2 ∣ ∣ ∣ ∣ ∣ ∣ u1 2 u1 − u2 u1 − u3 . Finalmente, ∣ ∣ ∣ ∣ ∣ ∣ 1 2 1 0 1 1 0 0 0 ∣ ∣ ∣ ∣ ∣ ∣ u1 2 u1 − u2 u1 − u3 − 2 (2 u1 − u2) . Obtemos assim, 0¯ = u1 − u3 − 2 (2 u1 − u2) = −3 u1 + 2 u2 − u3. Observamos que dois vetores paralelos de R2 sa˜o linearmente dependentes. 2 Definic¸a˜o 2 (Independeˆncia linear). Os vetores {u1, u2, . . . um} sa˜o line- armente independentes (l.i.) se na˜o sa˜o linearmente dependentes, isto e´, a u´nica forma de obter o vetor nulo como combinac¸a˜o linear dos vetores u1, u2, . . . um e´ tomando todos os coeficientes σ1, σ2, . . . , σm iguais a zero: σ1 u1 + σ2 u2 + · · · + σm um = 0¯ se, e somente se, σ1 = σ2 = · · · = σm = 0. Outra forma de entender a independeˆncia linear e´ a seguinte: nenhum vetor ui pode ser escrito como combinac¸a˜o linear dos outros (m− 1) vetores u1, . . . ui−1, ui+1, . . . um. Suponhamos que ui = σ1 u1 + · · · + σi−1 ui−1 + σi+1 ui+1 + · · · + σm um, enta˜o, σ1 u1 + · · · + σi−1 ui−1 − ui + σi+1 ui+1 + · · · + σm um = 0¯ obtendo uma combinac¸a˜o linear na˜o trivial (no mı´nimo o coeficiente de ui e´ na˜o nulo (!)) dando o vetor nulo. Propriedade 1.1. Se um vetor v pode se escrever como combinac¸a˜o linear dos vetores u1, u2, u3 de duas formas diferentes, enta˜o u1, u2, u3 sa˜o linear- mente dependentes. Prova: Suponha que existem nu´meros reais x1, x2, x3 e y1, y2, y3 com (x1, x2, x3) 6= (y1, y2, y3) tais que u = x1 u1 + x2 u2 + x3 u3 = y1 u1 + y2 u2 + y3 u3. Logo, (x1 − y1) u1 + (x2 − y2) u2 + (x3 − y3) u3 = 0¯. Como (x1 − y1), (x2 − y2) e (x3 − y3) na˜o sa˜o todos nulos, obtemos uma combinac¸a˜o linear de na˜o trivial de u1, u2 e u3 dando o vetor nulo. Portanto, os vetores u1, u2 e u3 sa˜o l.d.. ¤ Exemplo 2. Os vetores • (1, 0, 0), (0, 1, 0) e (0, 0, 1) sa˜o l.i.. 3 • (1, 1, 1), (1, 2, 2) e (1, 2, 3) sa˜o l.i. • Os vetores (1, 1, 1), (1, 1, 2) e (2, 2, 3) na˜o sa˜o l.i.. • (1, 1, 1), (1, 1, 2), (2, 2, 3), e (0, 0, 1) na˜o sa˜o l.i.. Temos as seguintes propriedades sobre dependeˆncia linear: Propriedade 1.2. • Um conjunto de vetores de R3 com quatro ou mais vetores e´ l.d.. • Um conjunto de vetores de R2 com treˆs ou mais vetores e´ l.d.. Prova: Vejamos o caso de R2. Consideremos um conjunto com treˆs vetores u1, u2 e u3. Se u1 e u2 sa˜o paralelos, enta˜o u2 = σu1 (por exemplo) e u2 − σu1 = 0¯, logo os vetores sa˜o l.d.. Se u1 e u2 na˜o sa˜o paralelos enta˜o geram R 2. Logo u3 = σu1 + βu2, logo u3 − σu1 − βu2 = 0¯ e os vetores sa˜o l.d.. Repita este tipo de argumento com quatro vetores de R3. ¤ Exemplos 1. Estude se as afirmac¸o˜es a seguir sa˜o verdadeiras ou falsas: a) Se {v1, v2} e´ um conjunto de vetores linearmente dependente enta˜o se verifica v1 = σ v2 e v2 = λ v1 para certos nu´meros reais λ e σ. b) Se {v1, v2, v3} e´ um conjunto de vetores linearmente independente tambe´m o e´ o conjunto {κ v1, κv2, κ v3} para todo κ na˜o nulo. c) Se {v1, v2, v3} e´ um conjunto de vetores linearmente dependente enta˜o cada vetor pode ser obtido como combinac¸a˜o linear dos outros dois. d) Se {v1, v2, v3} e´ um conjunto de vetores linearmente independente tambe´m o e´ o conjunto {κ v1, λv2, σ v3} para todo κ, λ, σ na˜o nulos. Resposta: As afirmac¸o˜es (a) e (c) sa˜o falsas. Para a afirmac¸a˜o (a) considere os vetores (1, 1) e (0, 0), por exemplo. Para a afirmac¸a˜o (c) considere v1 = (1, 1, 1), v2 = (2, 2, 2), v3 = (1, 0, 1). Claramente, o vetor v3 na˜o pode ser escrito como combinac¸a˜o linear de v1 e v2. 4 A afirmac¸a˜o (b) e´ verdadeira: considere uma combinac¸a˜o linear os vetores κ v1, κv2, κ v3, que seja o vetor nulo: σ1 κ v1 + σ2 κ v2 + σ3 κ v3 = 0¯. Ou seja κ (σ1 v1 + σ2 v2 + σ3 v3) = 0¯. Como κ 6= 0, temos σ1 v1 + σ2 v2 + σ3 v3 = 0¯. E como v1, v2 e v3 sa˜o l.i., σ1 = σ2 = σ3 = 0, logo os vetores sa˜o l.i.. Finalmente, a afirmac¸a˜o (d) tambe´m e´ verdadeira, e a prova segue como o caso anterior. Complete os detalhes. ¤ 2 Bases Definic¸a˜o 3 (Base). Considere um subespac¸o vetorial W e um conjunto de vetores u1, u2, . . . , um de W. Dizemos que β = {u1, u2, . . . , um} e´ uma base de W se • os vetores de β geram W, isto e´, todo vetor v ∈ W pode ser escrito da forma v = σ1 u1 + σ2 u2 + · · · + σm um (ou seja, todo vetor de e´ combinac¸a˜o linear dos vetores da base β). • os vetores de β sa˜o linearmente independentes. Por exemplo, os vetores β = {(1, 1, 1), (1, 2, 2), (1, 3, 3), (1, 2, 1), (2, 1, 1)} geram R3, e´ suficiente verificar se os vetores (1, 1, 1), (1, 2, 2), (1, 2, 1) na˜o sa˜o coplanares ∣ ∣ ∣ ∣ ∣ ∣ 1 1 1 1 2 2 1 2 1 ∣ ∣ ∣ ∣ ∣ ∣ = ∣ ∣ ∣ ∣ ∣ ∣ 1 1 1 1 2 2 0 1 0 ∣ ∣ ∣ ∣ ∣ ∣ = −1. 5 Pore´m aqueles vetores na˜o formam uma base pois na˜o sa˜o linearmente in- dependentes (um conjunto de mais de treˆs vetores de R3 na˜o e´ linearmente independente). Observe que e´ poss´ıvel, obter uma base de R3 a partir da colec¸a˜o β, eliminando alguns vetores. Por exemplo, β′ = {(1, 1, 1), (1, 2, 2), (1, 2, 1)} e´ uma base de R3. Ja´ vimos que sa˜o linearmente independentes, e treˆs vetores linearmente independentes geram R3. Observamos que se acrescentamos qualquer vetor a β′, os vetores geram R 3, pore´m na˜o sera˜o linearmente independentes (justifique!), portanto, na˜o formam uma base. Observe tambe´m que se a famı´lia de vetores β = {u1, u2, . . . , um} e´ uma base de W enta˜o, se eliminamos qualquer vetor ui da base β, o novo conjunto na˜o e´ gerador de W. E´ suficiente observar que o vetor ui ∈ W na˜o pode ser escrito como combinac¸a˜o linear dos vetores restantes: caso fosse escrito os vetores de β na˜o seriam linearmente independentes, e portanto na˜o formariam uma base. Complete os detalhes. Propriedade 2.1. As seguintes propriedades sobre bases se verificam: • Uma base de R2 sempre tem dois vetores. • Uma base de R3 sempre tem treˆs vetores. • Uma base de um plano de R3 (contendo a origem) sempre tem dois vetores de R3. • Uma base de uma reta de R3 ou R2 (contendo a origem) sempre tem um vetor deR3 ou de R2. • Dois vetores linearmente independentes de R2 formam uma base de R2. • Treˆs vetores linearmente independentes de R3 formam uma base de R3. • Dois vetores linearmente independentes de um plano pi de R3 contendo a origem formam uma base de pi. Exemplos 2. • E = {i = (1, 0), j = (0, 1)} e´ uma base de R2, a chamada base canoˆnica. 6 • E = {i = (1, 0, 0), j = (0, 1, 0),k = (0, 0, 1)} e´ uma base de R3, a chamada base canoˆnica. • β1 = {(1, 1), (1, 2)}, β2 = {(3, 1), (1, 4)} e β3 = {(1, 0), (1, 1)}, sa˜o bases de R2. • β1 = {(1, 1, 1), (1, 2, 3), (1, 0, 1)}, β2 = {(2, 1, 2), (1, 4, 1), (3, 5, 0} e β3 = {(1, 0, 0), (1, 1, 0), (1, 1, 1)}, sa˜o bases de R3. • Os vetores (1, 0, 1) e (1,−1,−1) formam uma base do plano de equac¸a˜o cartesiana pi : x + 2 y − z = 0. Exerc´ıcio 1. Suponha que γ = {u1, u2, u3} e´ uma base de R 3. Estude se β = {u1, u2, u1 + u2 + u3} tambe´m e´ uma base de R 3. Resposta: Pela propriedade acima (treˆs vetores l.i. de R3 formam uma base) e´ suficiente ver que os vetores sa˜o linearmente independentes. Escreva x1 u1 + x2 u2 + x3 (u1 + u2 + u3) = 0¯, isto e´, (x1 + x3) u1 + (x2 + x3) u2 + x3 u3 = 0¯. Como os vetores u1, u2 e u3 sa˜o l.i., todos os coeficiente de uma combinac¸a˜o linear dando o vetor zero devem ser necessariamente nulos, x1 + x3 = 0 = x2 + x3 = x3. Portanto, resolvendo os sistema, x1 = x2 = x3 = 0. Assim, os vetores sa˜o l.i. e formam uma base de R3. ¤ 3 Coordenadas em uma base β Definic¸a˜o 4 (Coordenadas). Considere uma base β = {u1, u2, u3} de R 3. As coordenadas do vetor v na base β, denotada (v)β, sa˜o (v)β = (x1, x2, x3), onde v = x1 u1 + x2 u2 + x3 u3. 7 Observe que as coordenadas de v na base γ = {u2, u3, u1} sa˜o (v)γ = (x2, x3, x1). Ideˆnticos comenta´rios valem para bases em R2. Observamos que as coordenadas de um vetor v em uma base β sa˜o u´nicas: se houvesse mais possibilidades de coordenadas ter´ıamos o seguinte. Supo- nhamos que as coordenadas de v na base β sejam simultaneamente (x1, x2, x3) e (y1, y2, y3). Enta˜o, v = x1 u1 + x2 u2 + x3 u3 = y1 u1 + y2 u2 + y3 u3. Portanto, (x1 − y1) u1 + (x2 − y2) u2 + (x3 − y3) u3 = 0¯. Como os vetores u1, u2, u3 sa˜o linearmente independentes, temos x1 − y1 = 0 = x2 − y2 = x3 − y3. Logo x1 = y1, x2 = y2, x3 = y3. 4 Bases de R3 e produto misto Propriedade 4.1. Considere treˆs vetores u, v e w de R3. Se u · (v×w) 6= 0 enta˜o os vetores sa˜o l.i.. Portanto, formam uma base de R3. O rec´ıproco e´ verdadeiro (complete os detalhes). Portanto, treˆs vetores de R3 formam uma base se, e somente se u · (v × w) 6= 0¯. Exerc´ıcio 2. Determine uma base de R3 formada por dois vetores paralelos ao plano x − y − z = 0 e outro ortogonal a estes vetores. Resposta: {(1, 1, 0), (1, 0, 1), (1,−1,−1)}. ¤ Exemplo 3. Considere vetores na˜o nulos u e v de R3 tais que (u + v) · (u + v) = (u − v) · (u − v). Enta˜o β = {u × v, u, v} e´ uma base de R3 formada por vetores ortogonais. 8 Resposta: Da condic¸a˜o (u + v) · (u + v) = (u− v) · (u− v) obteremos que u · v = 0. Temos (u + v) · (u + v) = u · u + u · v + v · u + v · v = u · u + 2 (u · v) + v · v, e (u − v) · (u − v) = u · u − u · v − v · u + v · v = u · u − 2 (u · v) + v · v. Igualando estas equac¸o˜es obtemos u · u + 2 (u · v) + v · v = u · u − 2 (u · v) + v · v. Isto e´, 4 (u · v) = 0, u · v = 0. Logo os vetores u e v sa˜o ortogonais (e portanto, l.i.). Claramente u × v e´ ortogonal a u e v. Logo os vetores de β sa˜o ortogonais. Logo somente falta ver que estes vetores sa˜o l.i.. Tambe´m sabemos o produto misto de u × v, u e v e´ na˜o nulo: (u × v) · (u × v) = |u × v|2 = (|u||v|sen(pi/2))2 6= 0. Logo os vetores na˜o sa˜o coplanares. Logo sa˜o l.i.. O argumento termina observando que treˆs vetores l.i. formam uma base de R3 . ¤ Exemplo 4. Considere uma base β = {u1, u2, u3} de R 3. Veja que γ = {u1, u2, u1 + u2 + u3} tambe´m e´ uma base de R3. Finalmente, sabendo que as coordenadas de v na base β sa˜o (v)β = (x1, x2, x3), determine as coordenadas de (v)γ = (y1, y2, y3) de v na base γ. Resposta: Para ver que γ e´ uma base e´ suficiente observar que (u1 + u2 + u3) · (u1 × u2) = u1 · (u1 × u2) + u2 · (u1 × u2) + u3 · (u1 × u2) = = u3 · (u1 × u2) = u1 · (u2 × u3) 6= 0. Onde a u´ltima afirmac¸a˜o decorre da independeˆncia linear dos vetores u1, u2 e u3. (Justifique cuidadosamente todas as passagens do racioc´ınio anterior). 9 Para o ca´lculo das coordenadas, sabemos que v = y1 u1 + y2 u2 + y3 (u1 + u2 + u3) = (y1 + y3) u1 + (y2 + y3) u2 + y3 u3. Logo, da unicidade das coordenadas na base β, x1 = y1 + y3, x2 = y2 + y3, e x3 = y3. Logo y1 = x1 − x3, y2 = x2 − x3, y3 = x3. Completamos assim a resposta. ¤ 10