Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
UNIVERSIDADE DO ESTADO DE SANTA CATARINA – UDESC CENTRO DE CIÊNCIAS TECNOLÓGICAS – CCT DEPARTAMENTO DE MATEMÁTICA – DMAT CÁLCULO NUMÉRICO APLICADO JULIA GRASIELA BUSARELLO WOLFF JOINVILLE 2012/II 1 Sumário 0.1 RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES . . . . . . . . . . . . . . . . . . . . . 5 0.1.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 0.1.2 RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES . . . . . . . . . . . . . . . . . 5 0.1.3 CLASSIFICAÇÃO DOS SISTEMAS LINEARES QUANTO AO NÚMERO DE SOLUÇÕES 8 0.1.4 SOLUÇÃO DE SISTEMAS LINEARES TRIANGULARES . . . . . . . . . . . . . . . . 8 0.1.5 TRANSFORMAÇÕES ELEMENTARES . . . . . . . . . . . . . . . . . . . . . . . . . . 11 0.2 MÉTODOS DIRETOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 0.2.1 MÉTODO DE ELIMINAÇÃO DE GAUSS . . . . . . . . . . . . . . . . . . . . . . . . . 11 0.2.2 ESTRATÉGIAS DE PIVOTAMENTO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 0.3 REFINAMENTO DA SOLUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 0.4 CONDICIONAMENTO E ESTABILIDADE DE ALGORITMOS . . . . . . . . . . . . . . . . . 17 0.4.1 NOÇÕES DE MAL-CONDICIONAMENTO DE MATRIZES . . . . . . . . . . . . . . . 18 0.4.2 MÉTODO DE ELIMINAÇÃO DE JORDAN . . . . . . . . . . . . . . . . . . . . . . . . 19 0.4.3 FATORAÇÃO LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 0.4.4 FATORAÇÃO DE CHOLESKY . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 0.5 MÉTODOS ITERATIVOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 0.5.1 GAUSS-JACOBI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 0.5.2 GAUSS-SEIDEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 0.6 CONVERGÊNCIA DOS MÉTODOS ITERATIVOS . . . . . . . . . . . . . . . . . . . . . . . . 25 0.6.1 CRITÉRIO DAS LINHAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 0.6.2 CRITÉRIO DE SASSENFELD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 0.7 COMPARAÇÃO ENTRE OS MÉTODOS DIRETOS E ITERATIVOS . . . . . . . . . . . . . . . 27 0.8 SISTEMAS LINEARES COMPLEXOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 0.9 EXERCÍCIOS SOBRE SISTEMAS DE EQUAÇÕES LINEARES . . . . . . . . . . . . . . . . . 28 0.10 PROBLEMAS REFERENTES À APLICAÇÕES DE SISTEMAS LINEARES . . . . . . . . . . 32 2 0.1 RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 0.1.1 INTRODUÇÃO A resolução de sistemas lineares é um problema que surge nas mais diversas áreas da ciência e engenharia. Em ciência: na previsão do tempo, em mecânica quântica etc. Em engenharia, vários problemas podem ser resolvidos através da análise linear, entre eles pode-se citar a determinação dos potenciais elétricos em redes de distribuição aérea nas concessionárias de energia, o cálculo de forças que atuam em uma treliça, o cálculo das tensões ou torques em estruturas metálicas na construção civil, o cálculo da razão de escoamento num sistema hidráulico com derivações, na previsão da concentração de reagentes sujeitos a reações químicas simultâneas na engenharia química, na otimização de sinais de trânsito e linhas de metrô na engenharia de mobilidade etc. O problema matemático em todos os casos citados se reduz a resolução de um sistema de equações lineares simultâneas. Os métodos numéricos para a resolução de problemas de equações diferenciais parciais também requerem a solução de um conjunto de equações. A solução de um conjunto de equações é muito mais difícil quando as equações são não lineares. Entretanto, a maioria das aplicações envolve somente equações lineares, embora, quando o sistema é de grande porte, deve-se escolher o método numérico adequado a fim de preservar a máxima precisão. Uma equação é linear se cada termo contém não mais do que uma variável e cada variável aparece na primeira potência. Po exemplo, 3x+ 4y− 10z = −3 é linear, mas xy− 3z = −3 não é, pois o primeiro termo contém duas variáveis. A equação x3 + y − z = 0 também não é linear pois o primeiro termo contém uma variável elevada ao cubo. 0.1.2 RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES Um sistema de equações lineares pode ser definido como um conjunto de n equações com n variáveis inde- pendentes entre si. Seja Sn um sistema linear de n equações com n incógnitas, na forma genérica: Sn = a11x1 + a12x2 + . . .+ a1nxn = b1 a21x1 + a22x2 + . . .+ a2nxn = b2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . an1x1 + an2x2 + . . .+ annxn = bn (1) ou, Sn = n∑ j=1 aijxj = bi, (2) com i = 1, 2, . . . , n, onde: aij são os coeficientes da incógnita xj e bi são os termos independentes. Na forma matricial Sn pode ser escrito como Ax¯ = b e representado da seguinte maneira: 3 a11 a12 . . . a1n a21 a22 . . . a2n ... ... ... ... an1 an2 . . . ann · x1 x2 ... xn = b1 b2 ... bn ; (3) onde, a matriz A é uma matriz quadrada de ordem n, chamada de matriz dos coeficientes e representada por: A = a11 a12 . . . a1n a21 a22 . . . a2n . . . . . . . . . . . . an1 an2 . . . ann . (4) A matriz b é uma matriz n×1, ou seja, matriz coluna ou vetor coluna, chamada de matriz de termos independentes e representada por: b = b1 b2 b3 ... bn . (5) E, x¯ é uma matriz n × 1, ou seja, matriz coluna ou vetor coluna, chamada de matriz solução do sistema ou de matriz das variáveis; representada por: x¯ = x1 x2 x3 ... xn . (6) A matriz B, mostrada a seguir, é chamada de matriz aumentada ou matriz completa do sistema: B = a11 a12 . . . a1n | b1 a21 a22 . . . a2n | b2 . . . . . . . . . . . . | . . . an1 an2 . . . ann | bn . (7) A solução direta dos sistemas lineares pode ser obtida a partir do cálculo da inversa da matriz A, ou seja, 4 [x] = [A]−1[b] (8) para o qual utiliza-se os métodos de inversão de matrizes vistos em Álgebra Linear. O cálculo da matriz inversa pode ser feito através da propriedade seguinte: [I] = [A]−1[A]; (9) onde: [I] é a matriz identidade de ordem n. Se os coeficientes da matriz inversa [A]−1 são as incógnitas do problema, então o cálculo desses coeficientes resume-se a encontrar a solução do seguinte sistema de equações: [A]−1[A] = [I] =⇒ x11 x12 . . . x1n x21 x22 . . . x2n ... ... ... ... xn1 xn2 . . . xnn · a11 a12 . . . a1n a21 a22 . . . a2n ... ... ... ... an1 an2 . . . ann = 1 0 . . . 0 0 1 . . . 0 ... ... ... ... 0 0 . . . 1 . (10) Assim, o problema do cálculo de sistemas de equações lineares através do produto da matriz inversa resulta em um problema de cálculo de sistemas de equações lineares. À seguir, apresentaremos um método direto para a solução de sistemas de equações lineares denominado método de eliminação gaussiana. EXERCÍCIO: 1) Usando [A][A]−1 = [I], inverter a seguinte matriz: 3 0 32 −2 1 1 2 0 . Resposta: A−1 = −1 6 1 2 1 2 1 12 −1 4 1 4 1 2 −1 2 −1 2 . Neste capítulo, serão apresentados métodos numéricos para a resolução de sistemas lineares quadrados n×n. Os métodos numéricos para a resolução de um sistema linear podem ser divididos em: • métodos diretos; • métodos iterativos. 5 Os métodos diretos fornecem a solução exata do sistema linear, caso ela exista, após um número finito de operações. São eles: o método de eliminação de Gauss, o método de Jordan, a fatoração LU, a fatoração de Cholesky etc. Os métodos iterativos geram uma sequência de vetores {x(k)}, a partir de uma aproximação inicial x(0). Sob certas condições esta sequência converge para a solução x aproximada, caso ela exista. São eles: o método de Gauss-Jacobi, o método de Gauss-Seidel, o método de sobrerrelaxação sucessiva que acelera o método de Gauss- Seidel, o método dos gradientes conjugados etc. Dado um sistema de equações arbitrário, não é possível afirmar sem verificar, que há uma solução ou, se houver, que ela seja única. Existem três e apenas três possibilidades de classificar um sistema linear a fim de responder com exatidão a questão da existência e do número de soluções. 0.1.3 CLASSIFICAÇÃO DOS SISTEMAS LINEARES QUANTO AO NÚMERO DE SOLUÇÕES Um sistema linear pode ser classificado quanto ao número de soluções que ele admite em: • compatível, possível ou consistente quando ele apresenta solução; e, • incompatível, impossível ou inconsistente quando não apresenta solução. Um sistema compatível é classificado em: • determinado, quando ele apresenta solução única; e, • indeterminado, quando apresenta infinitas soluções. Graficamente, tem-se: Figura 1: Retas concorrentes - o sistema apresenta solução única. 0.1.4 SOLUÇÃO DE SISTEMAS LINEARES TRIANGULARES Seja o sistema Ax = b, onde A é uma matriz triangular superior, n × n, com os elementos da diagonal diferentes de zero. 6 Figura 2: Retas coincidentes - o sistema apresenta infinitas soluções. Figura 3: Retas paralelas - o sistema não apresenta solução. a11x1 + a12x2 + a13x3 + · · ·+ a1nxn = b1 a22x2 + a23x3 + · · ·+ a2nxn = b2 a33x3 + . . .+ a3nxn = b3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . annxn = bn Seja o sistema Ax = b, onde A é uma matriz triangular inferior, n × n, com os elementos da diagonal diferentes de zero. a11x1 = b1 a21x1 + a22x2 = b2 a31x1 + a32x2 + a33x3 + . . .+ a3nxn = b3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . an1x1 + an2x2 + an3x3 + . . .+ annxn = bn Observe que os sistemas triangulares determinados, isto é, quando aii 6= 0, i = 1, 2, ..., n, são facilmente resolvidos por substituição retroativa ou progressiva. EXERCÍCIOS: Achar o vetor solução para os seguintes sistemas de equações lineares e classificá-los quanto ao número de soluções: a) 3x1 + 4x2 − 5x3 + x4 = −10 x2 + x3 − 2x4 = 1 4x3 − 5x4 = 3 2x4 = 2 Resposta: O vetor solução é x = [1 − 1 2 1]T . O sistema é determinado. 7 b) 3x1 + 4x2 − 5x3 + x4 = 0 x3 − 2x4 = 0 4x3 − 5x4 = 3 2x4 = 2 Resposta: O sistema é indeterminado. c) 3x1 + 4x2 − 5x3 + x4 = −10 x3 − 2x4 = −1 4x3 − 5x4 = 3 2x4 = 2 Resposta: O sistema é incompatível. d) x1 = 1 2x1 + 5x2 = 2 3x1 + 6x2 + 4x3 = 3 Resposta: O vetor solução é x = [1 0 0]T . O sistema é determinado. e) x1 = 1 x1 + x2 = −1 x1 + x2 + x3 = 3 x1 + x2 + x3 + x4 = 3 Resposta: O vetor solução é x = [1 − 2 4 0]T . O sistema é determinado. f) x1 + x2 + x3 + x4 = 4 x2 + 3x3 + x4 = 3 x3 + x4 = 2 x4 = 1 Resposta: O vetor solução é x = [3 − 1 1 1]T . O sistema é determinado. g) x1 − 3x2 + x3 = 6 4x2 − x3 = 5 x4 = 4 Resposta: O sistema é indeterminado. h) x1 − 2x2 + 3x3 + x4 = 4 3x3 + x4 = 3 x3 + x4 = 2 x4 = 1 Resposta: O sistema é incompatível. 8 i) x1 = 1 x1 + x2 = −1 2x1 + x2 + 3x3 = 0 x1 + x2 + x3 = −1 x1 − x2 + x3 − x4 + x5 = 3 Resposta: O sistema é indeterminado. O que você pode concluir sobre a solução dos sistemas lineares acima? 0.1.5 TRANSFORMAÇÕES ELEMENTARES Seja Ax = b um sistema linear. Podem ser aplicadas sobre as equações ou linhas deste sistema uma sequência de operações elementares escolhidas entre: 1. trocar duas equações ou linhas; 2. multiplicar uma equação ou linha por uma constante não nula; 3. adicionar ou subtrair duas equações ou linhas de um sistema. Através do uso de operações elementares obtém-se um novo sistema A˜x = b˜ e os sistemas Ax = b e A˜x = b˜ são equivalentes. Definição: Dois sistemas são equivalentes se S2 puder ser obtido de S1 através de transformações elementares. Dois sistemas equivalentes S1 e S2 ou são incompatíveis ou têm as mesmas soluções. A seguir, será descrito o método de eliminação de Gauss para triangularizar uma matriz. 0.2 MÉTODOS DIRETOS São métodos que determinam a solução de um sistema linear, caso ela exista, com um número finito de oper- ações. 0.2.1 MÉTODO DE ELIMINAÇÃO DE GAUSS A solução de sistemas lineares usando a eliminação ordenada das variáveis é atribuída ao matemático alemão Carl Friedrich Gauss (1777 - 1855). Consiste em transformar o sistema linear original em um sistema linear equivalente com a matriz dos coefi- cientes triangular superior, pois estes são de solução imediata. 9 Com (n− 1) passos o sistema linear Ax = b é transformado em um sistema triangular equivalente, na forma: Ux = c, o qual se resolve facilmente por substituição. A vantagem dos métodos de eliminação é que eles evitam o cálculo direto da matriz inversa e o tempo de execução computacional é tolerável se comparado ao método de Cramer. ESFORÇO COMPUTACIONAL Uma maneira de avaliar o esforço computacional de um método numérico ou algoritmo numérico é calcular e comparar o número de operações aritméticas utilizadas. A resolução de um sistema triangular com n equações envolve: n divisões; (11) n∑ j=1 j = n(n− 1) 2 adições; (12) n∑ j=1 j = n(n− 1) 2 multiplicações. (13) (14) Assim, o número total de operações realizadas na resolução numérica de um sistema triangular é n2. Nesse caso, o esforço computacional é n2. Para a regra de Cramer o número de operações necessárias para se chegar à solução é, em geral, muito maior do que no método de eliminação de Gauss. Essa comparação é feita assim: calcula-se o número de operações aritméticas necessárias em cada método em função da dimensão n do sistema linear. Então vê-se que em um método esse número cresce muito mais rapidamente com n do que no outro. Um número de operações aritméticas muito grande é desvantajoso por duas razões: aumenta o tempo de computação e aumenta a propagação dos erros de arredondamento. O número de produtos de n termos que aparecem no cálculo de um determinante é n!, ou seja, são n! operações de adição. Para obter cada produto são (n− 1) multiplicações, totalizando n!(n− 1) operações de multiplicação. Para calcular as n incógnitas, a Regra de Cramer pede (n + 1) determinantes, logo são n!(n + 1) adições e n!(n− 1)(n+ 1) multiplicações, mais as n divisões no final. Para o método de eliminação de Gauss ou método do escalonamento, como é vulgarmente conhecido, em um sistema linear de n equações e n incógnitas o número total de operações realizadas para fornecer a solução do sistema é 2n3 3 . Por exemplo, para resolver um sistema triangular com 100 equações serão necessárias 10 mil operações. Se o 10 sistema não é triangular, no método de eliminação de Gauss serão necessárias 681550 operações, ou seja, 68 vezes mais operações do que a exigida no caso triangular. Exemplo: Resolver o sistema linear abaixo pelo método de eliminação de Gauss: 3x1 + 2x2 + 4x3 = 1 x1 + x2 + 2x3 = 2 4x1 + 3x2 − 2x3 = 3 Resolução: 1a etapa: escreve-se a matriz aumentada do sistema: 3 2 4 | 11 1 2 | 2 4 3 −2 | 3 2a etapa: selecionar o "pivô"para o cálculo dos multiplicadores de cada linha. Como a11 é o pivô da linha 1, temos: m21 = a21 a11 ∴ m21 = 1/3 e m31 = a31 a11 ∴ m31 = 4/3. 3a etapa: escreve-se os cálculos que serão efetuados em cada linha: L1 → L1; L2 → L2 −m21L1 ∴ L2 → L2 − 1 3 L1; L3 → L3 −m31L1 ∴ L3 → L3 − 4 3 L1. Reescrevendo o sistema após os cálculos, temos: 3 2 4 | 10 1/3 2/3 | 5/3 0 1/3 −22/3 | 5/3 Agora, o pivô é 1/3 ou seja, a22; então repete-se o mesmo procedimento efetuado na 3a etapa. m32 = a32 a22 ∴ m32 = 1. Agora é só subtrair uma linha da outra, ou seja, fazer L3 → L3 − L2. 3 2 4 | 10 1/3 2/3 | 5/3 0 0 −8 | 0 11 Então: x3 = 0; x2 = 5 3 (3) ∴ x2 = 5 e 3x1 = 1− 2x2 ∴ x1 = −9 3 ∴ x1 = −3. O vetor solução deste sistema é x = [−3 5 0]T . EXERCÍCIO: 1) Resolver os sistema linear abaixo pelo método de eliminação de Gauss: 2x1 + 3x2 − x3 = 5 4x1 + 4x2 − 3x3 = 3 2x1 − 3x2 + x3 = −1 Resposta: O vetor solução é x = [1 2 3]T . O sistema é determinado. 0.2.2 ESTRATÉGIAS DE PIVOTAMENTO Denomina-se estratégia de pivotamento a troca sistemática de linhas, de modo que o pivô seja o maior elemento, em módulo, da coluna que estamos eliminando. Existem dois casos nos quais o método de eliminação de Gauss pode ser aplicado sem o pivotamento: sistemas nos quais a matriz dos coeficientes A é diagonalmente dominante ou simétrica positiva definida. Uma matriz é dita simétrica e positiva definida se ATA e xTAx > 0, para todo vetor x 6= 0. Uma matriz é diagonalmente dominante se seus elementos satisfazem a |aii| > ∑ j 6=i |aij |, com i = 1 : n, para todo i. O que acontece se um pivô for nulo? É impossível trabalhar com um pivô nulo. Trabalhar com um pivô próximo de zero pode conduzir a resultados totalmente imprecisos. Como se sabe, em máquinas digitais os cálculos são efetuados em aritmética de ponto flutuante (APF) de precisão finita e, pivôs próximos de zero dão origem a multiplicadores bem maiores que a unidade que, por sua vez, origina uma ampliação dos erros de arredondamento. O exemplo a seguir mostra os erros de arredondamento na fase de eliminação e na fase de substituições retroa- tivas. Exemplo: Resolver pelo método de eliminação de Gauss, retendo duas casas decimais durante o cálculo, usando o arredondamento: 8, 7x1 + 3, 0x2 + 9, 3x3 + 11, 0x4 = 16, 4 24, 5x1 − 8, 8x2 + 11, 5x3 − 45, 1x4 = −49, 7 52, 3x1 − 84, 0x2 − 23, 5x3 + 11, 4x4 = −80, 8 21, 0x1 − 81, 0x2 − 13, 2x3 + 21, 5x4 = −106, 3 12 Resolução: 1a etapa: São calculados os multiplicadores para cada equação (linha): para a linha 2: m21 = a21 a11 ∴ m21 = 24, 5 8, 7 ∴ m21 = 2, 82. para a linha 3: m31 = a31 a11 ∴ m31 = 52, 3 8, 7 ∴ m31 = 6, 01. para a linha 4: m41 = a41 a11 ∴ m41 = 21, 0 8, 7 ∴ m41 = 2, 41. 2a etapa: As transformações elementares (TE) são: L1 → L1 L2 → L2 −m21L1 L3 → L3 −m31L1 L4 → L4 −m41L1 3a etapa: Fazendo a triangulação do sistema a partir das transformações elementares acima, tem-se: 8, 7x1 + 3, 0x2 + 9, 3x3 + 11, 0x4 = 16, 4 0− 17, 26x2 − 14, 73x3 − 76, 12x4 = −95, 95 0− 102, 03x2 − 79, 39x3 − 54, 71x4 = −179, 36 0− 88, 23x2 − 35, 61x3 − 5, 01x4 = −145, 82 4a etapa: Novamente, devem ser calculados os multiplicadores, para, na sequência serem realizadas as oper- ações elementares: para a linha 3: m32 = a32 a22 ∴ m32 = −102, 03 −17, 26 ∴ m32 = 5, 91. para a linha 4: m42 = a42 a22 ∴ m42 = −88, 23 −17, 26 ∴ m41 = 5, 11. As transformações elementares são: L1 → L1 L2 → L2 L3 → L3 −m32L2 L4 → L4 −m42L2 Resultando no sistema linear seguinte: 13 8, 7x1 + 3, 0x2 + 9, 3x3 + 11, 0x4 = 16, 4 0− 17, 26x2 − 14, 73x3 − 76, 12x4 = −95, 95 0 + 0 + 7, 86x3 + 395, 16x4 = 387, 70 0 + 0 + 39, 66x3 + 383, 96x4 = 344, 48 Agora, o multiplicador é calculado apenas para a linha 4: para a linha 4: m43 = a43 a33 ∴ m43 = 39, 66 7, 86 ∴ m43 = 5, 05. E, as operações elementares são realizadas apenas sobre a linha 4: L1 → L1 L2 → L2 L3 → L3 L4 → L4 −m43L3 Finalmente, pode-se obter o vetor solução do sistema linear triangularizado, mostrado a seguir: 8, 7x1 + 3, 0x2 + 9, 3x3 + 11, 0x4 = 16, 4 0− 17, 26x2 − 14, 73x3 − 76, 12x4 = −95, 95 0 + 0 + 7, 86x3 + 395, 16x4 = 387, 70 0 + 0 + 0− 1611, 60x4 = −1613, 41 Resposta: O vetor solução deste sistema é x = [0, 96 1, 96 − 0, 95 1, 00]T . Utiliza-se uma medida para avaliar a precisão dos cálculos, é o resíduo, que é dado por: r = b−Ax (15) Substituindo os valores das matrizes [b], [A] e [x]; tem-se: r = 16, 4 −49, 7 −80, 8 −106, 3 − 8, 7 3, 0 9, 3 11, 0 24, 5 −8, 8 11, 5 −45, 1 52, 3 −84, 0 −23, 5 11, 4 21, 0 −81, 0 −13, 2 21, 5 · 0, 96 1, 96 −0, 95 1, 00 , onde: r = 0, 01 0, 06 −0, 09 −1, 74 . 14 Resposta: O vetor de resíduo deste sistema é r = [0, 01 0, 06 − 0, 09 − 1, 74]T . 0.3 REFINAMENTO DA SOLUÇÃO Quando se opera com números exatos, não são cometidos erros de arredondamento no decorrer dos cálculos e as transformações elementares, juntamente com as substituições retroativas ou progressivas, produzem resultados exatos. Entretanto, na maioria das vezes, temos que nos contentar com cálculos aproximados, nos quais são cometidos erros de arredondamento que podem se propagar, chegando até a comprometer os resultados. Este é o motivo pelo qual usamos técnicas especiais para minimizar a propagação de tais erros de arredondamento. Uma delas, que será mostrada a seguir, consiste em adicionar uma parcela de correção à solução do sistema. Técnica: Seja x(0) a solução aproximada para o sistema Ax = b. Então, a solução corrigida x(1) é obtida com a adição de uma parcela de correção δ(0); conforme segue: x(1) = x(0) + δ(0). (16) Logo: Ax(1) = b. A · (x(0) + δ(0)) = b A · x(0) +A · δ(0) = b A · δ(0) = b−A · x(0) A · δ(0) = r(0). Assim, δ(0) vem de [A : r(0)]. Obtido o δ(0) , calcula-se x(1) = x(0) + δ(0). Repete-se o processo para se obter x(2) , x(3) , . . ., x(k), até que se tenha a precisão desejada. Logo, obtém-se o refinamento de forma iterativa pela seguinte equação: x(i) = x(i−1) + δ(i−1), com i = 1, 2, . . . , k. 0.4 CONDICIONAMENTO E ESTABILIDADE DE ALGORITMOS A noção de problemas bem-postos foi formalizada pelo matemático Hadamard no início do século XX. Se um problema tem solução única e se pequenas perturbações nos dados de entrada provocam pequenas perturbações nos resultados, então este problema é bem-posto. Esta última condição é chamada estabilidade do problema em relação aos dados de entrada. A estabilidade ou a instabilidade fornece informações a respeito da sensibilidade do método ou da matriz aos erros de arredondamento acumulados nos cálculos. 15 Diz-se que um método é estável se pequenas perturbações nos dados conduzem à soluções próximas; se isso não ocorre, o método é instável. Pode acontecer de o problema matemático ser bem-posto e, quando formos calcular as soluções aproximadas, usarmos algoritmos instáveis e, consequentemente, obtermos resultados equivocados apesar do problema matemático ser bem-posto. Portanto é fundamental entender esses conceitos e ter a sutileza de trabalhar com eles quando for necessário. 0.4.1 NOÇÕES DE MAL-CONDICIONAMENTO DE MATRIZES Na resolução numérica de sistemas lineares três aspectos devem ser considerados: • se existe solução ou não; • encontrar um método eficiente para resolver as equações; • verificar se o vetor de solução x de equações é muito sensível a pequenas mudanças na matriz de coeficientes [A]. Um problema é mal condicionado ou sensível se pequenas alterações na excitação ocasionam erros amplifica- dos no resultado final, ou seja: ||∆x|| ||x|| = Cond(A) ||∆b|| ||b|| . (17) Dado um sistema linear Ax = b, por definição, o número de condicionamento Cond(A) é dado pela seguinte expressão: Cond(A) = ||A||.||A−1|| (18) Quanto maior for o número de condicionamento da matriz A mais sensível será o sistema, ou seja, matrizes com número de condicionamento elevado são denominadas matrizes quase-singulares. Elas diferem das matrizes singulares por admitirem matriz inversa, porém, como os coeficientes são muito próximos de zero o resultado obtido é distorcido e não corresponde ao real, ou seja, é mal-condicionado. O truncamento numérico também pode gerar erros na solução. O mal-condicionamento de sistemas contendo matrizes está relacionado ao fato da matriz de coeficientes [A] ser quase-singular, ou seja, ela admite inversão, ao contrário das matrizes singulares que não admitem inversão, porém o vetor solução obtido através da inversão de uma matriz quase-singular não corresponde à solução real do sistema, ou seja, o vetor solução obtido da inversão de uma matriz quase-singular não é correto, nem exato, muito menos preciso. Até agora, o critério utilizado para avaliar a precisão da solução x do sistema linear Ax = b, é o resíduo r = b−Ax, onde x é a solução computada do sistema linear. Sabe-se, da seção anterior, onde foi apresentado o conceito de resíduo, o conceito de refinamento de soluções e o cálculo da parcela de correção que, se o vetor resíduo for próximo do vetor nulo então o vetor solução obtido será razoavelmente preciso. Isso se aplica à sistemas bem-condicionados, ou seja, aqueles nos quais o número de condição é baixo. Entretanto, em alguns casos, como será mostrado no exemplo seguinte, essa afirmação não é verdadeira. EXERCÍCIO: 16 1) Considere o sistema linear a seguir e sua suposta solução aproximada x. Calcule o vetor resíduo.( 1.2969 0.8648 0.2161 0.1441 ) · ( x1 x2 ) = ( 0.8642 0.1440 ) . Agora, resolva o sistema acima por substituição. Respostas: r = ( 10−8 −10−8 . ) x = [2 2]T . O que você pode concluir em relação ao erro em x? O sistema é bem ou mal-condicionado? 0.4.2 MÉTODO DE ELIMINAÇÃO DE JORDAN Este método é uma complementação ao método de eliminação de Gauss. Ele transforma o sistema dado em um outro diagonal, isto é, onde todos os elementos fora da diagonal são nulos. O método de eliminação de Gauss exigia apenas que se chegasse à forma triangular. O método de eliminação de Jordan consiste em transformar o sistema linear dado, em um sistema equivalente, de forma que a matriz principal fique na forma de matriz diagonal ou matriz identidade diagonal. Para isso, os seguintes passos devem ser seguidos: 1) transformar o sistema dado num sistema triangular, da mesma forma como se faz no método de eliminação de Gauss. 2) eliminam-se os coeficientes que não pertencem à diagonal principal, utilizando procedimentos idênticos ao do passo 1. CÁLCULO DE DETERMINANTES Do mesmo modo como foi feito com os sistemas lineares, pode-se definir transformações elementares para matrizes e também definir matrizes equivalentes A e B quando B puder ser obtida de A por transformações elementares nas linhas ou nas colunas. Pode-se provar que se A e B são equivalentes, então det|A| = det|B|. Como se sabe, nas matrizes triangulares e diagonais o determinante é o produto dos elementos da diagonal principal, então, para o cálculo do determinante pode-se utilizar ou o método de eliminação de Gauss ou o método de eliminação de Jordan. 1o Exemplo: Dada a matriz A = 2 3 −14 4 −3 2 −3 1 , usar o método de eliminação de Gauss para obter o valor do determinante dessa matriz. 17 Resolução: O que o método de eliminação de Gauss faz é obter a matriz diagonal superior (U) desse sistema, aplicando transformações elementares e substituições sucessivas; da seguinte maneira: U = 2 3 −10 −2 −1 0 0 5 Resposta: O determinante da matriz diagonal superior U é obtido fazendo-se o produto dos elementos da diagonal principal, ou seja: detU = |U | = (2)(−2)(5) = −20. 2o Exemplo: Dada a matriz B = 1 1 22 −1 −1 1 −1 −1 , usar o método de eliminação de Jordan para obter o valor do determinante dessa matriz. Resolução: Utilizando as transformações elementares deve-se transformar a matriz B em uma matriz diagonal principal, zerando os valores dos coeficientes abaixo e acima da diagonal principal; da seguinte forma: 1a etapa: Calcular os multiplicadores como se faz no método de Gauss: m21 = a21 a11 ∴ m21 = 2 e m21 = a31 a11 ∴ m31 = 1. 2a etapa: As transformações elementares são: para a linha 1: L1 → L1; para a linha 2: L2 → L2 −m21L1; para a linha 3: L3 → L3 − L1. Resultando em: B = 1 1 20 −3 −5 0 −2 −3 3a etapa: Calcular o multiplicador novamente: m32 = a32 a22 ∴ m32 = 2 3 . 4a etapa: As transformações elementares são: para a linha 3: L3 → L3 −m32L2 ∴ L3 − 2 3 L2; Resultando em: B = 1 1 20 −3 −5 0 0 −3 18 Para zerar os coeficientes acima da diagonal principal procede-se da mesma maneira. Aqui, solicita-se ao aluno que termine o exercício e apresente o vetor de solução x. Resposta: D = 1 0 0 0 −3 0 0 0 1 3 , então, o determinante de A é: det(A) = (1) · (−3) · (13 ) ∴ det(A) = −1. 0.4.3 FATORAÇÃO LU Vamos supor que seja possível fatorar, ou seja, decompor, a matriz dos coeficientes A em um produto de uma matriz triangular inferior L, com os elementos da diagonal principal iguais a 1, e uma matriz triangular superior U; isto é: A = LU (19) Nestas condições, o sistema Ax = b pode ser reescrito na forma LUx = b, o que permite obter dois sistemas triangulares: Ly = b; e, (20) Ux = y. (21) Resolvendo o primeiro sistema, calcula-se y que, substituindo-o no segundo sistema, fornecerá o vetor x dese- jado. Conhecendo-se os valores de L e de U, o sistema será resolvido com 2n2 operações, ou seja, dois sistemas triangulares, o que representa uma vantagem em relação às 2n3 3 operações do método de eliminação de Gauss. Dada uma matriz A, os fatores L e U são únicos se fizermos, necessariamente, todos os elementos da diagonal de L sejam iguais a 1. EXERCÍCIO 1) Resolver o sistema linear a seguir usando fatoração LU: 3x1 + 2x2 + 4x3 = 1 x1 + x2 + 2x3 = 2 4x1 + 3x2 + 2x3 = 3 Resposta: x = [−3 5 0]T . 19 Note-se que já temos as matrizes L e U . A vantagem do método de fatoração LU, como já foi dito acima, é a eficiência computacional porque podemos escolher qualquer vetor b novo que não teremos que voltar a fazer a eliminação de Gauss a cada vez. Outra aplicação da fatoração LU é no cálculo da inversa de uma matriz. As matrizes L e U podem ser usadas para calcular a matriz inversa. Algumas implementações que invertem matrizes usam este método. Também no cálculo do determinante de uma matriz usa-se as matrizes L e U pois det(A) = det(L)det(U) e o determinante das matrizes triangulares é o produto dos elementos de suas diagonais. Em particular, se L é uma matriz triangular em cuja diagonal todos os elementos são um (1), então: det(A) = det(L)det(U) = n∏ i=1 uii (22) 0.4.4 FATORAÇÃO DE CHOLESKY A decomposição de Cholesky consiste em resolver um sistema linear onde a matriz dos coeficientes A é simétrica, ou seja, A = AT e positiva definida: xTAx > 0, para todo x 6= 0. Neste caso, a fatoração trian- gular é: A = LDLT ; (23) onde: L é uma matriz triangular inferior com os elementos da diagonal principal iguais a um e D é uma matriz diagonal. A existência da decomposição de Cholesky é uma condição necessária e suficiente para que uma matriz simétrica seja positiva definida. 0.5 MÉTODOS ITERATIVOS A escolha do método a ser utilizado depende de cada caso. A menos que aconteçam erros de arredondamento em softwares computacionais, os métodos diretos vistos anteriormente, fornecem a solução aproximada para um sistema linear, caso ela exista, após realizar o processo de eliminação com um número finito de passos, além de não depender de condições de convergência. Porém, eles podem ser inviáveis quando o sistema é muito grande, esparso ou mal-condicionado. Então, os métodos iterativos são indicados para sistemas grandes e esparsos. Eles utilizam uma sequência finita de iterações para calcular aproximações sucessivas que convirjam para o vetor solução x do sistema Ax = b. A convergência depende da matriz dos coeficientes A. 20 Uma aplicação dos métodos iterativos se dá na discretização de equações diferenciais. A discretização da equação bidimensional de Laplace usando diferenças finitas fornece uma matriz esparsa cujos elementos fora das diagonais não-nulas são nulos. Se for utilizado o método de eliminação Gaussiana os zeros que existem na matriz podem ser substituídos por elementos não-nulos comprometendo, assim, a utilização dos métodos diretos no caso de matrizes esparsas. Já utilizando os métodos de Jacobi e Gauss-Seidel nenhum elemento não-nulo será introduzido nas matrizes esparsas, então a condição de esparsidade é preservada. Existem algumas condições de convergência que devem ser atendidas; são elas: o critério das linhas e o de Sassenfeld. 0.5.1 GAUSS-JACOBI Carl Gustav Jacobi (1804-1851) apresentou o método iterativo que recebe seu nome em 1845. O Método de Jacobi é um procedimento iterativo para a resolução de sistemas lineares. Apresenta a vantagem de fácil implementação em linguagens ou softwares computacionais se comparado ao Método de Eliminação de Gauss, e está menos sujeito ao acúmulo de erros de arredondamento. Sua desvantagem, no entanto, é não ter convergência garantida. O Método de Jacobi consiste em isolar x1, x2, . . . , xn nas equações do sistema linear e, a partir de um vetor de valores iniciais [x(0)1 . . . x (0) n ]T , geralmente este vetor tem os seguintes valores [0 0 0 . . . 0]T , encontrar os valores de [x(1)1 . . . x (1) n ], da primeira iteração, que serão utilizados na segunda iteração para obter [x (2) 1 . . . x (2) n ], e assim, sucessivamente até alcançar a precisão ε desejada ou atender ao número de iterações máximas solicitado. Então, tem-se que: x1 = b1 − (a12x2 + a13x3 + . . .+ a1nxn) a11 (24) x2 = b2 − (a21x1 + a23x3 + . . .+ a2nxn) a22 (25) ... (26) x1 = bn − (an1x1 + an2x2 + . . .+ an,n−1xn−1) ann (27) Os elementos aii devem ser não-nulos, caso eles não sejam, as equações do sistema linear devem ser reorde- nadas de modo a garantir esta condição. CRITÉRIO DE PARADA As aproximações são calculadas até que um dos critérios abaixo seja satisfeito: max 1≤i≤n |xk+1i − x(k)i | ≤ �, (28) 21 onde � é o grau de precisão desejado, ou k > M , onde M é o número máximo de iterações solicitado. EXEMPLO: Resolver pelo método de Jacobi o seguinte sistema:{ 2x1 − x2 = 1 x1 + 2x2 = 3 com � ≤ 10−2 ou k > 10. EXERCÍCIOS: Resolver pelo método de Jacobi o seguinte sistema: a) 10x1 + x2 + 2x3 = 5, 25 −x1 + 5x2 + 3x3 = 6, 5 −2x2 + 7x3 = 5, 5 com � ≤ 10−3 = 0, 001, com a aproximação inicial x(0)0 = [0, 1 0, 5 0]T . Encontre a solução exata utilizando o Excel. b) { 0, 5x1 + 20x2 = 14, 25 50x1 + 0, 1x2 = 25, 07 com � ≤ 10−3 = 0, 001, com a aproximação inicial x(0)0 = [0, 1 0, 5]T . A sequência está convergindo ou divergindo? 0.5.2 GAUSS-SEIDEL O método de Gauss-Seidel é uma modificação do método de Jacobi. Gauss apresentou o método iterativo para resolução de sistemas de equações provenientes do Método dos Quadrados Mínimos. Seidel foi aluno de Jacobi e em 1874 publicou a versão do método de Gauss-Seidel usada atualmente. Dado um sistema de equações lineares Ax = b o método iterativo de Gauss-Seidel consiste em: a) partindo-se de um vetor de aproximações iniciais x(0), b) calcula-se a sequência de aproximações x(1), x(2), . . . , x(k), utilizando-se as seguintes equações: 22 x (k+1) 1 = 1 a11 [b1 − a12xk2 − a13xk3 − . . .− a1nx(k)n ] (29) x (k+1) 2 = 1 a22 [b2 − a21xk+12 − a23xk3 − . . .− a2nx(k)n ] (30) ... (31) x(k+1)n = 1 ann [bn − an1xk+11 − an2xk+12 − . . .− an,n−1x(k+1)n−1 ] (32) (33) O critério de parada é o mesmo utilizado no método de Jacobi. EXEMPLO: Resolver pelo método de Gauss-Seidel o seguinte sistema:{ 2x1 − x2 = 1 x1 + 2x2 = 3 com � ≤ 10−2 ou k > 10. EXERCÍCIO: 1) Resolver pelo método de Gauss-Seidel o seguinte sistema: a) 5x1 + x2 + x3 = 5 3x1 + 4x2 + x3 = 6 3x1 + 3x2 + 6x3 = 0 com � ≤ 5× 10−2 = 0, 05 e aproximação inicial x(0)0 = [0 0 0]T . 0.6 CONVERGÊNCIA DOS MÉTODOS ITERATIVOS Na prática, são usados os critérios de suficiência de convergência expressos a seguir, tanto para o método de Jacobi quanto para o método de Gauss-Seidel. Basta que o sistema satisfaça apenas um desses critérios para ter-se convergência garantida, independentemente da escolha do vetor inicial. 0.6.1 CRITÉRIO DAS LINHAS Seja o sistema linear Ax = b e seja: αk = ∑n j=1 j 6=k |akj | |akk| (34) 23 Se α = maxk=1,...,n αk < 1, então o método de Gauss-Jacobi gera uma sequência x(k) convergente para a solução do sistema dado, independentemente da escolha da aproximação inicial x(0). O critério das linhas é uma condição suficiente mas não necessária, ou seja, se a matriz dos coeficientes A satisfaz o critério das linhas então o método de Gauss-Jacobi é convergente, porém, se a matriz dos coeficientes não satisfaz o critério das linhas nada se pode afirmar, ou seja, o sistema pode divergir ou convergir. EXERCÍCIOS: 1) Considere a seguinte matriz dos coeficientes A: a) 10 2 11 5 1 2 3 10 Utilizando o critério das linhas diga se esta matriz é convergente. b) [ 1 1 1 −3 ] Utilizando o critério das linhas diga se esta matriz é convergente lembrando de que se as condições de suficiên- cia não forem satisfeitas, não significa que o método não possa convergir. c) 1 3 15 2 2 0 6 8 Utilizando o critério das linhas diga se esta matriz é convergente lembrando que quando as condições do teorema não são satisfeitas, é possível permutar as equações a fim de alcançar a convergência. 0.6.2 CRITÉRIO DE SASSENFELD Dado o sistema linear Ax = b, com a matriz dos coeficientes A de dimensão n× n. Seja: β1 = |a12|+ |a13|+ |a14|+ . . .+ |a1n| |a11| (35) e para j = 2, 3, . . . , n. βj = |aj1|β1 + . . .+ |ajj−1|βj−1 + |ajj+1|+ . . .+ |aj1| |ajj | (36) Define-se: 24 β = max j=1,...,n βj (37) Se β < 1, então o método de Gauss-Seidel gera uma sequência convergente para a solução do sistema, qualquer que seja o vetor inicial. Além disso, quanto menor o valor de β mais rápida a convergência. EXERCÍCIOS: Utilizando o critério de das linhas e o critério de Sassenfeld diga se as matrizes a seguir atendem ou não esses critérios e se a sequência gerada é convergente. a) 2 1 30 −1 3 1 0 3 b) 1 0 30 −1 3 2 1 3 c) 3 0 11 −1 0 3 1 2 Note que a matriz é a mesma, a única modificação feita foi na letra b) a troca de linhas e na letra c) a troca da primeira coluna pela terceira coluna. Pode-se então concluir que o método de Gauss-Seidel é fortemente depen- dente da posição das equações em um sistema linear. d) [ 2 1 1 1 ] e) 1 0, 5 −0, 1 0, 1 0, 2 1 −0, 2 −0, 1 −0, 1 −0, 2 1 0, 2 0, 1 0, 3 0, 2 1 0.7 COMPARAÇÃO ENTRE OS MÉTODOS DIRETOS E ITERATIVOS Não se pode garantir, a priori, qual método é mais eficiente. A análise depende de cada sistema sendo necessário definir alguns critérios, como por exemplo, os métodos diretos são úteis na resolução de sistemas de pequeno porte com matrizes de coeficientes densas, ou seja, com poucos elementos nulos. Também são úteis no cálculo de vários sistemas que possuem a mesma matriz de coeficientes A, como é o caso da Fatoração LU e da Fatoração de Cholesky. Os sistemas de pequeno porte são os que têm ordem até 30, ou seja, n = 30. Os sistemas de médio porte são aqueles que apresentam ordem até 50, ou seja, n = 50. 25 Os métodos iterativos são bastante utilizados em sistemas de grande porte, ou seja, com n > 50, cuja matriz dos coeficientes A é do tipo esparsa, ou seja, há uma grande incidência de elementos nulos nas suas linhas. Os zeros da matriz original são preservados quando o sistema é resolvido por métodos iterativos, então as iterações são feitas utilizando a matriz original tornando os cálculos autocorrigíveis, o que tende a minimizar os erros de arredondamento. Como no método de Gauss-Seidel utiliza-se a atualização imediata dos resultados, a sua convergência deveria ser mais rápida do que no procedimento de Jacobi, entretanto, nem sempre isso ocorre. Os métodos diretos são processos finitos, portanto, a solução de qualquer sistema não-singular pode ser obtida após um determinado número de passos, enquanto que os métodos iterativos devem atender determinadas condições de convergência. Os métodos diretos apresentam sérios problemas com erros de arredondamento. Uma maneira de resolver este problema é utilizar técnicas de pivotamento e de refinamento de solução. A vantagem dos métodos iterativos está justamente na diminuição desses erros, uma vez que garantidos os critérios de convergência, a convergência do método não depende da aproximação inicial. 0.8 SISTEMAS LINEARES COMPLEXOS Seja o sistema linear Ax = b, com A e b matrizes constituídas de elementos reais e complexos. Sabe-se que i = j = √−1 ou i2 = j2 = −1. Para resolver este tipo de sistema, procede-se da seguinte forma: 1o passo: Fazer A = A′ + jA′′, x = x′ + jx′′ e b = b′ + jb′′; então, o sistema descomplexificado será representado na forma matricial da seguinte maneira: [ A′ −A′′ A′′ A′ ] · [ x′ x′′ ] = [ b′ b′′ ] ; que é um sistema 2n × 2n com componentes reais, onde A′ e A′′ são matrizes reais de dimensão n × n e x′, x′′, b′ e b′′ são matrizes reais de dimensão n× 1. EXEMPLO: Resolva o seguinte sistema linear complexo: a) { (1 + 2i)x1 + 3x2 = −5 + 4i −x1 + x2 = −1 0.9 EXERCÍCIOS SOBRE SISTEMAS DE EQUAÇÕES LINEARES 1) Determinar o vetor solução dos sistemas de equações lineares abaixo através do método de eliminação de Gauss: 26 a) 2x1 + 3x2 + x3 − x4 = 6, 90 −x1 + x2 − 4x3 + x4 = −6, 60 x1 + x2 + x3 + x4 = 10, 20 4x1 − 5x2 + x3 − 2x4 = −12, 30 b) 4x1 + 3x2 + 2x3 + x4 = 10 x1 + 2x2 + 3x3 + 4x4 = 5 x1 − x2 − x3 − x4 = −1 x1 + x2 + x3 + x4 = 3 c) x1 + 2x2 + 3x3 + 4x4 = 10 2x1 + x2 + 2x3 + 3x4 = 7 3x1 + 2x2 + x3 + 2x4 = 6 4x1 + 3x2 + 2x3 + x4 = 5 d) x1 + x2 + 2x3 + 4x4 = 7, 12 x1 + x2 + 5x3 + 6x4 = 12, 02 2x1 + 5x2 + x3 + 2x4 = 14, 90 4x1 + 6x2 + 2x3 + x4 = 20, 72 e) x1 − 5x2 + 3x3 + 9x4 − 7x5 + 21x6 − 7x7 − 2x8 = −10, 79 3x1 + 2x2 − 5x3 + 8x4 + 3x5 − 13x6 + x8 = −2, 14 2x1 + x2 + 9x3 − 6x4 − 6x5 + 8x6 − 3x7 + 3x8 = −130, 608 4x1 − 4x2 + 2x3 + 5x4 + 8x5 − 6x6 + 2x7 − 4x8 = 76, 3 −5x1 + 6x2 − 4x3 + 4x4 + 9x5 − 10x6 + x7 + 5x8 = −11, 1 6x1 + x2 + 5x3 − 2x4 + 15x5 + 4x6 − 9x7 + 7x8 = 0, 135 −9x2 + 1x3 + x4 − 12x5 + 2x6 + 10x7 + 8x8 = −3, 108 3x1 + 10x2 + 3x3 + 7x4 + 3x5 + x6 + x7 − 3x8 = 632, 5 2) Determinar o vetor solução dos sistemas lineares abaixo, através do método de Jordan: a) 2x1 + 3x2 + x3 − x4 = 6, 90 −x1 + x2 − 4x3 + x4 = −6, 60 x1 + x2 + x3 + x4 = 10, 20 4x1 − 5x2 + x3 − 2x4 = −12, 30 b) 4x1 + 3x2 + 2x3 + x4 = 10 x1 + 2x2 + 3x3 + 4x4 = 5 x1 − x2 − x3 − x4 = −1 x1 + x2 + x3 + x4 = 3 c) x1 + 2x2 + 3x3 + 4x4 = 10 2x1 + x2 + 2x3 + 3x4 = 7 3x1 + 2x2 + x3 + 2x4 = 6 4x1 + 3x2 + 2x3 + x4 = 5 27 d) x1 + x2 + 2x3 + 4x4 = 7, 12 x1 + x2 + 5x3 + 6x4 = 12, 02 2x1 + 5x2 + x3 + 2x4 = 14, 90 4x1 + 6x2 + 2x3 + x4 = 20, 72 e) 3x1 − 9x3 + 6x4 + 9x5 + 4x6 − x7 = −0, 108 −9x1 + 3x2 + 8x3 + 9x4 − 12x5 + 6x6 + 3x7 = 26, 24 x1 − 9x2 + x3 − 3x4 + x5 − 5x6 + 5x7 = 92, 808 4x1 + 8x2 − 10x3 + 8x4 − 5x5 + 4x6 − 4x7 = 53, 91 −5x1 + 5x2 + 4x3 + 11x4 + 3x5 + 8x6 + 7x7 = 143, 55 6x1 − 2x2 + 9x3 − 7x4 − 5x5 − 3x6 + 8x7 = −6, 048 8x1 + 7x2 + 2x3 + 5x4 + 2x5 + x6 − 3x7 = 137, 94 3) Determinar o vetor solução dos sistemas lineares abaixo, através do método de Gauss-Jacobi, com no máx- imo 10 iterações: x0 = [0 0 0 0]T ; � < 10−2 a) x1 − 0, 25x2 − 0, 25x3 = 0 −0, 25x1 + x2 − 0, 25x4 = 0 −0, 25x1 + x3 − 0, 25x4 = 0, 25 −0, 25x2 + x4 = 0, 25 x0 = [0 0 0 0]T ; � < 10−2 b) 4x1 + x2 + x3 + x4 = 7 2x1 − 8x2 + x3 − x4 = −6 x1 + 2x2 − 5x3 − x4 = −1 x1 + x2 + x3 − 4x4 = −1 x0 = [1 3 1 3]T ; � < 10−2 c) 5x1 − x2 + 2x3 − x4 = 5 x1 + 9x2 − 3x3 + 4x4 = 26 3x2 − 7x3 + 2x4 = −7 −2x1 + 2x2 − 3x3 + 10x4 = 33 x0 = [0 0 0 0 0]T ; � < 10−2 d) 10x1 + 4x2 − x3 + 3x4 = 2 −8x2 − 2x3 + x4 − 3x5 = 5 2x1 − 4x2 + 7x3+ = 13 −x1 + 2x2 − 3x3 + 10x4 + 2x5 = 4 2x1 − x2 − x3 + x4 − 7x5 = 7 4) Determinar o vetor solução dos sistemas lineares abaixo, através do método de Gauss-Seidel, com no máx- imo 10 iterações: 28 x0 = [0 0 0 0]T ; � < 10−2 a) x1 − 0, 25x2 − 0, 25x3 = 0 −0, 25x1 + x2 − 0, 25x4 = 0 −0, 25x1 + x3 − 0, 25x4 = 0, 25 −0, 25x2 + 10x4 = 0, 25 x0 = [0 0 0 0]T ; � < 10−2 b) 4x1 + x2 + x3 + x4 = 7 2x1 − 8x2 + x3 − x4 = −6 x1 + 2x2 − 5x3 + x4 = −1 x1 + x2 + x3 − 4x4 = −1 x0 = [1 3 1 3]T ; � < 10−2 c) 5x1 − x2 + 2x3 − x4 = 5 x1 + 9x2 − 3x3 + 4x4 = 26 3x2 − 7x3 + 2x4 = −7 −2x1 + 2x2 − 3x3 + 10x4 = 33 x0 = [0 0 0 0 0]T ; � < 10−2 c) 10x1 + 4x2 − x3 + 3x4 = 2 −8x2 − 2x3 + x4 − 3x5 = 5 2x1 − 4x2 + 7x3 = 13 −x1 + 2x2 − 3x3 − 10x4 + 2x5 = 4 2x1 − x2 − x3 + x4 − 7x5 = 7 5) Determine o vetor solução dos sistemas lineares complexos abaixo: a) (1 + i)x1 + ix2 + x3 = 1 + 4i −x1 − 2ix2 + (1 + 2i)x3 = −1− 2i 2x1 + 2x2 − x3 = 4− i b) { (3 + 4i)x1 + x2 = −2 + 3i ix1 + (−2− 3i)x2 = 13 c) { x1 + x2 = 4 x1 − x2 = 2i Respostas: 1) a) x∗ = [0, 9 2, 1 3, 0 4, 2]T 1) b) indeterminado 1) c) x∗ = [0 1 0 2]T 1) d) x∗ = [1, 2 2, 12 1, 5 0, 2]T 1) e) x∗ = [1, 84245×101 4, 32176×101 −1, 14706×101 −1, 30122 1, 39106×101 1, 47225×101 8, 72343 − 4, 11309× 101]T 29 2) a) x∗ = [0, 9 2, 1 3, 0 4, 2]T 2) b) indeterminado 2) c) x∗ = [0 1 0 2]T 2) d) x∗ = [1, 2 2, 12 1, 5 0, 2]T 2) e) x∗ = [−2, 83519 1, 32316× 101 2, 10986 2, 71105× 101 6, 13817 − 4, 43192× 101 1, 32430× 101]T O valor do determinante é 8, 04193× 106. 3) a) x∗ = [0, 107 0, 09 0, 342 0, 272]T 3) b) x∗ = [1, 001 1, 002 1, 001 1, 002]T 3) c) x∗ = [1, 027 − 1, 977 3, 024 3, 975]T 3) d) x∗ = [0, 953 − 0, 707 1, 180 − 1, 182 − 0, 962]T 4) a) x∗ = [0, 119 0, 130 0, 350 0, 283]T 4) b) x∗ = [0, 99 1, 00 1, 00 1, 00]T 4) c) x∗ = [0, 999 2, 00 3, 00 4, 00]T 4) d) x∗ = [0, 959 − 0, 707 1, 172 − 1, 184 − 0, 963]T 5) a) x∗ = [(1 + i) (1− i)i]T 5) b) x∗ = [0 (−2 + 3i)]T 5) c) x∗ = [(2 + i) (2− i)]T BONS ESTUDOS! 0.10 PROBLEMAS REFERENTES À APLICAÇÕES DE SISTEMAS LI- NEARES Resolva os seguintes exercícios referentes a problemas aplicados e projetos: 1) Considere o circuito da Figura a seguir com resistências, fontes de alimentação e com correntes escolhidas arbitrariamente. 2 Ω 10V 2 Ω 4 Ω 2 Ω 2 Ω 2 Ω 4 V 6 Ω i1 i 2 i3 Figura 4: Circuito elétrico. Aplicando a lei de Kirchhoff, a qual diz que a soma algébrica da diferença de potencial em qualquer circuito 30 fechado é zero, foi obtido o seguinte sistema linear: 2I1 + 4(I1 − I2) + 2(I1 − I3) = 10 2I2 + 2I2 + 2(I2 − I3) + 4(I2 − I1) = 0 6I3 + 2(I3 − I1) + 2(I3 − I2) = 4 Determine o valor do vetor de correntes i = (I1 I2 I3)T que satisfaz o sistema linear. a) É possível resolver o sistema linear pelo método da decomposição LU? Justifique. b) É possível resolver o sistema linear pelo método da fatoração de Cholesky? Justifique. c) Resolva o sistema linear pelo método de eliminação Gaussiana. 2) Representa-se por x1, x2, x3 e x4 o número de quatro produtos que podem ser produzidos no decorrer de uma semana. Para a produção de cada unidade, precisa-se de três tipos diferentes de matérias-primas – A, B e C –, conforme indicado na Tabela a seguir. Produto A B C (1) 1 2 4 (2) 2 0 1 (3) 4 2 3 (4) 3 1 2 Por exemplo, para produzir uma unidade de (1) precisa-se de 1 unidade de A, 2 de B e 4 de C. Se existem disponíveis 30, 20 e 40 unidades de A, B e C, respectivamente, quantas unidades de cada produto podemos pro- duzir? Escreva x1, x2 e x3 em função de x4 e lembre que as soluções devem ser inteiras e não negativas. resolva o sistema linear usando um método numérico a sua escolha. 3) Uma transportadora possui cinco tipos de caminhões, que serão representados por (1), (2), (3), (4) e (5), os quais são equipados para transportar cinco tipos diferentes de máquinas A, B, C, D e E, segundo a Tabela abaixo, onde supõem-se que A, B, C, D e E é a quantidade de máquinas que cada caminhão pode transportar levando carga plena. Caminhões A B C D E (1) 1 1 1 0 2 (2) 0 1 2 1 1 (3) 2 1 1 1 0 (4) 3 2 1 2 1 (5) 2 1 2 3 1 Assim, o caminhão (1) pode transportar uma máquina A, uma máquina B, uma máquina C, nenhuma máquina D e duas máquinas E. Quantos caminhões de cada tipo deverão ser enviados para transportar exatamente: 31 • 27 máquinas do tipo A; • 23 máquinas do tipo B; • 31 máquinas do tipo C; • 31 máquinas do tipo D; • 22 máquinas do tipo E? Supondo que cada caminhão saia com carga plena, resolva o sistema linear obtido pelo método de Eliminação de Gauss. 32