Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
21 BIII – Cálculo Numérico de Raízes de Equações BIII.1 – Introdução Em muitos problemas da Engenharia ou Física, há necessidade de se determinar um número ε para o qual a função f(x) se anula, ou seja: f(x) = ε A partir de métodos analíticos é possível determinar as raízes de equações de 1º e 2º graus e algumas classes de equações de 3º e 4º graus. Equações de graus superiores só podem ser resolvidas por meio de métodos numéricos que aproximam as soluções. Para se determinar uma raiz de uma equação, duas etapas devem ser seguidas: Etapa 1: localização ou isolamento das raízes, que consiste em obter um intervalo que contém a raiz ε; Etapa 2: refinamento, que consiste em, escolhidas as aproximações iniciais no intervalo encontrado na Etapa 1, melhorar sucessivamente a aproximação até um precisão pré-fixada. BIII.2 – Isolamento de raízes Teorema: seja f(x) contínua em [a, b]. Se f(x) assume valores de sinais opostos em pontos extremos do intervalo [a, b], f(a)·f(b) < 0, então existe, no mínimo, um número ε [a, b] / f(ε) = 0. Isso significa que existe pelo menos uma raiz entre a e b: Figura 3.1 – Raízes entre a e b. Observação: a raiz ε será definida e única se f’(x) existir e preservar o sinal dentro do intervalo [a, b], isto é: se 0)(' 0)(' < > xf xf para a < x < b 22 Figura 3.2 – Sinal da derivada da função no intervalo [a, b]. Uma forma de se isolar as raízes de f(x) é tabelar a função para vários valores de x e analisar as mudanças de sinal de f(x) e o sinal de f’(x) onde f(x) mudou. Exemplos: a) para f(x) = x3 – 9x +3, temos b) para xexxf −−= 5)( , x ≥ 0, temos A análise gráfica de f(x) é importante para uma boa aproximação. Para isso é suficiente: a) esboçar o gráfico de f(x), atribuindo valores e localizando os pontos de intersecção como o eixo das abscissas (eixo x) ; b) a partir de f(x), obter a equação g(x) = h(x) e esboçar os gráficos de g(x) e h(x) localizando os pontos onde as duas curvas se interceptam pois, neste caso, f(ε) = 0 g(ε) = h(ε). Exemplo: a) para f(x) = x3 – 9x +3, temos 23 b) para xexxf −−= 5)( , x ≥ 0, temos c) f(x) = x·log(x) – 1 24 Esboço de funções Figura 3.3 – Esboço de algumas funções. 25 BIII.3 – Refinamento BIII.3.1 – Critérios de parada Seja ε uma raiz isolada exata e xn uma raiz aproximada de f(x) = 0, pertencentes ao intervalo [a, b]. xn está suficientemente próxima de ε quando, dado um valor de erro E, satisfaz-se: |xn – ε| ≤ E (3.1) Mas como efetuar o testes acima se não conhecemos a raiz exata de ε??? Para contornarmos este problema, aplica-se um dos critérios abaixo: critério 1: |f(xn) | ≤ E critério 2: |xn – xn-1 | ≤ E critério 3: E x xx n nn ≤ − − || || 1 Em cada aproximação xn para a raiz exata ε, aplica-se um destes critérios e compara- se o resultado com a precisão E pré-fixada. BIII.3.2 – Método da bissecção Seja f(x) contínua em [a, b] tal que f(a) · f(b) < 0. O objetivo do método é reduzir a amplitude do intervalo até atingir a precisão requerida, |a – b| < E, usando para isso sucessivas divisões em [a, b]. As iterações são feitas da seguinte forma: o ooo o o o oo o xb aaxa bf xf af ba x ← ←∴∈ + + − ⎪⎩ ⎪⎨ ⎧ > > < + = 1 1],[ 0)( 0)( 0)( 2 ε 12 1211 1 1 1 11 1 ],[ 0)( 0)( 0)( 2 bb xabx bf xf af ba x ← ←∴∈ + − − ⎪⎩ ⎪⎨ ⎧ > < < + = ε 23 2322 2 2 2 22 2 ],[ 0)( 0)( 0)( 2 bb xabx bf xf af ba x ← ←∴∈ + − − ⎪⎩ ⎪⎨ ⎧ > < < + = ε 26 Graficamente, temos: Figura 3.4 – Visualização gráfica do método da bissecção. Observação: o método da bissecção converge sempre que f(x) for contínua em [a, b] com f(a) · f(b) < 0. Terminando o processo, teremos um intervalo [a, b] que contém a raiz ε, tal que |b – a| < E é uma aproximação xn para a raiz exata. Exemplo: f(x) = x ·log(x) – 1, com zero em (2, 3) 27 Observação: para se estimar o número de iterações k do processo, dada uma precisão E e um intervalo inicial [a, b] até que se obtenha |bk – ak| < E, utiliza-se a equação abaixo: )2log( )log()log( Eabk −−> (3.2) Para o exemplo anterior, admitindo-se E = 10–2, tem-se: Se o intervalo inicial é tal que |bo – ao| >> E e se E for muito pequeno, o número de iterações tende a ser muito grande e a convergência muito lenta. Exemplo: f(x) = x3 – 9x +3, I = [0, 1], E = 10-3 28 BIII.3.3 – Método da posição falsa No método da bissecção, xn é sempre o ponto médio entre [a, b]. Se | f(a)| estiver mais próximo do zero do que | f(b)|, é provável que a raiz esteja mais próxima de a do que b. Assim, o método da posição falsa, ou método das cordas, toma a média aritmética ponderada entre a e b com pesos | f(a)| e | f(b)|, respectivamente, ou seja: )()( )()( |)(||)(| |)(||)(| afbf afbbfa afbf afbbfax − ⋅−⋅ = + ⋅+⋅ = (3.3) Graficamente, x é o ponto de intersecção entre o eixo x e a reta r que passa por (a, f(a)) e (b, f(b)). Figura 3.5 – Ponto de intersecção entre o eixo x e a reta r(x). As iterações são feitas da seguinte maneira: Figura 3.6 – Visualização das iterações no método da posição falsa. 29 Se uma função é côncava ou convexa em [a, b], então, no método da posição falsa uma das extremidades permanecerá fixa. Esta extremidade é aquela na qual o sinal da função coincide com o sinal da segunda derivada. Figura 3.7 – Fixação da extremidade em função da concavidade da curva. Convergência: Se f(x) é contínua em [a, b] com f(a) · f(b) < 0, então o método da posição falsa converge. Exemplo: Aplicar o método da posição falsa para encontrar a raiz de f(x) = x ·log(x) – 1 no intervalo [ao,bo] = [2, 3], com E < 10–4. 30 BIII.3.4 – Método da posição falsa modificado O método da posição falsa modificado consiste em verificar, a cada iteração do método da posição falsa, se f(xk-1) · f(xk) > 0. Caso isso ocorra, trocar a reta secante que passa pelos pontos (a, f(a)) e (b, f(b)) por uma reta de inclinação menor. Figura 3.9 – Visualização do método da posição falsa modificado. Aplicando-se o método da posição falsa em f(x) = x ·log(x) – 1, para uma raiz no intervalo [ao,bo] = [2, 3], tem-se: BIII.3.5 – Método iterativo linear (MIL) Seja f(x) uma função contínua em [a, b] e ε um número pertencente a este intervalo tal que f(ε) = 0 Por meio de um artifício algébrico, pode-se transformar f(x) = 0 em x = F(x), onde F(x) é chamada de função de iteração. 31 A partir de um “chute” inicial x0, calcula-se o valor de F(x0). Em seguida, faz-se x1 = F(x0), x2 = F(x1), x3 = F(x2) e assim sucessivamente, ou seja: xk + 1 = F(xk), k = 0, 1, 2, ... (3.4) Se a seqüência {x0, x1, x2,...} é convergente, isto é, se existe o limite ε= ∞→ kk xlim e F(x) é contínua, então, passando ao limite a equação anterior tem-se: ( )kkkk xFx ∞→+∞→ = limlim 1 , ou seja, ε = F(ε), onde ε é uma raiz de f(x) = 0. A forma geral dessas funções F(x) é F(x) = x + A(x) f(x), com a condição de que em ε, ponto fixo de F(x), se tenha A(ε) ≠ 0. Graficamente, a raiz da equação x = F(x) é a abscissa do ponto de intersecção da reta y = x e da curva y = F(x). Figura 3.10 – Convergência de F(x). Portanto, para certas F(x), o processo pode gerar uma seqüência que diverge de ε. Convergência: Não é para qualquer escolha de F(x) que o processo recursivo definido por uma xk + 1 = F(xk) gera uma seqüência que converge para ε. Portanto, antes de se aplicar o método iterativo linear, deve-se verificar se a função F(x) escolhida conduzirá a um processo convergente. Para tanto, é suficiente atender o teorema abaixo: 32 Teorema: seja ε [a, b] uma raiz da equação f(x) = 0 e seja F(x) contínua e diferenciável em [a, b]. Se |F’(x)| ≤ M < 1 para todos os pontos no intervalo [a, b] e x0 [a, b], então os valores dados pela equação xk + 1 = F(xk) converge para ε. Exemplo: Para a equação f(x) = x2 + x – 6 = 0, pode-se facilmente obter funções de iteração do tipo x = F(x): a) 21 6)( xxF −= b) xxF −±= 6)(2 c) 16)(3 −= x xF d) 1 6)(4 + = x xF A questão é determinar se todas convergem. Através de métodos analíticos, temos que as raízes da equação x2 + x – 6 = 0 são ε1 = 2 e ε2 = -3. Mas e através do método numérico Mil??? Tomando-se a primeira função iteração, 21 6)( xxF −= , e considerando-se um chute inicial x0 = 1,5 [1, 3] que contém uma das raízes, temos: Observe que {xk}está divergindo da raiz ε1 = 2 [1, 3]. Graficamente, temos: Figura 3.11 – Resolução gráfica do exemplo. 33 Tomando-se a segunda função interação, xxF −±= 6)(2 , e, novamente, considerando-se um chute inicial x0 = 1,5 [1, 3] que contém uma das raízes, temos: Observe que {xk} está convergindo para a raiz ε1 = 2 [1, 3]. Figura 3.12 – Resolução gráfica do exemplo. No exemplo anterior, constatou-se que F1(x) gera uma seqüência divergente e que F2(x) gera uma seqüência convergente. Para F1(x), temos: xxFxxF 2)(6)( '1 2 1 −=⇒−= Portanto, F1(x) é diferenciável e F1(x) e )('1 xF são contínuas em IR . 2 1 2 11|2|1|)(| '1 <<−⇒<−⇔< xxxF Então, não existe um intervalo [a, b], centrado em ε1= 2 tal que 1|)(| '1 <xF , x [a, b]. Portanto, F1(x) não conduzirá a um processo convergente. Para F2(x), temos: ' 2 2 1( ) 6 ( ) 2 6 F x x F x x = − ⇒ =− − 34 Portanto, F2(x) é diferenciável; F2(x) é contínua em S = {x IR / x ≤ 6} )('2 xF é contínua em S = {x IR / x < 6} 75,51 62 11|)(| '2 <⇒< − −⇔< x x xF Então, é possível obter um intervalo [a, b], centrado em ε1= 2 tal que 1|)(| '2 <xF , x [a, b]. Portanto, F2(x) conduzirá a um processo convergente. Critério de parada: no algoritmo Mil, escolhe-se xk como raiz aproximada de ε se: ExxFxx kkkk <−=− −−− |)(||| 111 (3.5) ou Exf k <|)(| , (3.6) onde E é o erro. Exemplo: Encontre a raiz da equação f(x) = x3 – 9x + 3 contida no intervalo [0, 1] a partir do chute inicial x0 = 0,5, considerando-se um erro E = 5 10–4 e, utilizando-se a função de iteração 3 1 9 )( 3 += xxF , convergente. 35 BIII.3.6 – Método de Newton-Raphson (N-R) O método de Newton-Raphson acelera a convergência do Mil, escolhendo-se para função iteração a função F(x) tal que F’(ε) = 0. Então, dada uma equação f(x) = 0 e partindo-se da foram geral F(x) = x + A(x) f(x), queremos obter a função A(x) tal que F’(ε) = 0. Portanto, F(x) = x + A(x) f(x) F’(x) = 1 + A’(x) f(x) + A(x) f ’(x) F’(ε) = 1 + A’(ε) f(ε) + A(ε) f ’(ε) Ora, como f(ε) = 0, então, F’(ε) = 1 + A(ε) f ’(ε) Assim, para F’(ε) = 0, temos: 1 + A(ε) f ’(ε) = 0 )(' 1)( ε ε f A −= , de onde toma-se que: )(' 1)( xf xA −= Então, dada uma função f(x) qualquer, a função iteração será dada por: )(' )()( xf xfxxF −= Assim, escolhendo-se x0 como o ponto de partida, a seqüência {xk}será definida por: )(' )( 1 k k kk xf xf xx −=+ , k = 0, 1, 2, ..., n. (3.7) Interpretação geométrica: dado xk, o ponto xk + 1 é obtido de forma que xk + 1 é a abscissa do ponto de intersecção entre o eixo → OX e a reta tangente à curva f(x) em (xk, f(xk)) 36 Figura 3.13 – Visualização gráfica do método de Newton-Raphson. Convergência: é condição suficiente para a convergência do método de N-R que f ’(x) e f’’(x) sejam não nulas e preservem o sinal em [a, b] e x0 seja tal que f(x) f’’(x) > 0. Exemplo: considere f(x) = x2 + x – 6 = 0, ε = 2, e x0 = 1,5. 37 BIII.3.7 – Método da secante A maior desvantagem do método de N-R é a necessidade de se calcular o valor de f ’(x) a cada iteração. Uma forma de se contornar esse problema é substituir a derivada f ’(x) pelo coeficiente das diferenças. Dessa forma, tem-se: 1 1)()()(' + + − − ≅ kk kk k xx xfxfxf (3.8) Neste caso, a função iteração fica: ( )1 1 1 1 )()( )( )()( )()( + + + + −⋅ − −= − − −= kk kk k k kk kk k kk xxxfxf xfx xx xfxf xfxxF Portanto, )()( )()( )()( )()()( 1 11 1 1 11 − −− + − −− − ⋅−⋅ =⇒ − ⋅−⋅ = kk kkkk k kk kkkk k xfxf xfxxfxx xfxf xfxxfxxF (3.9) Interpretação geométrica: Figura 3.14 – Visualização gráfica do método da secante. Para se utilizar o método da secante, são necessárias duas aproximações iniciais, xk – 1 e xk. A partir dessas aproximações, o ponto xk + 1 é obtido como sendo a abscissa do ponto de intersecção entre o eixo → OX e da reta secante que passa por (xk – 1, f(xk – 1)) e (xk, f(xk)). 38 Exemplo: considere f(x) = x2 + x – 6 = 0, ε = 2, x0 = 1,5 e x1 = 1,7 I – Erros I.1 – Tipos de erros I.2 – Exatidão ( precisão I.3 – Erros durante a descrição dos problemas I.3.1 – Erros na fase de modelagem I.3.2 – Erros na fase de resolução I.4 – Propagação de erros I.5 – Aritmética de ponto flutuante II – Resolução Numérica de Sistemas Lineares II.1 – Definições II.2 – Métodos diretos II.2.1 – Método de Eliminação de Gauss II.2.1.1 – Estratégia de pivoteamento parcial II.2.1.2 – Estratégia de pivoteamento completo II.2.2 – Método de Jordam II.3 – Métodos Iterativos II.3.1 – Introdução II.3.2 – Testes de parada II.3.3 – Método de Jacobi II.3.4 – Método de Gauss-Seidel II.3.5 – Convergência dos métodos iterativos II.3.5.1 – Critério das linhas II.3.5.2 – Critério das colunas II.3.5.3 – Critério de Sassenfeld III – Cálculo Numérico de Raízes de Equações III.1 – Introdução III.2 – Isolamento de raízes III.3 – Refinamento III.3.1 – Critérios de parada III.3.2 – Método da bissecção III.3.3 – Método da posição falsa III.3.4 – Método da posição falsa modificado III.3.5 – Método iterativo linear (MIL) III.3.6 – Método de Newton-Raphson (N-R) III.3.7 – Método da secante IV – Interpolação IV.1 – Introdução IV.2 – Interpolação polinomial IV.3 – Formas de obtenção do polinômio interpolador IV.3.1 – Resolução do sistema linear IV.3.2 – Forma de Lagrange IV.3.3 – Forma de Newton IV.3.4 – Forma de Newton-Gregory IV.3.5 – Erro na interpolação V – Integração Numérica V.1 – Introdução V.2 – Fórmulas de Newton-Cotes V.2.1 – Regra dos retângulos V.2.2 – Regra dos trapézios V.2.2.1 – Fórmula simples V.2.2.2 – Erro de trucamento da fórmula simples V.2.2.3 – Fórmula composta V.2.2.4 – Erro de truncamento da forma composta V.2.3 – Primeira regra de Simpson V.2.3.1 – Fórmula simples V.2.3.2 – Erro de truncamento da fórmula simples V.2.3.3 – Fórmula composta V.2.3.4 – Erro de trucamento da formula composta V.2.4 – Segunda regra de Simpson V.2.4.1 – Fórmula simples V.2.4.2 – Erro de truncamento da fórmula simples V.2.4.3 – Fórmula composta V.2.4.4 – Erro de truncamento da fórmula composta V.2.5 – Extrapolação de Richardson V.2.5.1 – Extrapolação de Richardson para a regra dos trapézios V.2.5.2 – Extrapolação de Richardson para as regras de Simpson V.3 – Fórmulas de Quadratura Gaussiana VI – Resolução Numérica de equações diferenciais ordinárias VI.1 – Introdução VI.2 – Método de Euler VI.3 – Métodos de Runge-Kutta VI.3.1 – Métodos de Runge-Kutta de 1ª ordem VI.3.2 – Métodos de Runge-Kutta de 2ª ordem VI.3.3 – Métodos de Runge-Kutta de 3ª e 4ª ordens VI.4 – Outros métodos de resolução numérica de EDO VI.4.1 – Método de Adams-Bashforth de passo dois VI.4.2 – Método de Adams-Bashforth de passo quatro