Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
21
BIII – Cálculo Numérico de Raízes de Equações
BIII.1 – Introdução
Em muitos problemas da Engenharia ou Física, há necessidade de se determinar
um número ε para o qual a função f(x) se anula, ou seja:
f(x) = ε
A partir de métodos analíticos é possível determinar as raízes de equações de 1º
e 2º graus e algumas classes de equações de 3º e 4º graus. Equações de graus superiores
só podem ser resolvidas por meio de métodos numéricos que aproximam as soluções.
Para se determinar uma raiz de uma equação, duas etapas devem ser seguidas:
Etapa 1: localização ou isolamento das raízes, que consiste em obter um
intervalo que contém a raiz ε;
Etapa 2: refinamento, que consiste em, escolhidas as aproximações iniciais no
intervalo encontrado na Etapa 1, melhorar sucessivamente a aproximação até um
precisão pré-fixada.
BIII.2 – Isolamento de raízes
Teorema: seja f(x) contínua em [a, b]. Se f(x) assume valores de sinais opostos em
pontos extremos do intervalo [a, b], f(a)·f(b) < 0, então existe, no mínimo, um número
ε [a, b] / f(ε) = 0. Isso significa que existe pelo menos uma raiz entre a e b:
Figura 3.1 – Raízes entre a e b.
Observação: a raiz ε será definida e única se f’(x) existir e preservar o sinal dentro do
intervalo [a, b], isto é:
se
0)('
0)('
<
>
xf
xf
para a < x < b
22
Figura 3.2 – Sinal da derivada da função no intervalo [a, b].
Uma forma de se isolar as raízes de f(x) é tabelar a função para vários valores de
x e analisar as mudanças de sinal de f(x) e o sinal de f’(x) onde f(x) mudou. Exemplos:
a) para f(x) = x3 – 9x +3, temos
b) para xexxf −−= 5)( , x ≥ 0, temos
A análise gráfica de f(x) é importante para uma boa aproximação. Para isso é suficiente:
a) esboçar o gráfico de f(x), atribuindo valores e localizando os pontos de
intersecção como o eixo das abscissas (eixo x) ;
b) a partir de f(x), obter a equação g(x) = h(x) e esboçar os gráficos de g(x) e h(x)
localizando os pontos onde as duas curvas se interceptam pois, neste caso,
f(ε) = 0 g(ε) = h(ε).
Exemplo:
a) para f(x) = x3 – 9x +3, temos
23
b) para xexxf −−= 5)( , x ≥ 0, temos
c) f(x) = x·log(x) – 1
24
Esboço de funções
Figura 3.3 – Esboço de algumas funções.
25
BIII.3 – Refinamento
BIII.3.1 – Critérios de parada
Seja ε uma raiz isolada exata e xn uma raiz aproximada de f(x) = 0, pertencentes
ao intervalo [a, b]. xn está suficientemente próxima de ε quando, dado um valor de erro
E, satisfaz-se:
|xn – ε| ≤ E (3.1)
Mas como efetuar o testes acima se não conhecemos a raiz exata de ε???
Para contornarmos este problema, aplica-se um dos critérios abaixo:
critério 1: |f(xn) | ≤ E
critério 2: |xn – xn-1 | ≤ E
critério 3: E
x
xx
n
nn ≤
−
−
||
|| 1
Em cada aproximação xn para a raiz exata ε, aplica-se um destes critérios e compara-
se o resultado com a precisão E pré-fixada.
BIII.3.2 – Método da bissecção
Seja f(x) contínua em [a, b] tal que f(a) · f(b) < 0. O objetivo do método é reduzir
a amplitude do intervalo até atingir a precisão requerida, |a – b| < E, usando para isso
sucessivas divisões em [a, b]. As iterações são feitas da seguinte forma:
o
ooo
o
o
o
oo
o xb
aaxa
bf
xf
af
ba
x ←
←∴∈
+
+
−
⎪⎩
⎪⎨
⎧
>
>
<
+
= 1
1],[
0)(
0)(
0)(
2
ε
12
1211
1
1
1
11
1 ],[
0)(
0)(
0)(
2
bb
xabx
bf
xf
af
ba
x
←
←∴∈
+
−
−
⎪⎩
⎪⎨
⎧
>
<
<
+
= ε
23
2322
2
2
2
22
2 ],[
0)(
0)(
0)(
2
bb
xabx
bf
xf
af
ba
x
←
←∴∈
+
−
−
⎪⎩
⎪⎨
⎧
>
<
<
+
= ε
26
Graficamente, temos:
Figura 3.4 – Visualização gráfica do método da bissecção.
Observação: o método da bissecção converge sempre que f(x) for contínua em [a, b]
com f(a) · f(b) < 0. Terminando o processo, teremos um intervalo [a, b] que contém a
raiz ε, tal que |b – a| < E é uma aproximação xn para a raiz exata.
Exemplo:
f(x) = x ·log(x) – 1, com zero em (2, 3)
27
Observação: para se estimar o número de iterações k do processo, dada uma precisão E
e um intervalo inicial [a, b] até que se obtenha |bk – ak| < E, utiliza-se a equação abaixo:
)2log(
)log()log( Eabk −−> (3.2)
Para o exemplo anterior, admitindo-se E = 10–2, tem-se:
Se o intervalo inicial é tal que |bo – ao| >> E e se E for muito pequeno, o número
de iterações tende a ser muito grande e a convergência muito lenta.
Exemplo:
f(x) = x3 – 9x +3, I = [0, 1], E = 10-3
28
BIII.3.3 – Método da posição falsa
No método da bissecção, xn é sempre o ponto médio entre [a, b]. Se | f(a)| estiver
mais próximo do zero do que | f(b)|, é provável que a raiz esteja mais próxima de a do
que b. Assim, o método da posição falsa, ou método das cordas, toma a média
aritmética ponderada entre a e b com pesos | f(a)| e | f(b)|, respectivamente, ou seja:
)()(
)()(
|)(||)(|
|)(||)(|
afbf
afbbfa
afbf
afbbfax
−
⋅−⋅
=
+
⋅+⋅
= (3.3)
Graficamente, x é o ponto de intersecção entre o eixo x e a reta r que passa por
(a, f(a)) e (b, f(b)).
Figura 3.5 – Ponto de intersecção entre o eixo x e a reta r(x).
As iterações são feitas da seguinte maneira:
Figura 3.6 – Visualização das iterações no método da posição falsa.
29
Se uma função é côncava ou convexa em [a, b], então, no método da posição
falsa uma das extremidades permanecerá fixa. Esta extremidade é aquela na qual o sinal
da função coincide com o sinal da segunda derivada.
Figura 3.7 – Fixação da extremidade em função da concavidade da curva.
Convergência:
Se f(x) é contínua em [a, b] com f(a) · f(b) < 0, então o método da posição falsa
converge.
Exemplo:
Aplicar o método da posição falsa para encontrar a raiz de f(x) = x ·log(x) – 1 no
intervalo [ao,bo] = [2, 3], com E < 10–4.
30
BIII.3.4 – Método da posição falsa modificado
O método da posição falsa modificado consiste em verificar, a cada iteração do
método da posição falsa, se f(xk-1) · f(xk) > 0. Caso isso ocorra, trocar a reta secante que
passa pelos pontos (a, f(a)) e (b, f(b)) por uma reta de inclinação menor.
Figura 3.9 – Visualização do método da posição falsa modificado.
Aplicando-se o método da posição falsa em f(x) = x ·log(x) – 1, para uma raiz no
intervalo [ao,bo] = [2, 3], tem-se:
BIII.3.5 – Método iterativo linear (MIL)
Seja f(x) uma função contínua em [a, b] e ε um número pertencente a este
intervalo tal que f(ε) = 0
Por meio de um artifício algébrico, pode-se transformar f(x) = 0 em x = F(x),
onde F(x) é chamada de função de iteração.
31
A partir de um “chute” inicial x0, calcula-se o valor de F(x0). Em seguida, faz-se
x1 = F(x0), x2 = F(x1), x3 = F(x2) e assim sucessivamente, ou seja:
xk + 1 = F(xk), k = 0, 1, 2, ... (3.4)
Se a seqüência {x0, x1, x2,...} é convergente, isto é, se existe o limite ε=
∞→
kk
xlim
e F(x) é contínua, então, passando ao limite a equação anterior tem-se:
( )kkkk xFx ∞→+∞→ = limlim 1 , ou seja,
ε = F(ε), onde ε é uma raiz de f(x) = 0.
A forma geral dessas funções F(x) é F(x) = x + A(x) f(x), com a condição de que
em ε, ponto fixo de F(x), se tenha A(ε) ≠ 0.
Graficamente, a raiz da equação x = F(x) é a abscissa do ponto de intersecção da
reta y = x e da curva y = F(x).
Figura 3.10 – Convergência de F(x).
Portanto, para certas F(x),
o processo pode gerar uma seqüência que diverge de
ε.
Convergência:
Não é para qualquer escolha de F(x) que o processo recursivo definido por uma
xk + 1 = F(xk) gera uma seqüência que converge para ε. Portanto, antes de se aplicar o
método iterativo linear, deve-se verificar se a função F(x) escolhida conduzirá a um
processo convergente. Para tanto, é suficiente atender o teorema abaixo:
32
Teorema: seja ε [a, b] uma raiz da equação f(x) = 0 e seja F(x) contínua e
diferenciável em [a, b]. Se |F’(x)| ≤ M < 1 para todos os pontos no intervalo [a, b] e
x0 [a, b], então os valores dados pela equação xk + 1 = F(xk) converge para ε.
Exemplo:
Para a equação f(x) = x2 + x – 6 = 0, pode-se facilmente obter funções de iteração do
tipo x = F(x):
a) 21 6)( xxF −=
b) xxF −±= 6)(2
c) 16)(3 −= x
xF
d)
1
6)(4 +
=
x
xF
A questão é determinar se todas convergem. Através de métodos analíticos,
temos que as raízes da equação x2 + x – 6 = 0 são ε1 = 2 e ε2 = -3. Mas e através do
método numérico Mil???
Tomando-se a primeira função iteração, 21 6)( xxF −= , e considerando-se um
chute inicial x0 = 1,5 [1, 3] que contém uma das raízes, temos:
Observe que {xk}está divergindo da raiz ε1 = 2 [1, 3]. Graficamente, temos:
Figura 3.11 – Resolução gráfica do exemplo.
33
Tomando-se a segunda função interação, xxF −±= 6)(2 , e, novamente,
considerando-se um chute inicial x0 = 1,5 [1, 3] que contém uma das raízes, temos:
Observe que {xk} está convergindo para a raiz ε1 = 2 [1, 3].
Figura 3.12 – Resolução gráfica do exemplo.
No exemplo anterior, constatou-se que F1(x) gera uma seqüência divergente e
que F2(x) gera uma seqüência convergente.
Para F1(x), temos:
xxFxxF 2)(6)( '1
2
1 −=⇒−=
Portanto, F1(x) é diferenciável e F1(x) e )('1 xF são contínuas em IR .
2
1
2
11|2|1|)(| '1 <<−⇒<−⇔< xxxF
Então, não existe um intervalo [a, b], centrado em ε1= 2 tal que 1|)(| '1 <xF ,
x [a, b]. Portanto, F1(x) não conduzirá a um processo convergente.
Para F2(x), temos:
'
2 2
1( ) 6 ( )
2 6
F x x F x
x
= − ⇒ =− −
34
Portanto,
F2(x) é diferenciável;
F2(x) é contínua em S = {x IR / x ≤ 6}
)('2 xF é contínua em S = {x IR / x < 6}
75,51
62
11|)(| '2 <⇒<
−
−⇔< x
x
xF
Então, é possível obter um intervalo [a, b], centrado em ε1= 2 tal que 1|)(| '2 <xF ,
x [a, b]. Portanto, F2(x) conduzirá a um processo convergente.
Critério de parada: no algoritmo Mil, escolhe-se xk como raiz aproximada de ε se:
ExxFxx kkkk <−=− −−− |)(||| 111 (3.5)
ou
Exf k <|)(| , (3.6)
onde E é o erro.
Exemplo:
Encontre a raiz da equação f(x) = x3 – 9x + 3 contida no intervalo [0, 1] a partir do chute
inicial x0 = 0,5, considerando-se um erro E = 5 10–4 e, utilizando-se a função de
iteração
3
1
9
)(
3
+=
xxF , convergente.
35
BIII.3.6 – Método de Newton-Raphson (N-R)
O método de Newton-Raphson acelera a convergência do Mil, escolhendo-se
para função iteração a função F(x) tal que F’(ε) = 0. Então, dada uma equação f(x) = 0 e
partindo-se da foram geral F(x) = x + A(x) f(x), queremos obter a função A(x) tal que
F’(ε) = 0. Portanto,
F(x) = x + A(x) f(x)
F’(x) = 1 + A’(x) f(x) + A(x) f ’(x)
F’(ε) = 1 + A’(ε) f(ε) + A(ε) f ’(ε)
Ora, como f(ε) = 0, então,
F’(ε) = 1 + A(ε) f ’(ε)
Assim, para F’(ε) = 0, temos:
1 + A(ε) f ’(ε) = 0
)('
1)(
ε
ε
f
A −= , de onde toma-se que:
)('
1)(
xf
xA −=
Então, dada uma função f(x) qualquer, a função iteração será dada por:
)('
)()(
xf
xfxxF −=
Assim, escolhendo-se x0 como o ponto de partida, a seqüência {xk}será definida
por:
)('
)(
1
k
k
kk xf
xf
xx −=+ , k = 0, 1, 2, ..., n. (3.7)
Interpretação geométrica: dado xk, o ponto xk + 1 é obtido de forma que xk + 1 é a
abscissa do ponto de intersecção entre o eixo
→
OX e a reta tangente à curva f(x) em
(xk, f(xk))
36
Figura 3.13 – Visualização gráfica do método de Newton-Raphson.
Convergência: é condição suficiente para a convergência do método de N-R que f ’(x) e
f’’(x) sejam não nulas e preservem o sinal em [a, b] e x0 seja tal que f(x) f’’(x) > 0.
Exemplo: considere f(x) = x2 + x – 6 = 0, ε = 2, e x0 = 1,5.
37
BIII.3.7 – Método da secante
A maior desvantagem do método de N-R é a necessidade de se calcular o valor
de f ’(x) a cada iteração. Uma forma de se contornar esse problema é substituir a
derivada f ’(x) pelo coeficiente das diferenças. Dessa forma, tem-se:
1
1)()()('
+
+
−
−
≅
kk
kk
k xx
xfxfxf (3.8)
Neste caso, a função iteração fica:
( )1
1
1
1 )()(
)(
)()(
)()( +
+
+
+
−⋅
−
−=
−
−
−= kk
kk
k
k
kk
kk
k
kk xxxfxf
xfx
xx
xfxf
xfxxF
Portanto,
)()(
)()(
)()(
)()()(
1
11
1
1
11
−
−−
+
−
−−
−
⋅−⋅
=⇒
−
⋅−⋅
=
kk
kkkk
k
kk
kkkk
k xfxf
xfxxfxx
xfxf
xfxxfxxF (3.9)
Interpretação geométrica:
Figura 3.14 – Visualização gráfica do método da secante.
Para se utilizar o método da secante, são necessárias duas aproximações iniciais,
xk – 1 e xk. A partir dessas aproximações, o ponto xk + 1 é obtido como sendo a abscissa do
ponto de intersecção entre o eixo
→
OX e da reta secante que passa por (xk – 1, f(xk – 1)) e
(xk, f(xk)).
38
Exemplo: considere f(x) = x2 + x – 6 = 0, ε = 2, x0 = 1,5 e x1 = 1,7
I – Erros
I.1 – Tipos de erros
I.2 – Exatidão ( precisão
I.3 – Erros durante a descrição dos problemas
I.3.1 – Erros na fase de modelagem
I.3.2 – Erros na fase de resolução
I.4 – Propagação de erros
I.5 – Aritmética de ponto flutuante
II – Resolução Numérica de Sistemas Lineares
II.1 – Definições
II.2 – Métodos diretos
II.2.1 – Método de Eliminação de Gauss
II.2.1.1 – Estratégia de pivoteamento parcial
II.2.1.2 – Estratégia de pivoteamento completo
II.2.2 – Método de Jordam
II.3 – Métodos Iterativos
II.3.1 – Introdução
II.3.2 – Testes de parada
II.3.3 – Método de Jacobi
II.3.4 – Método de Gauss-Seidel
II.3.5 – Convergência dos métodos iterativos
II.3.5.1 – Critério das linhas
II.3.5.2 – Critério das colunas
II.3.5.3 – Critério de Sassenfeld
III – Cálculo Numérico de Raízes de Equações
III.1 – Introdução
III.2 – Isolamento de raízes
III.3 – Refinamento
III.3.1 – Critérios de parada
III.3.2 – Método da bissecção
III.3.3 – Método da posição falsa
III.3.4 – Método da posição falsa modificado
III.3.5 – Método iterativo linear (MIL)
III.3.6 – Método de Newton-Raphson (N-R)
III.3.7 – Método da secante
IV – Interpolação
IV.1 – Introdução
IV.2 – Interpolação polinomial
IV.3 – Formas de obtenção do polinômio interpolador
IV.3.1 – Resolução do sistema linear
IV.3.2 – Forma de Lagrange
IV.3.3 – Forma de Newton
IV.3.4 – Forma de Newton-Gregory
IV.3.5 – Erro na interpolação
V – Integração Numérica
V.1 – Introdução
V.2 – Fórmulas de Newton-Cotes
V.2.1 – Regra dos retângulos
V.2.2 – Regra dos trapézios
V.2.2.1 – Fórmula simples
V.2.2.2 – Erro de trucamento da fórmula simples
V.2.2.3 – Fórmula composta
V.2.2.4 – Erro de truncamento da forma composta
V.2.3 – Primeira regra de Simpson
V.2.3.1 – Fórmula simples
V.2.3.2 – Erro de truncamento da fórmula simples
V.2.3.3 – Fórmula composta
V.2.3.4 – Erro de trucamento da formula composta
V.2.4 – Segunda regra de Simpson
V.2.4.1 – Fórmula simples
V.2.4.2 – Erro de truncamento da
fórmula simples
V.2.4.3 – Fórmula composta
V.2.4.4 – Erro de truncamento da fórmula composta
V.2.5 – Extrapolação de Richardson
V.2.5.1 – Extrapolação de Richardson para a regra dos trapézios
V.2.5.2 – Extrapolação de Richardson para as regras de Simpson
V.3 – Fórmulas de Quadratura Gaussiana
VI – Resolução Numérica de equações diferenciais ordinárias
VI.1 – Introdução
VI.2 – Método de Euler
VI.3 – Métodos de Runge-Kutta
VI.3.1 – Métodos de Runge-Kutta de 1ª ordem
VI.3.2 – Métodos de Runge-Kutta de 2ª ordem
VI.3.3 – Métodos de Runge-Kutta de 3ª e 4ª ordens
VI.4 – Outros métodos de resolução numérica de EDO
VI.4.1 – Método de Adams-Bashforth de passo dois
VI.4.2 – Método de Adams-Bashforth de passo quatro