Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
R. Urbano, J. Marconi e V. Rodrigues Introduc¸a˜o Para entendermos o Me´todo de Mı´nimos Quadrados, primeiramente supomos que temos um conjunto de N dados (xi, yi), onde cada valor yi tem um erro associado que chamamos de σi, ou seja (yi ± σi) (os σi na˜o teˆm que ser iguais entre si). Na˜o confunda σ com o desvio padra˜o! Assim, nesta apostila σ sera´ o erro (incerteza) da varia´vel y que ate´ agora definimos como ∆y. Vamos supor tambe´m que os dados representam certo fenoˆmeno f´ısico que segue uma lei descrita por uma func¸a˜o f . Usando a descric¸a˜o gaussiana de erros, a probabilidade Pi de ocorrer a medida (xi, yi, σi) e´ dada por: Pi = C σi exp [ −1 2 ( (yi − yi) σi )2] (1) onde yi e´ o valor me´dio de yi e C e´ uma constante de normalizac¸a˜o. Portanto, a probabilidade P de ocorrer o conjunto das N medidas sera´: P = P1 P2 ... PN = C σ1 exp [ −1 2 ( (y1 − y1) σ1 )2] ... C σN exp [ −1 2 ( (yN − yN) σN )2] = CN σ1 σ2 ... σN exp [ −1 2 N∑ i=1 ( (yi − yi) σi )2] (2) Como yi seria o valor que se aproxima do valor ”verdadeiro” de yi e supondo um modelo f´ısico para nossas medidas que segue uma lei descrita por uma func¸a˜o f , podemos escrever que: yi = f(xi, a1, a2, ..., an) (3) onde a1, a2, ... an sa˜o os paraˆmetros do modelo. Definindo: χ2 = n∑ i=1 ( (yi − f(xi, a1, a2, ..., an)) σi )2 (4) podemos reescrever a equac¸a˜o (2) como: P = Cn∏n i=1 σi exp [ −1 2 χ2 ] (5) Neste caso, para que a func¸a˜o f seja a mais adequada para nossas medidas, ou seja, para que P seja ma´ximo, χ2 deve ser mı´nimo. 1 O me´todo dos mı´nimos quadrados consiste em ajustar os paraˆmetros a1, a2, ... an de tal forma que χ2 seja mı´nimo, ou seja, procuramos resolver o sistema abaixo: ∂χ2 ∂a1 = 0 ∂χ2 ∂a2 = 0 ... ∂χ2 ∂an = 0 (6) Ajuste de uma func¸a˜o linear: Regressa˜o Linear Supondo um conjunto de dados e que a func¸a˜o que descreve o nosso sistema seja linear. f(xi) = axi + b (7) A sua representac¸a˜o gra´fica t´ıpica seria: Figura 1: Gra´fico obtido com dados experimentais no caso particular em que o ajuste e´ linear (Regressa˜o Linear). Definindo wi = 1/σ 2 i , podemos escrever χ 2 como: χ2 = n∑ i=1 wi(yi − axi − b)2 (8) Aplicando o me´todo dos mı´nimos quadrados para obter os paraˆmetros a e b: ∂χ2 ∂a = 2 n∑ i=1 wi(yi − axi − b)(−xi) = 0 (9) ∂χ2 ∂b = 2 n∑ i=1 wi(yi − axi − b)(−1) = 0 (10) 2 Obtemos enta˜o um sistema de duas equac¸o˜es e duas inco´gnitas. Para simplificar a escrita vamos omitir os ı´ndices nas somato´rias. ( ∑ wx2 ) a + ( ∑ wx ) b = ( ∑ wyx ) (11) ( ∑ wx ) a + ( ∑ w ) b = ( ∑ wy ) (12) Resolvendo o sistema, os valores de a e b sa˜o: a = ( ∑ w ) ( ∑ wyx ) − ( ∑wy ) ( ∑wx ) ∆ (13) b = ( ∑ wy ) ( ∑ wx2 ) − ( ∑wyx ) ( ∑wx ) ∆ (14) E os erros associados: σ2a = ( ∑ w ) ∆ σ2b = ( ∑ wx2 ) ∆ (15) onde ∆ = ( ∑ w ) ( ∑ wx2 ) − ( ∑ wx )2 (16) As equac¸o˜es (13), (14), (15) e (16) sa˜o gerais e valem para o caso onde cada σi seja diferente dos outros. No caso de termos σi = constante = σ (ou seja o mesmo valor para todo i) as expresso˜es de a, b, σ2a e σ 2 b podem ser simplificadas: a = N ( ∑ yx ) − ( ∑x ) ( ∑ y ) ∆ (17) b = ( ∑ y ) ( ∑ x2 ) − ( ∑ yx ) ( ∑x ) ∆ (18) σ2a = N ∆ σ2 σ2b = ( ∑ x2 ) ∆ σ2 (19) ∆ = N ( ∑ x2 ) − ( ∑ x )2 (20) Estas equac¸o˜es sa˜o exatas e em princ´ıpio sa˜o as mesmas utilizadas pelos programas comerciais. Pore´m, sempre e´ recomenda´vel verificar a notac¸a˜o e a maneira com que as equac¸o˜es foram definidas, especialmente quando temos um conjunto de dados onde os erros sa˜o diferentes em cada ponto (xi; yi ± σi). Refereˆncia Bibliogra´fica: Jose´ Henrique Vuolo, Fundamentos da Teoria de Erros (Editora Edgard Blu¨cher Ltda, Sa˜o Paulo, 1992). 3