Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
Universidade de Sa˜o Paulo - Departamento de Economia EAE 0324 - Econometria I Prof. Dr. Ricardo Avelino 1o Semestre de 2008 Lista de Exerc´ıcios 3 - Soluc¸a˜o Questa˜o 1 a) Lembre-se de que se as observac¸o˜es sa˜o independentes, Xi ∼ N ¡ µ, σ2 ¢ ∨i e X¯ = 1 N ( P Xi), E ¡ X¯ ¢ = E · 1 N ³X Xi ´¸ = 1 N hX E (Xi) i = 1 N hX µ i = 1 N Nµ = µ e V ¡ X¯ ¢ = V · 1 N ³X Xi ´¸ = 1 N2 hX V (Xi) i = 1 N2 hX σ2 i = 1 N2 Nσ2 = σ2 N Adicionalmente, X¯ e´ uma combinac¸a˜o linear de v.a. normalmente dis- tribu´ıdas, enta˜o tambe´m e´ normal, distribu´ıda de acordo com X¯ ∼ N ¡ µ, σ2/N ¢ Mais ainda, para uma v.a. Xi ∼ N ¡ µ, σ2 ¢ , z = Xi − µ σ ∼ N (0, 1) Assim, P (6 ≤ X ≤ 8) = P µ 6− µ σ ≤ X − µ σ ≤ 8− µ σ ¶ = P µ 6− 7 5 ≤ X − 7 5 ≤ 8− 7 5 ¶ = P (−0.2 ≤ z ≤ 0.2) = +0.2Z −0.2 1√ 2π exp ½ −1 2 z2 ¾ dz = 0.1585 Similarmente, P ¡ 6 ≤ X¯ ≤ 8 ¢ = P µ 6− µ σ/ √ N ≤ X¯ − µ σ/ √ N ≤ 8− µ σ/ √ N ¶ = P µ 6− 7 5/10 ≤ X − 7 5/10 ≤ 8− 7 5/10 ¶ = P (−2 ≤ z ≤ 2) = +2Z −2 1√ 2π exp ½ −1 2 z2 ¾ dz = 0.9545 1 As probabilidades diferem pois embora ambas as varia´veis tenham a mesma me´dia, X¯ e´ mais concentrada em torno da me´dia que X. Questa˜o 2 Primeiro calculamos a variaˆncia de nosso estimador. V [αY1 + (1− α)Y2] = α2V (Y1) + (1− α)2V (Y2) + 2α(1− α)cov(Y1, Y2) Como Y1 e Y2 sa˜o independentes temos que cov(Y1, Y2) = 0 e em con- sequ¨eˆncia: V [αY1 + (1− α)Y2] = α2V (Y1) + (1− α)2V (Y2) = α2σ21 + (1− α)2σ22 Seja a func¸a˜o f(α) = α2σ21+(1−α)2σ22 que queremos minimizar. Se a func¸a˜o for convexa, enta˜o podemos ter certeza de que α∗ que faz com que f 0(α∗) = 0 seja o u´nico mı´nimo. Quando este e´ o caso? e qual e´ o mı´nimo? f e´ convexo quando f 00 e´ positivo. Para ser verdade precisamos que: 0 ≤ f 00(α) = 2σ21+2σ22...mas e´ sempre esse o caso!! Enta˜o o u´nico mı´nimo e´ realizado para α∗ quando f 0(α∗) = 2α∗σ21 − 2(1− α∗)σ22 = 0 enta˜o temos: α∗ = σ22 σ21+σ 2 2 Observando mais atentamente α∗ = V (Y2) V [Y1+Y2] e 1 − α∗ = V (Y1) V [Y1+Y2] , enta˜o intuitivamente precisamos ponderar as varia´veis em termos de cada variaˆncia em relac¸a˜o a variaˆncia total. Questa˜o 3 O estimador de M.Q.O. de β1 e β0 pode ser expresso como: βˆ1 = Pn i=1(Yi − Y¯ )(Xi − X¯)Pn i=1(Xi − X¯)2 βˆ0 = Y¯ − βˆ1X¯ Usando o fato de que nX i=1 (Yi − Y¯ )(Xi − X¯) = nX i=1 Xi ¡ Yi − Y¯ ¢ = nX i=1 XiYi − Y¯ nX i=1 Xi 2 e nX i=1 (Xi − X¯)2 = nX i=1 Xi 2 −NX¯2 temos que βˆ1 = Pn i=1XiYi − Y¯ Pn i=1XiPn i=1Xi 2 − X¯2 = 18, 000− (1, 400/500) .3, 000 66, 000− 500. (3, 000/500)2 = 9600 48000 = 0.2 e βˆ0 = Y¯ − βˆ1X¯ = (1, 400/500)− 0.2 (3, 000/500) = 1.6 Questa˜o 4 Temos apenas que aplicar as regras para calcular a variaˆncia de uma com- binac¸a˜o linear de varia´veis, para as quais sabemos suas variaˆncias. Enta˜o supo- mos que Xi para i=1,2,3 sa˜o independentes e que teˆm a mesma me´dia m e variaˆncia σ2. V ( 4X1+12X2+3X319 ) = 1 192 {42V (X1)+122V (X2)+32V (X3)} = σ2 16+144+9361 = σ20.468 V (X1+X2+X33 ) = 1 32 {V (X1) + V (X2) + V (X3)} = σ20.33 Obviamente, tanto quanto σ2 6= 0 temos: V (X1+X2+X33 ) < V ( 4X1+12X2+3X3 19 ) Enta˜o o segundo estimador e´ mais eficiente, note que, entretanto, podemos comparar esses dois estimadores em termos de suas variaˆncias porque eles sa˜o ambos na˜o viciados. E´ fa´cil checar isto. E( 4X1 + 12X2 + 3X3 19 ) = m 19 (4 + 12 + 3) = m E( X1 +X2 +X3 3 ) = m 3 (1 + 1 + 1) = m Questa˜o 5 a) Se todas as observac¸o˜es da varia´vel independente sa˜o ideˆnticas, significa que Xi = X¯ ∀i. Relembramos as fo´rmulas de M.Q.O. para os estimadores βˆ1 e βˆ0; βˆ1 = Pn i=1(Yi − Y¯ )(Xi − X¯)Pn i=1(Xi − X¯)2 3 βˆ0 = Y¯ − βˆ1X¯ e´ imediato ver que o numerador e o denominador na expressa˜o para βˆ1 sa˜o 0. Enta˜o, o estimador da inclinac¸a˜o na˜o e´ definido O mesmo e´ verdade para o estimador do intercepto, desde que e´ uma func¸a˜o de βˆ1.A intuic¸a˜o para este resultado e´ que precisamos ao menos de dois pontos com distintas coordenadas no eixo horizontal para ajustar uma linha. b) Lembre-se de que a variaˆncia do estimador de OLS de β1 e´ dada por, V ³ βˆ1 ´ = σ2Pn i=1(X1 − X¯1)2 Consequ¨entemente, a variaˆncia de β1 e´ proporcional ao inverso da variaˆncia amostral de X1. Durante um per´ıodo de flutuac¸a˜o de taxa de juros, a variaˆncia de X1 aumenta, e, consequ¨entemente, a variaˆncia de β1 descrece, ou, alter- nativamente, a precisa˜o com que estimamos β1 aumenta. Assim, estariamos melhores durante um per´ıodo de flutuac¸a˜o das taxas de juros. c) Usando a propriedade da esperanac¸a e da variaˆncia, temos: E (Z) = 0.5E (Y )− 0.5 = 0.5 ∗ 1− 0.5 = 0 V (Z) = 0.25V (Y ) = 0.25 ∗ 4 = 1 d) O modelo verdadeiro, correto, pode ser escrito como Y = β0 + β1X1 + β2X2 + � ondeX1 eX2 denota˜o a renda da vizinhanc¸a e a renda familiar, respectivamente. No entanto, ajustamos o modelo Y = β0 + β1X1 + u, onde u = β2X2 + � O efeito causal de uma mudanc¸a infinitesimal da renda da vizinhanc¸a no desempenho escolar, todas as demais varia´veis constantes, coeteris paribus, e´ β1. Sabemos que o estimador de M.Q.O. de β1 pode ser expresso como βˆ1 = Pn i=1(X1i − X¯1)(Yi − Y¯ )Pn i=1(X1i − X¯1)2 Desde Yi − Y¯ = β0 + β1X1i + β2X2i + �i − β0 − β1X¯1 − β2X¯2 − �¯ = β1 ¡ X1i − X¯1 ¢ + β2 ¡ X2i − X¯2 ¢ + �i − �¯, 4 segue-se que βˆ1 = Pn i=1(X1i − X¯1) ¡ β1 ¡ X1i − X¯1 ¢ + β2 ¡ X2i − X¯2 ¢ + �i − �¯ ¢Pn i=1(X1i − X¯1)2 = β1 + β2 (1/n) Pn i=1(X1i − X¯1) ¡ X2i − X¯2 ¢ (1/n) Pn i=1(X1i − X¯1)2 + (1/n) Pn i=1(X1i − X¯1) (�i − �¯) (1/n) Pn i=1(X1i − X¯1)2 Tirando os limites quando n tende a infinito, segue-se da Lei Fraca dos Grandes Nu´meros que p lim βˆ1 = β1 + β2 p lim (1/n) Pn i=1(X1i − X¯1) ¡ X2i − X¯2 ¢ p lim (1/n) Pn i=1(X1i − X¯1)2 + p lim (1/n) Pn i=1(X1i − X¯1) (�i − �¯) p lim (1/n) Pn i=1(X1i − X¯1)2 = β1 + β2 E(X1 − X¯1) ¡ X2 − X¯2 ¢ E(X1 − X¯1)2 + E(X1 − X¯1) (�− �¯) E(X1 − X¯1)2 = β1 + β2 Cov(X1,X2) V (X1) desde que β1 e β2 sa˜o constantes, independentes de n, eX1 e u sa˜o independentes na me´dia, o que implica que E(X1−X¯1) (�− �¯) = 0, e .E(X1−X¯1)2 = V (X1) > 0 O senso comum sugere que crianc¸as de famı´lias ricas va˜o melhor na escola, enta˜o esperamos que β2 seja positivo. Mais ainda, em geral, quanto mais rica a vizinhanc¸a, maior a renda familiar. Assim, esperamos que Cov(X1,X2) > 0. Desde que V (X1) > 0, segue-se que o sinal esperado do vie´s e´ positivo. Omissa˜o da renda familiar da regressa˜o implica que o coeficiente de β1 captura o efeito de ambas varia´veis. Questa˜o 6 a. Lembre-se que o estimador de O.L.S. (M.Q.O.) minimiza a soma dos quadra- dos dos erros! Mas qual a definic¸a˜o de erro? Lembre-se de que o erro na estimac¸a˜o e´ a diferenc¸a entre o valor verdadeiro e o que voceˆ pode predizer se voceˆ soubesse apenas Xi. Em nosso caso: Procuramos por um estimador αˆ de α tal que: yi = αxi+ ui. Enta˜o se tiver um estimador αˆ e o valor de xj para algum indiv´ıduoj qual seria a predic¸a˜o de yj que nomeia-se yˆj? E´ simplesmente: yˆj = αˆxj . Qual e´ o erro do estimador enta˜o? Como dito, e´ a diferenc¸a entre o valor verdadeiro yj e a predic¸a˜o yˆj = αˆxj . 5 Enta˜o e´: yj − yˆj = yj − αˆxj . Enta˜o, dado uma amostra de tamanho n queremos minimizar a soma dos quadrados dos erros, que e´: nX 1 (yj − yˆj)2 = nX 1 (yj − αˆxj)2 E queremos minimizar isto em relac¸a˜o ao que procuramos para....αˆ. Depois de checar (Recomendamos que o fac¸a!) que a func¸a˜o e´ convexa, achamos que o mı´nimo e´ atingido para: αˆ = P yjxjP x2j b. Podemos reescrever o estimador como: αˆ = X { xj ( S x2j ) }yj = X kjyj e kj = xj ( S x2j) Onde k0js sa˜o constantes que dependem somente dos x 0 js e na˜o dos y 0 js. O que significa que αˆ e´ linear nos y0js. c. E[αˆ] = E[ X kjyj ] = X kjE[yj ] sabemos que o modelo correto e´ yi = αxi + ui (onde E[ui]=0), o qual usamos na seguinte equac¸a˜o. E[αˆ] = X kjE[αxj + uj ] = X kjE[αxj ] + X kjE[uj ] = X kjE[αxj ] + 0 E[αˆ] = X kjE[αxj ] = α X kjE[xj ] = α X kjxj = α X xj ( P x2j ) xj = α X x2j ( P x2j) = α 1P x2j X x2j = α Enta˜o o estimador e´ na˜o viciado! d. α¯ = y¯ x¯ = 1 n S yi 1 n S xi = X 1 ( S xi) yi enta˜o α¯ e´ tambe´m linear em y 0 is. E[α¯] = X 1 ( P xi) E[yi] = X 1 ( P xi) E[αxj + uj ] = X 1 ( P xi) E[αxj ] = α e na˜o viciado. e. V (αˆ) = X k2i V (yi) porque por um lado temos que x 0 is na˜o sa˜o estoca´sticose que os u0is sa˜o na˜o correlacionados. Enta˜o os y 0 is tambe´m sa˜o na˜o correlacionados e V (yi) = σ 2 para qualquer i. V (αˆ) = σ2 X [ xi ( P x2i ) ]2 = σ2 1 ( P x2i ) 2 X x2i = σ 2 1P x2i 6 V (α¯) = X 1 ( P xi)2 V (yi) = σ 2 X 1 ( P xi)2 = σ2n ( P xi)2 Queremos comparar V (αˆ) e V (α¯). E´ suficiente achar o sinal de P x2i − 1 n ( P xi) 2 para inferir sobre a desigualdade.P x2i − 1n( P xi) 2 = P x2i − 1n( P xi)( P xi) = P x2i − x¯( P xi) = P x2i −P xix¯ = P xi(xi − x¯) E note que: P xi(xi − x¯) = P (xi − x¯)(xi − x¯) = P (xi − x¯)2 Como, 0 ≤ P (xi − x¯)2 = P x2i − 1n( P xi) 2. Consequ¨entemente 1 n ( P xi) 2 ≤ P x2i and V (αˆ) = σ 2 1S x2i ≤ V (α¯) = σ2n(Sxi)2 Mas pod´ıamos ter conclu´ıdo usando o teorema de Gauss-Markov: Sob as hipo´tese padro˜es do modelo correto, o estimador de M.Q.O. e´ o melhor estimador linear na˜o viciado (melhor em termos de menor variaˆncia). Questa˜o 7 Pela definic¸a˜o de densidade condicional, sabemos que: fY |X (y|x) = fY,X (y, x) fX (x) o que implica que fY,X (y, x) = fY |X (y|x) fX (x) = 2y + 4x 1 + 4x 1 + 4x 3 = 2y + 4x 3 A densidade condicional de X, dado Y, pode ser expressa como fX|Y (x|y) = fY,X (y, x) fY (y) Integrando a densidade conjunta com respeito a x, encontramos a densidade marginal de y, que e´: fY (y) = 1Z 0 fY,X (y, x) dx = 1Z 0 2y + 4x 3 dx = 2xy 3 + 4x2 6 c10 = 2y + 2 3 Enta˜o, fX|Y (x|y) = 2y+4x 3 2y+2 3 = 2y + 4x 2y + 2 = y + 2x y + 1 7 Questa˜o 8 Note que para a distribuic¸a˜o uniforme no intervalo [0, 1], temos f (x) = 1. Assim, o primeiro e o segundo momentos sa˜o dados, respectivamente, por E(x) = 1Z 0 xf (x) dx = 1Z 0 xdx = x2 2 c10 = 1 2 − 0 = 1 2 e E(x2) = 1Z 0 x2f (x) dx = 1Z 0 x2dx = x3 3 c10 = 1 3 − 0 = 1 3 Expandindo o termo entre pareˆntese da esperanc¸a, temos, E [x1 − 2x2 + x3]2 = E [(x1 − 2x2) + x3]2 = E h (x1 − 2x2)2 + x23 + 2 (x1 − 2x2)x3 i = E £ x21 − 4x1x2 + 4x22 + x23 + 2x1x3 − 4x2x3 ¤ = E £ x21 ¤ − 4E [x1x2] + 4E £ x22 ¤ +E £ x23 ¤ + 2E [x1x3] −4E [x2x3] = E £ x21 ¤ − 4E [x1]E [x2] + 4E £ x22 ¤ +E £ x23 ¤ +2E [x1]E [x3]− 4E [x2]E [x3] = 6E £ x21 ¤ − 6 [E [x1]]2 = 6 1 3 − 61 4 = 24− 18 12 = 1 2 O fato de a amostra ser aleato´ria implica que as observac¸o˜es sa˜o indepen- dentes, que, por sua vez, implica que Cov [x1, x2] = E [x1x2]−E [x1]E [x2] = 0, or E [x1x2] = E [x1]E [x2] = [E [x1]] 2 . Questa˜o 9 Primeiro, vamos calcular a func¸a˜o geradora de momentos de Y em t=0: MY (0) = exp [c (MX (0)− 1)] = exp [c (1− 1) = 1] desde que MX (0) = E £ etX ¤¯¯ t=0 = E £ e0X ¤ = 1 Agora, calculando os dois primeiros momentos de Y, os quais sa˜o dados pelas duas primeiras derivadas de MY (t) com respeito a t, valorado em t = 0. E [Y ] = d dt MY (t) ¯¯¯¯ t=0 = MY (t) · c d dt MX (t) ¸¯¯¯¯ t=0 = MY (0) c · d dt MX (t) ¸ t=0 = cµ 8 E £ Y 2 ¤ = d2 dt2 MY (t) ¯¯¯¯ t=0 = MY (t) · c d2 dt2 MX (t) ¸¯¯¯¯ t=0 + MY (t) · c d dt MX (t) ¸2 ¯¯¯¯¯ t=0 = MY (0) c · d2 dt2 MX (t) ¸ t=0 +MY (0) c 2 · d dt MX (t) ¸2 t=0 = c ¡ σ2 + µ2 ¢ + c2µ2 onde usamos os fatos de que d dt MY (t) ¯¯ t=0 = µ e d 2 dt2 MY (t) ¯¯¯ t=0 = σ2 + µ2. Consequ¨eˆntemente, nomeando a me´dia e variaˆncia de Y , respectivamente, por µY e σ 2 Y , temos µY = cµ e σ2Y = E £ Y 2 ¤ − (µY ) 2 = c ¡ σ2 + µ2 ¢ Questa˜o 10 Uma amostra aleato´ria significa que os Y 0i s tem a mesma distribuic¸a˜o e sa˜o independentes. Consequ¨entemente: E[Y¯ ] = nE[Yi] n = E[Yi] Por outro lado, E[Yi] = P todos poss´ıveis valores de Y yi Pr(Yi = yi) = (β+1) 1 2+ (β − 1)12 = β Enta˜o e´ um estimador na˜o viciado de β. b. Note que se β pode ser ou 0 ou 2. Enta˜o se Yi e´ igual a -1, enta˜o β na˜o pode ser 2! E precisa ser 0. Enta˜o nosso estimador da´ o exato valor de β. Mesmo se Yi e´ igual a 3 temos que β na˜o pode ser 0! E precisa ser 2. Novamente, o novo estimador da´ o exato valor. E como em todos os outros casos esse estimador e´ igual a Y¯ , enta˜o intuiti- vamente e´ um melhor estimador porque no mı´nimo da´ o mesmo valor que Y¯ e algumas vezes o exato valor. De fato, isso adve´m de que o novo estimador tem a vantagem de ter todos as informac¸o˜es dadas, e Y¯ na˜o. 9