Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
Universidade de São Paulo - Departamento de Economia Curso de Verão Estatística Prof. Dr. Ricardo Avelino Monitor: Dejanir Henrique 1o Semestre de 2010 Lista de Exercícios 3 - Solução Questão 1 a) E ¡ σˆ2 ¢ = E ·P (si+∆ − si − µˆ∗∆)2 n∆ ¸ = (n∆)−1 © nE £ (si+∆ − si)2 ¤ − 2nE £ (µˆ∗∆)2 ¤ + nE £ (µˆ∗∆)2 ¤ª = (n∆)−1 © nE £ (si+∆ − si)2 ¤ − nE £ (µˆ∗∆)2 ¤ª = ∆−1 © E £ (si+∆ − si)2 ¤ −E £ (µˆ∗∆)2 ¤ª = ∆−1 © E £ (si+∆ − si)2 ¤ − £ V ar(µˆ∗∆) +E2(µˆ∗∆) ¤ª = ∆−1E £ (si+∆ − si)2 ¤ −∆ · n n2∆2 V ar(si+∆ − si) + n2 n2∆2 E2(si+∆ − si) ¸ = ∆−1 © E £ (si+∆ − si)2 ¤ −E2(si+∆ − si) ª − 1 n∆ V ar(si+∆ − si) = 1 ∆ V ar(si+∆ − si)− 1 n∆ V ar(si+∆ − si) = σ2(1− 1 n ) b) V (σˆ2) = E[σˆ4]−E[σˆ2]2 Como já computamos E[σˆ2], só precisamos obter E[σˆ4]. Para simplificar a notação, usaremos xi ≡ si+∆ − si e x ≡ S (si+∆−si) n = µˆ ∗ ∆. Então, E[σˆ4] = E[(σˆ2)2] = E[( P (xi − x)2 n∆ )2] = 1 ∆2 E[( P x2i n − x2)2] = = 1 ∆2 E[ 1 n2 ( X x2i ) 2]− 2 n3 E[( X x2i )( X xi)2] + 1 n4 E[( X xi)4] Para o cálculo da variância, assumiremos, sem perda de generalidade, que a média populacional é zero. 1 Desenvolvendo o primeiro termo, temos E[( X x2i ) 2] = E[ X x4i + X i6=j x2ix 2 j ] = E[ X x4i ] + n(n− 1)E[x2i ]E[x2j ] = nµ4 + n(n− 1)µ22 definindo µj ≡ E[xj ] (note que usamos a hipótese de independência na segunda igualdade). Desenvolvendo o segundo termo da expressão anterior, temos E[( X x2i )( X xi) 2] = E[ X x4i + X i6=j x2ix 2 j + 2 X i6=j x3ixj + X i6=j 6=k x2ixjxk] = nµ4 + n(n− 1)µ22 em que usamos o fato de que os momentos de ordem impar são iguais a zero. Do terceiro termo, obtemos E[( X xi) 4] = E[ X x4i + 3 X i6=j x2ix 2 j + 4 X i6=j x3ixj + 6 X i6=j 6=k x2ixjxk + X i6=j 6=k 6=l xixjxkxl] = nµ4 + 3n(n− 1)µ22 Substituindo na expressão original, temos E[σˆ4] = 1 ∆2 ½ (nµ4 + n(n− 1)µ22) n2 − 2(nµ4 + n(n− 1)µ 2 2) n3 + (nµ4 + 3n(n− 1)µ22) n4 ¾ = 1 ∆2 {( 1 n − 2 n2 + 1 n3 )µ4 + ( n− 1 n − 2(n− 1) n2 + 3 (n− 1) n3 )µ22} = 1 ∆2 {(n 2 − 2n+ 1 n3 )µ4 + (n− 1)(n2 − 2n+ 3) n3 µ22} = (n− 1)[(n− 1)µ4 + (n2 − 2n+ 3)µ22] ∆2n3 Usando o fato que µ2 = σ 2∆ e µ4 = 3σ 4∆2 (decorrente da normalidade de si+∆ − si), temos E[σˆ4] = (n− 1)[(n− 1)3σ4∆2 + (n2 − 2n+ 3)σ4∆2] ∆2n3 = σ4(n− 1)(n+ 1) n2 2 Dessa forma, a variância é dada por: V (σˆ2) = E[σˆ4]−E[σˆ2]2 = σ 4(n− 1)(n+ 1) n2 − σ4 (n− 1) 2 n2 = 2σ4(n− 1) n2 Questão 2 a) Substituindo a expressão de pi no modelo, temos que yi = α0 + α1pi + α2x ∗ 2i + ui − α1'i = α0 + α1pi + vi vi = α2x ∗ 2i + ui − α1'i Assim sendo, o estimador obtido na regressão de yi contra pi é dado por αˆp1 = P (pi − p¯)(yi − y¯)P (pi − p¯)2 = n−1 n−1 P piyi − np¯y¯P (pi − p¯)2 Para analisarmos a consistência de αˆp1, utilizando a Lei fraca de Klintchine e o Teorema de Mahn-Wald, temos que n−1 X (pi − p¯)2 = n−1 X p2i − (p¯)2 p→ E(p2i )−E(pi)2 = V ar(pi) n−1 X piyi − np¯y¯ = n−1 X piyi − p¯y¯ p→ E(piyi)−E(pi)E(yi) = Cov(pi, yi) Substituindo pi e yi, temos que Cov(pi, yi) = Cov [(x ∗ 1i +'i), α0 + α1x ∗ 1i + α2x ∗ 2i + ui] = α2Cov(x∗1i, x ∗ 2i) + α1Cov(x ∗ 1i, x ∗ 1i) Cov(pi, yi) = α2Cov(x∗1i, x ∗ 2i) + α1V ar(x ∗ 1i) V ar(pi) = V ar(x∗1i)− σ2' Assim sendo, temos que p lim αˆp1 = p limn−1 P piyi − np¯y¯ p limn−1 P (pi − p¯)2 = Cov(pi, yi) V ar(pi) = α2Cov(x∗1i, x ∗ 2i) + α1V ar(x ∗ 1i) V ar(x∗1i) + σ 2 ' = α1 + α2Cov(x∗1i, x ∗ 2i) V ar(x∗1i) + σ 2 ' − α1σ 2 ' V ar(x∗1i) + σ 2 ' 3 Assim, temos que αˆp1 é inconsistente. A inconsistência ocorre tanto em vir- tude da omissão de x∗2i ³ dado por α2Cov(x ∗ 1i,x ∗ 2i) V ar(x∗1i)+σ 2 ' ´ , como do erro de medida pre- sente em pi ³ α1σ 2 ' V ar(x∗1i)+σ 2 ' ´ . Como α2 > 0, o sinal do segundo termo dependerá da covariância entre x∗1i e x ∗ 2i, enquanto que o sinal do terceiro termo será dado por α1. b) O estimador da regressão de mi contra pi é dado por βˆ1 = P (pi − p¯)(mi − m¯)P (pi − p¯)2 Assim como no item anterior, temos que X (pi − p¯)(mi − m¯) p→ Cov(mi, pi) Cov(mi, pi) = E [(x ∗ 1i +'i) (x ∗ 1i + ηi)]−E (x∗1i +'i)E (x∗1i + ηi) = E £ (x∗1i) 2 ¤ −E(x∗1i)2 = V ar(x∗1i) Portanto, temos que, para Cov(x∗1i, x ∗ 2i) = 0, p lim α˜1 = p lim αˆp1 βˆ1 = p lim αˆp1 p lim βˆ1 = Cov(yi, pi)/V ar(pi) Cov(mi, pi)/V ar(pi) = Cov(yi,mi) Cov(mi, pi) = α2Cov(x∗1i, x ∗ 2i) + α1V ar(x ∗ 1i) V ar(x∗1i) = α1 c) O estimador de variáveis instrumentais quando mi é usado como instru- mento para pi é dado por αIV1 = P (yi − y¯)(mi − m¯)P (mi − m¯)(pi − p¯) = αˆp1 βˆ1 Tal resultado é intuitivo, já que no item (b) fizemos o procedimento do estimador de mínimos quadrados em 2 estágios, regredindo primeiramente a variável correlacionada contra o instrumento e, no segundo estágio, rodando yi contra a variável resultante do primeiro estágio. Questão 3 4 a) L(xi| θ) = nY i=1 f(xi| θ) = nY i=1 θxθ−1i lnL(xi| θ) = nX i=1 ln ¡ θxθ−1i ¢ = n ln θ + (θ − 1) nX i=1 lnxi ∂ lnL(xi| θ) ∂θ = 0 =⇒ n θ + nX i=1 lnxi = 0 θMV = − nPn i=1 lnxi ∂ ln f(xi| θ) ∂θ = 1 θ + lnxi ∂2 ln f(xi| θ) ∂θ2 = − 1 θ2 Sendo g(θ) = θ(1+θ)−1, pelo princípio da invariância temos que o estimador de máxima verossimilhança de g(θ) é dado por g(θMV ). b) · −E∂ 2 ln f(xi| θ) ∂θ2 ¸−1 = θ2 √ n(θMV − θ) d→ N(0, θ2) Utilizando o método Delta, temos que √ n h g ³ θMV ´ − g(θ) i d→ g0(θ)N(0, θ2) = 1 (1 + θ)2 N(0, θ2) = N µ 0, θ2 (1 + θ)4 ¶ Questão 4 a) L(xi| θ) = nY i=1 1 θ exp ³ −x θ ´ lnL(xi| θ) = nX i=1 · ln 1 θ exp ³ −x θ ´¸ = −n ln θ − nX i=1 xi θ 5 b) ∂ lnL(xi| θ) ∂θ = −n θ + nX i=1 xi θ2 = 0 θML = n−1 nX i=1 xi = x¯ c) ∂ ln f(xi| θ) ∂θ = −1 θ + xi θ2 ∂2 ln f(xi| θ) ∂θ2 = 1 θ2 − 2xi θ3· −E∂ 2 lnL(xi| θ) ∂θ2 ¸−1 = · − 1 θ2 + 2 θ θ3 ¸−1 = θ2 √ n(θMV − θ) d→ N ¡ 0, θ2 ¢ d) Pelo princípio da invariância, o estimador de máxima verossimilhança de θ3 é dado por θˆ 3 .Pelo teorema de Mahn-Wald, esse estimador é consistente, dada consistência de θˆ. e) Utilizando o método Delta, sendo g(θ) = θ3, temos que √ n h g ³ θMV ´ − g(θ) i d→ g0(θ)N(0, θ2) = 3θ2N(0, θ2) = N ¡ 0, 9θ6 ¢ Questão 5 a) lnL = P yi>0 −1 2 · ln(2π) + lnσ2 + (yi − β0xi)2 σ2 ¸ + P yi=0 ln · 1− Φ µ β0xi σ ¶¸ b) lnL = P yi>0 −1 2 £ ln(2π)− ln θ2 + (θyi − γ0xi)2 ¤ + P yi=0 ln [1− Φ (γ0xi)] ∂ lnL ∂θ = 0 =⇒ P yi>0 · 1 θ − (θyi − γ0xi)yi ¸ = 0 ∂ lnL ∂γ = 0 =⇒ P yi>0 (θyi − γ0xi)xi + P yi=0 −φ (γ0xi) 1− Φ (γ0xi) xi = 0 6 c) As segundas derivadas são iguais à ∂2 lnL ∂θ∂θ0 = −n1 θ2 − P yi>0 y2i ∂2 lnL ∂γ∂θ0 = P yi>0 xiyi ∂2 lnL ∂γ∂γ0 = P yi=0 " γ0xiφ (γ0xi) 1− Φ (γ0xi) − φ 2 (γ0xi) [1− Φ (γ0xi)]2 # xix0i − P yi>0 xix0i = P yi=0 φ (γ0xi) 1− Φ (γ0xi) · γ0xi − φ (γ0xi) 1− Φ (γ0xi) ¸ xix 0 i − P yi>0 xix 0 i Portanto, o Hessiano pode ser escrito como H = P yi=0 φ(γ0xi) 1−Φ(γ0xi) · γ0xi − φ(γ0xi) 1−Φ(γ0xi) ¸ xix0i 0 0 −n1θ2 + − P yi>0 xix0i P yi>0 xiyiP yi>0 yix0i − P yi>0 y2i Como γ0xi − φ(γ0xi) 1−Φ(γ0xi) < 0, as matrizes acima são negativa definidas. O Hessiano é a soma de duas matrizes negativa definidas., logo, também é nega- tivo definido, o que implica que a função de log-verossimilhança é globalmente côncava. Questão 6 a) Seja g(U0, U1) = Z ∞ −∞ g(U0, U1, V )dV e g(U0) = Z ∞ −∞ g(U0, U1)dU1 Então, g(U0, U1 |Y0 > 0) = g(U0, U1 |Xβ0 + U0 > 0) = g(U0, U1)1(U0 > −Xβ0) Pr(U0 > −Xβ0) Portanto, 7 g(U1 |U0 > −Xβ0 ) = R∞ −Xβ0 g(U0, U1)dU0R∞ −Xβ0 g(U0)dU0 e f(Y1 |Y0 > 0,X ) = R∞ −Xβ0 g(U0, Y1 −Xβ1)dU0R∞ −Xβ0 g(U0)dU0 Assim sendo, a função de verossimilhança é igual a L = NY i=1 [f(Yi1 |Yi0 > 0,X) ] b) Seja g(U1) = Z ∞ −∞ Z ∞ −∞ g(U0, U1, V )dV dU0 g(U1|0 < Y1 < C1) = g(U1|0 < Xβ1 + U1 < C1) = g(U1|−Xβ1 < U1 < C1 −Xβ1) = g(U1)1(−Xβ1 < U1 < C1 −Xβ1) Pr(−Xβ1 < U1 < C1 −Xβ1) = g(U1)1(−Xβ1 < U1 < C1 −Xβ1)R C1−Xβ1 −Xβ1 g(U1)dU1 Portanto, f(Y1 |0 < Y1 < C1) = g(Y1 −Xβ1)1(0 < Y1 < C1)R C1 0 g(Y1 −Xβ1)dY1 E a função de verossimilhança é dada por L = NY i=1 " g(Yi1 −Xiβ1)1(0 < Yi1 < C1)R C1 0 g(Yi1 −Xiβ1)dYi1 # c) Pr(Y1 > 0) = Pr(Xβ1 + U1 > 0) = Pr(U1 > −Xβ1) = Z ∞ −Xβ1 g(U1)dU1 Similarmente, Pr(Y1 ≤ 0) = Pr(Xβ1 + U1 ≤ 0) = Pr(U1 ≤ −Xβ1) = Z −Xβ1 −∞ g(U1)dU1 8 Portanto, a função de verossimilhança pode ser escrita como L = NY i=1 [Pr(Yi1 > 0)]Di [Pr(Yi1 ≤ 0)]1−Di Onde Di = 1 se Yi1 > 0 e 0 c.c d) Pr(Y1 ≥ Y0) = Pr(Xβ1 + U1 ≥ Xβ0 + U0) = Pr(U1 − U0 ≥ −(Xβ1 −Xβ0)) = Z ∞ −(Xβ1−Xβ0) gU1−U0(t)dt onde gU1−U0(t) pode ser derivada a partir da função densidade g(U1, U0) conforme segue abaixo: gU1−U0(t) = Z ∞ −∞ g(U0 + t, U0)dU0 Além disso, g(U1, U1 − U0|U1 − U0 ≥ −(Xβ1 −Xβ0)) = g(U1, U1 − U0)1(U1 − U0 ≥ −(Xβ1 −Xβ0)) Pr(U1 − U0 ≥ −(Xβ1 −Xβ0)) onde gU1,U1−U0(s, t) = gU1,U0(s, s− t).Portando, g(U1 |U1 − U0 ≥ −(Xβ1 −Xβ0 )) = R∞ −(Xβ1−Xβ0) g(U1, U1 − U0)d(U1 − U0)R∞ −(Xβ1−Xβ0) gU1−U0(t)dt e g(Y1 |Y1 ≥ Y0,X ) = R∞ 0 g(Y1 −Xβ1, Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)R∞ 0 g(Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0) Similarmente, Pr(Y1 < Y0) = Pr(Xβ1 + U1 < Xβ0) = Pr(U1 − U0 < −(Xβ1 −Xβ0) = Z −(Xβ1−Xβ0) −∞ gU1−U0(t)dt e g(U0|U1 − U0 < −(Xβ1 −Xβ0)) = R−(Xβ1−Xβ0) −∞ g(U0, U1 − U0)d(U1 − U0)R −(Xβ1−Xβ0) −∞ gU1−U0(t)dt 9 o que implica que g(Y0|Y0 > Y1,X) = R 0 −∞ g(Y0 −Xβ0, Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)R 0 −∞ g(Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0) Portanto, a função de verossimilhança é igual a L = NY i=1 [g(Yi1|Yi1 ≥ Yi0,Xi) Pr(Yi1 ≥ Yi0)]Di ×[g(Yi0|Yi0 ≥ Yi1,Xi) Pr(Yi0 ≥ Yi1)]1−Di = NY i=1 ·Z ∞ 0 g(Yi1 −Xiβ1, Yi1 − Yi0 − (Xiβ1 −Xiβ0))d(Yi1 − Yi0) ¸Di × ·Z 0 −∞ g(Yi0 −Xiβ0, Yi1 − Yi0 − (Xiβ1 −Xiβ0))d(Yi1 − Yi0) ¸1−Di em que Di = 1 se Yi1 ≥ Yi0 e 0 caso contrário. Questão 7 a) As condições de ortogonalidade e suas contrapartidas amostraias são dadas, respectivamente, por E ½ y2t − v v − 2 ¾ ½ y4t − 3 v2 (v − 2)(v − 4) ¾ = · 0 0 ¸ g(v;YT )= ½ µˆ2,T − v v − 2 ¾ ½ µˆ4,T − 3 v2 (v − 2)(v − 4) ¾ O estimador de GMM é dado por argmin v g(v;YT ) 0Vˆ −1T (vˆ) g(v;YT ) (1) V (vˆ) = T−1 TX i=1 ½ y2t − v v − 2 ¾ ½ y4t − 3 v2 (v − 2)(v − 4) ¾ ½ y2t − v v − 2 ¾ ½ y4t − 3 v2 (v − 2)(v − 4) ¾ 0 (2) 10 Obtido da mesma forma que no exercício anterior. b) Sendo D0T = ∂g(v;X) ∂v0 ¯¯¯¯ v=vGMMT = 2 (v − 2)2 3 µ 2v(v2 − 6v + 8)− v2(2v − 6) (v − 2)2(v − 4)2 ¶ ¯¯¯¯ ¯¯¯¯ v=vGMMT Temos que √ n(vGMMT − v) p→ N ³ 0,DT Vˆ −1 T D 0 T ´ Questão 8 Podemos expressar as condições de momento da seguinte maneira: Ef(xt, β) = · Ef1(xt, β) Ef2(xt, β) ¸ nx1 Analogamente, d0 = E · ∂f(xt, β) ∂β ¸ = · E ³∂f1(xt,β)∂β ´kxk E ³ ∂f2(xt,β) ∂β ´ n−kxk ¸ nx1 = · d10 d20 ¸ É preciso designar uma matriz tal que quando formos trabalhar com todo o sistema de equações, utilizemos apenas Ef1(xt, β) = 0, i.e, a0Ef(xt, β) = 0 ⇐⇒ Ef1(xt, β) = 0 Seja a0 = [A0 B0]kxn , A0: kxk B0: kx(n− k) [A0 B0] · Ef1(xt, β) Ef2(xt, β) ¸ = A0Ef1(xt, β) +B0Ef2(xt, β) Portanto é necessário que B0 = 0 e que A0 seja uma matriz não singular kxk b) Esse procedimento em dois passos não é necessariamente eficiente. Do ponto de vista do sistema, a matriz de seleção eficiente é dada por a∗0 = d00V −1 0 (lembre que para ∀e não singular e para toda matriz de seleção a∗0, ea∗0 induz à mesma distribuição que a∗0. O procedimento de dois passos é eficiente se e somente se£ d10 d20 ¤ V −10 = [K0 0] Para alguma matriz K0 não singular nxn 11 c) Sem perda de generalidade, impor a0 = [Ik 0 ] 1√ T TX t=0 f(xt, βt) ≈ (I − d0(a0d0)−1a0) 1√ T TX t=0 f(xt, β0) Seja c0 ≡ (I − d0(a0d0)−1a0) Como 1√ T TX t=0 f(xt, β0) d−→ N(0, V0),· Ef1(xt, β) Ef2(xt, β) ¸ d−→ N(0, c0V0c 0 0) Vamos encontrar uma expressão simplificada para c0. Primeiramente, note que d0(a0d0) −1a0 = · d10 d20 ¸ £ d10 ¤ £ Ik 0 ¤ = · Ik d20(d 1 0) −1 ¸ £ Ik 0 ¤ = · Ik 0kx(n−k) −d20(d10)(n−k)xk 0(n−k)x(n−k) ¸ Como c0 = (Inxn − d0(a0d0)−1a0) c0 = Inxn − · Ik 0kx(n−k) −d20(d10)(n−k)xk 0(n−k)x(n−k) ¸ = · 0kxk 0kx(n−k) −d20(d10)(n−k)xk Inxk ¸ Então, c0V0c00 = · 0 0 −d20(d10) I ¸ · V11 V12 V21 V22 ¸ · 0 0 −d20(d10) I ¸0 = · 0 0 0 V22 + d20(d 1 0) −1V11 £ d20 d 1 0 ¤0¸ Note que como as condições de f1 são usadas para estimar bt, β0 é ex- atamente identificada. Assim, a variância de 12√T P f1(xt, bt) é igual a zero, conforme esperado. A distribuição de 12√T P f2(xt, b1t ) é dada por: 1 2 √ T X f2(xt, b1t ) d→ N(0, V22 + d20(d10)−1V11(d100 )−1d200 ) definindo V˜22 ≡ [V22 + d20(d−10 )−1V11(d−10 )−10d200 ] 12 Podemos fazer um teste para restrições de sobreidentificação através de· 1 2 √ T X f2(xt, b1t ) ¸ V˜22 · 1 2 √ T X f2(xt, b1t ) ¸0 ∼ χ2n−k Questão 9 a) Isolando o consumo na restrição orçamentária, tratando-a com igualdade, podemos escrever o problema do agente como maxEt ∞X s=t βsu − NX j=1 PjsQjs + NX j=1 RjsQjs−1 +Ws O agente maximiza sua utilidade escolhendo o quanto comprar de cada ativo j em cada instante de tempo s. Assim sendo, as condições de primeira ordem para cada Qjs são dadas por Et © −βsu0(cs)Pjs + βs+1u0(cs+1)Rjs+1 ª = 0 u0(cs) = c−γs βEt "µ cs+1 cs ¶−γ Rjs+1 Pjs # − 1 = 0 O operador Et representa o valor esperado condicionado no conjunto de informações disponível no instante de tempo t. Assim sendo, definindo It como esse conjunto de informações, temos que βEt "µ cs+1 cs ¶−γ Rjs+1 Pjs − 1 # = βE "µ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ¯¯¯¯ ¯ It # = 0 E " β õ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ! It # = 0 em que xt corresponde ao conjunto de informações que o comprador de ativos possui no instante t e que também é observado pelo econometrista, composto pelo consumo atual e passado (ct−m, m = 0, 1, 2...) e pelas taxas de retorno passadas. b) Sendo W uma matriz de ponderação positiva definida, o estimador de GMM será o vetor θˆ = (γˆ, βˆ)0 que minimizar o escalar 13 Q(θ, YT ) = T−1 TX s=t " β õ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ! It #0 W × " β õ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ! It # c) O estimador eficiente de GMM é obtido em dois estágios. No primeiro estágio, usamosW = I e obtemos θˆ (0) . Tendo θˆ (0) em mãos, obtemos o estimador de GMM eficiente, θˆ (1) , minimizando Q(θ, YT ) = T−1 TX s=t " β õ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ! It #0 S−1T (θˆ (0) ) × " β õ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ! It # ST (θˆ (0) ) = T−1 TX s=t (" βˆ (0) õ cs+1 cs ¶−γˆ(0) Rjs+1 Pjs − 1 ! It # × " βˆ (0) õ cs+1 cs ¶−γˆ(0) Rjs+1 Pjs − 1 ! It #0 d) √ T TX s=t " βˆ (1) õ cs+1 cs ¶−γˆ(1) Rjs+1 Pjs − 1 ! It #0 ST (θˆ (0) ) × " βˆ (1) õ cs+1 cs ¶−γˆ(1) Rjs+1 Pjs − 1 ! It #0 ∼ χ2(N−2) Questão 10 a) Na primeira etapa, estimamos a equação de demanda. Para tal, uti- lizamos as variáveis exógenas ωt como instrumento para pt e ptrt. Na segunda etapa, baseados nos estimadores da primeira etapa, construímos a variável q∗t = − qt φˆ+ ζˆrt . Então, utilizando yt e rt como instrumentos para q∗t e qt, podemos estimar λ de forma consistente. 14 b) Inicialmente, consideremos um modelo exatamente identificado (ou seja, ωt é um vetor com duas variáveis). Nesse caso, a condição de ortogonalidade da primeira etapa se baseia no fato dos instrumentos em ωt não serem correla- cionados com o termo de erro, εt.Assim sendo, temos que g(xt, θ) = ωtεt = ωt (qt − α− φpt − γyt − ζptrt − ϕrt) E [g(xt, θ0)] = 0 O estimador θˆ seria aquele que solucionaria T−1 PT t=1 g(xt, θˆ) = 0. Na se- gunda etapa, utilizando q∗t , a condição de ortogonalidade se baseia no fato dos intrumentos yt e rt serem não correlacionados com o termo de erro, ηt. Assim sendo, o estimador δˆ pode ser obtido resolvendo T−1 TX t=1 h(xt, θˆ, δˆ) = 0 em que h(xt, θ, δ) = zt µ pt + λ φ+ ζrt qt − κ− πqt − ω0tρ ¶ E [h(xt, θ0, δ0)] = 0 Logo, expressando as condições de ortogonalidade dentro do instrumental de GMM, temos que E · h(xt, θ0, δ0) g(xt, θ0) ¸ = E [f (xt;β0)] = · 0 0 ¸ c) Sabemos que a distribuição assintótica do estimador de GMM é dada por √ T (βˆ − β) p→ N(0,Ω) Ω = (F 0S−1F )−1 S = E(f (xt;β0) f (xt;β0) 0) F = E(fβ (xt;β0)) fβ (xt;β) (10×10) = ∂f1(x,β) ∂β1 ∂f1(x,β) ∂β2 ... ∂f1(x,β)∂β10 ∂f2(x,β) ∂β1 ∂f2(x,β) ∂β2 ... ∂f2(x,β)∂β10 ... ... . . . ... ∂f10(x,β) ∂β1 ∂f10(x,β) ∂β2 ... ∂f10(x,β)∂β10 Intuitivamente, a matriz F mede a sensibilidade das funções de momentos com relação aos parâmetros, enquanto que a matriz S é simplesmente a matriz 15 de variância-covariância das condições de ortogonalidade populacionais. Para obter uma expressão explícita para as matrizes de covariância assintótica das duas etapas, podemos particionar as matrizes F e S de forma que F = · Gθ 0 Hθ Hδ ¸ S = · Sgg Sgh Shg Shh ¸ Gθ = E (∂g(xt, θ0) /∂θ) Gγ = E (∂g(xt, θ0) /∂δ) = 0 Hθ = E (∂h(xt, θ0, δ0) /∂θ) Hδ = E (∂h(xt, θ0, δ0) /∂δ) Sgg = E [g(xt, θ0)g(xt, θ0) 0] Shg = Sgh = E [h(xt, θ0, δ0)g(xt, θ0) 0] Shh = E [h(xt, θ0, δ0)h(xt, θ0, δ0) 0] O bloco superior da matriz F−1SF−10 nos dá a variância assintótica de θˆ, G−1θ SggG −10 θ , que nada mais é do que a variância assintótica do estimador de variável instrumental obtido na primeira etapa. O bloco inferior de F−1SF−10 contém a variância assintótica do estimador da segunda etapa, δˆ. A primeira en- trada da diagonal principal corresponde a variância assintótica de λˆ. Aplicando a fórmula da inversa da matriz particionada, temos que Ωδ = H −1 δ ShhH −10 δ +H −1 δ Hθ £ G−1θ SggG −10 θ ¤ H 0θH −10 δ −H−1δ £ HθG −1 θ Sgh + ShgG −10 θ H 0 θ ¤ H−10δ O primeiro termo do lado direito nos dá a matriz de variância-covariância assintótoca caso ignorassemos que φˆ e ζˆ não correspondem aos valores ver- dadeiros φ0 e ζ0.O segundo e o terceiro termo corrigem a variabilidade adicional introduzida pela utilização dos valores estimados φˆ e ζˆ.Logo, ignorar os efeitos da estimação da primeira etapa nos leva a erros padrões assintóticos incorretos, a não ser que Hθ = 0. No caso em que a dimensão de ωt for maior do que o número de variáveis endógenas, ou seja, tenhamos K parâmetros e M condições de ortogonalidade, comK > M . Nesse caso mais geral, o estimador de GMM é aquele que soluciona as condições de ortogonalidade amostral aT fT (β) = T −1 TX t=1 ∂f(xt, β)0 ∂β V fT (β) = T−1 TX t=1 ∂f(xt, β)0 ∂β (K×M) V (M×M) T−1 TX t=1 f(xt, β) (M×1) 16 Onde a matriz (K ×M) aT isola as condições de momento usadas na esti- mação e indexa os alternativos estimadores de GMM. Utilizando V = Ω−1 temos o estimador assintótico eficiente na classe dos estimadores de GMM. Como Ω não é conhecido a priori, o caso de sobreidentificação inclui uma etapa adicional ao processo descrito acima, quando a dimensão de ωt era igual ao número de variáveis endógenas. Essa etapa consiste em inicialmente utilizar V = I, obter um estimador consisntente e utilizá-lo para obter Ωˆ−1. 17