Logo Passei Direto
Buscar

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

Universidade de São Paulo - Departamento de Economia
Curso de Verão Estatística
Prof. Dr. Ricardo Avelino
Monitor: Dejanir Henrique
1o Semestre de 2010
Lista de Exercícios 3 - Solução
Questão 1
a)
E
¡
σˆ2
¢
= E
·P
(si+∆ − si − µˆ∗∆)2
n∆
¸
= (n∆)−1
©
nE
£
(si+∆ − si)2
¤
− 2nE
£
(µˆ∗∆)2
¤
+ nE
£
(µˆ∗∆)2
¤ª
= (n∆)−1
©
nE
£
(si+∆ − si)2
¤
− nE
£
(µˆ∗∆)2
¤ª
= ∆−1
©
E
£
(si+∆ − si)2
¤
−E
£
(µˆ∗∆)2
¤ª
= ∆−1
©
E
£
(si+∆ − si)2
¤
−
£
V ar(µˆ∗∆) +E2(µˆ∗∆)
¤ª
= ∆−1E
£
(si+∆ − si)2
¤
−∆
·
n
n2∆2
V ar(si+∆ − si) +
n2
n2∆2
E2(si+∆ − si)
¸
= ∆−1
©
E
£
(si+∆ − si)2
¤
−E2(si+∆ − si)
ª
− 1
n∆
V ar(si+∆ − si)
=
1
∆
V ar(si+∆ − si)−
1
n∆
V ar(si+∆ − si) = σ2(1−
1
n
)
b)
V (σˆ2) = E[σˆ4]−E[σˆ2]2
Como já computamos E[σˆ2], só precisamos obter E[σˆ4]. Para simplificar a
notação, usaremos xi ≡ si+∆ − si e x ≡
S
(si+∆−si)
n = µˆ
∗
∆. Então,
E[σˆ4] = E[(σˆ2)2] = E[(
P
(xi − x)2
n∆
)2] =
1
∆2
E[(
P
x2i
n
− x2)2] =
=
1
∆2
E[
1
n2
(
X
x2i )
2]− 2
n3
E[(
X
x2i )(
X
xi)2] +
1
n4
E[(
X
xi)4]
Para o cálculo da variância, assumiremos, sem perda de generalidade, que a
média populacional é zero.
1
Desenvolvendo o primeiro termo, temos
E[(
X
x2i )
2] = E[
X
x4i +
X
i6=j
x2ix
2
j ] = E[
X
x4i ] + n(n− 1)E[x2i ]E[x2j ]
= nµ4 + n(n− 1)µ22
definindo µj ≡ E[xj ] (note que usamos a hipótese de independência na segunda
igualdade).
Desenvolvendo o segundo termo da expressão anterior, temos
E[(
X
x2i )(
X
xi)
2] = E[
X
x4i +
X
i6=j
x2ix
2
j + 2
X
i6=j
x3ixj +
X
i6=j 6=k
x2ixjxk]
= nµ4 + n(n− 1)µ22
em que usamos o fato de que os momentos de ordem impar são iguais a zero.
Do terceiro termo, obtemos
E[(
X
xi)
4] = E[
X
x4i + 3
X
i6=j
x2ix
2
j + 4
X
i6=j
x3ixj + 6
X
i6=j 6=k
x2ixjxk
+
X
i6=j 6=k 6=l
xixjxkxl]
= nµ4 + 3n(n− 1)µ22
Substituindo na expressão original, temos
E[σˆ4] =
1
∆2
½
(nµ4 + n(n− 1)µ22)
n2
− 2(nµ4 + n(n− 1)µ
2
2)
n3
+
(nµ4 + 3n(n− 1)µ22)
n4
¾
=
1
∆2
{( 1
n
− 2
n2
+
1
n3
)µ4 + (
n− 1
n
− 2(n− 1)
n2
+ 3
(n− 1)
n3
)µ22}
=
1
∆2
{(n
2 − 2n+ 1
n3
)µ4 +
(n− 1)(n2 − 2n+ 3)
n3
µ22}
=
(n− 1)[(n− 1)µ4 + (n2 − 2n+ 3)µ22]
∆2n3
Usando o fato que µ2 = σ
2∆ e µ4 = 3σ
4∆2 (decorrente da normalidade de
si+∆ − si), temos
E[σˆ4] =
(n− 1)[(n− 1)3σ4∆2 + (n2 − 2n+ 3)σ4∆2]
∆2n3
=
σ4(n− 1)(n+ 1)
n2
2
Dessa forma, a variância é dada por:
V (σˆ2) = E[σˆ4]−E[σˆ2]2 = σ
4(n− 1)(n+ 1)
n2
− σ4 (n− 1)
2
n2
=
2σ4(n− 1)
n2
Questão 2
a) Substituindo a expressão de pi no modelo, temos que
yi = α0 + α1pi + α2x
∗
2i + ui − α1'i
= α0 + α1pi + vi
vi = α2x
∗
2i + ui − α1'i
Assim sendo, o estimador obtido na regressão de yi contra pi é dado por
αˆp1 =
P
(pi − p¯)(yi − y¯)P
(pi − p¯)2
=
n−1
n−1
P
piyi − np¯y¯P
(pi − p¯)2
Para analisarmos a consistência de αˆp1, utilizando a Lei fraca de Klintchine
e o Teorema de Mahn-Wald, temos que
n−1
X
(pi − p¯)2 = n−1
X
p2i − (p¯)2
p→ E(p2i )−E(pi)2 = V ar(pi)
n−1
X
piyi − np¯y¯ = n−1
X
piyi − p¯y¯
p→ E(piyi)−E(pi)E(yi) = Cov(pi, yi)
Substituindo pi e yi, temos que
Cov(pi, yi) = Cov [(x
∗
1i +'i), α0 + α1x
∗
1i + α2x
∗
2i + ui]
= α2Cov(x∗1i, x
∗
2i) + α1Cov(x
∗
1i, x
∗
1i)
Cov(pi, yi) = α2Cov(x∗1i, x
∗
2i) + α1V ar(x
∗
1i)
V ar(pi) = V ar(x∗1i)− σ2'
Assim sendo, temos que
p lim αˆp1 =
p limn−1
P
piyi − np¯y¯
p limn−1
P
(pi − p¯)2
=
Cov(pi, yi)
V ar(pi)
=
α2Cov(x∗1i, x
∗
2i) + α1V ar(x
∗
1i)
V ar(x∗1i) + σ
2
'
= α1 +
α2Cov(x∗1i, x
∗
2i)
V ar(x∗1i) + σ
2
'
− α1σ
2
'
V ar(x∗1i) + σ
2
'
3
Assim, temos que αˆp1 é inconsistente. A inconsistência ocorre tanto em vir-
tude da omissão de x∗2i
³
dado por α2Cov(x
∗
1i,x
∗
2i)
V ar(x∗1i)+σ
2
'
´
, como do erro de medida pre-
sente em pi
³
α1σ
2
'
V ar(x∗1i)+σ
2
'
´
. Como α2 > 0, o sinal do segundo termo dependerá
da covariância entre x∗1i e x
∗
2i, enquanto que o sinal do terceiro termo será dado
por α1.
b) O estimador da regressão de mi contra pi é dado por
βˆ1 =
P
(pi − p¯)(mi − m¯)P
(pi − p¯)2
Assim como no item anterior, temos que
X
(pi − p¯)(mi − m¯)
p→ Cov(mi, pi)
Cov(mi, pi) = E [(x
∗
1i +'i) (x
∗
1i + ηi)]−E (x∗1i +'i)E (x∗1i + ηi)
= E
£
(x∗1i)
2
¤
−E(x∗1i)2 = V ar(x∗1i)
Portanto, temos que, para Cov(x∗1i, x
∗
2i) = 0,
p lim α˜1 = p lim
αˆp1
βˆ1
=
p lim αˆp1
p lim βˆ1
=
Cov(yi, pi)/V ar(pi)
Cov(mi, pi)/V ar(pi)
=
Cov(yi,mi)
Cov(mi, pi)
=
α2Cov(x∗1i, x
∗
2i) + α1V ar(x
∗
1i)
V ar(x∗1i)
= α1
c) O estimador de variáveis instrumentais quando mi é usado como instru-
mento para pi é dado por
αIV1 =
P
(yi − y¯)(mi − m¯)P
(mi − m¯)(pi − p¯)
=
αˆp1
βˆ1
Tal resultado é intuitivo, já que no item (b) fizemos o procedimento do
estimador de mínimos quadrados em 2 estágios, regredindo primeiramente a
variável correlacionada contra o instrumento e, no segundo estágio, rodando yi
contra a variável resultante do primeiro estágio.
Questão 3
4
a)
L(xi| θ) =
nY
i=1
f(xi| θ) =
nY
i=1
θxθ−1i
lnL(xi| θ) =
nX
i=1
ln
¡
θxθ−1i
¢
= n ln θ + (θ − 1)
nX
i=1
lnxi
∂ lnL(xi| θ)
∂θ
= 0 =⇒ n
θ
+
nX
i=1
lnxi = 0
θMV = − nPn
i=1 lnxi
∂ ln f(xi| θ)
∂θ
=
1
θ
+ lnxi
∂2 ln f(xi| θ)
∂θ2
= − 1
θ2
Sendo g(θ) = θ(1+θ)−1, pelo princípio da invariância temos que o estimador
de máxima verossimilhança de g(θ) é dado por g(θMV ).
b) ·
−E∂
2 ln f(xi| θ)
∂θ2
¸−1
= θ2
√
n(θMV − θ) d→ N(0, θ2)
Utilizando o método Delta, temos que
√
n
h
g
³
θMV
´
− g(θ)
i
d→ g0(θ)N(0, θ2) = 1
(1 + θ)2
N(0, θ2)
= N
µ
0,
θ2
(1 + θ)4
¶
Questão 4
a)
L(xi| θ) =
nY
i=1
1
θ
exp
³
−x
θ
´
lnL(xi| θ) =
nX
i=1
·
ln
1
θ
exp
³
−x
θ
´¸
= −n ln θ −
nX
i=1
xi
θ
5
b)
∂ lnL(xi| θ)
∂θ
= −n
θ
+
nX
i=1
xi
θ2
= 0
θML = n−1
nX
i=1
xi = x¯
c)
∂ ln f(xi| θ)
∂θ
= −1
θ
+
xi
θ2
∂2 ln f(xi| θ)
∂θ2
=
1
θ2
− 2xi
θ3·
−E∂
2 lnL(xi| θ)
∂θ2
¸−1
=
·
− 1
θ2
+ 2
θ
θ3
¸−1
= θ2
√
n(θMV − θ) d→ N
¡
0, θ2
¢
d) Pelo princípio da invariância, o estimador de máxima verossimilhança de
θ3 é dado por θˆ
3
.Pelo teorema de Mahn-Wald, esse estimador é consistente,
dada consistência de θˆ.
e) Utilizando o método Delta, sendo g(θ) = θ3, temos que
√
n
h
g
³
θMV
´
− g(θ)
i
d→ g0(θ)N(0, θ2) = 3θ2N(0, θ2)
= N
¡
0, 9θ6
¢
Questão 5
a)
lnL =
P
yi>0
−1
2
·
ln(2π) + lnσ2 +
(yi − β0xi)2
σ2
¸
+
P
yi=0
ln
·
1− Φ
µ
β0xi
σ
¶¸
b)
lnL =
P
yi>0
−1
2
£
ln(2π)− ln θ2 + (θyi − γ0xi)2
¤
+
P
yi=0
ln [1− Φ (γ0xi)]
∂ lnL
∂θ
= 0 =⇒
P
yi>0
·
1
θ
− (θyi − γ0xi)yi
¸
= 0
∂ lnL
∂γ
= 0 =⇒
P
yi>0
(θyi − γ0xi)xi +
P
yi=0
−φ (γ0xi)
1− Φ (γ0xi)
xi = 0
6
c) As segundas derivadas são iguais à
∂2 lnL
∂θ∂θ0
= −n1
θ2
−
P
yi>0
y2i
∂2 lnL
∂γ∂θ0
=
P
yi>0
xiyi
∂2 lnL
∂γ∂γ0
=
P
yi=0
"
γ0xiφ (γ0xi)
1− Φ (γ0xi)
− φ
2 (γ0xi)
[1− Φ (γ0xi)]2
#
xix0i −
P
yi>0
xix0i
=
P
yi=0
φ (γ0xi)
1− Φ (γ0xi)
·
γ0xi −
φ (γ0xi)
1− Φ (γ0xi)
¸
xix
0
i −
P
yi>0
xix
0
i
Portanto, o Hessiano pode ser escrito como
H =


P
yi=0
φ(γ0xi)
1−Φ(γ0xi)
·
γ0xi −
φ(γ0xi)
1−Φ(γ0xi)
¸
xix0i 0
0 −n1θ2


+


−
P
yi>0
xix0i
P
yi>0
xiyiP
yi>0
yix0i −
P
yi>0
y2i


Como γ0xi −
φ(γ0xi)
1−Φ(γ0xi) < 0, as matrizes acima são negativa definidas. O
Hessiano é a soma de duas matrizes negativa definidas., logo, também é nega-
tivo definido, o que implica que a função de log-verossimilhança é globalmente
côncava.
Questão 6
a) Seja
g(U0, U1) =
Z ∞
−∞
g(U0, U1, V )dV
e
g(U0) =
Z ∞
−∞
g(U0, U1)dU1
Então,
g(U0, U1 |Y0 > 0) = g(U0, U1 |Xβ0 + U0 > 0) =
g(U0, U1)1(U0 > −Xβ0)
Pr(U0 > −Xβ0)
Portanto,
7
g(U1 |U0 > −Xβ0 ) =
R∞
−Xβ0
g(U0, U1)dU0R∞
−Xβ0
g(U0)dU0
e
f(Y1 |Y0 > 0,X ) =
R∞
−Xβ0
g(U0, Y1 −Xβ1)dU0R∞
−Xβ0
g(U0)dU0
Assim sendo, a função de verossimilhança é igual a
L =
NY
i=1
[f(Yi1 |Yi0 > 0,X) ]
b) Seja
g(U1) =
Z ∞
−∞
Z ∞
−∞
g(U0, U1, V )dV dU0
g(U1|0 < Y1 < C1) = g(U1|0 < Xβ1 + U1 < C1)
= g(U1|−Xβ1 < U1 < C1 −Xβ1)
=
g(U1)1(−Xβ1 < U1 < C1 −Xβ1)
Pr(−Xβ1 < U1 < C1 −Xβ1)
=
g(U1)1(−Xβ1 < U1 < C1 −Xβ1)R C1−Xβ1
−Xβ1
g(U1)dU1
Portanto,
f(Y1 |0 < Y1 < C1) = g(Y1 −Xβ1)1(0 < Y1 < C1)R C1
0
g(Y1 −Xβ1)dY1
E a função de verossimilhança é dada por
L =
NY
i=1
"
g(Yi1 −Xiβ1)1(0 < Yi1 < C1)R C1
0
g(Yi1 −Xiβ1)dYi1
#
c)
Pr(Y1 > 0) = Pr(Xβ1 + U1 > 0) = Pr(U1 > −Xβ1) =
Z ∞
−Xβ1
g(U1)dU1
Similarmente,
Pr(Y1 ≤ 0) = Pr(Xβ1 + U1 ≤ 0) = Pr(U1 ≤ −Xβ1) =
Z −Xβ1
−∞
g(U1)dU1
8
Portanto, a função de verossimilhança pode ser escrita como
L =
NY
i=1
[Pr(Yi1 > 0)]Di [Pr(Yi1 ≤ 0)]1−Di
Onde Di = 1 se Yi1 > 0 e 0 c.c
d)
Pr(Y1 ≥ Y0) = Pr(Xβ1 + U1 ≥ Xβ0 + U0) = Pr(U1 − U0 ≥ −(Xβ1 −Xβ0))
=
Z ∞
−(Xβ1−Xβ0)
gU1−U0(t)dt
onde gU1−U0(t) pode ser derivada a partir da função densidade g(U1, U0)
conforme segue abaixo:
gU1−U0(t) =
Z ∞
−∞
g(U0 + t, U0)dU0
Além disso,
g(U1, U1 − U0|U1 − U0 ≥ −(Xβ1 −Xβ0))
=
g(U1, U1 − U0)1(U1 − U0 ≥ −(Xβ1 −Xβ0))
Pr(U1 − U0 ≥ −(Xβ1 −Xβ0))
onde gU1,U1−U0(s, t) = gU1,U0(s, s− t).Portando,
g(U1 |U1 − U0 ≥ −(Xβ1 −Xβ0 )) =
R∞
−(Xβ1−Xβ0)
g(U1, U1 − U0)d(U1 − U0)R∞
−(Xβ1−Xβ0)
gU1−U0(t)dt
e
g(Y1 |Y1 ≥ Y0,X ) =
R∞
0
g(Y1 −Xβ1, Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)R∞
0
g(Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)
Similarmente,
Pr(Y1 < Y0) = Pr(Xβ1 + U1 < Xβ0) = Pr(U1 − U0 < −(Xβ1 −Xβ0)
=
Z −(Xβ1−Xβ0)
−∞
gU1−U0(t)dt
e
g(U0|U1 − U0 < −(Xβ1 −Xβ0)) =
R−(Xβ1−Xβ0)
−∞ g(U0, U1 − U0)d(U1 − U0)R −(Xβ1−Xβ0)
−∞ gU1−U0(t)dt
9
o que implica que
g(Y0|Y0 > Y1,X) =
R 0
−∞ g(Y0 −Xβ0, Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)R 0
−∞ g(Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)
Portanto, a função de verossimilhança é igual a
L =
NY
i=1
[g(Yi1|Yi1 ≥ Yi0,Xi) Pr(Yi1 ≥ Yi0)]Di
×[g(Yi0|Yi0 ≥ Yi1,Xi) Pr(Yi0 ≥ Yi1)]1−Di
=
NY
i=1
·Z ∞
0
g(Yi1 −Xiβ1, Yi1 − Yi0 − (Xiβ1 −Xiβ0))d(Yi1 − Yi0)
¸Di
×
·Z 0
−∞
g(Yi0 −Xiβ0, Yi1 − Yi0 − (Xiβ1 −Xiβ0))d(Yi1 − Yi0)
¸1−Di
em que Di = 1 se Yi1 ≥ Yi0 e 0 caso contrário.
Questão 7
a) As condições de ortogonalidade e suas contrapartidas amostraias são
dadas, respectivamente, por
E


½
y2t −
v
v − 2
¾
½
y4t − 3
v2
(v − 2)(v − 4)
¾

 =
·
0
0
¸
g(v;YT )=


½
µˆ2,T −
v
v − 2
¾
½
µˆ4,T − 3
v2
(v − 2)(v − 4)
¾


O estimador de GMM é dado por
argmin
v
g(v;YT )
0Vˆ −1T (vˆ) g(v;YT ) (1)
V (vˆ) = T−1
TX
i=1


½
y2t −
v
v − 2
¾
½
y4t − 3
v2
(v − 2)(v − 4)
¾




½
y2t −
v
v − 2
¾
½
y4t − 3
v2
(v − 2)(v − 4)
¾


0
(2)
10
Obtido da mesma forma que no exercício anterior.
b) Sendo
D0T =
∂g(v;X)
∂v0
¯¯¯¯
v=vGMMT
=


2
(v − 2)2
3
µ
2v(v2 − 6v + 8)− v2(2v − 6)
(v − 2)2(v − 4)2
¶


¯¯¯¯
¯¯¯¯
v=vGMMT
Temos que √
n(vGMMT − v)
p→ N
³
0,DT Vˆ
−1
T D
0
T
´
Questão 8
Podemos expressar as condições de momento da seguinte maneira:
Ef(xt, β) =
·
Ef1(xt, β)
Ef2(xt, β)
¸
nx1
Analogamente,
d0 = E
·
∂f(xt, β)
∂β
¸
=
· E ³∂f1(xt,β)∂β ´kxk
E
³
∂f2(xt,β)
∂β
´
n−kxk
¸
nx1
=
·
d10
d20
¸
É preciso designar uma matriz tal que quando formos trabalhar com todo o
sistema de equações, utilizemos apenas Ef1(xt, β) = 0, i.e,
a0Ef(xt, β) = 0 ⇐⇒ Ef1(xt, β) = 0
Seja a0 = [A0 B0]kxn , A0: kxk B0: kx(n− k)
[A0 B0]
·
Ef1(xt, β)
Ef2(xt, β)
¸
= A0Ef1(xt, β) +B0Ef2(xt, β)
Portanto é necessário que B0 = 0 e que A0 seja uma matriz não singular kxk
b) Esse procedimento em dois passos não é necessariamente eficiente. Do
ponto de vista do sistema, a matriz de seleção eficiente é dada por a∗0 =
d00V
−1
0 (lembre que para ∀e não singular e para toda matriz de seleção a∗0, ea∗0
induz à mesma distribuição que a∗0.
O procedimento de dois passos é eficiente se e somente se£
d10 d20
¤
V −10 = [K0 0]
Para alguma matriz K0 não singular nxn
11
c) Sem perda de generalidade, impor a0 = [Ik 0 ]
1√
T
TX
t=0
f(xt, βt) ≈ (I − d0(a0d0)−1a0)
1√
T
TX
t=0
f(xt, β0)
Seja
c0 ≡ (I − d0(a0d0)−1a0)
Como
1√
T
TX
t=0
f(xt, β0) d−→ N(0, V0),·
Ef1(xt, β)
Ef2(xt, β)
¸
d−→ N(0, c0V0c
0
0)
Vamos encontrar uma expressão simplificada para c0. Primeiramente, note
que
d0(a0d0)
−1a0 =
·
d10
d20
¸ £
d10
¤ £
Ik 0
¤
=
·
Ik
d20(d
1
0)
−1
¸ £
Ik 0
¤
=
·
Ik 0kx(n−k)
−d20(d10)(n−k)xk 0(n−k)x(n−k)
¸
Como
c0 = (Inxn − d0(a0d0)−1a0)
c0 = Inxn −
·
Ik 0kx(n−k)
−d20(d10)(n−k)xk 0(n−k)x(n−k)
¸
=
·
0kxk 0kx(n−k)
−d20(d10)(n−k)xk Inxk
¸
Então,
c0V0c00 =
·
0 0
−d20(d10) I
¸ ·
V11 V12
V21 V22
¸ ·
0 0
−d20(d10) I
¸0
=
·
0 0
0 V22 + d20(d
1
0)
−1V11
£
d20 d
1
0
¤0¸
Note que como as condições de f1 são usadas para estimar bt, β0 é ex-
atamente identificada. Assim, a variância de 12√T
P
f1(xt, bt) é igual a zero,
conforme esperado. A distribuição de 12√T
P
f2(xt, b1t ) é dada por:
1
2
√
T
X
f2(xt, b1t )
d→ N(0, V22 + d20(d10)−1V11(d100 )−1d200 )
definindo
V˜22 ≡ [V22 + d20(d−10 )−1V11(d−10 )−10d200 ]
12
Podemos fazer um teste para restrições de sobreidentificação através de·
1
2
√
T
X
f2(xt, b1t )
¸
V˜22
·
1
2
√
T
X
f2(xt, b1t )
¸0
∼ χ2n−k
Questão 9
a) Isolando o consumo na restrição orçamentária, tratando-a com igualdade,
podemos escrever o problema do agente como
maxEt
∞X
s=t
βsu

−
NX
j=1
PjsQjs +
NX
j=1
RjsQjs−1 +Ws


O agente maximiza sua utilidade escolhendo o quanto comprar de cada ativo
j em cada instante de tempo s. Assim sendo, as condições de primeira ordem
para cada Qjs são dadas por
Et
©
−βsu0(cs)Pjs + βs+1u0(cs+1)Rjs+1
ª
= 0
u0(cs) = c−γs
βEt
"µ
cs+1
cs
¶−γ Rjs+1
Pjs
#
− 1 = 0
O operador Et representa o valor esperado condicionado no conjunto de
informações disponível no instante de tempo t. Assim sendo, definindo It como
esse conjunto de informações, temos que
βEt
"µ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
#
= βE
"µ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
¯¯¯¯
¯ It
#
= 0
E
"
β
õ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
!
It
#
= 0
em que xt corresponde ao conjunto de informações que o comprador de ativos
possui no instante t e que também é observado pelo econometrista, composto
pelo consumo atual e passado (ct−m, m = 0, 1, 2...) e pelas taxas de retorno
passadas.
b) Sendo W uma matriz de ponderação positiva definida, o estimador de
GMM será o vetor θˆ = (γˆ, βˆ)0 que minimizar o escalar
13
Q(θ, YT ) = T−1
TX
s=t
"
β
õ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
!
It
#0
W
×
"
β
õ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
!
It
#
c) O estimador eficiente de GMM é obtido em dois estágios. No primeiro
estágio, usamosW = I e obtemos θˆ
(0)
. Tendo θˆ
(0)
em mãos, obtemos o estimador
de GMM eficiente,
θˆ
(1)
, minimizando
Q(θ, YT ) = T−1
TX
s=t
"
β
õ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
!
It
#0
S−1T (θˆ
(0)
)
×
"
β
õ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
!
It
#
ST (θˆ
(0)
) = T−1
TX
s=t
("
βˆ
(0)
õ
cs+1
cs
¶−γˆ(0) Rjs+1
Pjs
− 1
!
It
#
×
"
βˆ
(0)
õ
cs+1
cs
¶−γˆ(0) Rjs+1
Pjs
− 1
!
It
#0

d)
√
T
TX
s=t



"
βˆ
(1)
õ
cs+1
cs
¶−γˆ(1) Rjs+1
Pjs
− 1
!
It
#0
ST (θˆ
(0)
)
×
"
βˆ
(1)
õ
cs+1
cs
¶−γˆ(1) Rjs+1
Pjs
− 1
!
It
#0

∼ χ2(N−2)
Questão 10
a) Na primeira etapa, estimamos a equação de demanda. Para tal, uti-
lizamos as variáveis exógenas ωt como instrumento para pt e ptrt. Na segunda
etapa, baseados nos estimadores da primeira etapa, construímos a variável
q∗t = −
qt
φˆ+ ζˆrt
. Então, utilizando yt e rt como instrumentos para q∗t e qt,
podemos estimar λ de forma consistente.
14
b) Inicialmente, consideremos um modelo exatamente identificado (ou seja,
ωt é um vetor com duas variáveis). Nesse caso, a condição de ortogonalidade
da primeira etapa se baseia no fato dos instrumentos em ωt não serem correla-
cionados com o termo de erro, εt.Assim sendo, temos que
g(xt, θ) = ωtεt = ωt (qt − α− φpt − γyt − ζptrt − ϕrt)
E [g(xt, θ0)] = 0
O estimador θˆ seria aquele que solucionaria T−1
PT
t=1 g(xt, θˆ) = 0. Na se-
gunda etapa, utilizando q∗t , a condição de ortogonalidade se baseia no fato dos
intrumentos yt e rt serem não correlacionados com o termo de erro, ηt. Assim
sendo, o estimador δˆ pode ser obtido resolvendo
T−1
TX
t=1
h(xt, θˆ, δˆ) = 0
em que
h(xt, θ, δ) = zt
µ
pt +
λ
φ+ ζrt
qt − κ− πqt − ω0tρ
¶
E [h(xt, θ0, δ0)] = 0
Logo, expressando as condições de ortogonalidade dentro do instrumental de
GMM, temos que
E
·
h(xt, θ0, δ0)
g(xt, θ0)
¸
= E [f (xt;β0)] =
·
0
0
¸
c) Sabemos que a distribuição assintótica do estimador de GMM é dada por
√
T (βˆ − β) p→ N(0,Ω)
Ω = (F 0S−1F )−1
S = E(f (xt;β0) f (xt;β0)
0)
F = E(fβ (xt;β0))
fβ (xt;β)
(10×10)
=


∂f1(x,β)
∂β1
∂f1(x,β)
∂β2
... ∂f1(x,β)∂β10
∂f2(x,β)
∂β1
∂f2(x,β)
∂β2
... ∂f2(x,β)∂β10
...
...
. . .
...
∂f10(x,β)
∂β1
∂f10(x,β)
∂β2
... ∂f10(x,β)∂β10


Intuitivamente, a matriz F mede a sensibilidade das funções de momentos
com relação aos parâmetros, enquanto que a matriz S é simplesmente a matriz
15
de variância-covariância das condições de ortogonalidade populacionais. Para
obter uma expressão explícita para as matrizes de covariância assintótica das
duas etapas, podemos particionar as matrizes F e S de forma que
F =
·
Gθ 0
Hθ Hδ
¸
S =
·
Sgg Sgh
Shg Shh
¸
Gθ = E (∂g(xt, θ0) /∂θ)
Gγ = E (∂g(xt, θ0) /∂δ) = 0
Hθ = E (∂h(xt, θ0, δ0) /∂θ)
Hδ = E (∂h(xt, θ0, δ0) /∂δ)
Sgg = E [g(xt, θ0)g(xt, θ0)
0]
Shg = Sgh = E [h(xt, θ0, δ0)g(xt, θ0)
0]
Shh = E [h(xt, θ0, δ0)h(xt, θ0, δ0)
0]
O bloco superior da matriz F−1SF−10 nos dá a variância assintótica de θˆ,
G−1θ SggG
−10
θ , que nada mais é do que a variância assintótica do estimador de
variável instrumental obtido na primeira etapa. O bloco inferior de F−1SF−10
contém a variância assintótica do estimador da segunda etapa, δˆ. A primeira en-
trada da diagonal principal corresponde a variância assintótica de λˆ. Aplicando
a fórmula da inversa da matriz particionada, temos que
Ωδ = H
−1
δ ShhH
−10
δ +H
−1
δ Hθ
£
G−1θ SggG
−10
θ
¤
H 0θH
−10
δ
−H−1δ
£
HθG
−1
θ Sgh + ShgG
−10
θ H
0
θ
¤
H−10δ
O primeiro termo do lado direito nos dá a matriz de variância-covariância
assintótoca caso ignorassemos que φˆ e ζˆ não correspondem aos valores ver-
dadeiros φ0 e ζ0.O segundo e o terceiro termo corrigem a variabilidade adicional
introduzida pela utilização dos valores estimados φˆ e ζˆ.Logo, ignorar os efeitos
da estimação da primeira etapa nos leva a erros padrões assintóticos incorretos,
a não ser que Hθ = 0.
No caso em que a dimensão de ωt for maior do que o número de variáveis
endógenas, ou seja, tenhamos K parâmetros e M condições de ortogonalidade,
comK > M . Nesse caso mais geral, o estimador de GMM é aquele que soluciona
as condições de ortogonalidade amostral
aT fT (β) = T
−1
TX
t=1
∂f(xt, β)0
∂β
V fT (β) =
T−1
TX
t=1
∂f(xt, β)0
∂β
(K×M)
V
(M×M)
T−1
TX
t=1
f(xt, β)
(M×1)
16
Onde a matriz (K ×M) aT isola as condições de momento usadas na esti-
mação e indexa os alternativos estimadores de GMM. Utilizando V = Ω−1 temos
o estimador assintótico eficiente na classe dos estimadores de GMM. Como Ω
não é conhecido a priori, o caso de sobreidentificação inclui uma etapa adicional
ao processo descrito acima, quando a dimensão de ωt era igual ao número de
variáveis endógenas. Essa etapa consiste em inicialmente utilizar V = I, obter
um estimador consisntente e utilizá-lo para obter Ωˆ−1.
17

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?