Logo Passei Direto
Buscar

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

Universidade de Sa˜o Paulo - Departamento de Economia
EAE 5811 - Econometria I
Prof. Dr. Ricardo Avelino
1o Semestre de 2007
Lista de Exerc´ıcios 4 - Soluc¸o˜es
Monitoras: Paula Pereda
Jaqueline de Oliveira
1. Na˜o e´ verdade que
JnX
j=1
Xnj = op(1) quando n → ∞. Para provarmos tal
resultado, precisaremos das seguintes fo´rmulas de progressa˜o aritme´tica limi-
tada:
JX
j
j=1
=
J(J + 1)
2
ou
JX
j2
j=1
=
J(J + 1)(2J + 1)
6
ou
JX
j3
j=1
=
·
J(J + 1)
2
¸2
Note que
∞X
j=1
y = lim
n→∞
nX
j=1
y
Para escolher o Xjn do contra-exemplo, considere g uma varia´vel aleato´ria
limitada superiormente (por exemplo, seguindo uma distribuic¸a˜o Unif(a, b)) di-
vidida por n (o que e´ condic¸a˜o suficiente, mas na˜o necessa´ria, para obtermos a
propriedade desejada de op(1)) ou mesmo uma constante finita dividida por n,
para simplificar mais ainda o problema. Multiplique este resultado por a, onde
a pode ser j, j2 ou j3, para aplicarmos as fo´rmulas acima mencionadas.
A primeira parte da prova consiste em relembrar que op(1) + op(1) = op(1)
e aplicar recursivamente por J finitas vezes.
Para a segunda parte, a estrate´gia e´ usar Jn = n e as fo´rmulas da PA acima.
Se voceˆ escolher uma varia´vel aleato´ria com suporte superior, pegue o ı´nfimo
(g∗, que seria a constante, caso esta fosse escolhida no in´ıcio) para limitar a
somato´ria e escreva:
JnX
i=j
aXn =
JnX
i=j
a
g
n
≥
JnX
j=1
a
g∗
n
=
g∗
n
JnX
j=1
a =
g∗
n
A
Como A depende do a escolhido, utilizaremos os seguintes casos: a = j ou
j2 ou j3. Assim, temos:
JnX
i=j
Xn
Jn
≥ 1
Jn
g∗
n
Jn(Jn + 1)
2
=
g∗
2
(Jn + 1)
n
1
JnX
i=j
Xn
Jn
≥ 1
Jn
g∗
n
Jn(Jn + 1)(2Jn + 1)
6
=
g∗
6
(Jn + 1)(2Jn + 1)
n
JnX
i=j
Xn
Jn
≥ 1
Jn
g∗
n
·
Jn(Jn + 1)
2
¸2
=
Jng∗
n
·
(Jn + 1)
2
¸2
Quando Jn = n, temos:
JnX
i=j
Xn
Jn
≥ g
∗
2
(n+ 1)
n
=
g∗
2
µ
1 +
1
n
¶
JnX
i=j
Xn
Jn
≥ g
∗
6
(n+ 1)(2n+ 1)
n
JnX
i=j
Xn
Jn
≥ g∗
·
(n+ 1)
2
¸2
Tomando o limite das expresso˜es acima, para nenhuma delas o termo da
esquerda converge diretamente para zero, portanto temos treˆs exemplos que
na˜o sa˜o op(1)
2. A ide´ia desta prova e´ mostrar que: se Xn
a.s.→ X, enta˜o Xn
p→ X; e se
Xn
p→ X ra´pido o suficiente, enta˜o Xn
a.s.→ X.
⇒
Suponha que Xn
a.s.→ X. Enta˜o ∀ε > 0 :
lim
n→∞
P (w : |Xn −X| < ε, n ≥ N) = 1
(ver Teorema 5.14 - Cap.5 - Mittelhammer)
Como |Xn −X| < ε, n ≥ N ⇒ sup |Xn −X| < ε, n = N,N + 1, ..., segue
que:
P (w : |Xn −X| < ε, n ≥ N) ≤ P (w : sup |Xn −X| < ε, n ≥ N)
Como o lado esquerdo da equac¸a˜o tem valor limite de 1 ∀ε > 0, por con-
vergeˆncia quase-certa segue que o lado direito tem valor limite igual a 1,∀ε > 0.
Portanto, temos:
lim
n→∞
P (w : sup |Xn −X| < ε, n ≥ N) = 1
⇐
2
Pelo enunciado temos que:
lim
n→∞
P (w : sup |Xn −X| < ε, n ≥ N) = 1
ou, equivalentemente:
lim
n→∞
P (w : sup |Xn −X| > ε, n ≥ N) = 0
Se estas duas relac¸o˜es valem para o supremo, tambe´m valera˜o para toda a
sequeˆncia com n ≥ N. Tomemos a segunda relac¸a˜o:
lim
n→∞
P (w : |XN −X| > ε, |XN+1 −X| > ε, ..., |Xn −X| > ε) = 0
→ lim
n→∞
P (w : |Xm −X| > ε) = 0∀m > N
Portanto, se somarmos todas as probabilidades para m > N teremos o
seguinte limite:
lim
n→∞
nX
m=N
P (w : |Xm −X| > ε) = 0 <∞
Como o limite da soma das probabilidades e´ finito, podemos utilizar o Lema
de Borel-Cantelli (LBC) enunciado a seguir:
- LBC: Se a soma das probabilidades da sequeˆncia de eventos (Yn) e´ finita,
enta˜o a probabilidade de que, infinitamente, muitos dos eventos seja zero e´:
P ( lim
n→∞
supYn) = 0
Como o nosso evento {Yn} ≡ |Xn −X| > ε, n ≥ N, pelo LBC, teremos que:
P ( lim
n→∞
sup |Xn −X| > ε, n ≥ N) = 0
ou equivalentemente:
P ( lim
n→∞
sup |Xn −X| < ε, n ≥ N) = 1
Como lim
n→∞
sup |Xn −X| < ε, n ≥ N ⇒ Limn→∞ |Xn −X| < ε, n ≥ N, temos
que vale a seguinte desigualdade:
P ( lim
n→∞
sup |Xn −X| < ε, n ≥ N) ≤ P ( limn→∞ |Xn −X| < ε, n ≥ N)
Portanto,
1 = P ( lim
n→∞
sup |Xn −X| < ε, n ≥ N) ≤ P ( limn→∞ |Xn −X| < ε, n ≥ N) ≤ 1
⇒ P ( lim
n→∞
|Xn −X| < ε, n ≥ N) = 1
Como
P ( lim
n→∞
|Xn −X| < ε, n ≥ N)⇔ P ( limn→∞Xn = X,n ≥ N)
3
seque que
P
³
lim
n→∞
Xn = X
´
= 1
3. Sejam fλ0Xn(t) e fλ0X(t) as func¸o˜es caracter´ısticas de λ
0Xn e λ0X,
respectivamente, onde:
fλ0Xn(t) = E(exp
itλ0Xn) = φλ0Xn(t) = φXn(tλ
0)
Assintoticamente, temos que:
lim
n→∞
φλ0Xn(t) = limn→∞
E(expitλ
0Xn) = φλ0X(t) = E(exp
itλ0X)
Como φλ0X(t) e´ cont´ınua em t = 0, temos, pelo teorema de continuidade de
Levy, que Xn
d→ X ≡ lim
n→∞
F (Xn) = F (X)
4 a) Pelo enunciado, temos que:
T =
P
I(Y ≤ c)
n
E(T ) =
P
E(I(Y ≤ c))
n
=
X θ
n
= θ
Portanto T e´ na˜o viesado.
V (T ) = V
µP
I(Y ≤ c)
n
¶
=
X V (I(Y ≤ c))
n2
=
X θ(1− θ)
n2
=
θ(1− θ)
n
b) Como Ti sa˜o i.i.d. e E(Ti) = θ, o Teorema do Limite Central de Lindberg-
Levy implica que
√
n(
P
Ti
n
− θ) d→ N (0, θ(1− θ))
c) Da Lei dos Grandes Nu´meros de Klinchines, segue que:
T =
X T i
n
p→ θ
5. a) Seja
U = Φ
Ã
c− Y
σ
!
- Prova da consisteˆncia:
p limU = p limΦ
Ã
c− Y
σ
!
= Φ
Ã
c− p lim(Y )
σ
!
4
onde Φ (.) e´ uma func¸a˜o continua com probabilidade 1. Como pela Lei Fraca
dos Grandes Nu´meros de Klinchine temos que:
Y =
X Yi
n
p→ µ
Assim, podemos aplicar o Teorema de Mahn-Wald:
p limU = p limΦ
Ã
c− Y
σ
!
= Φ
µ
c− µ
σ
¶
= θ
ou seja, U e´ um estimador consistente de θ.
- Vie´s:
E(U) = E


Z c−Y
σ
−∞
1√
2π
exp
·
−1
2
x2
¸
dx


=
Z
Y
Z c−Y
σ
−∞
1√
2π
exp
·
−1
2
x2
¸
dx dY 6= θ
Portanto, U e´ viesado para θ.
b) Pelo Teorema do Limite Central de Lindberg-Levy, temos:
√
n(Y − µ) d→ N
¡
0, σ2
¢
Seja
g(Y ) = Φ(
c− Y
σ
)
Como Φ e´ continuamente diferencia´vel, temos:
g‘(Y ) = −φ(c− Y
σ
)
1
σ
⇒ g‘(µ) = −φ(c− µ
σ
)
1
σ
Enta˜o, pelo me´todo delta:
√
n
h
g(Y )− g(µ)
i
d→ g0(µ)N(0, σ2) = − 1
σ
φ(
c− µ
σ
)N(0, σ2)
⇒ g(Y ) d→ N
Ã
g(µ),
1
n
·
φ(
c− µ
σ
)
¸2!
U
d→ N
Ã
θ,
1
n
·
φ(
c− µ
σ
)
¸2!
c) Como
[φ(z)]2
Φ(z)(1− Φ(z)) < 0, 64∀z
5
V (T ) =
θ(1− θ)
n
= Φ(
c− µ
σ
)
·
1− Φ(c− µ
σ
)
¸
1
n
>
1
0, 64n
·
φ(
c− µ
σ
)
¸2
>
1
n
·
φ(
c− µ
σ
)
¸2
= V (U)
Portanto, temos que ambos os estimadores sa˜o consistentes, mas assistoti-
camente U tem variancia menor que T. Entretanto, para pequenas amostras, T
e´ preferido uma vez que na˜o necessita da hipotese de normalidade da variavel e
tambe´m e´ na˜o viesado.
6. a)
E(T ) = E
Ã
X
Y
!
= E
µ
X
1
Y
¶
6= E
³
X
´
.
1
E
³
Y
´ = µX
µY
Portanto T e´ viesado.
p lim
Ã
X
Y
!
=
p limX
p limY
=
µX
µY
Portanto T e´ consistente.
b) O Teorema Central do Limite bivariado de Lindberg-Levy implica que:
√
n
"Ã
X
Y
!
−
µ
µX
µY
¶#
d→ N
·µ
0
0
¶
,
µ
σ2X σ
2
XY
σ2XY σ
2
Y
¶¸
Seja
g
³
X,Y
´
=
X
Y
Enta˜o,
G =
·
δg (µX , µY )
δX
,
δg (µX , µY )
δY
¸
=
"
1
Y
,− X
Y
2
#
Segue do me´todo delta que
√
n
Ã
X
Y
− µX
µY
!
d→
h
1
Y
− X
Y
2
i
N
·µ
0
0
¶
,
µ
σ2X σXY
σXY σ2Y
¶¸
= N
·
0,
h
1
Y
− X
Y
2
iµ σ2X σXY
σXY σ2Y
¶h
1
Y
− X
Y
2
i0¸
= N
·
0,
σ2X
µ2Y
− 2σXY
µX
µ3Y
+ σ2Y
µ2X
µ4Y
¸
T
d→ N
·
µX
µY
,
1
n
µ
σ2X
µ2Y
− 2σXY
µX
µ3Y
+ σ2Y
µ2X
µ4Y
¶¸
6
Substituindo pelos valores dados, temos:
T
d→ N
·
3
2
,
1
n
µ
1
4
− 2.0, 53
8
+ 1.
9
16
¶¸
= N
·
3
2
,
1
n
µ
7
16
¶¸
Gra´fico para n=100.000
c) O programa utilizado no Matlab (Mfile) foi o seguinte para amostra de
25 observac¸o˜es:
% Exercicio Montecarlo Simulation in Matlab
% Function T=Xbarra/Ybarra
% Generate n samples from a normal distribution
% r=(rand(n,1)*sd)+mu
% mu:mean
% sd: standard deviation
n=1000 % The number of function evaluations
% –Generate vector of random inputs
% x˜Normal distribution N(mean=3,sd=1)
% y˜Normal distribution N(mean=2,sd=1)
for i=1:n
x=(randn(25,1))+3
7
y=-0.5+0.5*x+(sqrt(3)/2)*randn(25,1)
%–Run the simulation
% Note the use of element-wise multiplication
%%
T(i)=mean(x)/mean(y)
end
% – Create a graphic of the results (100 bins)
hist(T,100)
Graficos:
1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2 2.1
0
5
10
15
20
25
30
35
n=25
8
1.3 1.4 1.5 1.6 1.7 1.8 1.9 2
0
5
10
15
20
25
30
35
n=100
9
1.35 1.4 1.45 1.5 1.55 1.6 1.65 1.7 1.75
0
5
10
15
20
25
30
35
n=200
10

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?