Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
Questão 1 b) Para obtermos o estimador da variância, trabalharemos com desvios de si+� � si em relação ao seu valor esperado ��. Note que isso não altera o estimador de �^2, como podemos observar abaixo: S2 = (n�) �1 nX i=1 � (si+� � si � ���)� Pn i=1 (si+� � si � ���) n �2 = (n�) �1 nX i=1 � (si+� � si)� ���� Pn i=1 si+� � si n + ��� �2 = (n�) �1 nX i=1 � (si+� � si)� Pn i=1 si+� � si n �2 = �^2 Portanto, temos que V ar(�^2) = V ar(S2) = E(S4)�E(S2):Como já obtemos E(S2) no item anterior, resta calcularmos E(S4) para obtermos a variância de �^2: 1 S4 = ( (n�) �1 nX i=1 � (si+� � si � ���)� Pn i=1 (si+� � si � ���) n �2)2 = (Pn i=1 (si+� � si � ���)2 n� � �Pn i=1 (si+� � si � ���) n� �2)2 = 1 (n�)2 " nX i=1 (si+� � si � ���)2 #2 A � 2 (n�)3 24 nX i=1 (si+� � si � ���)2 nX i=1 (si+� � si � ���) !235 B + 1 (n�)4 nX i=1 (si+� � si � ���) !4 C A = " nX i=1 (si+� � si � ���)2 #2 = nX i=1 (si+� � si � ���)4 + X i 6=j (si+� � si � ���)2 (sj+� � sj � ���)2 B = nX i=1 (si+� � si � ���)2 nX i=1 (si+� � si � ���) !2 = nX i=1 (si+� � si � ���)4 + X i 6=j (si+� � si � ���)2 (sj+� � sj � ���)2 +2 X i 6=j (si+� � si � ���)3 (sj+� � sj � ���) + X i 6=j 6=k (si+� � si � ���)2 (sj+� � sj � ���) (sk+� � sk � ���) C = nX i=1 (si+� � si � ���) !4 = nX i=1 (si+� � si � ���)4 + 3 X i 6=j (si+� � si � ���)2 (sj+� � sj � ���)2 +4 X i 6=j (si+� � si � ���)3 (sj+� � sj � ���) +6 X i 6=j 6=k (si+� � si � ���)2 (sj+� � sj � ���) (sk+� � sk � ���) + X i 6=j 6=k 6=l (si+� � si � ���) (sj+� � sj � ���) (sk+� � sk � ���) (sl+� � sl � ���) 2 Dado que f(si+� � si � ���)gni=1 é i:i:d: e E (si+� � si � ���) = 0, segue que E(A) = nE (si+� � si � ���)4 + n(n� 1) h E (si+� � si � ���)2 i2 E(B) = nE (si+� � si � ���)4 + n(n� 1) h E (si+� � si � ���)2 i2 E(C) = nE (si+� � si � ���)4 + 3n(n� 1) h E (si+� � si � ���)2 i2 Na distribuição normal temos que E[X�E(X)]4 = 3(E[X�E(X)]2): Assim sendo, dado que E (si+� � si � ���)2 = �2�, temos que E(A) = 3n�2�4 + n(n� 1)�2�4 = n�2�4(n� 2) E(B) = 3n�2�4 + n(n� 1)�2�4 = n�2�4(n� 2) E(C) = 3n�2�4 + 3n(n� 1)�2�4 = 3n2�2�4 Assim sendo, da expressão que obtivemos para S4 segue que S4 = n�4�2 (n�)4 � (n�)2(n� 2)� 2(n�)(n� 2) + 3n Por m, a variância de �^2 é dada por V ar(�^2) = E(S4)� E(S2)2 = n�4�2 (n�)4 � (n�)2(n� 2)� 2(n�)(n� 2) + 3n� (n� 1) 2 n �2 � Questão 3 3 a) L(xij �) = nY i=1 f(xij �) = nY i=1 �x��1i lnL(xij �) = nX i=1 ln � �x��1i � = n ln � + (� � 1) nX i=1 lnxi @ lnL(xij �) @� = 0 =) n � + nX i=1 lnxi = 0 �MV = � nPn i=1 lnxi @ ln f(xij �) @� = 1 � + lnxi @2 ln f(xij �) @�2 = � 1 �2 Sendo g(�) = �(1+�)�1; pelo princípio da invariância temos que o estimador de máxima verossimilhança de g(�) é dado por g(�MV ): b) � �E@ 2 ln f(xij �) @�2 ��1 = �2 p n(�MV � �) d! N(0; �2) Utilizando o método Delta, temos que p n h g � �MV � � g(�) i d! g0(�)N(0; �2) = 1 (1 + �) 2N(0; � 2) = N � 0; �2 (1 + �)4 � Questão 4 a) L(xij �) = nY i=1 1 � exp � �x � � lnL(xij �) = nX i=1 � ln 1 � exp � �x � �� = �n ln � � nX i=1 xi � 4 b) @ lnL(xij �) @� = �n � + nX i=1 xi �2 = 0 �ML = n�1 nX i=1 xi = �x c) @ ln f(xij �) @� = �1 � + xi �2 @2 ln f(xij �) @�2 = 1 �2 � 2xi �3� �E@ 2 lnL(xij �) @�2 ��1 = � � 1 �2 + 2 � �3 ��1 = �2 p n(�MV � �) d! N �0; �2� d) Pelo princípio da invariância, o estimador de máxima verossimilhança de �3 é dado por �^ 3 :Pelo princípio de Mahn-Wald, esse estimador é consistente, dada consistência de �^: e) Utilizando o método Delta, sendo g(�) = �3; temos que p n h g � �MV � � g(�) i d! g0(�)N(0; �2) = 3�2N(0; �2) = N � 0; 9�6 � 5