※ブログ記事の商品・サービスリンクにはアフィリエイトリンクが含まれます。

現代数理統計学の基礎 6章 問9

今まで手書きの汚い数式を晒してきたのですが

今後色々まとめなおしたりする時に

何だかんだでPCで数式を書けるようにする必要があることを

と思い直しまして。

 

結局スキャナでメモを読み取るのも面倒くさいのと

計算手書きでするときに書き間違えを気にしながらやると

スピードがかなり落ちるので

ここはひとつ、Latexを使って数式書くようにしてみようと思います。

Latexについても初めて学んだのでまたどこかで記事にしたいところです。

 

 

さて、問題は前回に引き続いて6章の問9。

線形推定量の問題。

 

(1)は線形推定量=θの 不偏推定量を示せばよいので

まず線形推定量の期待値を考えます。

 

E[\sum_{i=1}^ka_{i}\hat{\theta_{i}}]\\=E[a_{1}\hat{\theta_{1}}]+E[a_{2}\hat{\theta_{2}}]+...+E[a_{k}\hat{\theta_{k}}]\\=a_1\theta+a_2\theta+…+a_k\theta (\hat{\theta}は不偏推定量のため)\\=\sum_{i=1}^ka_i\theta

 

そうするとこの式の期待値=θとなればよいので

\sum_{i=1}^ka_i=1\

となることが分かります。

これが求めたい条件なので(1)は終わりです。

続いて(2)

線形不偏推定量の中で分散が最小になるものを求める問題。

いわゆる最良線形不偏推定量(Best Linear Unbiased Estimator, BLUE)を求めます。

おしゃれな名前ですね。

 

まず分散を式にします。

 

Var[\sum_{i=1}^ka_{i}\hat{\theta_{i}}]=E[\{\sum_{i=1}^ka_i(\hat{\theta_i}-\theta)\}^2\\=\sum_{i=1}^ka_i^2E[(\hat\theta_i-\theta)^2]+\sum_{i=1}^k\sum_{j=1}^ka_ia_jcov(\hat\theta_i,\hat\theta_j)\

 

ここでcov(\hat\theta_i,\hat\theta_j)=0\より

 

\sum_{i=1}^ka_i^2\sigma^2_i\

 

となります。

 ここで本文p128と同様にラグランジュの未定乗数法を使って

\sum_{i=1}^ka_i=1\ を制約条件として

 

H(a_1,a_2,...,a_k)=\sum_{i=1}^ka_i^2\sigma^2_i+\lambda(\sum_{i=1}^ka_i-1)\

 

これを偏微分して解くと

 

\frac{\partial H}{\partial a_i}=2a_i\sigma^2_i+\lambda a_i=0\

 

よって

a_i=\frac{\lambda}{2\sigma^2_i}\

 

これを制約式に代入して

\sum_{i=1}^k\frac{\lambda a_i}{2\sigma^2_i}=1\

\lambda=\sum_{i=1}^k2\sigma^2_i\

a_i=\frac{\sum_{j=1}^k{\sigma_j^2}}{\sigma_i^2}\

 

 これを用いて最良線形不偏推定量は

\hat\theta^{BLUE}=\sum_{i=1}^k\frac{\sum_{j=1}^k2\sigma_j^2}{\sigma_i^2}\hat\theta_i\

となる。

 

 

このときの分散が

Var[\hat\theta^{BLUE}]=Var(\sum_{i=1}^ka_i\hat\theta_i)\\=\sum_{i=1}^ka_i^2\sigma^2=\frac{(\sum_{j=1}^k\sigma_j)^2}{\sigma_2^2}\

となります。

 

Latex初めて使うとミスに気づかなくてかえって時間かかりますね、、、。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)