引き続いて(2)ではポアソン分布のクラメール・ラオの下限を調べます。
予備知識として
クラメール・ラオの下限は
n個のデータのフィッシャー情報量を \( I_n(\theta) \) として
\[
\frac{1}{I_n(\theta)}
\]
でした。
またフィッシャー情報量は
\[
I_1(\theta) = n I_n(\theta)
\]
であり、また
\[
I_1(\theta) = -\frac{d^2}{d\theta^2}E[\log f(x_i|\theta)]
\]
でした。
この知識をもとに解いていきます。
まず、対数尤度関数を調べると
\[
\log f(x|\lambda) = \log \frac{\lambda^x}{x!} e^{-\lambda} \\
= x \log \lambda – \lambda – \log \frac{1}{x!}
\]
1回微分すると
\[
\frac{d}{d\lambda} \log f(x|\lambda) = \frac{x}{\lambda} – 1
\]
2回微分すると
\[
\frac{d^2}{d\lambda^2} \log f(x|\lambda) = -\frac{x}{\lambda^2}
\]
よってフィッシャー情報量は
\[
I_1(\lambda) = -E\left[-\frac{x}{\lambda^2}\right] = \frac{1}{\lambda}
\]
より
\[
I_n(\lambda) = \frac{n}{\lambda}
\]
求めるべき下限は
\[
\frac{\lambda}{n}
\]
となります。
コメントを残す