ヤンキーでも分かる漸近論と漸近有効性
漸近論とは
ざっくりいうと
いつも$${n \rightarrow \infty}$$してるアレ
ざっくりすぎたので、もう少し正確にいうと
標本が大きい$${n \rightarrow \infty}$$のとき
推定量(標本平均や最尤推定量など)が何に近づくか(漸近)を確認して
推定量がイケてるかどうか判断する理論
例えば
標本平均は$${n \rightarrow \infty}$$のとき
大数の法則から母平均に近づく(漸近する)ので
標本平均は母平均の推定量としてイけてそう
大数の法則の復習はこちら
漸近有効性とは
漸近有効性とは、
$${n \rightarrow \infty}$$のとき
推定量が他の推定量よりも情報を効果的に利用して
パラメータを推定することができるという性質のことをさす
正確に言えば
任意の推定量を$${n \rightarrow \infty}$$して
振る舞う分布(漸近分布という)の分散(漸近分散という)
が最小値をとる(クラーメル・ラオの不等式から判断)
とき推定量は漸近有効性をもつ
漸近分布の具体例
例えば
標本平均は$${n \rightarrow \infty}$$のとき
中心極限定理から、正規分布に従う
なので漸近分布は正規分布になる
中心極限定理の復讐はこちら
※ 特に漸近分布が正規分布を持つとき、推定量は漸近正規性を持つ
漸近分散の具体例
このときの分散は
$${X_i}$$の分散$${V_{\theta}}$$を$${\sigma^2}$$とすると
$$
\begin{aligned}
& V_{\theta}(\hat{\theta}) \\{}\\
&= V_{\theta}(\frac{1}{n}\sum X_i) \\{}\\
&= \frac{1}{n^2} V_{\theta}(\sum X_i) \\{}\\
&= \frac{1}{n^2} \times n V_{\theta}(X_i) \\{}\\
&= \frac{\sigma^2}{n}
\end{aligned}
$$
この値がクラーメル・ラオの不等式から
最小値になっていれば良い
以下クラーメル・ラオの不等式を導入する
クラーメル・ラオの不等式
フィッシャー情報量を$${J_{n}(\theta)}$$とすると、これが正のとき
不偏推定量に対する分散は以下の不等式を満たす
$$
V_{\theta}[\hat{\theta}] \geq J_{n}(\theta)^{-1}
$$
ここで$${X_n}$$が独立同一分布に従うとき
フィッシャー情報量はサンプルサイズに比例するので
$$
J_{n}(\theta) = nJ_1(\theta)
$$
となる
よって、$${X_n}$$が独立同一分布に従うとき
$$
nV_{\theta}[\hat{\theta}] \geq J_{1}(\theta)^{-1}
$$
漸近有効性の条件式
クラーメル・ラオの不等式を用いると
漸近有効性の条件式は
$$
nV_{\theta}[\hat{\theta}] = J_{1}(\theta)^{-1} (n \rightarrow \infty)
$$
となる
ここで標本平均の例に戻ると
標本平均のフィッシャー情報量は計算すると$${\frac{1}{\sigma^2}}$$なので
$$
nV_{\theta}[\hat{\theta}] = J_{1}(\theta)^{-1} = \sigma^2 (n \rightarrow \infty)
$$
が成り立つので標本平均は漸近有効性をもつ
この記事が気に入ったらサポートをしてみませんか?