當我們獲得的數據量越來越多時,一個好的估計方法應該要能更準確的估計出真實的數據分布。這種性質稱為一致性。
∀ε>0 ,we say δnPn→∞η(θ) if
Pθ(∣δn−η(θ)∣≤ε)n→∞1也就是 δn 以幾率收斂到 η(θ) 。
讓 δn 是 η(θ) 的一致估計,則對於任何符合以下要求的數列 an,bn:
n→∞liman=1n→∞limbn=0⟹δn∗=anδn+bn 也是 η(θ) 的一致估計。
點估計中,有很多一致性估計。所以我們應該要捨棄那些不一致的估計方法。
Note:
∀ε>0
Pθ(∣δn−η(θ)∣>ε)=Pθ(∣δn−η(θ)∣2>ε2)≤ε2Eθ(δn−η(θ))2Chebyshev’s inequality
⟹Eθ(δn−η(θ))2n→∞0
Note that δn=Var(δn)+Bias2(δn)
i.e. If Eθ(δn)→η(θ) and Var(δn)→0 then δn is a consistent estimator of η(θ).
i.e. 方差會隨樣本數增加而趨近於 0 的無偏估計方法是一致的。
EX: X1,⋯,Xn∼iidE(Xi)=θ.
let δ∗ be the UMVUE of θ, i.e. Var(δ∗)≤Var(δ) for all unbiased estimator δ.
⟹δ∗ is consistent.
E.g. δ=Xˉ⟹Var(Xˉ)=nσ2→0
大數法則
- X1,⋯,Xn are iid with E(Xi)=μ ⟹XˉPμ, i.e. Xˉ is consistent.
- XnPc⟹g(Yn)Pg(c),∀g continuous. e.g. Xˉ2Pμ2
- XnPc,YnPd⟹Xn+YnPc+d
EX: X1,⋯,Xn∼iidE(Xi)=μ,Var(Xi)=σ2<∞
⟹X12+⋯+Xn2∼iidE(Xi2)=Var(Xi)+E(Xi)2=σ2+μ2
By LLN, X2ˉ=n1∑i=1nXi2Pσ2+μ2 and XˉPμ⟹Xˉ2Pμ2
⟹S∗2=n1i=1∑n(Xi−Xˉ)2=n1i=1∑nXi2−Xˉ2Pσ2
∵n−1nn→∞1⟹S2=n−1nS∗2Pσ2
以上並沒有假設 Xi 的分佈,只要 E(Xi)=μ,Var(Xi)=σ2<∞ 即可。