我們已經有 n 個數據 X=(X1,…,Xn)∼iidf(x;θ) with θ∈Ω=Rr 是未知的。假設我們對 η(θ)∈R 感興趣。我們希望能夠用 X 來估計 η(θ)。
Any function δ:Rn→R is called a point estimator of η(θ).
i.e. δ(X)=η(θ)^ 是一種估計 η(θ) 的方法。
EX: Data from N(μ,σ2) with θ=(μ,σ2)∈Ω=R×(0,∞),r=2,有兩個參數。
-
η(θ)=μ
μ^=X1 or Xˉ or X(n) 都是估計 μ 的方法。
-
η(θ)=σ2
σ2^=S=n−11∑i=1n(Xi−Xˉ)2 or S∗=n1∑i=1n(Xi−Xˉ)2 都是估計 σ2 的方法。
已經觀察到數據 X=x=(x1,…,xn)
⟹δ(X)∣X=x 是 η(θ) 的估計值。
Q: 如何從眾多的估計方法中選擇一個好的估計方法?
i.e. 如何衡量一個估計方法的好壞?
我們可以用誤差的平方來衡量一個估計方法的好壞i.e. (δ(X)−η(θ))2.
⟹ 最佳的估計方法,是能夠在所有可能的数据情况下,平均的误差平方最小的方法。
⟹E[(δ(X)−η(θ))2]
MSE(δ(X),η(θ))≜Eθ[(δ(X)−η(θ))2] is function of θ.
MSE(δ(X),η(θ))=Eθ[(δ(X)−η(θ))2]=Eθ[(δ(X)−Eθ[δ(X)]+Eθ[δ(X)]−η(θ))2]=Eθ[(δ(X)−Eθ[δ(X)])2]+Eθ[(Eθ[δ(X)]−η(θ))2]+2Eθ[(δ(X)−Eθ[δ(X)])(Eθ[δ(X)]−η(θ))]Since Eθ[δ(X)]=Eθ(Eθ[δ(X)])⟹2Eθ[δ(X)−Eθ[δ(X)]]=0=Eθ[(δ(X)−Eθ[δ(X)])2]+Eθ[(Eθ[δ(X)]−η(θ))2]=Varθ(δ(X))+[Eθ[δ(X)]−η(θ)]2
- Eθ[δ(X)]−η(θ)≜Bias(δ(X),η(θ))
- Eθδ(X)=η(θ)⟹δ(X) is unbiased for η(θ)
MES(δ(X),η(θ))=Varθ(X)+[Bias(X,η(θ))]2
我們希望針對 η(θ) 找到一個最好的估計方法 δ∗ ,使得在任何可能的參數值下,它的 MSE 比其他任何估計方法都要小,i.e. MSE(δ∗,η(θ))≤MSE(δ,η(θ)),∀θ∈Ω,∀δ
但這是不可能的
我們可以定義白目估計量 δc(X)=c,∀X with c=η(θc) is a constant.
⟹MSE(δc,η(θ))=Varθ(δc)+[Bias(δc,η(θ))]2=0+[c−η(θ)]2={0(c−η(θ))2if c=η(θ)if c=η(θ)