所谓估计
概率学上,对未知的概率密度函数进行估计有两种方法:参数估计和非参数估计。非参数估计是不假定数学模型,直接利用已知类别的学习样本先验知识估计数学模型。常用的方法由直方图方法、神经网络方法、Parzen窗法和Kn近邻法。而参数估计则是先假定研究问题具有某种数学模型,如正态分布、二项分布等,再利用已知类别的学习样本,估计模型里的参数。常用的方法有距估计、最大似然估计、最大后验估计和贝叶斯估计。本文主要介绍四种常用的参数估计技术。
参数估计
1. 距估计
用样本矩作为相应总体矩的估计量,而以样本矩的连续函数作为相应的总体矩的连续函数的估计量。用数学公式描述矩估计的过程为:
⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪μ1=μ1(θ1,θ2,...,θk)μ2=μ2(θ1,θ2,...,θk)......μk=μk(θ1,θ2,...,θk)⎫⎭⎬⎪⎪⎪⎪⎪⎪⎪⎪
从中解出参数
⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪θ1=θ1(μ1,μ2,...,μk)θ2=θ2(μ1,μ2,...,μk)......θk=θk(μ1,μ2,...,μk)⎫⎭⎬⎪⎪⎪⎪⎪⎪⎪⎪
其中,
θ1,θ2,...,θk是k个待估参数,
μ1,μ2,...,μk是总体k阶矩。先用已知样本,计算k阶样本矩,公式为:
Al=∑Ni=1XliN
然后用计算得到的k阶样本矩来作为对总体矩的估计,带入方程得到对应的矩估计:
θ¯l=θi(A1,A2,...,Ak)
2. 最大似然估计(MLE)
样本X1,X2,...,Xn来自总体X,总体的概率密度为P{X=x}=p(x;θ)或f(x;θ)。其中θ∈Θ的形式已知,θ为待估参数。得到其似然函数为:
L(θ)=L(x1,x2,...,xn;θ)=∏i=1nf(xi;θ)
那么,当
L(x1,x2,...,xn;θ)在
θ∈Θ中取得最大值时,即公式描述为:
L(x1,x2,...,xn;θ¯)=maxθ∈ΘL(x1,x2,...,xn;θ)
θ¯就是
θ的最大似然估计
θ¯(x1,x2,...,xn)。在应用中常常采用对数形式给出对数似然方程,在计算中,令
dL(θ)dθ=0或者
dlogL(θ)dθ=0,得到最大值处的
θ就是最大似然估计。
3. 最大后验估计(MAP)
最大似然估计没有考虑θ的概率分布,或者认为θ的概率分布在θ∈Θ上式均匀分布的。在贝叶斯学派看来,θ也是随机变量,有着一定的先验概率。因此如果不加以考虑,估计结果会出现较大的误差。最大后验估计的表达式为:
p(θ|x1,x2,...,xn)=p(x1,x2,...,xn|θ)×p(θ)∑i{p(x1,x2,...,xn|θi)×p(θi)}=L(x1,x2,...,xn|θ)×p(θ)const
公式可以等效为:
后验概率=(似然度×先验概率)标准化常量=标准似然度×先验概率
4. 贝叶斯估计
贝叶斯估计也是基于后验概率公式,但引入了损失函数作为判断的标准。贝叶斯估计得一般步骤为
- 选择先验概率分布,设为π(θ)
- 确定似然函数。
- 确定参数θ的后验分布。
- 选择损失函数。
引入一个非负函数,记为loss(θ^,θ)来刻画参数真实值θ与估计值θ^的差距严重程度,称为损失函数。常用的损失函数有:平方误差损失函数
- 估计参数。
根据选择的损失函数的期望误差最小值对应的解θ^作为参数的贝叶斯估计值。以平方误差损失函数为例,贝叶斯估计给定X时的条件期望为:
θ^=E[θ|X]=∫θp(θ|X)dθ
2015-8-22
艺少