• 贝叶斯分类器介绍


    原理

    假设每组数据$(vec{x_{(k)}},y_k),k=1,2,cdots,n$是从分布$D$中独立抽取的(分布$D$未知)

    对任一分类器$f$,它的预测误差可表示为$$P(f(vec{x}) eq{y})=E[I(f(vec{x}) eq{y})]=E[E[I(f(vec{x}) eq{y})lvert{vec{x}}]] ext{, where }(vec{x},y)sim{D}$$

    对任一固定的值$vec{x_*}$,$E[I(f(vec{x}) eq{y})lvert{vec{x}=vec{x_*}}]=sum_{i=1}^KP(y=ilvert{vec{x}=vec{x_*}})I(f(vec{x_*}) eq{i})$,其中$K$为分类个数

    使得$E[I(f(vec{x}) eq{y})lvert{vec{x}=vec{x_*}}]$最小的分类器为$hat{f}(vec{x_*})=argmax_{iin{1,2,cdots,K}}P(y=ilvert{vec{x}=vec{x_*}})$。对所有$vec{x}$的取值均满足这一性质的分类器即为贝叶斯分类器,它在所有分类器中使得预测误差$P(f(vec{x}) eq{y})$最小

    由贝叶斯法则可以推导出贝叶斯分类器$hat{f}(vec{x_*})=argmax_{iin{1,2,cdots,K}}underbrace{P(y=i)}_ ext{class prior}underbrace{P(vec{x}=vec{x_*}lvert{y=i})}_ ext{data likelihood}$

    朴素贝叶斯

    朴素贝叶斯假设数据的特征是条件相互独立的,即$P(vec{x}=vec{x_*}lvert{y=i})=prod_{j=1}^dP(x_j=x_{*j}lvert{y=i})$,其中$d$为特征个数

    以垃圾邮件的分类问题为例,每个特征代表对应的单词在邮件中的出现次数,$y=0$表示正常邮件,$y=1$表示垃圾邮件

    假设$P(vec{x}=vec{x_*}lvert{y=i})=prod_{j=1}^dP(x_j=x_{*j}lvert{y=i})=prod_{j=1}^dPoisson(x_{*j}lvert{lambda_j^{(i)}})$,并定义$pi^{(i)}=P(y=i)$,则问题变为对参数$pi^{(i)}$和$lambda_j^{(i)}, iin{0,1},jin{1,2,cdots,d}$的求解

    使用最大似然估计对参数进行求解,即$$egin{align*}
    argmax_{pi^{(i)},lambda_j^{(i)}}sum_{k=1}^nlnP(vec{x_{(k)}},y_k) &=argmax_{pi^{(i)},lambda_j^{(i)}}sum_{k=1}^n[lnpi^{(y_k)}+sum_{j=1}^d(x_{kj}lnlambda_j^{(y_k)}-lambda_j^{(y_k)})] \ &=argmax_{pi^{(i)},lambda_j^{(i)}}sum_{i=0}^1sum_{klvert{y_k=i}}[lnpi^{(i)}+sum_{j=1}^d(x_{kj}lnlambda_j^{(i)}-lambda_j^{(i)})]end{align*}
    $$

    令$pi^{(1)}=1-pi^{(0)}$,并令上式的一阶导数为0,可以得到参数的估计值为$$hat{pi}^{(i)}=frac{sum_{k=1}^nI(y_k=i)}{n} ext{, }hat{lambda}_j^{(i)}=frac{sum_{klvert{y_k=i}}x_{kj}}{sum_{k=1}^nI(y_k=i)}$$

    综上所述求得的朴素贝叶斯分类器为$hat{f}(vec{x_*})=argmax_{iin{0,1}}[hat{pi}^{(i)}prod_{j=1}^dPoisson(x_{*j}lvert{hat{lambda}_j^{(i)}})]$

    LDA和QDA

    线性判别分析LDA和二次判别分析QDA都假设每个类内的特征符合多维高斯分布,即$$P(vec{x}lvert{y=i})=frac{1}{(2pi)^{d/2}lvert{C_i} vert^{1/2}}e^{-frac{1}{2}(vec{x}-vec{mu}_i)^TC_i^{-1}(vec{x}-vec{mu}_i)}$$

    LDA与QDA的区别是LDA假设每个类内的协方差矩阵相等,即$C_1=C_2=cdots=C_K=C$,LDA还可以用于高维数据的降维,具体介绍可参考文章PCA与LDA介绍

    具体的推导和计算过程与朴素贝叶斯并没有本质区别,这里就不再详述了,感兴趣的可以参考The Elements of Statistical Learning(2nd Edition) P106-P111

  • 相关阅读:
    2017级算法第二次上机-B.第k顺序统计量
    2017级算法第二次上机-B.女娲加农炮
    2017级算法第二次上机-A.ModricWang's Real QuickSort Query
    2017级算法第三次上机-G.ModricWang的导弹拦截系统
    2017级算法第三次上机-F. SkyLee炒股票
    2017级算法第三次上机-C.SkyLee组装电脑
    Objective-c快速入门
    [翻译] Android是怎样绘制视图的
    AnimationsDemo中的ZoomActivity代码分析
    getGlobalVisibleRect和getLocalVisibleRect
  • 原文地址:https://www.cnblogs.com/sunwq06/p/10794402.html
Copyright © 2020-2023  润新知