• 秦曾昌人工智能课程---5、KNN和朴素贝叶斯


    秦曾昌人工智能课程---5、KNN和朴素贝叶斯

    一、总结

    一句话总结:

    拟合和概率:构建机器学习模型,一般有拟合和概率两种方式
    轻学无用:一定要保证学有所用,要深入学习,比如之前做的安卓,一定要学通,不然真的没用,完全浪费时间

    1、参数模型(Parametric model)是什么?

    通过结构化表达式和参数集表示的模型

    参数模型(Parametric model)一类可以通过结构化表达式和参数集表示的模型.参数模型是以代数方程、微分方程、传递函数等形式表达的,或采用机抑方法建立的模型。

    2、非参数模型K-Nearest Neighbor (k-NN)的原理和作用是什么?

    解决的问题:监督学习:有空心点和实心点,我要判断一个三角形属于哪种点
    原理:找离这个点最近的k个点,那种类型的已知点多,k就是哪种点
    用途:used for classification andregression
    特点:k越大越平滑(太大的话就没有意义了),k=1的时候overfitting,一般5-10之间


    k-nearest neighbors algorithm (k-NN) is a non-parametric method used for classification and regression. The input consists of the k closest training examples in the feature space.

    3、机器学习模型为什么没有必要做到overfitting?

    因为数据本身就有噪声污染,所以没有必要,这样过犹不及

    4、比如我们想知道一个同学的英语成绩,我们怎么用k-NN做?

    采样他的多个朋友的成绩,然后取均值,比如3个

    5、How k-NN Work for Prediction?

    1. Assume K and x0:Assume a value for the number of nearest neighbors K and a prediction point x0.
    2. identifies:KNN identifies the training observations No closest to the prediction point x0.
    3. using the average:KNN estimates f (x0) using the average of all the responses in N0


    1.假设最近邻居数K和预测点x0的值。
    2. KNN识别训练观察结果最接近预测点x0。
    3. KNN使用N0中所有响应的平均值来估计f(x0)

    6、k-NN判断的时候,如果k=4,如果最接近新点的两种已知点的个数都是2,那么这个时候如何判断新点的归属?

    看距离和:计算新点到两种已知点的具体距离然后比较

    7、常用的Distance Measure的方式?

    Euclidean distance (r=2):欧式距离:其实就是应用勾股定理计算两个点的直线距离
    Manhattan distance (r=1):曼哈顿距离:x上绝对值,y上绝对值
    Hamming distance:求异或Xor:相同为0,不同为1:when all features are binary


    Minkowski Distance:闵可夫斯基距离:闵氏距离不是一种距离,而是一组距离的定义。
    闵氏距离不是一种距离,而是一组距离的定义。

    (1)闵氏距离的定义

           两个n维变量a(x11,x12,…,x1n)与b(x21,x22,…,x2n)间的闵可夫斯基距离定义为:

    其中p是一个变参数。
    当p=1时,就是曼哈顿距离
    当p=2时,就是欧氏距离
    当p→∞时,就是切比雪夫距离
           根据变参数的不同,闵氏距离可以表示一类的距离。

    8、Edited Distance Measure是什么?

    measure the similarity between two objects:比如a戴耳环,b不带耳环,那么距离为1,a长头发,b也是,距离就是0


    To measure the similarity between two objects, transform one into the other, and measure how much effort it took. The measure of effort becomes the distance measure.

    measure
    英 ['meʒə]  美 ['mɛʒɚ]
    n. 测量;措施;程度;尺寸
    vt. 测量;估量;权衡
    vi. 测量;估量
    [ 过去式 measured 过去分词 measured 现在分词 measuring ]

    9、如何理解“算法没什么好坏之分”?

    不同算法适应于不同的模型,可能这个算法在这个模型中的应用很好,但是在别的模型中的表现就很一般了

    10、贝叶斯法则是什么?

    问题:Pr(A|B) 一般不等于 Pr(B|A)
    公式:后验概率= (相似度 *先验概率)/标准化常量:Pr(A|B) = Pr(B|A)*Pr(A)/Pr(B)
    定义:Pr(A|B)是已知B发生后A的条件概率


    通常,事件A在事件B(发生)的条件下的概率,与事件B在事件A的条件下的概率是不一样的;然而,这两者是有确定的关系,贝叶斯法则就是这种关系的陈述。
    Pr(A)是A的先验概率或边缘概率。之所以称为"先验"是因为它不考虑任何B方面的因素。
    Pr(A|B)是已知B发生后A的条件概率,也由于得自B的取值而被称作A的后验概率。
    Pr(B|A)是已知A发生后B的条件概率,也由于得自A的取值而被称作B的后验概率。
    Pr(B)是B的先验概率或边缘概率,也作标准化常量(normalized constant)。

    11、朴素贝叶斯中,x’=(Outlook=Sunny, Temperature=Cool, Humidity=High, Wind=Strong),那么P(Yes|x’)怎么算?

    乘积:P(Yes|x’) ≈ [P(Sunny|Yes)P(Cool|Yes)P(High|Yes)P(Strong|Yes)]P(Play=Yes) = 0.0053


    P(No|x’) ≈ [P(Sunny|No) P(Cool|No)P(High|No)P(Strong|No)]P(Play=No) = 0.0206

    12、k临近算法的作用是什么?

    分类
    预测(回归)

    13、相对独立的两个随机变量的协方差是怎样的?

    趋于0:协方差表示两者之间的关系,关系为0表示没什么关系

    14、协方差是什么?

    衡量两个变量的总体误差。方差是协方差的一种特殊情况,即当两个变量是相同的情况。


    协方差(Covariance)在概率论和统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。
    协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。 如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。 如果两个变量的变化趋势相反,即其中一个大于自身的期望值,另外一个却小于自身的期望值,那么两个变量之间的协方差就是负值。

    15、两个变量之间相互独立的图形表示是什么?

    变量组成的点在坐标系中是随机的
    如果变量组成的点大致形成某些图形,比如圆,比如直线,那么这两个变量不是独立的

    16、朴素贝叶斯方法的基本假设是什么?

    特征变量之间相对独立

    17、朴素贝叶斯方法在机器学习中能用来干什么?

    NB for Spam Filtering:选择常用50000个单词,看这些单词在正常邮件,垃圾邮件中出现的概率,垃圾邮件里面有一些词,根据【这些词】及【之前词在正常和垃圾邮件中的概率】判断是不是垃圾邮件


    But if we have, say, y ∈ {0,1} for being spam or non-spam email, a vocabulary
    of 50000 words, then x ∈ {0, 1}上标50000:看每个参数出现还是没有出现,出现为0,没出现为1

    18、朴素贝叶斯方法做垃圾邮件分类的原理是什么?

    判断词的概率:选择常用50000个单词,看这些单词在正常邮件,垃圾邮件中出现的概率,垃圾邮件里面有一些词,根据【这些词】及【之前词在正常和垃圾邮件中的概率】判断是不是垃圾邮件

    19、邮件如何映射成高维空间的向量?

    选择常用50000个单词,看每个词出现的次数或是否出现

    20、朴素贝叶斯方法做垃圾邮件分类的正确率一般有多少?

    94%+:其实朴素贝叶斯要求的是特征变量之间相对独立,但是我们说话其实词与词之间是不独立的,比如我要喝...,后面出现的一般都是什么饮料,水之类的

    21、我们说话,或者邮件里面的语句中的词是相互独立的么,可以用朴素贝叶斯方法么?

    不独立,但是可以用,精确度小一点而已
    词与词之间是不独立:我们说话其实词与词之间是不独立的,比如我要喝...,后面出现的一般都是什么饮料,水之类的

    22、使用朴素贝叶斯方法做垃圾邮件分类的python代码我们要特别注意的是什么?

    pip安装jieba包:引入了jieba包,我们需要用pip安装jieba包:D:softwarecodingpython>pip install jieba

    23、python中常用的安装包的工具是什么?

    pip:比如pip安装jieba包:pip install jieba

    二、内容在总结中

     
  • 相关阅读:
    Solaris 默认Shell 修改
    关系数组
    文件描述符 文件操作 <> open 文件句柄
    IO 双引号 输出 输入
    第五章答案
    子例程 subroutine
    钻石操作符
    花括号的使用 printf %${width}s , 否则会 去找 $widths
    print reverse <> 是打印全部的文件内容 ?
    hihoCoder#1239 Fibonacci
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/10975908.html
Copyright © 2020-2023  润新知