• 机器学习之朴素贝叶斯算法


    学习这个算法前,得知道一些概率论上面得知识。

     因此,使用朴素贝叶斯算法前,首先需要保证各个特征之间要保持相互独立。

    API:sklearn.naive_bayes.MultinomialNB

     

     alpha时拉普拉斯平滑系数,默认为1。其作用时防止分类得时候类别为0时导致统计结果为0。

     上个例子:

    读取20类新闻文本,并且将这些新闻文本划分为测试集和训练集,预测测试集的分类。

    上代码:

     1 from sklearn.datasets import fetch_20newsgroups
     2 from sklearn.feature_extraction.text import TfidfVectorizer
     3 from sklearn.naive_bayes import MultinomialNB
     4 from sklearn.model_selection import train_test_split
     5 
     6 def naviebayes():
     7     '''
     8     朴素贝叶斯进行文本分类
     9     :return:
    10     '''
    11 
    12     #加载数据集
    13     news = fetch_20newsgroups(subset='all')
    14 
    15     #将数据分割为训练集和测试集
    16     x_train, x_test, y_train, y_test = train_test_split(news.data, news.target, test_size=0.25)
    17 
    18     #对数据集进行特征抽取 使用TF-IDF方法
    19     tf = TfidfVectorizer()
    20 
    21     #以训练集当中的词的列表进行每篇文章重要性统计
    22     x_train = tf.fit_transform(x_train)
    23     print(tf.get_feature_names())
    24 
    25     x_test = tf.transform(x_test)
    26 
    27     #进行朴素贝叶斯算法的预测
    28     mlt = MultinomialNB(alpha=1.0)
    29     print(x_train.toarray())
    30     mlt.fit(x_train,y_train)
    31 
    32     y_predict = mlt.predict(x_test)
    33     print('预测的文章类别为:',y_predict)
    34 
    35     #得出准确率
    36     print('准确率为:',mlt.score(x_test,y_test))
    37 
    38 if __name__ == '__main__':
    39     naviebayes()

     准确度为 85%。还是不错的

    通过这个例子,可以得出朴素贝叶斯算法时不需要调参的。

    其优点时,分类效率高、算法简单、速度快。

    缺点是需要样本特征之间相互独立;因为此算法时不需要调参,所以分类精度一旦计算出来就很难再提高。

    --------------------成功,肯定是需要一点一滴积累的--------------------
  • 相关阅读:
    Sql Server 2016数据库定时备份操作步骤
    .net 生成原图和多张缩略图
    python小知识
    python小知识
    Q pi (lambda)
    GAE&reward shaping
    yield函数
    关于vs code和markdown
    强化学习第七章
    强化学习第六章
  • 原文地址:https://www.cnblogs.com/GouQ/p/11867320.html
Copyright © 2020-2023  润新知