• scikit-learn和tensorflow的区别


    1、功能不同

    Scikit-learn(sklearn)的定位是通用机器学习库,而TensorFlow(tf)的定位主要是深度学习库。一个显而易见的不同:tf并未提供sklearn那种强大的特征工程,如维度压缩、特征选择等。究其根本,我认为是因为机器学习模型的两种不同的处理数据的方式:

    • 传统机器学习:利用特征工程(feature engineering),人为对数据进行提炼清洗
    • 深度学习:利用表示学习(representation learning),机器学习模型自身对数据进行提炼

    sklearn更倾向于使用者可以自行对数据进行处理,比如选择特征、压缩维度、转换格式,是传统机器学习库。而以tf为代表的深度学习库会自动从数据中抽取有效特征,而不需要人为的来做这件事情,因此并未提供类似的功能。

    2、使用自由度不同

    sklearn 中的模块都是高度抽象化的,所有的分类器基本都可以在3-5行内完成,所有的转换器(如scaler和transformer)也都有固定的格式。这种抽 象化限制了使用者的自由度,但增加了模型的效率,降低了批量化、标准化的的难度(通过使用pipeline)。

    而tf不同,虽然是深度学习库,但它有很高的自由度。你依然可以用它做传统机器学习所做的事情,代价是你需要自己实现算法。因此用tf类比sklearn不适合,封装在tf等工具库上的keras[2]才更像深度学习界的sklearn。
    从自由度角度来看,tf更高;从抽象化、封装程度来看,sklearn更高;从易用性角度来看,sklearn更高。

    3、针对的群体、项目不同

    sklearn主要适合中小型的、实用机器学习项目,尤其是那种数据量不大且需要使用者手动对数据进行处理,并选择合适模型的项目。这类项目往往在CPU上就可以完成,对硬件要求低
    tf主要适合已经明确了解需要用深度学习,且数据处理需求不高的项目。这类项目往往数据量较大,且最终需要的精度更高,一般都需要GPU加速运算。对于深度学习做“小样”可以在采样的小数据集上用keras做快速的实验,没了解的过朋友看一下keras的示例代码,就可以了解为什么keras堪比深度学习上的sklearn了。

    model = Sequential() # 定义模型
    model.add(Dense(units=64, activation='relu', input_dim=100)) # 定义网络结构
    model.add(Dense(units=10, activation='softmax')) # 定义网络结构
    model.compile(loss='categorical_crossentropy', # 定义loss函数、优化方法、评估标准
                  optimizer='sgd',
                  metrics=['accuracy'])
    model.fit(x_train, y_train, epochs=5, batch_size=32) # 训练模型
    loss_and_metrics = model.evaluate(x_test, y_test, batch_size=128) # 评估模型
    classes = model.predict(x_test, batch_size=128) # 使用训练好的数据进行预测
    

    不难看出,sklearn和tf有很大区别。虽然sklearn中也有神经网络模块,但做严肃的、大型的深度学习是不可能依靠sklearn的。虽然tf也可以用于做传统的机器学习、包括清理数据,但往往事倍功半。

    4、scikit-learn&tensorflow结合使用

    更常见的情况下,可以把sklearn和tf,甚至keras结合起来使用。sklearn肩负基本的数据清理任务,keras用于对问题进行小规模实验验证想法,而tf用于在完整的的数据上进行严肃的调参(炼丹)任务。
    而单独把sklearn拿出来看的话,它的文档做的特别好,初学者跟着看一遍sklearn支持的功能大概就对机器学习包括的很多内容有了基本的了解。举个简单的例子,sklearn很多时候对单独的知识点有概述,比如简单的异常检测。因此,sklearn不仅仅是简单的工具库,它的文档更像是一份简单的新手入门指南。
    因此,以sklearn为代表的传统机器学习库(如瑞士军刀般的万能但高度抽象),和以tf为代表的自由灵活更具有针对性的深度学习库(如乐高般高度自由但使用繁琐)都是机器学习者必须要了解的工具。

    不过sklearn 还是很有 必要学习的

    理论上来说,深度学习技术也是机器学习的一个组成部分,学习其他传统机器学习方法对深入理解深度学习技术有很大帮助,知道模型凸的条件,才能更好的理解神 经网络的非凸。知道传统模型的优点,才能更好的理解深度学习并不是万能的,也有很多问题和场景直接使用深度学习方法会遇到瓶颈和问题,需要传统方法来解 决。
    从实践上来说,深度学习方法一般需要大量GPU机器,工业界哪怕大公司的GPU资源也是有限的,一般只有深度学习方法效果远好于传统方法并且 对业务提升很大的情况下,才会考虑使用深度学习方法,例如语音识别,图像识别等任务现在深度学习方法用的比较多,而NLP领域除了机器翻译以外,其他大部 分任务仍然更常使用传统方法。传统方法一般有着更好的可解释性,这对检查调试模型也是非常有帮助的。工业上一般喜欢招能解决问题的人,而不是掌握最火技术 的人,因此在了解深度学习技术的同时,学习一下传统方法是很有好处的。

    结尾

    说实话,即使现在深度学习大行其道,很多时候你还是要用传统机器学习方法解决问题的。首先不是每个人都有一个彪悍的电脑/服务器,其次,大多数问题真的不需要深度网络。最后,只会调用工具包的程序员不是好的机器学习者。

    小礼物走一走,来简书关注我


    作者:刘敬
    链接:https://www.jianshu.com/p/0837b7c6ce10
    来源:简书
    简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。




  • 相关阅读:
    dotnet core 使用 MongoDB 进行高性能Nosql数据库操作
    Google C++测试框架系列:入门
    leetcode解答索引一期工程:1
    Google+团队如何测试移动应用
    Google C++测试框架系列入门篇:第三章 基本概念
    Google C++测试框架系列入门篇:第二章 开始一个新项目
    Google C++测试框架系列高级篇:第二章 让GTest学习打印自定义对象
    Google C++测试框架系列入门篇:第一章 介绍:为什么使用GTest?
    leetcode: Jump Game II
    Google C++测试框架系列高级篇:第一章 更多关于断言的知识
  • 原文地址:https://www.cnblogs.com/timlong/p/11098661.html
Copyright © 2020-2023  润新知