MLlib支持二分类,多酚类和回归分析的多种方法,具体如下:
问题类别 | 支持方法 |
二分类 | 线性支持向量机, 逻辑回归,决策树,朴素贝叶斯 |
多分类 | 决策树,朴素贝叶斯 |
回归 | 线性最小二乘,Lasso,ridge regression, 决策树 |
- 线性模型
- 二分类(支持向量机, 逻辑回归)
- 线性回归(最小二乘,Lasso, ridge)
- 决策树
- 朴素贝叶斯
线性模型
- 数学公式
- 损失函数
- 正则化
- 最优化
- 二分类
- 线性支持向量机
- 逻辑回归
- 评价矩阵
- 例子
- 线性最小二乘,Lasso,ridgeregression
- 例子
- 流式线性回归
- 例子
- 执行(开发者)
数学公式
损失函数
正则化
最优化
二分类
二分类问题的目的是将项目分成两个类别:正例和负例。MLlib支持两种二分类方法:线性支持向量机和逻辑回归。这两种方法都支持L1和L2两种正则变量。训练数据表示为MLlib的LabeledPoint格式。注意:在数学公式中,训练标记y表示为+1(正例)或-1(负例),是为了方便公式表示。然而,在MLlib为了兼容多分类情况,负例用0表示,而不是-1.
线性支持向量机(SVMs)
线性支持向量机是一种大规模分类问题的标准方法。线性表示如下
(L(w;x,y):=max{0, 1-yw^{T}x})
默认,使用L2正则化。L1为可选。这样,问题编程了一个线性程序。
线性SVM算法输出一个SVM模型。给定一个新数据点,用(x)表示,模型根据(w^{T}x)的值做预测。默认,如果(w^{T}x geq 0)输出为正值,否则为负值。
逻辑回归
逻辑回归广泛用于二只问题。线性表示如下,使用logistic损失函数:
( L(w;x,y) := log(1+ exp(-yw^{T}x)) )
逻辑回归算法输出一个逻辑回归模型。给定一个新数据点,用(x)表示,模型将使用下面的损失函数做出预测
( f(z)=frac{1}{1+e^{-z}} )
这里 ( z=w^{T}x ).默认,如果 ( f(w^{T}x) > 0.5 ),输出为正,反之为负。和线性SVM不不同,逻辑回归模型的原始输出,( f(z) ),有一种概率解释(例如;(x)为正的概率)
评价矩阵
MLlib支持常用的二分类评价矩阵(PySpark不支持)。包括准确率,召回率,F值,receiver operating characteristic(ROC),准确率召回率曲线,和area under the curvers(AUC)。AUC是一种常用的模型性能比较方法,用于帮助用户通过准确率/召回率/F值来选择预测阈值(http://www.douban.com/note/284051363/?type=like)。
例子
下面的代码展示了如果如何加载一个简单的数据集,使用算法对象object上的静态方法训练数据,并且使用结果模型做出预测并计算训练错误率。
import org.apache.spark._ import org.apache.spark.mllib.classification.SVMWithSGD import org.apache.spark.mllib.evaluation.BinaryClassificationMetrics import org.apache.spark.mllib.util.MLUtils /** * Created by ******qin on 2015-1-13. */ object ClassifySVM { def main (args: Array[String]) { val conf = new SparkConf().setAppName("classifySVM") val sc = new SparkContext(conf) //load training data in LibSVM format val data = MLUtils.loadLibSVMFile(sc, args(0)) // args(0) println(data.count()) //split data into training and test(6:4) val splits = data.randomSplit(Array(0.6, 0.4), seed = 11L) val training = splits(0).cache() val test = splits(1) //run training algorithm to build the model val numIterations = 100 val model = SVMWithSGD.train(training, numIterations) //clean the default threshold model.clearThreshold() //compute raw scores on the test set val scoreAndLabels = test.map { point => val score = model.predict(point.features) (score, point.label) } //get evaluation metrics val metrics = new BinaryClassificationMetrics(scoreAndLabels) val auROC = metrics.areaUnderROC() println("Area under ROC = " + auROC) } }
SVMWithSGD.train()默认使用L2正则化,参数为1.0. 如果想定制该算法,可以直接创建一个SVMWithSGD对象并调用setter方法即可。MLlib中其他所有算法也支持使用这种方法进行定制。例如,下面的算法SVM算法使用L1正则化参数为1.0,循环次数为200.
//the SVMWithSGD with L1 val svmAlg = new SVMWithSGD() svmAlg.optimizer.setNumIterations(200) .setRegParam(1.0) .setUpdater(new L1Updater) val model = svmAlg.run(training)
LogisticRegressionWithSGD和SVMWithSGD使用方法相似。
线性最小二乘,Lasso,ridge regression
线性最小二乘法是回归问题最常用的解法。线性表示如下,使用平方损失函数
( L(w;x,y):=frac{1}{2}(w^Tx-y)^2 )
根据使用的正则化方法的不同,各种回归方法被分为:普通最小二乘或线性最小二乘(不使用正则化);岭回归(使用L2正则化);和Lasso(使用L1正则化)。所有的方法都是用平均错误率或训练错误率,( frac{1}{n}sum_{i=1}^{n}(w^Tx_i-y_i)^2 ),即均方差错误率。
例子
下面的例子描绘了如何加载训练数据,解析数据成为LabeledPoint的RDD格式。之后使用LinearRegressionWithSGD建立简单的线性模型去预测标签值。然后计算均方差错误率评价结果。
流式线性回归
数据以流的方式到达,就需要用到在线的修正回归模型,在新数据到达时更新模型参数。MLlib使用普通最小二乘支持流式数据。修正和离线执行是相似的,对每批数据进行修正,这样模型就可以针对数据流进行连续更新。
例子
下面的例子描述了如何加载数据,测试来自两个不同文本文件流的数据,将流解析为标记点,使用第一个流修正一个在线线性回归模型,用第二个流进行预测