一般情况下,一个因变量是和多个自变量有关的,比如一个商品的价格和原料价格、加工方法、上市时间、品牌价值等有关,也就是多元线性,本节介绍如何用scikit-learn解决多元线性回归问题。
1、多元线性回归模型
方程:Y=Xβ
求解多元线性回归问题就是求解β:
因为X不一定是方阵,所以不能直接β=X-1Y
两边同时乘以Xt,得到XtY=XtXβ
因为XtX是方阵,它的逆是(XtX)-1,所以两边同时乘(XtX)-1得到
(XtX)-1XtY=β
根据这个公式,我们自己设计一个例子,验证一下
设计二元一次方程:y=1+2*x1+3*x2=1*x0+2*x1+3*x2
取样本为(1,1,1),(1,1,2),(1,2,1),计算得y=(6,9,8)
注意:这里面常数项1相当于1*x0,只不过这里的x0永远取1
所以我们的
X = [[1,1,1],[1,1,2],[1,2,1]]
y = [[6],[9],[8]]
β =[1, 2, 3]^T;
代码如下:
1 from numpy.linalg import inv 2 from numpy import dot, transpose 3 X = [[1,1,1],[1,1,2],[1,2,1]] 4 y = [[6], [9], [8]] 5 print dot(inv(dot(transpose(X),X)), dot(transpose(X),y)) 6 print(dot(dot(inv(dot(transpose(X), X)), transpose(X)), y))
1 [[ 1.] 2 [ 2.] 3 [ 3.]] 4 [[ 1.] 5 [ 2.] 6 [ 3.]]
这里面transpose是求转置,dot是求矩阵乘积,inv是求矩阵的逆。
也可以用numpy的最小二乘函数直接计算出β。
1 from numpy.linalg import lstsq 2 print lstsq(X, y)[0]
1 [[ 1.] 2 [ 2.] 3 [ 3.]]
2、用scikit-learn求解多元线性回归
1 import numpy 2 from sklearn.linear_model import LinearRegression 3 X = [[1, 1, 1], [1, 1, 2], [1, 2, 1]] 4 y = [[6], [9], [8]] 5 model = LinearRegression() 6 model.fit(X, y)#训练模型 7 x2 = [[1, 3, 5]] 8 y2 = model.predict(x2) 9 print(type(y2), y2.shape) 10 print(y2[0])
结果:
1 (<type 'numpy.ndarray'>, (1, 1)) 2 [ 22.]
正好:刚好y=1+2*x1+3*x2=1+2*3+3*5=22