• 多元线性回归


    一般情况下,一个因变量是和多个自变量有关的,比如一个商品的价格和原料价格、加工方法、上市时间、品牌价值等有关,也就是多元线性,本节介绍如何用scikit-learn解决多元线性回归问题。

    1、多元线性回归模型

    方程:Y=Xβ 

    求解多元线性回归问题就是求解β:

    因为X不一定是方阵,所以不能直接β=X-1Y

    两边同时乘以Xt,得到XtY=XtXβ

    因为XtX是方阵,它的逆是(XtX)-1,所以两边同时乘(XtX)-1得到

    (XtX)-1XtY=β

    根据这个公式,我们自己设计一个例子,验证一下

    设计二元一次方程:y=1+2*x1+3*x2=1*x0+2*x1+3*x2

    取样本为(1,1,1),(1,1,2),(1,2,1),计算得y=(6,9,8)

    注意:这里面常数项1相当于1*x0,只不过这里的x0永远取1

    所以我们的

    X = [[1,1,1],[1,1,2],[1,2,1]]

    y = [[6],[9],[8]]

    β =[1, 2, 3]^T;

    代码如下:

    1 from numpy.linalg import inv
    2 from numpy import dot, transpose
    3 X = [[1,1,1],[1,1,2],[1,2,1]]
    4 y = [[6], [9], [8]]
    5 print dot(inv(dot(transpose(X),X)), dot(transpose(X),y))
    6 print(dot(dot(inv(dot(transpose(X), X)), transpose(X)), y))
    View Code
    1 [[ 1.]
    2  [ 2.]
    3  [ 3.]]
    4 [[ 1.]
    5  [ 2.]
    6  [ 3.]]

    这里面transpose是求转置,dot是求矩阵乘积,inv是求矩阵的逆。

    也可以用numpy的最小二乘函数直接计算出β。

    1 from numpy.linalg import lstsq
    2 print lstsq(X, y)[0]
    1 [[ 1.]
    2  [ 2.]
    3  [ 3.]]

    2、用scikit-learn求解多元线性回归

     1 import numpy
     2 from sklearn.linear_model import LinearRegression
     3 X = [[1, 1, 1], [1, 1, 2], [1, 2, 1]]
     4 y = [[6], [9], [8]]
     5 model = LinearRegression()
     6 model.fit(X, y)#训练模型
     7 x2 = [[1, 3, 5]]
     8 y2 = model.predict(x2)
     9 print(type(y2), y2.shape)
    10 print(y2[0])
    View Code

    结果:

    1 (<type 'numpy.ndarray'>, (1, 1))
    2 [ 22.]

     正好:刚好y=1+2*x1+3*x2=1+2*3+3*5=22 

     
  • 相关阅读:
    <转>性能测试浅谈
    Linux内存机制以及手动释放swap和内存
    Jmeter(十二)_打印时间戳
    Jmeter(二十一)_脚本参数化与内存溢出的解决方案
    Jmeter(五)_函数
    爬虫利器_you-get
    Jmeter(九)_获取JDBC响应做接口关联
    JMeter(十三)-代理服务器录制脚本
    JMeter(十)-正则表达式关联
    JMeter(十四)-自动生成测试报告
  • 原文地址:https://www.cnblogs.com/yuzhuwei/p/6536909.html
Copyright © 2020-2023  润新知