• 比萨斜塔——统计显著性检验


    http://blog.csdn.net/zm714981790/article/details/51245502?locationNum=16  转载

    Dataset

    比萨斜塔是意大利最大的旅游景点之一。几百年来这座塔慢慢靠向一边,最终达到5.5度的倾斜角度,在顶端水平偏离了近3米。年度数据pisa.csv文件记录了从1975年到1987年测量塔的倾斜,其中lean代表了偏离的角度。在这个任务,我们将尝试使用线性回归来估计倾斜率以及解释其系数和统计数据。

    这里写图片描述

    # 读取数据
    import pandas
    import matplotlib.pyplot as plt
    pisa = pandas.DataFrame({"year": range(1975, 1988), 
                             "lean": [2.9642, 2.9644, 2.9656, 2.9667, 2.9673, 2.9688, 2.9696, 
                                      2.9698, 2.9713, 2.9717, 2.9725, 2.9742, 2.9757]})
    
    print(pisa)
    '''
          lean  year
    0   2.9642  1975
    1   2.9644  1976
    2   2.9656  1977
    3   2.9667  1978
    4   2.9673  1979
    5   2.9688  1980
    6   2.9696  1981
    7   2.9698  1982
    8   2.9713  1983
    9   2.9717  1984
    10  2.9725  1985
    11  2.9742  1986
    12  2.9757  1987
    '''
    plt.scatter(pisa["year"], pisa["lean"])

    这里写图片描述

    Fit The Linear Model

    从散点图中我们可以看到用曲线可以很好的拟合该数据。在之前我们利用线性回归来分析葡萄酒的质量以及股票市场,但在这个任务中,我们将学习如何理解关键的统计学概念。Statsmodels是Python中进行严格统计分析的一个库,对于线性模型,Statsmodels提供了足够多的统计方法以及适当的评估方法。sm.OLS这个类用于拟合线性模型,采取的优化方法是最小二乘法。OLS()不会自动添加一个截距到模型中,但是可以自己添加一列属性,使其值都是1即可产生截距。

    import statsmodels.api as sm
    
    y = pisa.lean # target
    X = pisa.year  # features
    # add a column of 1's as the constant term
    X = sm.add_constant(X)  
    
    # OLS -- Ordinary Least Squares Fit
    linear = sm.OLS(y, X)
    # fit model
    linearfit = linear.fit()
    print(linearfit.summary())
    '''
                                OLS Regression Results                            
    ==============================================================================
    Dep. Variable:                   lean   R-squared:                       0.988
    Model:                            OLS   Adj. R-squared:                  0.987
    Method:                 Least Squares   F-statistic:                     904.1
    Date:                Mon, 25 Apr 2016   Prob (F-statistic):           6.50e-12
    Time:                        13:30:20   Log-Likelihood:                 83.777
    No. Observations:                  13   AIC:                            -163.6
    Df Residuals:                      11   BIC:                            -162.4
    Df Model:                           1                                         
    Covariance Type:            nonrobust                                         
    ==============================================================================
                     coef    std err          t      P>|t|      [95.0% Conf. Int.]
    ------------------------------------------------------------------------------
    const          1.1233      0.061     18.297      0.000         0.988     1.258
    year           0.0009    3.1e-05     30.069      0.000         0.001     0.001
    ==============================================================================
    Omnibus:                        0.310   Durbin-Watson:                   1.642
    Prob(Omnibus):                  0.856   Jarque-Bera (JB):                0.450
    Skew:                           0.094   Prob(JB):                        0.799
    Kurtosis:                       2.108   Cond. No.                     1.05e+06
    ==============================================================================
    
    Warnings:
    [1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
    [2] The condition number is large, 1.05e+06. This might indicate that there are
    strong multicollinearity or other numerical problems.
    '''

    Define A Basic Linear Model

    • 打印summary时发现有很多关于模型的信息,为了弄清楚这些统计指标,我们需要仔细研究一下标准的线性回归模型,下面模型中的ei是预测值和真实值的差,我们默认模型的误差是正态分布的,均值为0.: 
      这里写图片描述

    • 计算模型的残差(residuals):

    # Our predicted values of y
    yhat = linearfit.predict(X)
    print(yhat)
    '''
    [ 2.96377802  2.96470989  2.96564176  2.96657363  2.96750549  2.96843736
      2.96936923  2.9703011   2.97123297  2.97216484  2.9730967   2.97402857
      2.97496044]
    '''
    residuals = yhat - y
    '''
    residuals :Series (<class 'pandas.core.series.Series'>)
    0    -0.000422
    1     0.000310
    2     0.000042
    3    -0.000126
    4     0.000205
    5    -0.000363
    6    -0.000231
    7     0.000501
    8    -0.000067
    9     0.000465
    10    0.000597
    11   -0.000171
    12   -0.000740
    Name: lean, dtype: float64
    '''
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26

    Histogram Of Residuals

    • 之前我们用过直方图(histograms )来显示数据的分布,现在我们也可以显示残差的分布,来确认它是否满足正态分布(其实有很多统计测试来检验正态分布):
    plt.hist(residuals, bins=5)
    • 1

    这里写图片描述

    • 由于我们的数据集只有13个样本,因此这样画出来的直方图并没有太大意义,尽管中间最高的有4个样本

    Sum Of Squares

    许多线性回归模型的统计测量都依赖于三个平方测量值:Error (SSE), Regression Sum of Squares (RSS)以及Total Sum of Squares (TSS).

    • Error (SSE):真实值与预测值的差的平方和

      这里写图片描述

    • Regression Sum of Squares (RSS) :预测值和真实值的均值的差的平方和,其中的均值是真实值的均值。如果将预测值都设置为观测值的均值,RSS会非常低,但这并没有什么意义。反而是一个大的RSS和一个小的SSE表示一个很好的模型。

      这里写图片描述

    • Total Sum of Squares (TSS):观测值与观测值的均值的差的平方和,大概就是训练集的方差。

      这里写图片描述

      TSS=RSS+SSE:数据总量的方差 = 模型的方差+残差的方差

    import numpy as np
    
    # sum the (predicted - observed) squared
    SSE = np.sum((yhat-y.values)**2)
    '''
    1.9228571428562889e-06
    '''
    # Average y
    ybar = np.mean(y.values)
    
    # sum the (mean - predicted) squared
    RSS = np.sum((ybar-yhat)**2)
    '''
    0.00015804483516480448
    '''
    
    # sum the (mean - observed) squared
    TSS = np.sum((ybar-y.values)**2)
    '''
    0.00015996769230769499
    '''
    print(TSS-RSS-SSE)
    '''
    3.42158959043e-17
    '''

    R-Squared

    • 线性判定(coefficient of determination)也叫R-Squared,是用来测定线性依赖性的。它是一个数字用来告诉我们数据的总方差中模型的方差的占比:

    这里写图片描述

    • 前面提到一个低的SSE和一个高的RSS表示一个很好的模型拟合,这个R-Squared就表示了这个意思,介于0到1之间,R2越大越好,1最好。
    R2 = RSS/TSS
    print(R2)
    '''
    0.987979715684
    '''

    T-Distribution

    统计测验表明塔的倾斜程度与年份有关系,一个常见的统计显著性测试是student t-test。这个测试的基础是T分布,和正态分布很相似,都是钟型但是峰值较低。显著性检验利用了T分布的概率密度函数*probability density function (pdf),pdf描述了两个连续随机变量的相关性。这个随机变量的累计密度函数cumulative density function (cdf)小于或等于某一个点。自由度degrees of freedom (df) 描述的是观测样本的数量(一般将其设置为样本数-2)。T检验是用于小样本(样本容量小于30)的两个平均值差异程度*的检验方法。它是用T分布理论来推断差异发生的概率,从而判定两个均值的差异是否显著。

    from scipy.stats import t
    
    # 100 values between -3 and 3
    x = np.linspace(-3,3,100)
    
    # Compute the pdf with 3 degrees of freedom
    print(t.pdf(x=x, df=3))
    '''
    [ 0.02297204  0.02441481  0.02596406  0.02762847  0.0294174   0.031341
      0.03341025  0.03563701  0.03803403  0.04061509  0.04339497  0.04638952
      0.04961567  0.05309149  0.05683617  0.06086996  0.0652142   0.06989116
      0.07492395  0.08033633  0.08615245  0.09239652  0.0990924   0.10626304
      0.11392986  0.12211193  0.13082504  0.14008063  0.14988449  0.16023537
      0.17112343  0.18252859  0.1944188   0.20674834  0.21945618  0.23246464
      0.2456783   0.2589835   0.27224841  0.28532401  0.29804594  0.31023748
      0.32171351  0.33228555  0.34176766  0.34998293  0.35677032  0.36199128
      0.36553585  0.36732769  0.36732769  0.36553585  0.36199128  0.35677032
      0.34998293  0.34176766  0.33228555  0.32171351  0.31023748  0.29804594
      0.28532401  0.27224841  0.2589835   0.2456783   0.23246464  0.21945618
      0.20674834  0.1944188   0.18252859  0.17112343  0.16023537  0.14988449
      0.14008063  0.13082504  0.12211193  0.11392986  0.10626304  0.0990924
      0.09239652  0.08615245  0.08033633  0.07492395  0.06989116  0.0652142
      0.06086996  0.05683617  0.05309149  0.04961567  0.04638952  0.04339497
      0.04061509  0.03803403  0.03563701  0.03341025  0.031341    0.0294174
      0.02762847  0.02596406  0.02441481  0.02297204]
    '''

    Statistical Significance Of Coefficients

    统计显著性首先:我们要测试这个斜塔的倾斜程度是否与年份有关,我们将null hypothesis(H0):没有关系,也就是年份,这个属性的系数(coefficient )β1=0,相反β1≠0。

    1.提出一个假设:H0:β1=0 H1:β1≠0

    然后测试null hypothesis,我们需要利用T分布计算一个统计测量值:

    2.计算t-statistic的计算公式如下:

    >
    这里写图片描述

    tstat = linearfit.params["year"] / np.sqrt(s2b1)
    '''
    30.068584687652137
    '''

    现在我们得到了t值,我们需要计算这个β1与0不同的概率,我们设置显著性为95%,意思就是β1与0不同的概率大于95%,我们才认为β1≠0。这需要用到t分布,给定一个p值和自由度计算这个t分布的累积密度函数,我们就可以获得一个概率: 
    在双边测试中,我们还需要观察这个相关性是正相关还是负相关。T分布式关于原点对称的,由于我们此处是看是否相关,因此两边的和是5%,此处的这个显著性值要>97.5%,因为是双边的。

    • If Tcdf(|t|,df) < 0.975 : Accept H0:β1=0
    • Else :Accept H1
    # At the 95% confidence interval for a two-sided t-test we must use a p-value of 0.975
    pval = 0.975
    
    # The degrees of freedom
    df = pisa.shape[0] - 2
    
    # The probability to test against
    p = t.cdf(tstat, df=df)
    '''
    0.99999999999674838
    '''
    beta1_test = p > pval
    '''
    True
    '''

    最终p值>0.975因此接受β1≠0这个假设,也就是斜塔的倾斜度与年份显著性相关。

    Conclusion

    • 此文中给出了如何计算截距的方法:添加一列值为1的属性
    • R-squared是一个很强大的度量值,但是它经常被过度使用,一个很低的R-squared不代表这两个变量之间没有依赖性,比如y=sin(x)的R-squared的值为0,但是很明显x和y是相关的。另一方面,一个很高的R-squared值也不代表这个模型能很好的预测未来的事件,因为它没有计算观测样本的数量。
    • Student t-tests适用于多变量回归,它可以帮助我们剔除掉一些没有相关性的属性。
     
     
     
     
  • 相关阅读:
    多样三角形
    字符串转化去重
    捕获异常里面的特殊异常
    sqlalchemy.exc.CompileError: (in table 'language_label', column 'name'): VARCHAR requires a length o
    机器学习总结
    找出两个列表中相同元素与不同元素
    正则去重
    mysql5.7 安装重置密码
    chrome快捷键
    golang select
  • 原文地址:https://www.cnblogs.com/webRobot/p/8464372.html
Copyright © 2020-2023  润新知