直线回归的概念
直线回归(linear regreSSion)是用直线回归方程表示两个数量变量间依存关系的统计分析方法,属双变量分析的范畴。如果某一个变量随着另一个变量的变化而变化,并且它们的变化在直角坐标系中呈直线趋势,就可以用一个直线方程来定量地描述它们之间的数量依存关系,这就是直线回归分析。
直线回归分析中两个变量的地位不同,其中一个变量是依赖另一个变量而变化的,因此分别称为因变量(dependent variable)和自变量(independent variable),习惯上分别用y和x来表示。其中x可以是规律变化的或人为选定的一些数值(非随机变量),也可以是随机变量,前者称为I型回归,后者称为II型回归。
直线回归分析的应用条件
1.两变量的变化趋势呈直线趋势(linear);
2.因变量y属于正态随机变量(normal distribution);
3.对于I型要求对于每个选定的X,y都有一个正态分布的总体,并且这些总体的方差都相等(equal variance);对于II型回归,要求x、y服从双变量正态分布。
直线回归和直线相关的区别与联系:
区别:
(1)资料要求不同。回归要求依变量y服从正态分布,而x是可以精确测量和严格控制的量,一般称为I型回归;相关要求两个变量x、y服从双变量正态分布资料,若进行回归则称为II型回归,分别计算出两个回归方程。
(2)应用情况不同。描述两变量间依存变化的数量关系用回归分析,描述两变量间相关关系用相关分析。回归反映两个变量之间的单向关系,而相关则表示两个变量之间的相互关系是双向的。
联系:
(1)方向一致。如果对同一资料进行回归与相关分析,得到的回归方程中的b与相关系数r的正负号是相同的。
(2)假设检验等价。
(3)相关回归可以互相解释。
http://blog.sciencenet.cn/home.php?mod=space&uid=116082&do=blog&id=219436