多重共线性对回归参数的估计有什么影响?

如题所述

多重共线性会使线性回归模型中的解释变量之间由于存在精确相关关系或高度相关关系而使模型估计失真或难以估计准确。具体影响如下:

1、参数估计量经济含义不合理;

2、变量的显著性检验失去意义,可能将重要的解释变量排除在模型之外;

3、模型的预测功能失效。变大的方差容易使区间预测的“区间”变大,使预测失去意义。

扩展资料

多重共线性增加了参数估计的方差,方差展开因子越大,共线性越强。相反,由于可容许性是方差展开因子的倒数,可容许性越小,共线性越强。

可以记住,允许性代表允许性,即允许。如果该值越小,则该值越不允许,即越小,越不允许。共线性是一个负的指标,预计不会出现在分析中。共线性和可采性是联系在一起的。方差膨胀因子因为是容许度倒数,所以反过来。

参考资料来源:百度百科-多重共线性

温馨提示:答案为网友推荐,仅供参考
第1个回答  2019-09-13

1、完全共线性下参数估计量不存在。

2、近似共线性下OLS估计量非有效。

3、参数估计量经济含义不合理。

4、变量的显著性检验失去意义,可能将重要的解释变量排除在模型之外。

5、模型的预测功能失效,变大的方差容易使区间预测的“区间”变大,使预测失去意义。

扩展资料:

解决方法:

(1)排除引起共线性的变量。

找出引起多重共线性的解释变量,将它排除出去,以逐步回归法得到最广泛的应用。

(2)差分法。

时间序列数据、线性模型:将原模型变换为差分模型。

(3)减小参数估计量的方差:岭回归法(Ridge Regression)。

(4)简单相关系数检验法

参考资料来源:百度百科——多重共线性

本回答被网友采纳
第2个回答  2019-09-13

多重共线性是指线性回归模型中的解释变量之间由于存在精确相关关系或高度相关关系而使模型估计失真或难以估计准确。

一般来说,由于经济数据的限制使得模型设计不当,导致设计矩阵中解释变量间存在普遍的相关关系。完全共线性的情况并不多见,一般出现的是在一定程度上的共线性,即近似共线性。

1、相关系数与回归系数的关系:

回归系数大于零则相关系数大于零;回归系数小于零则相关系数小于零。

(它们的取值符号相同)

2、回归系数规律:

由回归方程求导数得到,所以,回归系数>0,回归方程曲线单调递增;回归系数<0,回归方程曲线单调递减;回归系数=0,回归方程求最值(最大值、最小值)。

扩展资料:

多重共线性的相关影响:

(1)完全共线性下参数估计量不存在

(2)近似共线性下OLS估计量非有效

多重共线性使参数估计值的方差增大,1/(1-r2)为方差膨胀因子(Variance Inflation Factor, VIF)如果方差膨胀因子值越大,说明共线性越强。相反 因为,容许度是方差膨胀因子的倒数,所以,容许度越小,共线性越强。

可以这样记忆:容许度代表容许,也就是许可,如果,值越小,代表在数值上越不容许,就是越小,越不要。而共线性是一个负面指标,在分析中都是不希望它出现,将共线性和容许度联系在一起,容许度越小,越不要,实际情况越不好,共线性这个“坏蛋”越强。进一步,方差膨胀因子因为是容许度倒数,所以反过来。

(3)参数估计量经济含义不合理

(4)变量的显著性检验失去意义,可能将重要的解释变量排除在模型之外

(5)模型的预测功能失效。变大的方差容易使区间预测的“区间”变大,使预测失去意义。

需要注意:即使出现较高程度的多重共线性,OLS估计量仍具有线性性等良好的统计性质。但是OLS法在统计推断上无法给出真正有用的信息。

参考资料来源:百度百科-回归系数

参考资料来源:百度百科-多重共线性

本回答被网友采纳
第3个回答  推荐于2017-12-16
1.对参数的估计值不精确,也不稳定。样本观测值稍有变动,增加或减少解释变量都会使参数估计值发生较大变化,甚至出现符号错误,从而不能正确反映解释变量对被解释变量的影响。
2.参数估计的标准差较大,使参数的显著性t检验增加了接受原假设的可能 ,从而舍去对被解释变量有显著影响的解释变量。本回答被提问者采纳
相似回答