多重共线性会给回归分析带来什么影响
发布网友
发布时间:2022-05-07 06:05
我来回答
共3个回答
热心网友
时间:2023-10-18 10:02
多重共线性就是说自变量间存在某种函数关系,会造成分析误差,使其对自变量效应的分析不准确。如果你的两个自变量间(X1和X2)存在函数关系,那么X1改变一个单位时,X2也会相应地改变,此时你无法做到固定其他条件,单独考查X1对因变量Y的作用,你所观察到的X1的效应总是混杂了X2的作用,这就造成了分析误差,使得对自变量效应的分析不准确,所以做回归分析时需要排除多重共线性的影响。
拓展资料:
一、多重共线性是指由于线性回归模型中解释变量之间的精确相关性或高度相关性,模型估计被扭曲或难以准确估计。
一般来说,由于经济数据的*,模型设计不当,导致设计矩阵中解释变量之间的一般相关性。完全共线是罕见的。一般来说,它在一定程度上是共线的,即近似共线。
中文名称多重共线性外文名称多重共线性
(1) 完全共线下不存在参数估计
(2) OLS估计在近似共线性下是无效的
二、多重共线性增加了参数估计的方差。1/(1-r2)是方差扩展因子(VIF)。如果方差展开因子较大,则表明共线性较强。相反,由于公差是方差展开因子的倒数,公差越小,共线性越强。可以记住:宽容代表宽容,也就是允许。如果该值较小,则表示该值的允许范围较小,即越小,允许范围越小。共线性是一个负指标,预计不会出现在分析中。共线性和公差是联系在一起的。容忍度越小,容忍度越小,实际情况就越糟糕,共线的“恶棍”就越强大。此外,因为方差扩展因子是公差的倒数,所以它是相反的。
简言之,就是找到一种简单的记忆方法。
(3) 参数估计的经济意义是不合理的
(4) 变量的显著性检验没有意义,可能会从模型中排除重要的解释变量
(5) 模型的预测功能失效。方差越大,越容易使区间预测的“区间”越大,使预测失去意义。
应该注意的是,即使存在高度的多重共线性,OLS估计仍然具有良好的统计特性,如线性。然而,OLS方法不能提供统计推断中真正有用的信息。
热心网友
时间:2023-10-18 10:02
我们进行回归分析需要了解每个自变量对因变量的单纯效应,多重共线性就是说自变量间存在某种函数关系,如果你的两个自变量间(X1和X2)存在函数关系,那么X1改变一个单位时,X2也会相应地改变,此时你无法做到固定其他条件,单独考查X1对因变量Y的作用,你所观察到的X1的效应总是混杂了X2的作用,这就造成了分析误差,使得对自变量效应的分析不准确,所以做回归分析时需要排除多重共线性的影响
热心网友
时间:2023-10-18 10:03
多重共线,说明变量间存在一定的相关性。而且,通常而言,多重共线问题都会存在,只是共线程度的强与弱的差别。多重共线,可能会导致内生性问题,让最终的回归结果不可信,对统计分析非常不利。当然,多重共线仅是回归分析遇到的一个问题,还有很多其他的问题需要考虑,推荐一篇近期推送的文章,希望对你有帮助网页链接
热心网友
时间:2023-10-18 10:02
多重共线性就是说自变量间存在某种函数关系,会造成分析误差,使其对自变量效应的分析不准确。如果你的两个自变量间(X1和X2)存在函数关系,那么X1改变一个单位时,X2也会相应地改变,此时你无法做到固定其他条件,单独考查X1对因变量Y的作用,你所观察到的X1的效应总是混杂了X2的作用,这就造成了分析误差,使得对自变量效应的分析不准确,所以做回归分析时需要排除多重共线性的影响。
拓展资料:
一、多重共线性是指由于线性回归模型中解释变量之间的精确相关性或高度相关性,模型估计被扭曲或难以准确估计。
一般来说,由于经济数据的*,模型设计不当,导致设计矩阵中解释变量之间的一般相关性。完全共线是罕见的。一般来说,它在一定程度上是共线的,即近似共线。
中文名称多重共线性外文名称多重共线性
(1) 完全共线下不存在参数估计
(2) OLS估计在近似共线性下是无效的
二、多重共线性增加了参数估计的方差。1/(1-r2)是方差扩展因子(VIF)。如果方差展开因子较大,则表明共线性较强。相反,由于公差是方差展开因子的倒数,公差越小,共线性越强。可以记住:宽容代表宽容,也就是允许。如果该值较小,则表示该值的允许范围较小,即越小,允许范围越小。共线性是一个负指标,预计不会出现在分析中。共线性和公差是联系在一起的。容忍度越小,容忍度越小,实际情况就越糟糕,共线的“恶棍”就越强大。此外,因为方差扩展因子是公差的倒数,所以它是相反的。
简言之,就是找到一种简单的记忆方法。
(3) 参数估计的经济意义是不合理的
(4) 变量的显著性检验没有意义,可能会从模型中排除重要的解释变量
(5) 模型的预测功能失效。方差越大,越容易使区间预测的“区间”越大,使预测失去意义。
应该注意的是,即使存在高度的多重共线性,OLS估计仍然具有良好的统计特性,如线性。然而,OLS方法不能提供统计推断中真正有用的信息。
热心网友
时间:2023-10-18 10:02
我们进行回归分析需要了解每个自变量对因变量的单纯效应,多重共线性就是说自变量间存在某种函数关系,如果你的两个自变量间(X1和X2)存在函数关系,那么X1改变一个单位时,X2也会相应地改变,此时你无法做到固定其他条件,单独考查X1对因变量Y的作用,你所观察到的X1的效应总是混杂了X2的作用,这就造成了分析误差,使得对自变量效应的分析不准确,所以做回归分析时需要排除多重共线性的影响
热心网友
时间:2023-10-18 10:03
多重共线,说明变量间存在一定的相关性。而且,通常而言,多重共线问题都会存在,只是共线程度的强与弱的差别。多重共线,可能会导致内生性问题,让最终的回归结果不可信,对统计分析非常不利。当然,多重共线仅是回归分析遇到的一个问题,还有很多其他的问题需要考虑,推荐一篇近期推送的文章,希望对你有帮助网页链接
热心网友
时间:2023-10-18 10:02
多重共线性就是说自变量间存在某种函数关系,会造成分析误差,使其对自变量效应的分析不准确。如果你的两个自变量间(X1和X2)存在函数关系,那么X1改变一个单位时,X2也会相应地改变,此时你无法做到固定其他条件,单独考查X1对因变量Y的作用,你所观察到的X1的效应总是混杂了X2的作用,这就造成了分析误差,使得对自变量效应的分析不准确,所以做回归分析时需要排除多重共线性的影响。
拓展资料:
一、多重共线性是指由于线性回归模型中解释变量之间的精确相关性或高度相关性,模型估计被扭曲或难以准确估计。
一般来说,由于经济数据的*,模型设计不当,导致设计矩阵中解释变量之间的一般相关性。完全共线是罕见的。一般来说,它在一定程度上是共线的,即近似共线。
中文名称多重共线性外文名称多重共线性
(1) 完全共线下不存在参数估计
(2) OLS估计在近似共线性下是无效的
二、多重共线性增加了参数估计的方差。1/(1-r2)是方差扩展因子(VIF)。如果方差展开因子较大,则表明共线性较强。相反,由于公差是方差展开因子的倒数,公差越小,共线性越强。可以记住:宽容代表宽容,也就是允许。如果该值较小,则表示该值的允许范围较小,即越小,允许范围越小。共线性是一个负指标,预计不会出现在分析中。共线性和公差是联系在一起的。容忍度越小,容忍度越小,实际情况就越糟糕,共线的“恶棍”就越强大。此外,因为方差扩展因子是公差的倒数,所以它是相反的。
简言之,就是找到一种简单的记忆方法。
(3) 参数估计的经济意义是不合理的
(4) 变量的显著性检验没有意义,可能会从模型中排除重要的解释变量
(5) 模型的预测功能失效。方差越大,越容易使区间预测的“区间”越大,使预测失去意义。
应该注意的是,即使存在高度的多重共线性,OLS估计仍然具有良好的统计特性,如线性。然而,OLS方法不能提供统计推断中真正有用的信息。
热心网友
时间:2023-10-18 10:02
我们进行回归分析需要了解每个自变量对因变量的单纯效应,多重共线性就是说自变量间存在某种函数关系,如果你的两个自变量间(X1和X2)存在函数关系,那么X1改变一个单位时,X2也会相应地改变,此时你无法做到固定其他条件,单独考查X1对因变量Y的作用,你所观察到的X1的效应总是混杂了X2的作用,这就造成了分析误差,使得对自变量效应的分析不准确,所以做回归分析时需要排除多重共线性的影响
热心网友
时间:2023-10-18 10:03
多重共线,说明变量间存在一定的相关性。而且,通常而言,多重共线问题都会存在,只是共线程度的强与弱的差别。多重共线,可能会导致内生性问题,让最终的回归结果不可信,对统计分析非常不利。当然,多重共线仅是回归分析遇到的一个问题,还有很多其他的问题需要考虑,推荐一篇近期推送的文章,希望对你有帮助网页链接