云题海 - 专业文章范例文档资料分享平台

当前位置:首页 > 五到八章(计量经济学-东北财经大学,王维国)

五到八章(计量经济学-东北财经大学,王维国)

  • 62 次阅读
  • 3 次下载
  • 2025/6/18 21:27:46

重共线性。举例说明如下。

例7.1 关于家庭人均消费yt,家庭人均收入x1和家庭人均储蓄x2的数据如表7.2。

表7.2 人均消费yt,人均收入x1,人均储蓄x2数据

yt 70 65 90 95 110 115 120 140 155 150

x1 80 100 120 140 160 180 200 220 240 260

x2 810 1009 1273 1425 1633 1876 2052 2201 2435 2686

得二元线性回归方程OLS估计结果如下,

= 24.7747 + 0.9415 x1 - 0.0424 x2 (7.18)

(1.14) (-0.53) R2 = 0.96,F = 92.4

从结果看,可决系数R2 = 0.96已相当高。x1, x2共同解释了因变量yt变差的96%。F = 92.4,说明检验结果高度显著。但与重的多重共线性。

下面考察x1与x2的相关系数。得x1, x2作简单线性回归,得

= 0.9979。说明x1与x2几乎是完全共线性的。分别用yt对

,

相应的t值却都很低。在? = 0.05甚至? = 0.1水平上都未能通过显著性检

验。此外?2估计值为负(-0.0424),也与常理和经济理论不符。以上现象说明解释变量x1, x2间存在严

= 24.4545 + 0.5091 x1

(14.2) R2 = 0.96

41

= 24.3480 + 0.0498 x2

(13.4) R2 = 0.96

可见,x1, x2都是yt的重要解释变量。它们各自都能解释因变量yt变差的96%。但是,当用x1, x2做二元回归时(见(7.18)式),两个回归系数估计量却都未能通过t检验。 2 Klein判别法

对于多元线性回归模型

yt = ?0+ ?1 xt1 + … + ?k-1 xtk-1 + ut

Klein判别法的步骤如下:

(1) 计算回归方程的可决系数R2 以及解释变量的简单相关系数, (i, j = 1, 2, …, k-1, i ? j)。

(2)若存在某个 ?

? ? R2,则认为xi与xj间存在严重的多重共线性。

例7.2 用1975-1986年全国货运量yt(亿吨),农业总产值x1(千亿元),重工业总产 值x2(千亿元),轻工业总产值x3(千亿元),数据(摘自中国统计年鉴1987)得关于货运量的三元线性回归方程如下。

= 14.6119 - 5.8515 x1 + 3.9752 x2 +5.3225 x3 (7.19)

(-2.20) (2.46) (1.98) R2 = 0.87, F= 17.9 三个解释变量x1,x2,x3的简单相关系数如下: rx1, x2 = 0.984, rx1, x3 = 0.994, rx2, x3 = 0.975

因为解释变量间的三个相关系数都大于三元回归方程的可决系数0.87,所以依据Klein判别法,解释变量间的多重共线性是严重的。

第五节 多重共线性的解决方法

完全不存在多重共线性是一个很强的假定。实际中,经济变量随着经济形势的起伏,总要表现出某种程度的共同变化特征。当然,完全多重共线性在实际经济问题中很少见,所以多重共线性的一般表现形式是不完全多重共线性。当解释变量间存在不完全多重共线性时。主要是对回归系数的估计带来严重后果。尽管回归系数的普通最小二乘估计量仍具有无偏性,但由于回归系数估计量的方差变大,使回归系数估计量意义。

为克服模型中的多重共线性,下面介绍几种方法。

42

的抽样精度下降,

的值有可能远离真值?j,从而使回归系数估计值变得毫无

1 直接合并解释变量

当模型中存在多重共线性时,在不失去实际意义的前提下,可以把有关的解释变量直接合并,从而降低或消除多重共线性。

继续看例7.2。如果研究的目的是预测全国货运量,那么可以把重工业总产值和轻工业总产值合并为工业总产值,从而使模型中的解释变量个数减少到两个以消除多重共线性。甚至还可以与农业总产值合并,变为工农业总产值。解释变量变成了一个,自然消除了多重共线性。 2 利用已知信息合并解释变量

通过经济理论及对实际问题的深刻理解,对发生多重共线性的解释变量引入附加条件从而减弱或消除多重共线性。比如有二元回归模型

yt = ?0+ ?1 xt1 + ?2 xt2 + ut (7.20)

x1与x2间存在多重共线性。如果依据经济理论或对实际问题的深入调查研究,能给出回归系数?1与

?2的某种关系,例如

?2 = ??1 (7.21) 其中 ? 为常数。把上式代入模型(7.20),得

yt = ?0+ ?1 xt1 + ??1 xt2 + ut = ?0 + ?1 (xt1 + ? xt2) + ut (7.22)

xt = xt1 + ? xt2 得

yt = ?0+ ?1 xt + ut (7.23)

模型(7.23)是一元线性回归模型,所以不再有多重共线性问题。用普通最小二乘法估计模型(7.23),得到

,然后再利用(7.21)式求出

下面以道格拉斯(Douglass)生产函数为例,做进一步说明。

Yt = K Lt? Ct? eut (7.24) 其中Yt表示产出量,Lt表示劳动力投入量,Ct表示资本投入量。两侧取自然对数后,

LnYt = LnKt + ?LnLt + ?LnCt + ut (7.25)

因为劳动力(Lt)与资本(Ct)常常是高度相关的,所以LnLt与LnCt也高度相关,致使无法求出

?,?的精确估计值。假如已知所研究的对象属于规模报酬不变型,即得到一个条件

43

? + ? = 1

利用这一关系把模型(7.25)变为

LnYt = LnKt + ? LnLt + (1- ?) LnCt + ut 整理后,

(7.26)

变成了Ln (Yt /Ct) 对Ln (Lt /Ct) 的一元线性回归模型,自然消除了多重共线性。估计出?后,再利用关系式? + ? = 1,估计?。 3 增加样本容量或重新抽取样本

这种方法主要适用于那些由测量误差而引起的多重共线性。当重新抽取样本时,克服了测量误差,自然也消除了多重共线性。另外,增加样本容量也可以减弱多重共线性的程度。

下面仍以二元线性回归模型为例说明这个道理。由(7.16)和(7.17)式,有

(7.27)

当样本容量增大时,

个确定的值,所以与

4 合并截面数据与时间序列数据

也增大,而

(7.28) 趋近于总体相关系数

,

的抽样精度。

,为某一

均趋于减小,从而提高了估计量

这种方法属于约束最小二乘法(RLS)。其基本思想是,先由截面数据求出一个或多个回归系数的估计值,再把它们代入原模型中,通过用因变量与上述估计值所对应的解释变量相减从而得到新的因变量,然后建立新因变量对那些保留解释变量的回归模型,并利用时间序列样本估计回归系数。下面通过一个例子具体介绍合并数据法。

设有某种商品的销售量模型如下,

Ln Yt = ?0+ ?1 Ln Pt + ?2 Ln It + ut (7.29) 其中Yt 表示销售量,Pt表示平均价格,It表示消费者收入,下标t表示时间。

在时间序列数据中,价格Pt与收入It一般高度相关,所以当用普通最小二乘法估计模型(7.29)

44

  • 收藏
  • 违规举报
  • 版权认领
下载文档10.00 元 加入VIP免费下载
推荐下载
本文作者:...

共分享92篇相关文档

文档简介:

重共线性。举例说明如下。 例7.1 关于家庭人均消费yt,家庭人均收入x1和家庭人均储蓄x2的数据如表7.2。 表7.2 人均消费yt,人均收入x1,人均储蓄x2数据 yt 70 65 90 95 110 115 120 140 155 150 x1 80 100 120 140 160 180 200 220 240 260 x2 810 1009 1273 1425 1633 1876 2052 2201 2435 2686 得二元线性回归方程OLS估计结果如下, = 24.7747 + 0.9415 x1 - 0.0424 x2 (7.18)

× 游客快捷下载通道(下载后可以自由复制和排版)
单篇付费下载
限时特价:10 元/份 原价:20元
VIP包月下载
特价:29 元/月 原价:99元
低至 0.3 元/份 每月下载150
全站内容免费自由复制
VIP包月下载
特价:29 元/月 原价:99元
低至 0.3 元/份 每月下载150
全站内容免费自由复制
注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信:fanwen365 QQ:370150219
Copyright © 云题海 All Rights Reserved. 苏ICP备16052595号-3 网站地图 客服QQ:370150219 邮箱:370150219@qq.com