《第7章多元回归分析.ppt》由会员分享,可在线阅读,更多相关《第7章多元回归分析.ppt(21页珍藏版)》请在第壹文秘上搜索。
1、第7章 多元回归分析:估计7.1 符号与假定 三变量的总体回归函数(PRF):其中 和 被称为偏回归系数 假定:(1)扰动项0均值(2)扰动项无序列相关(3)扰动项与自变量不相关(自变量非随机)(4)自变量之间无精确的线性关系(无多重共线性)12233iiiiYXXu237.2 对多元回归方程的解释 给定自变量的固定值为条件的Y的条件均值2312233(|,)iiiiiEY XXXX7.3 偏回归系数 偏回归系数的含义类似于多元微分中的偏微分:假定X3不变(常数),Y对X2的导数 或:X2对Y的“净”的影响 如何获得X2对Y的净影响,关键是剔除X3的影响(1)Y对X3回归,其残差表示Y中不能被
2、X3解释的部分(残差与X3无关,与Y相关)(2)X2对X3回归,其残差表示X2中不能被X3解释的部分(残差与X3无关,与X2相关)(3)(1)的残差对(2)的残差回归,其系数即为X2对Y的偏相关系数7.4 偏回归系数的OLS与ML估计 OLS系数估计:类似于二元模型 系数方差 扰动项方差估计12131123231,1nnXXX XX YXXX121311223231cov,1nnXXX XXXX2 3u unOLS 估计的性质 1、回归线通过均值点 2、估计均值等于样本均值 3、残差均值等于0 4、残差与回归元无关 5、残差与因变量估计值无关 6、其他条件不变(扰动项方差),自变量之间的相关系
3、数越大,回归系数的方差越大 7、对于给定的自变两之间的相关系数,扰动项方差越大,回归系数的方差越大 8、OLS在古典假设下是无偏、线性最小方差估计量MLE估计量 1、在古典假定下,MLE估计系数与OLS估计系数相同 2、MLE的扰动项方差的估计量为 而OLS的估计量为2/iun2/()iunk7.5 多元回归的R-2 回顾:TSS=(总离差平方和)实际值对均值的偏离 ESS=(解释平方和)估计值对均值的偏离 RSS=(残差平方和)估计值对实际值的偏离2TSSESSRSSESSRTSS7.6 婴儿死亡率与PGNP和FLR的关系02040608010004080120160200240280320
4、CMFLR04,0008,00012,00016,00020,00004080120160200240280320CMPGNP04,0008,00012,00016,00020,000020406080100FLRPGNP回归结果7.7多元回归视角下的简单回归 模型设定偏差:本应是多元回归,而模型设定为二元回归,或者相反(缺失变量或冗余变量)7.8 R-2和调整的R-2 在回归方程中包含的回归元越多,则估计方程的R-2会越大,但过多的变量也会使得模型失去(预测的)意义。两个方程的R-2的比较 1、比较的前提 两个方程的因变量相同,Y和LnY的回归方程的R-2是不可直接比较的 2、如果因变量不同
5、,但又需要比较时(1)根据估计方程,计算因变量(本身)的估计值(2)利用此估计值,根据R-2的计算公式重新计算R-2(3)比较不同方程的R-2例7.2 咖啡人均消费与价格关系由对数方程计算Y的预测值(YF)Series EsSeries TsEs=(yf-mean(y)2Ts=(y-mean(y)2Scalar EssScalar TssEss=sum(Es)Tss=sum(Ts)Scalar r2R2=Ess/Tss R-2=0.68688略大于线性模型的R-2222()ESSYYRTSSYYR-2在回归元之间的分配 问题:每个回归元对R-2的贡献度 结论:没有明确的方法需要R-2最大化吗 问题:R-2或调整的R-2越大越好吗 结论:系数的显著性和经济意义的正确性之重要性大于R-2的重要性。7.9 柯布道格拉斯生产函数 1、beta1,产出对劳动的弹性 2、beta2,资本对劳动的弹性 3、beta1+beta2,规模报酬:大于1=规模报酬递增;小于1=规模报酬递减;等于1=规模报酬不变估计结果7.10 多项式回归:成本函数160200240280320360400440024681012XY