《第09章SPSS的线性回归分析.ppt》由会员分享,可在线阅读,更多相关《第09章SPSS的线性回归分析.ppt(35页珍藏版)》请在第壹文秘上搜索。
1、第九章第九章 SPSSSPSS的线性回归分析的线性回归分析(一)回归分析理解(1)“回归”的含义galton研究研究父亲身高和儿子身高的关系时的独特发现.(2)回归线的获得方式一:局部平均 回归曲线上的点给出了相应于每一个x(父亲)值的y(儿子)平均数的估计(3)回归线的获得方式二:拟和函数使数据拟和于某条曲线;通过若干参数描述该曲线;利用已知数据在一定的统计准则下找出参数的估计值(得到回归曲线的近似);(二)回归分析的基本步骤(1)确定自变量和因变量(父亲身高关于儿子身高的回归与儿子身高关于父亲身高的回归是不同的).(2)从样本数据出发确定变量之间的数学关系式,并对回归方程的各个参数进行估计
2、.(3)对回归方程进行各种统计检验.(4)利用回归方程进行预测.(三)参数估计的准则目标:回归线上的观察值与预测值之间的距离总和达到最小最小二乘法(利用最小二乘法拟和的回归直线与样本数据点在垂直方向上的偏离程度最低)(一)一元回归方程:y=0+1x0为常数项;1为y对x回归系数,即:x每变动一个单位所引起的y的平均变动(二)一元回归分析的步骤利用样本数据建立回归方程回归方程的拟和优度检验回归方程的显著性检验(t检验和F检验)残差分析预测(一)拟和优度检验拟和优度检验:(1)目的:检验样本观察点聚集在回归直线周围的密集程度,评价回归方程对样本数据点的拟和程度。(2)思路:因为:因变量取值的变化受
3、两个因素的影响 自变量不同取值的影响 其他因素的影响 于是:因变量总变差=自变量引起的+其他因素引起的 即:因变量总变差=回归方程可解释的+不可解释的 可证明:因变量总离差平方和=回归平方和+剩余平方和(一)拟和优度检验拟和优度检验:(3)统计量:判定系数R2=SSR/SST=1-SSE/SST.R2体现了回归方程所能解释的因变量变差的比例;1-R2则体现了因变量总变差中,回归方程所无法解释的比例。R2越接近于1,则说明回归平方和占了因变量总变差平方和的绝大部分比例,因变量的变差主要由自变量的不同取值造成,回归方程对样本数据点拟合得好在一元回归中R2=r2;因此,从这个意义上讲,判定系数能够比
4、较好地反映回归直线对样本数据的代表程度和线性相关性。niiniiniiniiyyyyyyyyR121212122)()(1)()(二)回归方程的显著性检验回归方程的显著性检验:F检验(1)目的:检验自变量与因变量之间的线性关系是否显著,是否可用线性模型来表示.(2)H0:=0 即:回归系数与0无显著差异(3)利用F检验,构造F统计量:F=平均的回归平方和/平均的剩余平方和F(1,n-1-1)如果F值较大,则说明自变量造成的因变量的线性变动远大于随机因素对因变量的影响,自变量于因变量之间的线性关系较显著(4)计算F统计量的值和相伴概率p(5)判断pregression-linear(2)选择一个
5、变量为因变量进入dependent框(3)选择一个变量为自变量进入independent框(4)enter:所选变量全部进入回归方程(默认方法)(5)对样本进行筛选(selection variable)利用满足一定条件的样本数据进行回归分析(6)指定作图时各数据点的标志变量(case labels)(二)statistics选项(1)基本统计量输出Estimates:默认.显示回归系数相关统计量.confidence intervals:每个非标准化的回归系数95%的置信区间.Descriptive:各变量均值、标准差和相关系数单侧检验概率.Model fit:默认.判定系数、估计标准误差、
6、方差分析表、容忍度(2)Residual框中的残差分析Durbin-waston:D-W值casewise diagnostic:异常值(奇异值)检测(输出预测值及残差和标准化残差)(三)plot选项:图形分析.lStandardize residual plots:绘制残差序列直方图和累计概率图,检测残差的正态性l绘制指定序列的散点图,检测残差的随机性、异方差性ZPRED:标准化预测值 ZRESID:标准化残差SRESID:学生化残差produce all partial plot:绘制因变量和所有自变量之间的散点图(一)残差序列的正态性检验:绘制标准化残差的直方图或累计概率图(二)残差序列
7、的随机性检验绘制残差和预测值的散点图,应随机分布在经过零的一条直线上下 (三)残差序列独立性检验:残差序列是否存在后期值与前期值相关的现象,利用D.W(Durbin-Watson)检验d-w=0:残差序列存在完全正自相关;d-w=4:残差序列存在完全负自相关;0d-w2:残差序列存在某种程度的正自相关;2d-w4:残差序列存在某种程度的负自相关;d-w=2:残差序列不存在自相关.残差序列不存在自相关,可以认为回归方程基本概括了因变量的变化;否则,认为可能一些与因变量相关的因素没有引入回归方程或回归模型不合适或滞后性周期性的影响.(四)异常值(casewise或outliers)诊断利用标准化残
8、差不仅可以知道观察值比预测值大或小,并且还知道在绝对值上它比大多数残差是大还是小.一般标准化残差的绝对值大于3,则可认为对应的样本点为奇异值异常值并不总表现出上述特征.当剔除某观察值后,回归方程的标准差显著减小,也可以判定该观察值为异常值(一)点估计y0(二)区间估计 x0为xi的均值时,预测区间最小,精度最高.x0越远离均值,预测区间越大,精度越低.普通职工数(x)18001600140012001000800600400200领导(管理)人数(y)3002001000(一)多元线性回归方程多元回归方程:y=0+1x1+2x2+.+kxk1、2、k为偏回归系数。1表示在其他自变量保持不变的情
9、况下,自变量x1变动一个单位所引起的因变量y的平均变动(二)多元线性回归分析的主要问题回归方程的检验自变量筛选多重共线性问题(一)拟和优度检验拟和优度检验:(1)判定系数R2:R是y和xi的复相关系数(或观察值与预测值的相关系数),测定了因变量y与所有自变量全体之间线性相关程度(2)调整的R2:考虑的是平均的剩余平方和,克服了因自变量增加而造成R2也增大的弱点在某个自变量引入回归方程后,如果该自变量是理想的且对因变量变差的解释说明是有意义的,那么必然使得均方误差减少,从而使调整的R2得到提高;反之,如果某个自变量对因变量的解释说明没有意义,那么引入它不会造成均方误差减少,从而调整的R2也不会提
10、高。SSTSSEknnR1112因变量的样本方差均方误差12R(二)回归方程的显著性检验回归方程的显著性检验:(1)目的:检验所有自变量与因变量之间的线性关系是否显著,是否可用线性模型来表示.(2)H0:1=2=k=0 即:所有回归系数同时与0无显著差异(3)利用F检验,构造F统计量:F=平均的回归平方和/平均的剩余平方和F(k,n-k-1)如果F值较大,则说明自变量造成的因变量的线性变动大于随机因素对因变量的影响,自变量于因变量之间的线性关系较显著(4)计算F统计量的值和相伴概率p(5)判断p=a:拒绝H0,即:所有回归系数与0有显著差异,自变量与因变量之间存在显著的线性关系。反之,不能拒绝
11、H0)1/()(/)(22knyykyyFiii(三)回归系数的显著性检验回归系数的显著性检验(1)目的:检验每个自变量对因变量的线性影响是否显著.(2)H0:i=0 即:第i个回归系数与0无显著差异(3)利用t检验,构造t统计量:其中:Sy是回归方程标准误差(Standard Error)的估计值,由均方误差开方后得到,反映了回归方程无法解释样本数据点的程度或偏离样本数据点的程度如果某个回归系数的标准误差较小,必然得到一个相对较大的t值,表明该自变量xi解释因变量线性变化的能力较强。(4)逐个计算t统计量的值和相伴概率p(5)判断iiiSt22)(iiyixxSS(四)t统计量与F统计量一元
12、回归中,F检验与t检验一致,即:F=t2,可以相互替代在多元回归中,F检验与t检验不能相互替代Fchange=ti2从Fchange 角度上讲,如果由于某个自变量xi的引入,使得Fchange是显著的(通过观察Fchange 的相伴概率值),那么就可以认为该自变量对方程的贡献是显著的,它应保留在回归方程中,起到与回归系数t检验同等的作用。221)1(RknRFchchange222ichRRR(一)自变量筛选的目的l多元回归分析引入多个自变量.如果引入的自变量个数较少,则不能很好的说明因变量的变化;l并非自变量引入越多越好.原因:有些自变量可能对因变量的解释没有贡献自变量间可能存在较强的线性关
13、系,即:多重共线性.因而不能全部引入回归方程.(二)自变量向前筛选法(forward):l即:自变量不断进入回归方程的过程.l首先,选择与因变量具有最高相关系数的自变量进入方程,并进行各种检验;l其次,在剩余的自变量中寻找偏相关系数最高的变量进入回归方程,并进行检验;默认:回归系数检验的概率值小于PIN(0.05)才可以进入方程.l反复上述步骤,直到没有可进入方程的自变量为止.(三)自变量向后筛选法(backward):l即:自变量不断剔除出回归方程的过程.l首先,将所有自变量全部引入回归方程;l其次,在一个或多个t值不显著的自变量中将t值最小的那个变量剔除出去,并重新拟和方程和进行检验;默认
14、:回归系数检验值大于POUT(0.10),则剔除出方程l如果新方程中所有变量的回归系数t值都是显著的,则变量筛选过程结束.l否则,重复上述过程,直到无变量可剔除为止.(四)自变量逐步筛选法(stepwise):l即:是“向前法”和“向后法”的结合。l向前法只对进入方程的变量的回归系数进行显著性检验,而对已经进入方程的其他变量的回归系数不再进行显著性检验,即:变量一旦进入方程就不回被剔除l随着变量的逐个引进,由于变量之间存在着一定程度的相关性,使得已经进入方程的变量其回归系数不再显著,因此会造成最后的回归方程可能包含不显著的变量。l逐步筛选法则在变量的每一个阶段都考虑的剔除一个变量的可能性。(一
15、)共线性带来的主要问题高度的多重共线会使回归系数的标准差随自变量相关性的增大而不断增大,以至使回归系数的置信区间不断增大,造成估计值精度减低.(二)共线性诊断l自变量的容忍度(tolerance)和方差膨胀因子容忍度:Toli=1-Ri2.其中:Ri2是自变量xi与方程中其他自变量间的复相关系数的平方.容忍度越大则与方程中其他自变量的共线性越低,应进入方程.(具有太小容忍度的变量不应进入方程,spss会给出警)(T0.1一般认为具有多重共线性)方差膨胀因子(VIF):容忍度的倒数SPSS在回归方程建立过程中不断计算待进入方程自变量的容忍度,并显示目前的最小容忍度(二)共线性诊断l用特征根刻画自
16、变量的方差如果自变量间确实存在较强的相关关系,那么它们之间必然存在信息重叠,于是可从这些自变量中提取出既能反映自变量信息(方差)又相互独立的因素(成分)来.从自变量的相关系数矩阵出发,计算相关系数矩阵的特征根,得到相应的若干成分.如果某个特征根既能够刻画某个自变量方差的较大部分比例(如大于0.7),同时又可以刻画另一个自变量方差的较大部分比例,则表明这两个自变量间存在较强的多重共线性。l条件指标0k10 无多重共线性;10=k=100 严重imik(一)什么是差异方差回归模型要求残差序列服从均值为0并具有相同方差的正态分布,即:残差分布幅度不应随自变量或因变量的变化而变化.否则认为出现了异方差现象(二)差异方差诊断可以通过绘制标准化残差序列和因变量预测值(或每个自变量)的散点图来识别是否存在异方差(三)异方差处理实施方差稳定性变换l残差与yi(预测值)的平方根呈正比:对yi开平方l残差与yi(预测值)呈正比:对yi取对数.l残差与yi(预测值)的平方呈正比,则1/yi(一)基本操作步骤(1)菜单选项:analyze-regression-linear(2)选择一个变量为因变量进入dep