文档详情

怎样在SPSS和AMOS分析调节效应[实战篇]

馨***
实名认证
店铺
DOC
89.50KB
约13页
文档ID:159438457
怎样在SPSS和AMOS分析调节效应[实战篇]_第1页
1/13

...wd...调节效应重要理论及操作务实一、调节效应回归方程: 调节效应是交互效应的一种,是有因果指向的交互效应,而单纯的交互效应可以互为因果关系;调节变量一般不受自变量和因变量影响,但是可以影响自变量和因变量;调节变量一般不能作为中介变量,在特殊情况下,调节变量也可以作为中介变量,例如认知归因方式既可以作为挫折性应激〔X〕和应对方式〔Y〕的调节变量也可以作为中介变量常见的调节变量有性别、年龄、收入水平、文化程度、社会地位等在统计回归分析中,检验变量的调节效应意味着检验调节变量和自变量的交互效应是否显著以最简单的回归方程为例,调节效应检验回归方程包括2个如下:y=a+bx+cm+e 1〕y=a+bx+cm+c’mx+e 2〕在上述方程中,m为调节变量,mx为调节效应,调节效应是否显著即是分析C’是否显著到达统计学意义上的临界比率.05水平)二、检验调节效应的方法有三种:1.在层次回归分析中〔Hierarchical regression〕,检验2个回归方程的复相关系数R12和R22是否有显著区别,假设R12和R22显著不同,则说明mx交互作用显著,即说明m的调节效应显著;2.或看层次回归方程中的c’系数〔调节变量偏相关系数〕,假设c’〔spss输出为标准化ß值〕显著,则说明调节效应显著;3.多元方差分析,看交互作用水平是否显著;4.在分组回归情况下,调节效应看各组回归方程的R2。

注:上述四种方法主要用于显变量调节效应检验,且和x与m的变量类型相关,具体要根据下述几种类型采用不同的方式检验三、显变量调节效应分析的几种类型 根据调节效应回归方程中自变量和调节变量的几种不同类型组合,分析调节效应的方法和操作也有区别如下:1.分类自变量〔x〕+分类调节变量(m)如果自变量和调节变量都是分类变量的话,实际上就是多元方差分析中的交互作用显著性分析,如x有两种水平,m有三种水平,则可以做2×3交互作用方差分析,在spss里面可以很容易实现,这我就不多讲了,具体操作看spss操作工具书就可以了2.分类自变量〔x〕+连续调节变量〔m〕 这种类型调节效应分析需要对分类自变量进展伪变量转换,将自变量和调节变量中心化〔计算变量离均差〕然后做层次回归分析分类自变量转换为伪变量的方法:假设自变量X有n种分类,则可以转换为n-1个伪变量,例如自变量为年收入水平,假设按人均年收入水平分为2万以下、2万~5万、5万~10万、10万以上四种类型,则可以转换为3个伪变量如下:x1 x2 x3 10万以上 1 0 0 5万到10万 0 1 0 2万到5万 0 0 1 2万以下 0 0 0上述转换在spss中可以建设3个伪变量x1、x2、x3,变量数据中心化后标准回归方程表示为:y=b1x1+b2x2+b3x3+cm+e 3)y=b1x1+b2x2+b3x3+cm+c1mx1+c2mx2+c3mx3+e 4)x1=1表示10万以上;x2=1表示5万到10万;x3=1表示2万到5万;2万以下=0。

此时2万以下的回归方程表示为:y=cm +e(在x1、x2、x3上的伪变量值为0);之所以单独列出这个方程,是为了方便大家根据回归方程画交互作用图,即求出c值就可以根据方程画出2万以下变量的调节效应图检验方法为分析R2显著性或调节系数C’显著性注:在这4种分类自变量的调节效应分析中,采用R12和R22显著性检验时,是对4种类型自变量在调节变量作用下的调节效应的整体检验,总体显著的效果可能会掩盖某种类型自变量与调节变量的交互作用不显著的情况,此时,我们就要逐一审查各个交互项的偏相关系数对方程〔4〕而言,如果检查调节变量的偏相关系数,则有可能会出现一些调节变量偏相关系数不显著的情况,例如,c1显著、c2和c3不显著或c1和c2显著,c3不显著的情况等,此时可根据交互项的偏相关系数来发现到底是那种类型的自变量与调节变量的交互作用不显著3.连续自变量〔x〕+分类调节变量〔m〕 这种类型的调节效应需要采用分组回归分析,所谓分组回归分析既是根据调节变量的分类水平,建设分组回归方程进展分析,回归方程为y=a+bx+e当然也可以采用将调节变量转换为伪变量以后进展层次回归分析,层次回归具体步骤同上,见三、2,需要注意的是,分类的调节变量转换为伪变量进展层次回归分析后,调节效应是看方程的决定系数R2显著性整体效果,这和不同分类水平的自变量下调节变量的调节效应识别有区别。

我们这里主要讲下如何进展调节效应分组回归分析,调节效应的分组回归分析可以在SPSS中完成,当然也可以通过SEM分析软件如AMOS来实现,我们首先来看看如何通过SPSS来实现分组回归来实现调节效应分析的SPSS中对分组回归的操作主要分两步进展,第一步是对样本数据按调节变量的类别进展分割,第二步则是回归分析具体步骤见以下列图:第一步:对样本数据按调节变量的类别进展分割:注:选取的gender为调节变量,分别为女=0,男=1,当然在实际研究中可能有更多的分类,大家完全可以用1、2、3、4…….等来编号这个窗口选取的两个命令是比拟多组(compare groups和按分组变量对数据文件排序〔sort the file by grouping variables〕第二步:选择回归命令并设置自变量和因变量这个窗口里面选取了自变量comp和因变量pictcomp,然后再点击statistics在弹出窗口中设置输出参数项如以下列图,勾取estimates\model fit\R squared change:第三步:看输出结果,分析调节效应,见表格数据:表格1Variables Entered/RemovedbgenderModelVariables EnteredVariables RemovedMethod01COMPa.Enter11COMPa.Entera. All requested variables entered.b. Dependent Variable: PICTCOMP表格1显示了因变量是pictcomp,回归方法采用强行进入法〔enter〕,共有两组回归方程,一组是女性〔0〕,另一组是男性〔1〕。

表格2Model SummarygenderModelRR SquareAdjusted R SquareStd. Error of the EstimateChange StatisticsR Square ChangeF Changedf1df2Sig. F Change01.349a.122.1132.723.12214.1611102.00011.489a.239.2282.647.23921.709169.000a. Predictors: (Constant), COMP表格2是回归模型的总体情况,男性和女性的两组回归方程具有显著效应(p<.001),说明性别这一变量具有显著的调节效应从表格数据可以看出,女性组的回归方程解释了因变量11.2%的方差变异,男性组的回归方程解释了因变量22.9%的方差变异,〔注:此模型的数据是虚拟的,只是方便大家理解,无实际意义,实际研究中回归方程的自变量很少会只有一个的情况〕表格3CoefficientsagenderModelUnstandardized CoefficientsStandardized CoefficientstSig.BStd. ErrorBeta01(Constant)7.355.9437.797.000COMP.342.091.3493.763.00011(Constant)5.6261.1055.090.000COMP.490.105.4894.659.000a. Dependent Variable: PICTCOMP此表格给出了自变量的标准化回归系数Beta值,在女性组中,标准化Beta为.349;在男性组中Beta值为.489,且都到达显著性水平p<.001,说明自变量comp对因变量有显著的预测作用。

但并不能说明有调节作用需要用到fisher z检验或chow test. 上述对分类调节变量操作和解释主要是基于SPSS来实现的, AMOS软件也有同样功能,下面以同样回归方程变量为例谈下如何在AMOS中实现多组回归分析〔multiple group analyze〕:第一步:模型设置好后,点击analyze\manage groups:第二步:在弹出的窗口输入女,如下:第三步:设置好第一组名称后,点击new,急速输入第二组名称:第三步:设置好两个组后,关闭组别设置窗口,回到主界面,点击File\data files,如以下列图:第四步:在弹出窗口中可以看到如下两组名称:第五步:然后点击女组数据,再点击file name,翻开数据文件,然后点击grouping variable,这时系统会弹出你的spss数据文件中的变量,在其中选择你的分类变量,按分组变量的值设置好女性组的数据;男组数据重复这个过程,见以下列图:设置好分组以后,点击ok,回到主界面,进展模型比拟设置〔温忠麟关于在AMOS中进展分组比拟的策略,采用如下做法:先将两组的构造方程回归系数限制为相等 ,得到一个χ2 值和相应的自由度。

然后去掉这个限制 ,重新估计模型 ,又得到一个χ2值和相应的自由度前面的χ2减去后面的χ2得到一个新的χ2,其自由度就是两个模型的自由度之差如果χ2检验结果是统计显著的 ,则调节效应显著〕第六步:设置限制模型和无限制模型点击analyze\manage models,首先设置无限制模型〔无任何限制,不需要改动〕;然后点击下面的new,设置构造方程回归系数限制相等模型,如以下列图:注:上图限制模型中,W表示所有回归系数,可在Plugin\name parameter中进展设置第七步:两个模型设置好后,进展分析设置,点击view\ananlysisProperties,在output中选中前面三项和临界比率检验一项,回到主界面,点击左侧绘图工具栏中的运算图标,即可得到输出结果,操作如下:第八步:看分组比拟运算结果,一个看模型图的标准化输出,一个看文本输出结果,本例输出结果如以下列图: 图1:女性组无限制模型标准化路径图 图2 男性组无限制模型标准化路径图 图3 女性组限制模型标准化路径图 图4 男性组限制模型标准化路径图从上述分组比拟的标准化路径图来看,限制模型和无限制模型在一些拟合指标上并无显著变化,且两者的卡方与自由度之比都小于2,这提示我们可能性别的调节效应并不显著,为了进一步检验,我们结合文本输出结果来判断是否无限制模型和限制模型的区别不显著,具体分析见如下表格与结果分析:Assuming model 无限制模型〔所有参数自由估计〕 to be correct:ModelDFCMINPNFIDelta-1IFIDelta-2RFIrho-1TLIrho2限制模型〔所有回归权重限制相等〕88.545.382.018.021-.001-.001上表是分组回归分析无限制模型和限制模型的比拟,从表中可知,对模型所有构造方程系数限制为相等后,卡方值改变量CMIN/df=8.545/8的临界比率P>.05,卡方值改变量不显著,因此可以从卡方值判断,性别对于两个潜变量的调节效应不显著。

CMINand CMIN/DF:ModelNPARCMINDFPCMIN/DF限制模型〔所有回归权重限制相等〕3876.72570.2721.096无限制模型〔所有参数自由估计〕4668.18062.2751.100Saturated model108.0000Independence model36467.86672.0006.498 上表检验了限制模型和自由估计模型的卡方值及其卡方与自由度自比,两者的P都大于.05,且卡方与自由度之比都小于2,说明模型都拟合良好,这进一步说明无限制模型和限制模型无显著区别Baseline ComparisonsModelNFIDelta1RFIrho1IFIDelta2TLIrho2CFI限制模型〔所有回归权重限制相等〕.836.831.983.983.983无限制模型〔所有参数自由估计〕.854.831.985.982.984Saturated model1.0001.0001.000Independence model.000.000.000.000.000上表是基线比拟结果,NFI、RFI、IFI、TLI、CFI指标在限制模型和无限制模型中并无明显改变。

RMSEAModelRMSEALO 90HI 90PCLOSE限制模型〔所有回归权重限制相等〕.024.000.052.937无限制模型〔所有参数自由估计〕.024.000.053.922Independence model.178.163.194.000上表的RMSEA指标在限制模型和无限制模型中为相等<.05,说明限制模型和无限制模型都有良好的模型拟合结论:从上述标准化路径图和表格输出结果来看,限制模型和无限制模型的区别不显著,意味着性别对两个潜变量的调节效应不明显4.连续自变量〔X〕+连续调节变量〔M〕 这种类型相对来说操作比拟简单,只需要把所有变量中心化之后就可以进展层次回归分析,标准化回归方程为:Y=bx+cm+e 1)Y=b1x+cm+c1mx+e 2)对上述方程的检验同层次回归分析有学生对调节变量的本质和分析方法存有疑问,现解释如下先来说说什么是调节变量依据Baron和Kenny〔1986〕的定义,调节变量指:影响自变量和因变量之间的关系方向或强度的定类〔如性别、种族、社会阶层〕或连续〔如回报的程度〕变量假设从相关分析的角度来看,调节变量是零阶相关变量之外的第3个变量。

例如Stern,McCants和Pettine〔1982〕的研究发现,改变生活的重大事件与患病严重程度之间的关系受到该事件是否可以控制当事件不可控时〔如配偶死亡〕,二者之间的关系更强;当事件可控时〔如离婚〕,二者关系变弱这里,事件是否可控,就是一个调节变量,是改变生活的重大事件〔自变量〕与患病严重程度〔因变量〕之间的调节变量调节变量的图式大家很明白了,假设从相关分析的角度出发,调节变量可以用以下列图来表示:Predictor:预测变量,又称自变量;Moderator:调节变量;Outcome Variable:结果变量,又称因变量可以看到,Predictor X Moderator〔自、调变量的乘积项〕作为一个新的变量,考察它对因变量的相关假设路径C的系数显著,则调节效应存在自变量与因变量之间的关系称为主效应,但假设调节效应存在,考察主效应是不恰当的为什么因为自、因变量之间的关系取决于调节变量的取值与自变量-中介变量的关系〔自变量是中介变量的前导变量antecedent〕不同,调节变量与自变量地位平等,都是因变量的前导变量也就是说,调节变量通常扮演着与自变量一样的角色调节效应的分析方法选择我们知道,分析方法只是一种解读数据的工具而已。

如同写文章,我们可以用笔来写,也可敲键盘输入,关键的是要知道写什么内容从统计角度看,是变量的类型和变量之间的关系假设决定了我们选择何种方法在这里,关系类型很明确了,就是要检验调节效应,所以只看变量类型变量分为连续型〔定距、定比测量〕和类别型〔定类测量〕自、调变量2者交互,有以下4种类型:1、自变量、调节变量均为类别型变量这种情况是最简单的,直接用多因素方差分析MANOVA就可以了在Fixed Factor中输入自变量和调节变量,在Display means for窗口里输入二者的交互〔也就是乘积项〕,然后看交互项是否显著即可〔适用于自、调变量是二分的情况〕假设自、调变量是三分及以上,注意勾选事后检验〔Post hoc Test〕,可选择的方法多为:LSD、Scheffee〔组间样本不等〕、Tukey〔组间样本相等〕2、自变量是连续变量,调节变量是类别变量这时典型的分析方法是:按照调节变量的不同类型,分别求出自变量与因变量的相关,然后比拟相关系数的是否有显著差异这种方法有两个缺点:1、这样分析的前提是自变量在调节变量的不同水平上应该方差齐如果方差不齐,那么方差小的那组的自-因变量之间的相关要小于方差大的那组的自-因变量的相关。

2、如果因变量的测量误差是调节变量的函数,那么自-因变量之间的相关系数则是虚假的〔Baron,Kenny,1986〕假设上面2条都满足,用SPSS分析就很简单了:按照调节变量的不同类别,分别求出自-因变量的相关系数别快乐得太早,麻烦的问题接踵而至:如何看两个相关系数之间是否有显著差异这个问题在任何一本SPSS教程里都没有现参考竹家庄提供的方法:什么是两个相关系数之差异这要从“相关系数也是一个统计量(a statistic)〞这一 根本概念说起什么是统计量样本中的每个变量都有一些特征值,如平均值〔数值变量〕或百分比〔名目变量〕、标准差、等等它们被称为“单变量统计量〞 (univariate statistic)两个统计量〔如两个平均值〕之间的差异,也是一个统计量,叫做“双变量统计量〞(bivariate statistic),我们都知道如何用t-检验来检验两个平均值之间的差异〔因此统计教科书和SPSS里都有t-检验〕其实,双变量统计量不仅包括两个统计量之间的差异(difference between two statistics),也包括两个变量之间的关系(relationship between two variables)。

注意,“两个统计量之间的差异〞和“两个变量之间的关系〞是两回事这里的“两个变量之关系〞可以是相关系数、也可以是回归系数、甚至其它统计量〔如reliability coefficient, factor variance, 等等〕,当然,它们之间都是可以转化的为什么要检验两个相关系数之差异    例如,一个学者的研究中有一个假设:因为电视比互联网更普及,所以看电视与生活满足感的相关程度高于上网与生活满足感的相关程度他做了一个样本为1000人的调查,发现前两者的相关系数为0.27、后两者的相关系数为0.22既然两个变量之间的相关系数是统计量,也既然两个统计量之间的差异也是统计量,那么两个相关系数之间的差异也是一个统计量 (the difference between two statistics is another statistic)任何统计量都是〔也仅是〕对样本某一特征的描述,而不是对研究总体相应特征的推测在这个的例子中,0.27和0.22分别是被调查的1000人中看电视与生活满足感的关系和上网与生活满足感的关系、而两者之差〔0.05〕则同样是该1000人中这两种关系强度之差异如果我们希望知道这种差异是否也在研究总体中存在,就必须做显著性检验。

其中道理,就如同他的样本中人均每天看电视30分钟、上网25分钟,是否可以因此推测总体中看电视时间多于上网时间一样,需要做一个t-检验如何检验两个相关系数之差异    诚然,SPSS并不直接涉及如何检验两个相关系数之间的差异〔或如何检验大局部其它统计量之间的差异或关系〕我认为这是一个不应该的疏忽但是,SPSS提供的,不一定全是重要的;而SPSS没有的,也未必不重要所以,再次呼吁:“同学们,大家起来,不要做SPSS的奴隶〞    那么,如何检验两个相关系数的差异还是从大家熟悉的t-检验讲起我们知道,检验两个平均值的差异是将该差异除以其的标准误差〔即该两个变量平均值的联合标准误差,见公式一的分母〕,并将得到的t-值与t-分布的临界值〔如n=1000时,t-临界值=1.96〕作比拟,从而判断样本的两个平均值之间的差异是否显著〔即是否存在于总体〕                           〔公式一〕同理,检验两个相关系数的差异〔如本例中的0.27-0.22 = 0.05〕,是将其除以其标准误差,并将其结果与相对应的抽样分布临界值做比拟这里有个技术性问题:当总体的相关系数不等于0的时候〔注意:这是很重要的一个前提,但解释起来太复杂,这里就省略了〕,相关系数之差即不服从正态分布〔z-分布〕、也不服从t-分布〔这是早在1915年已被“显著性检验之父〞Ronald Fisher所发现〕,因此必须先用以下的公式二〔Fisher z-transformation〕,将两个相关系数(即r1和r2)分别转化成z-值(即z1和z2)〔其中r是相关系数,ln是自然对数〕:                                            〔公式二〕然后求出 z1 和 z2的差〔Δz〕,再除以z1 和 z2的联合标准误差〔见公式三的分母,其中n是样本量〕,其结果也是一个z-值〔即服从正态分布,因此可以根据其与正态分布的临界点来判断是否显著〕:〔公式三〕在本例中,r1 = 0.27, r2 = 0.22, 因此,z1 = 0.2769, z2 = 0.2237, 其差异 = 0.0532, 标准误差 = 0.0448, z值 = 1.1880, 小于z-分布在95%显著水平上的临界点1.96,也就是说,虽然在样本中看电视与生活满足感的相关程度要强于上网与生活满足感的相关程度,但是在总体中两种相关程度之间是没有差异的。

好了,总结一下,公式二和公式三告诉我们,两个相关系数之间的差异是否显著,只与两个因素有关:相关系数(r)本身的大小和样本量(n)的大小他的样本有1000人,足够大矣但0.27和0.22之间的差异仍不显著,说明问题在于0.27还不够大、或0.22还不够小其实,我们可以根据上述公式,倒过来求出两个相关系数之差要到达在95%上显著的最小值这里就不赘言,当作家庭作业留给大家吧最后,你也许会问,上述计算一定要手算吗当然未必Excel里就有Fisher转化公式的函数 Fisher(),即在括号里输入你的相关系数,就会替你算出其相对应的z-值然后,再按公式三在Excel里求出Δz,如以下的公式就可以一步到位算出本例的Δz:                            =(fisher(0.27)-fisher(0.22)/sqrt(1/(1000-3)+1/(1000-3))          〔公式四〕在SAS里,也有直接计算的程序如在SPSS里,则要写一个类似公式四的syntax,但因为没有fisher()函数可调用,所以其公式要复杂很多,还不如手工或Excel里计算来得方便现在再来说说不满足相关分析的2个前提时应该怎么办。

2个前提说明,相关系数受到方差的影响然而,回归系数不会受到自变量的方差或因变量的测量误差的影响一个较好的方法是,使用回归分析的未标准化系数注意,如果自变量在调节变量的每个水平上都有测量误差,用回归也会出现偏差最好的方法就是多组构造方程模型了〔multiple-group SEM〕这个方法很复杂,我将另撰文专述3、自变量是类别变量,调节变量是连续变量这种情况下,我们必须事先知道自变量随着因变量终究如何变化〔根据已有理论或文献〕调节变量可能随自-因变量之间的关系进展如下3种理想化的改变:1、自变量对因变量的关系随着调节变量而线性变化;2、二次方变化;3、梯形变化我们通常假定第一种〔线性〕方式,可用回归分析来做:将自变量X,调节变量Z,以及它们的乘积XZ作为预测变量,对因变量Y进展回归分析调节效应表现在:当X和Z被控制时,XZ的显著程度〔即勾选R Square Change,看R Square的改变是否显著,通过F值的改变量来看〕具体操作为:为了便于说明,假定我们要分析的因变量为Y、自变量为X、调节变量(moderator)为Z、交互变量为XZ,其模型为:Y = a + bX + cZ + dXZ。

第一步、生成XZ〔即X乘以Z〕第二步、检查X、Z、XZ三者的相关系数一般说来,不管X和Z是否相关,X和XZ、Z和XZ之间的相关关系会比拟高〔因为X和Z是XZ的组成局部〕,这会使得回归结果中的d值〔见上述模型〕的显著程度甚至正负方向都有问题,所以需要用第五步里介绍的方法来检验其显著程度;而如果X和XZ或Z和XZ的相关系数过高〔如大于0.8〕,需要分别先对X和Z进展“中心化〞〔centering,即把X减去X的平均值、Z减去Z的平均值、然后将其结果相乘〕,然后才来解读其正负方向〔如下所示,d的正负方向很重要〕第三步、建设“主影响(main effects)模型〞,即Y = a + bX + cZ,这里的b和c就是描述了自变量X和调节变量Z各自的主影响在SPSS的回归分析中的选项为:注意图中的“Block1 of 1〞和“Method = Enter〞前者指已输入的X和Z这两个Independent variables构成了第一模块〔Block 1);而后者是将两个自变量同时、“强行〞推入模型〔这是最合理的进入方法、不要改成其它的选择〕选择完了,不要执行“OK〞,而是继续第四步第四步、建设“交互影响模型〞,其模型即Y = a + bX + cZ + dXZ。

但在SPSS中,是紧接着第三步的同一个回归分析,即点击“Block 1 of 1〞下面的“Next〞,然后将XZ参加Independent的窗口:注意这时只能将XZ参加,而不能将X或Z参加〔因为这两者已在Block 1中出现了,不能出现两次〕需要说明的是model 与block的联系与区别在第三步里的Model 1 和 Block 1是一样的,都是Y = a + bX + cZ而在第四步中,Model 2 是Y = a + bX + cZ + dXZ,而Block 2则只有 dXZ这一项这种区别在理解第五步时很重要第五步、执行回归分析,先点击Statistics,加选“R Squared Change〞〔以检验model 1与model 2 之间的差异〕,然后OK第六步、检验交互影响的显著度在SPSS结果中,找到Model Summary表,与常规的回归分析结果相比,多了“Change Statistics〞一块,就是用来检验交互影响的其中Model的R Square指该模型的解释能力、而它的R Square Change指该模型中新出现的Block〔即其所包含的所有变量〕的独立解释能力。

如上所述,Model 1与Block 1是一回事,所以其R Square和R Square Change也是一样的但Model 2与Block2则不一样,所以其R Square指X、Z、XZ三者的共同解释力、而R Square Change〔= Model 2的R Square - Model 1的R Square〕,与之相对应的Sig. F Change就是该R Square Change〔也即Block 2,或XZ〕的显著性检验有人也许会问,为何不用Coefficients表里XZ所对应的Sig来检验其显著性这是因为如第二步中所指出的,X或Z与XZ往往高度相关,所以XZ的standard error会被虚假缩水、从而使得其Sig变得虚假提高〔即其值变得更小〕,所以有很大的犯Type I error的风险,而R Square Change是不受其影响的第六步、解读交互影响的理论意义做交互影响〔即d〕的人,一定道“d反映的是X对Y的影响随着Z的变化而调节〞(d describes the effect of X on Y as moderated by Z) 之类的定义具体来说,如果d > 0,X 对Y的影响〔即b〕会随着Z的增加而增加;如果d < 0, X 对Y的影响〔即b〕会随着Z的增加而减少。

4、自变量和调节变量都是连续型变量在这种情况下,如果认为调节变量对自-因变量的改变是阶梯型的,则可在阶梯处将调节变量转化为二分变量,此时的分析方法见情况2如果调节变量对自-因变量之间的关系改变是线性或二次方的,则使用情况3的分析方法。

下载提示
相关文档
正为您匹配相似的精品文档