SPSS相关性分析时两变量负相关,回归分析却是正相关,这样如何解释

请问你的这个问题“SPSS相关性分析时两变量负相关,回归分析却是正相关,这样如何解释”解决了吗?我也碰到了相同的问题,谢谢!

SPSS相关性分析时两变量负相关,回归分析却是正相关,解释如下:

pearson相关分析在spss中的作用是简单地考虑变量之间的关系。 尽管可以在分析过程中同时放置多个变量,但是结果是两个变量之间的简单关联,也就是不在求两变量相关时考虑其他的控制变量

但是,回归是不同的。 回归的结果是对进入回归方程的所有自变量和因变量进行积分的结果,也就是说,在回归当中你所看到的相关,是在控制了其他进入回归方程的变量之后的。

因此,普通相关和回归之间的回归系数会有很大差异。

扩展资料:

例如,如果检查变量a,b和c之间的关系,如果使用常规相关性,则结果将显示a和b之间的简单相关性,b和c之间的简单相关性以及a和c之间的简单相关性 。 相关仅涉及两个变量,与第三个变量无关。

但是在回归的情况下,回归中a和b的相关性是减去c变量的影响后的,而b和c的相关是在减去a的效应后的,a和c的相关是减去b的效应后的。不同的计算方法导致不同的结果。

因此,在相关分析中两个变量是负相关是正常的,而回归分析是正相关的。

温馨提示:答案为网友推荐,仅供参考
第1个回答  2018-10-23
在这个图表中,你说的R值就是皮尔逊相关系数~(pearson correlation)

r>0 代表两变量正相关,r<0代表两变量负相关。

|r|大于等于0.8时,可以认为两变量间高度相关;
|r|大于等于0.5小于0.8时,可以认为两变量中度相关;
|r|大于等于0.3小于0.5时,可以认为两变量低度相关。
小于0.3说明相关程度弱,基本不相关。

上面说了啊~表格里的pearson correlation,就是R值
表格里黄色加重的几个r值,是呈现显著相关的。
简单来说,
正相关是一个变量变大,另一个变量也变大
负相关就是一个变量变大,另一个变量变小
第2个回答  推荐于2017-11-26
spss里的pearson相关分析的作用就是单纯考量变量两两之间的关系,虽然你可以在分析时一次放入多个变量,但出来的结果都是两个变量的简单的相关,也就是不在求两变量相关时考虑其他的控制变量。
然而回归不同,回归的结果是综合所有进入回归方程的自变量对因变量的结果而成的,也就是说,在回归当中你所看到的相关,是在控制了其他进入回归方程的变量之后的。
因此,普通相关与回归之中的回归系数会有比较大的差别。举个例子,比如你考查变量a,b,c之间的关系,如果你使用一般的相关,那么其结果呈现的是a和b的简单相关,b和c的简单相关,a和c的简单相关,每一个相关都只涉及到两个变量,而与第三个变量无关,但如果是回归,回归里a和b的相关是在减去c变量的效应之后的,b和c的相关是在减去a的效应后的,a和c的相关是减去b的效应后的。
计算方法不同,得出的结果就不同。所以相关性分析时两变量负相关,回归分析却是正相关这很正常。出现任何形式的不同都不奇怪本回答被提问者采纳
第3个回答  2014-08-23
把图贴上看一下,我不太相信你说的结果,同样的算法不可能出现不同的结果,你可能不太会看结果追问

“中子37”解释的很清楚

第4个回答  2018-11-26
这可能是由于存在多重共线性的问题
相似回答