什么是分层逐步多元回归分析? 分层回归分析如何分层

\u9010\u6b65\u56de\u5f52\u548c\u5c42\u6b21\u56de\u5f52\u6709\u4ec0\u4e48\u533a\u522b

\u9010\u6b65\u56de\u5f52\u662f\u4e00\u79cd\u7ebf\u6027\u56de\u5f52\u6a21\u578b\u81ea\u53d8\u91cf\u9009\u62e9\u65b9\u6cd5\uff0c\u5176\u57fa\u672c\u601d\u60f3\u662f\u5c06\u53d8\u91cf\u4e00\u4e2a\u4e00\u4e2a\u5f15\u5165\uff0c\u5f15\u5165\u7684\u6761\u4ef6\u662f\u5176\u504f\u56de\u5f52\u5e73\u65b9\u548c\u7ecf\u9a8c\u662f\u663e\u8457\u7684\u3002\u540c\u65f6\uff0c\u6bcf\u5f15\u5165\u4e00\u4e2a\u65b0\u53d8\u91cf\u540e\uff0c\u5bf9\u5df2\u5165\u9009\u56de\u5f52\u6a21\u578b\u7684\u8001\u53d8\u91cf\u9010\u4e2a\u8fdb\u884c\u68c0\u9a8c\uff0c\u5c06\u7ecf\u68c0\u9a8c\u8ba4\u4e3a\u4e0d\u663e\u8457\u7684\u53d8\u91cf\u5220\u9664\uff0c\u4ee5\u4fdd\u8bc1\u6240\u5f97\u81ea\u53d8\u91cf\u5b50\u96c6\u4e2d\u6bcf\u4e00\u4e2a\u53d8\u91cf\u90fd\u662f\u663e\u8457\u7684\u3002\u6b64\u8fc7\u7a0b\u7ecf\u8fc7\u82e5\u5e72\u6b65\u76f4\u5230\u4e0d\u80fd\u518d\u5f15\u5165\u65b0\u53d8\u91cf\u4e3a\u6b62\u3002\u800c\u201c\u5c42\u6b21\u56de\u5f52\u201d\u5219\u7531\u7814\u7a76\u8005\u6839\u636e\u7406\u8bba\u6216\u5b9e\u9645\u9700\u8981\u786e\u5b9a\u4e0d\u540c\u53d8\u91cf\u8fdb\u5165\u56de\u5f52\u65b9\u7a0b\u7684\u987a\u5e8f\u3002

\u6e29\u99a8\u63d0\u793a\uff1a\u4ee5\u4e0a\u89e3\u91ca\u4ec5\u4f9b\u53c2\u8003\u3002
\u5e94\u7b54\u65f6\u95f4\uff1a2021-04-16\uff0c\u6700\u65b0\u4e1a\u52a1\u53d8\u5316\u8bf7\u4ee5\u5e73\u5b89\u94f6\u884c\u5b98\u7f51\u516c\u5e03\u4e3a\u51c6\u3002
[\u5e73\u5b89\u94f6\u884c\u6211\u77e5\u9053]\u60f3\u8981\u77e5\u9053\u66f4\u591a\uff1f\u5feb\u6765\u770b\u201c\u5e73\u5b89\u94f6\u884c\u6211\u77e5\u9053\u201d\u5427~
https://b.pingan.com.cn/paim/iknow/index.html

\u5206\u5c42\u56de\u5f52\u901a\u5e38\u7528\u4e8e\u4e2d\u4ecb\u4f5c\u7528\u6216\u8005\u8c03\u8282\u4f5c\u7528\u7814\u7a76\u4e2d\u3002
\u5206\u6790\u65f6\u901a\u5e38\u7b2c\u4e00\u5c42\u653e\u5165\u57fa\u672c\u4e2a\u4eba\u4fe1\u606f\u9898\u9879\u6216\u63a7\u5236\u53d8\u91cf; \u7b2c\u4e8c\u5c42\u653e\u5165\u6838\u5fc3\u7814\u7a76\u9879\u3002\u4f7f\u7528SPSSAU\u5728\u7ebfspss\u5206\u6790\uff0c\u8f93\u51fa\u683c\u5f0f\u5747\u4e3a\u6807\u51c6\u683c\u5f0f\uff0c\u590d\u5236\u7c98\u8d34\u5230word\u5373\u53ef\u4f7f\u7528\u3002

所谓回归分析法,是在掌握大量观察数据的基础上,利用数理统计方法建立因变量与自变量之间的回归关系函数表达式(称回归方程式)。回归分析中,当研究的因果关系只涉及因变量和一个自变量时,叫做一元回归分析;当研究的因果关系涉及因变量和两个或两个以上自变量时,叫做多元回归分析。此外,回归分析中,又依据描述自变量与因变量之间因果关系的函数表达式是线性的还是非线性的,分为线性回归分析和非线性回归分析。通常线性回归分析法是最基本的分析方法,遇到非线性回归问题可以借助数学手段化为线性回归问题处理。
分层回归其实是对两个或多个回归模型进行比较。我们可以根据两个模型所解释的变异量的差异来比较所建立的两个模型。一个模型解释了越多的变异,则它对数据的拟合就越好。假如在其他条件相等的情况下,一个模型比另一个模型解释了更多的变异,则这个模型是一个更好的模型。两个模型所解释的变异量之间的差异可以用统计显著性来估计和检验。

模型比较可以用来评估个体预测变量。检验一个预测变量是否显著的方法是比较两个模型,其中第一个模型不包括这个预测变量,而第二个模型包括该变量。假如该预测变量解释了显著的额外变异,那第二个模型就显著地解释了比第一个模型更多的变异。这种观点简单而有力。但是,要理解这种分析,你必须理解该预测变量所解释的独特变异和总体变异之间的差异。

一个预测变量所解释的总体变异是该预测变量和结果变量之间相关的平方。它包括该预测变量和结果变量之间的所有关系。

预测变量的独特变异是指在控制了其他变量以后,预测变量对结果变量的影响。这样,预测变量的独特变异依赖于其他预测变量。在标准多重回归分析中,可以对独特变异进行检验,每个预测变量的回归系数大小依赖于模型中的其他预测变量。

在标准多重回归分析中,回归系数用来检验每个预测变量所解释的独特变异。这个独特变异就是偏相关的平方(Squared semi-partial correlation)-sr2(偏确定系数)。它表示了结果变量中由特定预测变量所单独解释的变异。正如我们看到的,它依赖于模型中的其他变量。假如预测变量之间存在重叠,那么它们共有的变异就会削弱独特变异。预测变量的独特效应指的是去除重叠效应后该预测变量与结果变量的相关。这样,某个预测变量的特定效应就依赖于模型中的其他预测变量。

标准多重回归的局限性在于不能将重叠(共同)变异归因于模型中的任何一个预测变量。这就意味着模型中所有预测变量的偏决定系数之和要小于整个模型的决定系数(R2)。总决定系数包括偏决定系数之和与共同变异。分层回归提供了一种可以将共同变异分配给特定预测变量的方法。

分层回归

标准多重回归可以测量模型所解释的变异量的大小,它由复相关系数的平方(R2,即决定系数)来表示,代表了预测变量所解释的因变量的变异量。模型的显著性检验是将预测变量所解释的变异与误差变异进行比较(即F值)。

但是,也可以采用相同的方式来比较两个模型。可以将两个模型所解释的变异之差作为F值的分子。假如与误差变异相比,两个模型所解释的变异差别足够大,那么就可以说这种差别达到了统计的显著性。相应的方程式将在下面详细阐述。

分层回归就是采用的这种方式。分层回归包括建立一系列模型,处于系列中某个位置的模型将会包括前一模型所没有的额外预测变量。假如加入模型的额外解释变量对解释分数差异具有显著的额外贡献,那么它将会显著地提高决定系数。

这个模型与标准多重回归的差异在于它可以将共同变异分配到预测变量中。而在标准多重回归中,共同变异不能分配到任何预测变量中,每个预测变量只能分配到它所解释的独特变异,共同变异则被抛弃了。在分层回归中,将会把重叠(共同)变异分配给第一个模型中的预测变量。因此,共同变异将会分配给优先进入模型的变量。

重叠的预测变量(相关的预测变量Predictor variables that overlap)
简单地看来,由一系列预测变量所解释的变异就像一块块蛋糕堆积在一起。每个预测变量都有自己明确的一块。它们到达桌子的时间是无关紧要的,因为总有同样大小的蛋糕在等着它们。不同部分变异的简单相加就构成了某个模型所解释的总体变异。

但是,这种加法的观点只有在每个预测变量互相独立的情况下才是正确的。对于多重回归来说,则往往不正确。假如预测变量彼此相关,它们就会在解释变异时彼此竞争。归因于某个预测变量的变异数量还取决于模型中所包含的其他变量。这就使得我们对两个模型的比较进行解释时,情况变得更为复杂。

方差分析模型是建立在模型中的因素相互独立的基础上的。在ANOVA中,因素对应于多重回归中的预测变量。这些因素具有加法效应,变异(方差)可以被整齐地切开或分割。这些因素之间是正交的。

但是,在多重回归中,变量进入模型的顺序会影响该变量所分配的变异量。在这种情况下,预测变量就像一块块浸在咖啡杯中的海绵。每一块都吸收了一些变异。在分层多重回归中,第一块浸入咖啡杯的海绵首先吸收变异,它贪婪地吸收尽可能多的变异。假如两个预测变量相关,那它们所解释的变异就存在重叠。如果一个变量首先进入模型,那它就将重叠(共同)变异吸收据为己有,不再与另一个变量分享。

在标准多重回归中,所有预测变量同时进入模型,就像将所有海绵同时扔进咖啡杯一样,它们互相分享共同变异。在这种情况下,偏相关的平方(sr2)与回归系数相等,它们检验了相同的东西:排除了任何共同变异后的独特变异。这样,在多重回归中,对回归系数的T检验就是sr2的统计显著性检验。但是,在分层回归或逐步回归中,sr2不再与回归系数相等。但T检验仍然是对回归系数的检验。要估计sr2是否显著,必须对模型进行比较。

模型比较就是首先建立一个模型(模型a),使它包括除了要检验的变量以外的所有变量,然后再将想要检验的变量加入模型(模型b),看所解释的变异是否显著提高。要检验模型b是否要比模型a显著地解释了更多的变异,就要考察各个模型所解释的变异之差是否显著大于误差变异。下面就是检验方程式(Tabachnik and Fidell, 1989)。

(R2b-R2a)/M

F = ————————

(1+ R2b) /dferror

(2为平方,a,b为下标。不知道在blog里如何设置文字格式)

原文(DATA ANALYSIS FOR PSYCHOLOGY, George Dunbar)如此,但参考了其他书后,觉得这是误印,真正的公式应该是这样的:

(R2b-R2a)/M

F = ————————

(1- R2b) /dferror
注:

M是指模型b中添加的预测变量数量

R2b是指模型b(包含更多预测变量的模型)的复相关系数的平方(决定系数)。

R2a是指模型a(包含较少预测变量的模型)的复相关系数的平方(决定系数)。

dferror是指模型b误差变异的自由度。

分层回归与向前回归、向后回归和逐步回归的区别
后三者都是选择变量的方法。

向前回归:根据自变量对因变量的贡献率,首先选择一个贡献率最大的自变量进入,一次只加入一个进入模型。然后,再选择另一个最好的加入模型,直至选择所有符合标准者全部进入回归。

向后回归:将自变量一次纳入回归,然后根据标准删除一个最不显著者,再做一次回归判断其余变量的取舍,直至保留者都达到要求。

逐步回归是向前回归法和向后回归法的结合。首先按自变量对因变量的贡献率进行排序,按照从大到小的顺序选择进入模型的变量。每将一个变量加入模型,就要对模型中的每个变量进行检验,剔除不显著的变量,然后再对留在模型中的变量进行检验。直到没有变量可以纳入,也没有变量可以剔除为止。

向前回归、向后回归和逐步回归都要按照一定判断标准执行。即在将自变量加入或删除模型时,要进行偏F检验,计算公式为:

(R2b-R2a)/M

F = ————————

(1- R2b) /dferror

SPSS回归所设定的默认标准是选择进入者时偏F检验值为3.84,选择删除者时的F检验值为2.71。

从上面可以看出,分层回归和各种选择自变量的方法,其实都涉及模型之间的比较问题,而且F检验的公式也相等,说明它们拥有相同的统计学基础。但是,它们又是不同范畴的概念。分层回归是对于模型比较而言的,而上面三种方法则是针对自变量而言的。上面三种选择自变量的方法,都是由软件根据设定标准来自动选择进入模型的变量。而分层回归则是由研究者根据经验和理论思考来将自变量分成不同的组(block),然后再安排每一组变量进入模型的顺序,进入的顺序不是根据贡献率,而是根据相应的理论假设。而且,研究者还可以为不同组的自变量选用不同的纳入变量的方法。

分层回归在SPSS上的实现

在线性回归主对话框中,在定义完一组自变量后,在因变量不变的情况下,利用block前后的previous和next按钮,继续将其他变量组加入模型。

分层回归通常用于中介作用或者调节作用研究中。

分析时通常第一层放入基本个人信息题项或控制变量;第二层放入核心研究项。使用SPSSAU在线spss分析,输出格式均为标准格式,复制粘贴到word即可使用。

分层回归其实是对两个或多个回归模型进行比较。我们可以根据两个模型所解释的变异量的差异来比较所建立的两个模型。一个模型解释了越多的变异,则它对数据的拟合就越好。

假如在其他条件相等的情况下,一个模型比另一个模型解释了更多的变异,则这个模型是一个更好的模型。两个模型所解释的变异量之间的差异可以用统计显著性来估计和检验。

扩展资料:

前面介绍的回归分析中的自变量和因变量都是数值型变量,如果在回归分析中引入虚拟变量(分类变量),则会使模型的应用范围迅速扩大。在自变量中引入虚拟变量本身并不影响回归模型的基本假定,因为经典回归分析是在给定自变量X的条件下被解释变量Y的随机分布。

但是如果因变量为分类变量,则会改变经典回归分析的基本假定,一般在计量经济学教材中有比较深入的介绍,如Logistics回归等。

参考资料来源:百度百科-多元回归分析



分层逐步多元回归分析,是指分层回归,每一层都用逐步回归的方法。

分层回归的SPSS操作参考下面网址

http://jingyan.baidu.com/article/20b68a8865ff2a796dec6263.html

逐步回归参考下面步骤:

 



分层回归通常用于中介作用或者调节作用研究中。

分析时通常第一层放入基本个人信息题项或控制变量; 第二层放入核心研究项。使用SPSSAU在线spss分析,输出格式均为标准格式,复制粘贴到word即可使用。



一般来说,将比较固定的变量比如人口统计学变量放入第一层;之后再逐步加入其它变量。回归的方法我一般在BLOCK1里面选择ENTER法,BLOCK2选择STEPWISE法。

  • 浜屾椤圭殑璋冭妭浣滅敤濡備綍妫楠
    绛旓細1銆佽皟鑺備綔鐢ㄧ殑妫楠屽氨鏄垎灞傚鍏冨洖褰锛屽氨鏄仛鍑犳鍥炲綊鐨勬剰鎬濄傚叿浣撴楠わ細瀵硅嚜鍙橀噺鍜岃皟鑺傚彉閲忔爣鍑嗗寲锛屾瀯閫犱箻绉」锛屾妸鏍囧噯鍖栧悗鐨勮嚜鍙橀噺鍜岃皟鑺傚彉閲忕浉涔樸2銆佺涓娆″洖褰掞紝濡傛灉鏈夋帶鍒跺彉閲忥紝灏辨槸鍥犲彉閲忓鎺у埗鍙橀噺鍥炲綊涓涓嬶紝鏂圭▼鏄捐憲鍗冲彲锛屼笉闇瑕佺湅姣忎釜鎺у埗鍙橀噺鏄笉鏄樉钁楋紝涓昏鏄负浜嗗悗闈綋鐜版帶鍒朵綔鐢紝濡傛灉娌℃湁...
  • 澶氬厓闃跺眰鍥炲綊鍒嗘瀽鍦╯pss涓庝箞鍋?
    绛旓細鍙娇鐢╯pssau鐨鍒嗗眰鍥炲綊锛屾搷浣滅畝鍗曚袱姝ュ嚭缁撴灉銆傛搷浣滄楠わ細1銆侀夋嫨spssau鐨勫垎灞傚洖褰掋2銆佹斁鍏鍒嗘瀽椤癸紝鍏朵粬鎸囨爣椤瑰潎鑷姩鐢熸垚涓嶇敤璁剧疆銆傚悓鏃剁敓鎴愭爣鍑嗚〃鏍肩粨鏋滃強鏅鸿兘鏂囧瓧鍒嗘瀽锛屼笉浼氱粺璁″涔熷彲浠ョ湅鎳傘
  • 澶氬厓鍒嗗眰鍥炲綊闇瑕佷腑蹇冨寲鍚
    绛旓細澶氬厓鍒嗗眰鍥炲綊涓嶉渶瑕佷腑蹇冨寲銆傚洜鍙橀噺涓嶉渶瑕佸仛涓績鍖栬浆鎹傜涓姝ユ槸鑷彉閲忚繘鍏ュ洖褰掓柟绋嬨佺浜屾鏄嚜鍙橀噺鍜岃皟鑺傚彉閲忎竴璧疯繘鍏ャ佺涓夋鏄嚜鍙橀噺銆佽皟鑺傚彉閲忋佷氦浜掗」涓璧疯繘鍏ャ佸皢璋冭妭鍙橀噺鍒嗘垚楂樹綆缁,鍋氳嚜鍙橀噺涓庡洜鍙橀噺鐨鍥炲綊鍒嗘瀽,鍐嶆瘮杈冮珮浣庣粍鑷彉閲忓鍥犲彉閲忕殑褰卞搷绯绘暟澶у皬,杩涜鏂滅巼妫楠屻
  • 姹傚ぇ绁濻PSS甯繖鐪嬩竴涓,杩欎釜鍒嗗眰鍥炲綊鍒嗘瀽鍚庣殑缁撴灉鏄浠涔鐘跺喌鍟!
    绛旓細鍒嗗眰鍥炲綊閫氬父鐢ㄤ簬涓粙浣滅敤鎴栬呰皟鑺備綔鐢ㄧ爺绌朵腑銆鍒嗘瀽鏃堕氬父绗竴灞傛斁鍏ュ熀鏈釜浜轰俊鎭椤规垨鎺у埗鍙橀噺; 绗簩灞傛斁鍏ユ牳蹇冪爺绌堕」銆備娇鐢⊿PSSAU鍦ㄧ嚎spss鍒嗘瀽缁撴灉鏄剧ず濡備笅锛歊²锛氭ā鍨嬬殑瑙i噴鍔涘害 F 鍊硷細鐢ㄤ簬鍒ゆ柇妯″瀷鏄惁鏈夋剰涔夛紝濡傛灉瀵瑰簲P鍊煎皬浜0.05璇存槑妯″瀷鏈夋剰涔 鈻砇²锛氭ā鍨嬪彉鍖栨椂锛孯²鍊肩殑鍙樺寲鎯呭喌...
  • 璇烽棶,鍒嗗眰鍥炲綊鍒嗘瀽鍜閫愭鍥炲綊鍒嗘瀽鏄笉鏄睘浜澶氬厓缁熻鍒嗘瀽?
    绛旓細澶氫釜鑷彉閲忓氨鏄澶氶噸鍥炲綊锛屾湁鐨勪汉涔熺炕璇戜负澶氬厓鍥炲綊 鎴戞浛鍒汉鍋氳繖绫荤殑鏁版嵁鍒嗘瀽铔鐨
  • 鍒嗗眰鍥炲綊鍒嗘瀽缁撴灉瑙h,鍏蜂綋鎬庝箞鐪
    绛旓細鍒嗗眰鍥炲綊鍒嗘瀽骞朵笉澶嶆潅锛屽氨鏄姞鍏ュ嚑灞傝屽凡銆備娇鐢ㄧ綉椤祍pss鍙互寰楀埌绫讳技鐨勭粨鏋滐紝鎿嶄綔涓婁篃闈炲父绠鍗曘
  • 鍒嗗眰鍥炲綊鏄昏緫鍥炲綊鍚
    绛旓細鍒嗗眰鍥炲綊鐨勭壒鐐癸細1銆佸灞傛缁撴瀯 鍒嗗眰鍥炲綊閫傜敤浜庢暟鎹叿鏈夊祵濂楃粨鏋勶紝渚嬪涓綋鍐呰瀵熺殑澶氫釜鏃堕棿鐐广佷笉鍚屽眰娆$殑缇や綋鎴栧尯鍩熺瓑銆傝繖绉嶆暟鎹粨鏋勫鑷磋娴嬩箣闂村瓨鍦ㄧ浉鍏虫у拰渚濊禆鎬с2銆佹ā鍨嬭瘎浼 鍒嗗眰鍥炲綊鐨勬ā鍨嬭瘎浼板彲浠ヤ娇鐢ㄧ被浼间簬浼犵粺鍥炲綊鍒嗘瀽鐨勬寚鏍囷紝濡傛嫙鍚堜紭搴︺佹樉钁楁ф楠屻佸洖褰掔郴鏁扮瓑銆傛澶栵紝杩樺彲浠ヤ娇鐢ㄩ殢鏈烘晥搴旀ā鍨嬬殑...
  • 褰卞搷鍏崇郴鐮旂┒鏂规硶渚嬪瓙
    绛旓細褰卞搷鍏崇郴鐮旂┒鏂规硶渚嬪瓙濡備笅 r閫氱敤鍨嬬嚎鎬у洖褰掞細濡傛灉鍥炲綊妯″瀷涓璛浠呬负1涓紝姝ゆ椂灏辩О涓虹畝鍗曠嚎鎬у洖褰掓垨鑰呬竴鍏冪嚎鎬у洖褰掞紱濡傛灉X鏈夊涓紝姝ゆ椂绉颁负澶氬厓绾挎у洖褰掞紝Y婊¤冻瀹氶噺鏁版嵁鍗冲彲銆傞愭鍥炲綊锛閫愭鍥炲綊鍒嗘瀽鐮旂┒X瀵筜鐨勫奖鍝嶅叧绯绘儏鍐,X鍙互涓哄涓,浣嗗苟闈炴墍鏈塜鍧囦細瀵筜浜х敓褰卞搷;褰揦涓暟寰堝鏃,鍙互璁╃郴缁熻嚜鍔ㄨ瘑鍒嚭鏈...
  • 閫昏緫鍥炲綊鍖呮嫭鍒嗗眰鍥炲綊鍚
    绛旓細鍥犳锛岃櫧鐒朵袱绉嶆柟娉曢兘鏄洖褰掑垎鏋鏂规硶锛屼絾閫昏緫鍥炲綊鍜鍒嗗眰鍥炲綊鏄笉鍚岀殑鏂规硶锛屽苟涓嶅寘鎷叧绯汇傝嚜20涓栫邯鏈彾浠ユ潵锛岄拡瀵规暟鎹垎灞傜粨鏋勭殑鍒嗗眰妯″瀷涓嶈鏄湪鐞嗚鐮旂┒鏂归潰杩樻槸鍦ㄥ簲鐢ㄦ柟闈㈤兘鑾峰緱浜嗛暱瓒崇殑鍙戝睍銆傝妯″瀷瀹炶川涓婂氨鏄潯浠剁嫭绔嬪垎灞傛ā鍨嬨澶氬厓閫昏緫鍥炲綊妯″瀷绠浠嬶細鍦1980骞碠hlson绗竴涓皢閫昏緫鍥炲綊鏂规硶寮曚汉璐㈠姟鍗辨満棰勮...
  • spss閲屽簲璇ョ敤鍝釜鏉ュ仛鏁版嵁鍒嗘瀽鍟!
    绛旓細濡傛灉鎮ㄦ兂鍒嗘瀽骞撮緞銆佹у埆绛夋帶鍒跺彉閲忓閫夋嫨闂ㄧエ鐨勫奖鍝嶏紝鍙互浣跨敤鍒嗗眰鍥炲綊杩涜鍒嗘瀽銆傚垎灞傚洖褰掓槸涓绉澶氬厓鍥炲綊鍒嗘瀽鐨勬墿灞曪紝瀹冨彲浠ラ氳繃灏嗘牱鏈寜鐓ф煇涓垨澶氫釜鎺у埗鍙橀噺杩涜鍒嗗眰锛屼粠鑰屾帶鍒惰繖浜涘彉閲忕殑褰卞搷锛屾潵鐮旂┒鑷彉閲忓鍥犲彉閲忕殑褰卞搷銆傚湪杩欑鎯呭喌涓嬶紝鎮ㄥ彲浠ュ皢闂ㄧエ閫夋嫨浣滀负鍥犲彉閲忥紝鑰屽勾榫勩佹у埆銆佹敹鍏ュ拰瑙傜湅棰戝害绛変綔涓...
  • 扩展阅读:扫一扫题目出答案 ... 适合做回归分析的例子 ... 数据分析20种图表 ... 适合做回归分析的数据 ... 分层回归分析结果解读 ... 多元回归分析包括什么 ... 多元回归分析的实例 ... 回归分析最少需要多少样本 ... 多元回归分析法缺点 ...

    本站交流只代表网友个人观点,与本站立场无关
    欢迎反馈与建议,请联系电邮
    2024© 车视网