回归分析模型优劣判断

原创
2017/01/10 17:28
阅读数 395

在R中通过summary某个模型之后,得到summary的结果,我们即要看懂summary的结果。

Call:
lm(formula = y ~ x)

Residuals:
     1      2      3      4      5 
 9.692  1.962 -5.577 -2.308 -3.769 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  -20.154      8.043  -2.506   0.0873 .  
x            102.865      1.542  66.698 7.43e-06 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 7.034 on 3 degrees of freedom
Multiple R-squared:  0.9993,    Adjusted R-squared:  0.9991 
F-statistic:  4449 on 1 and 3 DF,  p-value: 7.427e-06

  • Residuals
    代表的是每一项数值的残差(y1-y0)
  • Coefficients
    Intercept表示截距行的相关情况,x即使x的系数行,这里的模型即可以表示为:y=98.882x+3.118。Std. Error是标准差(残差平方和)。最后的**越多,代表月准确。
  • Multiple R-squared
    相关系数平方,值越接近1,代表模型越准确,这个值是衡量模型整体的准确度,一般0.8几就代表模型已经挺不错了。
  • Adjusted R-squared
    拟合系数评分,因为存在这样的情况,当自变量越多,模型越准确,所以在自变量个数上存在一个取舍,不能有过多的自变量,所以有这个指标

参考:【教程】教你如何读懂线性回归lm的结果summary(判断显著性)

但是里面涉及到很重要的一个概念就是p值和t值,t值是要查t值对照表才知道模型好坏,但是p值是个概率问题,p值越小,模型越好,所以我们要看p值。t值和P值都用来判断统计上是否显著的指标,所以要先弄懂什么是显著性检验(又叫假设检验)非常重要,什么是小概率事件,什么是正态分布,但是不要钻到显著水平这个文字游戏中,只要知道原理即可,不需要扣字面意思,否则很难理解。
参考:回归参数的显著性检验

展开阅读全文
打赏
0
0 收藏
分享
加载中
更多评论
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部