学习笔记121—线性回归:R方(R-squared)及调整R方(Adjusted R-Square)


R方(R-squared)及调整R方(Adjusted R-Square)区别

第一:R方(R-squared)
定义:衡量模型拟合度的一个量,是一个比例形式,被解释方差/总方差。

公式:R-squared = SSR/TSS

=1 - RSS/TSS

其中:TSS是执行回归分析前,响应变量固有的方差。

RSS残差平方和就是,回归模型不能解释的方差。

SSR回归模型可以解释的方差。

综上,R-squared 比列值区间在【0,1】

第二:线性回归模型下,R方和相关系数
相关系数公式
我们知道,相关系数衡量两个变量【预测变量X,响应变量Y】之间的"距离"。

1、一元线性回归
R方在一元线性回归模型中,衡量【响应变量X和预测变量Y】的线性关系。

R方=cor(X,Y)^2

但是在多元线性回归模型中,因为涉及多个预测变量,所有R方就是衡量响应变量和多个预测变量之间的关系。

而相关系数,只是衡量一对变量之间的关系,所有就不能推广了。

2、多元线性回归模型
R平方=cov(y,yi)^2

其中相关系数的两个变量变成,响应值和线性回归的预测值了。当然一元线性也同样适用了。

第三:调整R方(Adjusted R-Square)


其中,n 是样本数量,p 是特征数量。Adjusted R-Squared 抵消样本数量对 R-Squared 的影响,做到了真正的 0~1,越大越好。

因为在模型中,增加多个变量,即使事实上无关的变量,也会小幅度条R平方的值,当时其是无意义,所有我们调整了下,降低R平方的值。

简单地说就是,用r square的时候,不断添加变量能让模型的效果提升,而这种提升是虚假的。
利用adjusted r square,能对添加的非显著变量给出惩罚,也就是说随意添加一个变量不一定能让模型拟合度上升

原文链接:https://blog.csdn.net/Jesszen/article/details/81017669

优质内容筛选与推荐>>
1、Android API之android.provider.ContactsContract
2、Android内核sysfs中switch类使用实例
3、Android学习之 Button onClickListener实现方法
4、JAVA设计模式
5、linux 安装pyodbc


长按二维码向我转账

受苹果公司新规定影响,微信 iOS 版的赞赏功能被关闭,可通过二维码转账支持公众号。

    阅读
    好看
    已推荐到看一看
    你的朋友可以在“发现”-“看一看”看到你认为好看的文章。
    已取消,“好看”想法已同步删除
    已推荐到看一看 和朋友分享想法
    最多200字,当前共 发送

    已发送

    朋友将在看一看看到

    确定
    分享你的想法...
    取消

    分享想法到看一看

    确定
    最多200字,当前共

    发送中

    网络异常,请稍后重试

    微信扫一扫
    关注该公众号