【回归平方和】在统计学中,回归平方和(Sum of Squares for Regression,简称SSR)是一个重要的概念,用于衡量回归模型对因变量变异的解释程度。它是总平方和(SST)与残差平方和(SSE)之间的差异,反映了模型所能够解释的数据变化部分。
一、回归平方和的定义
回归平方和是指由回归模型解释的因变量的总变异量。换句话说,它是通过自变量的变化来预测因变量时,所能够解释的部分。计算公式如下:
$$
SSR = \sum (\hat{y}_i - \bar{y})^2
$$
其中:
- $\hat{y}_i$ 是第 $i$ 个观测值的预测值;
- $\bar{y}$ 是因变量的平均值。
二、回归平方和的意义
1. 模型拟合度的指标:SSR 越大,说明模型对数据的拟合越好。
2. 解释力的体现:SSR 反映了模型中自变量对因变量变化的解释能力。
3. 与总平方和的关系:SSR + SSE = SST,其中:
- SST 是总平方和,表示因变量的总体变异;
- SSE 是残差平方和,表示模型未能解释的变异。
三、回归平方和的计算示例
观测编号 | 实际值 $y_i$ | 预测值 $\hat{y}_i$ | $\hat{y}_i - \bar{y}$ | $(\hat{y}_i - \bar{y})^2$ |
1 | 5 | 6 | 1 | 1 |
2 | 7 | 8 | 3 | 9 |
3 | 4 | 5 | 0 | 0 |
4 | 6 | 7 | 2 | 4 |
5 | 8 | 9 | 4 | 16 |
假设 $\bar{y} = 6$,则:
$$
SSR = 1 + 9 + 0 + 4 + 16 = 30
$$
四、回归平方和与其他统计量的关系
指标 | 公式 | 含义 |
总平方和 | $SST = \sum (y_i - \bar{y})^2$ | 因变量的总变异量 |
回归平方和 | $SSR = \sum (\hat{y}_i - \bar{y})^2$ | 模型解释的变异量 |
残差平方和 | $SSE = \sum (y_i - \hat{y}_i)^2$ | 模型未解释的变异量 |
决定系数 | $R^2 = \frac{SSR}{SST}$ | 模型解释的变异比例 |
五、总结
回归平方和是评估回归模型效果的重要工具,它直接反映了模型对数据变化的解释能力。通过对比 SSR 与 SST,可以判断模型是否有效。在实际应用中,SSR 越大,说明模型越能捕捉到因变量的变化趋势,从而提升预测精度和解释力。
关键点 | 内容概要 |
定义 | 回归平方和是模型解释的因变量变异量 |
作用 | 衡量模型对数据的拟合程度 |
计算 | 通过预测值与均值的差值平方和计算 |
关系 | SSR + SSE = SST,R² = SSR/SST |
通过理解回归平方和的概念和计算方式,可以帮助我们在数据分析过程中更准确地评估模型表现,并做出合理的决策。