预测值,是第2个弱学习器(CART回归树)的输出结果,我们来一步步拆解它的计算逻辑:
1. 回顾第2个弱学习器的输出
在上一轮构建第2个弱学习器时,我们找到了最优切分点 3.5,并把样本分成了两组:
- 左子树(x ≤ 3.5) :包含样本1、2、3,对应的第2轮目标值(残差)是
-0.68, -0.54, -0.33。
子树的输出值是这三个残差的均值 :
−0.68+(−0.54)+(−0.33)3=−1.553≈−0.52 \frac{-0.68 + (-0.54) + (-0.33)}{3} = \frac{-1.55}{3} \approx -0.52 3−0.68+(−0.54)+(−0.33)=3−1.55≈−0.52 - 右子树(x > 3.5) :包含样本4到10,对应的第2轮目标值是
0.16, 0.56, 0.81, -0.01, -0.21, 0.09, 0.14。
子树的输出值是这七个残差的均值 :
0.16+0.56+0.81−0.01−0.21+0.09+0.147=1.547=0.22 \frac{0.16 + 0.56 + 0.81 - 0.01 - 0.21 + 0.09 + 0.14}{7} = \frac{1.54}{7} = 0.22 70.16+0.56+0.81−0.01−0.21+0.09+0.14=71.54=0.22
2. 对应到第3轮表格里的预测值
第3轮表格里的"预测值",就是第2个弱学习器对每个样本的输出:
- 样本1、2、3(x ≤ 3.5)→ 左子树输出
-0.52 - 样本4到10(x > 3.5)→ 右子树输出
0.22
这就是表格里预测值列 -0.52, -0.52, -0.52, 0.22, ..., 0.22 的来源。
3. 为什么用均值?
CART回归树的叶节点输出,是该节点内所有样本目标值的均值。这是因为在平方损失下,均值能让该节点内的平方误差最小,是最优的输出值。