return bool(1) 2023-02-22 11:23 采纳率: 85.7%
浏览 24
已结题

GBDT与决策树的差异

GBDT是拟合伪残差,如果不限制GBDT中建树时的任何参数(max_depth等相关参数为决策树默认),是不是GBDT的结果就和单一决策树是相同的了?

GBDT为什么需要多轮迭代,GBDT每次迭代建树的方向都是损失函数下降最快的方向,也就是负梯度(伪残差)的方向,为什么不能通过增大学习率来使得迭代只有一次。简单来说就是多次迭代的GBDT和一次建成有剪枝的决策树差别在哪里?

  • 写回答

3条回答 默认 最新

  • CSDN-Ada助手 CSDN-AI 官方账号 2023-02-22 14:05
    关注
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?

问题事件

  • 已结题 (查看结题原因) 2月23日
  • 已采纳回答 2月23日
  • 修改了问题 2月23日
  • 修改了问题 2月22日
  • 展开全部