题目
决策树是一种用于分类和回归任务的非参数监督学习算法,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果。如果在大型数据集上训练决策树。为了花费更少的时间(更少的属性判断)来训练这个模型,下列哪种做法是正确的 A. 减少树的深度B. 增加树的深度C. 增加学习率D. 减少树的数量
决策树是一种用于分类和回归任务的非参数监督学习算法,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果。如果在大型数据集上训练决策树。为了花费更少的时间(更少的属性判断)来训练这个模型,下列哪种做法是正确的
- A. 减少树的深度
- B. 增加树的深度
- C. 增加学习率
- D. 减少树的数量
题目解答
答案
A
解析
考查要点:本题主要考查决策树模型的训练效率与模型参数之间的关系,重点在于理解树的深度对训练时间的影响。
解题核心思路:
决策树的训练时间与其深度直接相关。树的深度越大,需要进行的属性判断(节点分裂)次数越多,训练时间越长。因此,减少树的深度是缩短训练时间的关键操作。
破题关键点:
- 树的深度与判断次数的关系:树的深度越深,分支层级更多,导致判断步骤显著增加。
- 其他选项的干扰性:学习率(C)通常影响模型更新速度而非单次判断次数,树的数量(D)在单个决策树场景下不适用。
选项分析:
- 选项A(减少树的深度):
树的深度减少会降低分支层级,减少属性判断的总次数,从而缩短训练时间。这是正确答案。 - 选项B(增加树的深度):
深度增加会显著增加判断步骤,导致训练时间延长,显然错误。 - 选项C(增加学习率):
学习率通常用于控制模型参数更新的步长(如梯度下降),与单次判断次数无关,无法直接减少训练时间。 - 选项D(减少树的数量):
若题目讨论的是集成模型(如随机森林),减少树的数量可节省时间,但题目明确指向“决策树”(单个模型),因此此选项不适用。