随机森林中每个树模型分裂时的特征选取方式

随机森林中每个树模型分裂时的特征选取方式

随机森林中每个树模型的每次分裂都是基于随机选取的特征子集进行分裂的

具体来说,对于每个决策树,在每个节点的分裂过程中,随机森林算法会从原始特征集合中随机选择一个特征子集,然后从该子集中选取最优的分裂特征。这种方式可以减少模型的方差,使得模型更加鲁棒,防止模型出现过拟合的现象。同时,由于每棵树都是使用不同的特征子集进行分裂的,因此每棵树的结构都不同,可以提高模型的多样性,进一步提高模型的泛化能力。

需要注意的是,每次分裂时使用的特征子集大小是可以调整的,可以根据数据集的大小和特征的数量来选择合适的值。通常来说,特征子集的大小一般设定为 m \sqrt{m} m 或者 l o g 2 m log_2{m} log2m,其中m是原始特征集合的大小。

总之,随机森林中每个树模型的每次分裂都是基于随机选取的特征子集进行分裂的,这种方式可以提高模型的鲁棒性和泛化能力,防止模型出现过拟合现象。

这里又牵扯出另一个问题:为什么Bagging降低的是方差?Boosting降低的是偏差
先来了解什么是方差和偏差
随机森林中每个树模型分裂时的特征选取方式_第1张图片
至于为什么Bagging可以降低方差,可以通过数学推导来论证,这里我就不推导了,因为数学论证挺复杂的,这里就以我个人理解来回答为什么Bagging降低的是方差Boosting降低的是偏差,仅仅是个人理解啊,勿喷!
随机森林中每个树模型分裂时的特征选取方式_第2张图片
Bagging方法可以通俗理解为使用多个模型对数据进行训练,然后将它们的预测结果进行平均或投票,从而降低了单个模型预测的不稳定性,也就是降低了预测结果的方差。这样可以提高整体模型的稳定性和准确性。
随机森林中每个树模型分裂时的特征选取方式_第3张图片
而Boosting方法可以通俗地理解为通过训练多个模型,然后根据前一个模型的表现对下一个模型的训练数据进行调整,以便提高整体模型的准确性。这样可以降低模型的偏差,因为每个新模型都会尝试修正前一个模型的错误,从而使最终的整体模型更加准确。所以,Boosting方法可以帮助降低模型的偏差,提高模型的准确性。

但Bagging不是总是有效的,Bagging提升模型效果的条件有三个:

  1. 弱评估器的偏差较低,特别地来说,弱分类器的准确率至少要达50%;
  2. 弱评估器之间相关性弱,最好相互独立;
  3. 弱评估器是方差较高,不稳定的评估器。

你可能感兴趣的:(机器学习,机器学习)