在第1.9.2.3节中的Scikit-Learn http://scikit-learn.org/stable/modules/ensemble.html#id6的整体方法文档中 . 我们读到的参数:
(...)当min_samples_split = 1(即完全开发树木时)设置max_depth = None时,通常也会达到最佳结果 . 请记住,这些值通常不是最佳的 . 应始终交叉验证最佳参数值 .
那么最佳结果和最佳结果之间有什么区别?我认为通过最佳结果,作者意味着最佳的交叉验证预测结果 .
此外,请注意默认情况下,bootstrap样本在随机林中使用(bootstrap = True),而默认策略是使用原始数据集构建额外树(bootstrap = False) .
我通过以下方式理解这一点:默认情况下,在Scikit-Learns实现中使用bootstrapping,但默认策略是不使用bootstrapping . 如果是这样,那么默认策略的来源是什么?为什么它不是实现中的默认策略?
1 回答
我同意第一句话是自相矛盾的 . 也许以下会更好:
对于第二个引用,它将随机林(
RandomForestClassifier
和RandomForestRegression
)的bootstrap
参数的默认值与类ExtraTreesClassifier
和ExtraTreesRegressor
中实现的极随机树进行比较 . 以下可能更明确:如果您发现这些配方更清楚,请随时提交带有修复的PR .