我使用xgboost对python中的增强型分类树和增强型回归树进行比较,部分是作为客户的项目,部分是内部实验。我使用完全相同的数据,但建模不同的目标。在
对于增强型分类树模型,我将数据转置给我一个好/坏标志作为目标,并使用某人的好坏概率作为样本权重。在
我们已经在其他用例中成功地使用了这种方法,得到了具有良好预测点的非常精确的模型。通过使用早期停止,在调整参数等之后,我得到了一个有大约1000个估计器的模型
对于增强回归树模型,我使用样本权重(基本上是一个人好坏的概率)作为目标,最终模型中有大约12000个估计值。在
为什么连续目标和离散目标在模型复杂度方面存在如此大的差异?在
目前没有回答
相关问题 更多 >
编程相关推荐