Kfold问题

2024-04-16 12:29:20 发布

您现在位置:Python中文网/ 问答频道 /正文

我试图用卡格尔的泰坦尼克号问题来学习K折。在

下面我将使用两种决策树模型。在

1) clf_tuned = DecisionTreeClassifier(class_weight=None, criterion='gini', max_depth=5,
                                max_features=None, max_leaf_nodes=None, min_samples_leaf=10,
                                min_samples_split=10, min_weight_fraction_leaf=0.0,
                                presort=False, random_state=100, splitter='random')

2)clf_gini = DecisionTreeClassifier(criterion = "entropy", random_state = 100,
                               max_depth=3, min_samples_leaf=5)
model=clf_gini
results = cross_val_score(model, X_train, Y_train, cv=kfold)
print(results.mean()*100.0)
print(results.std()*100.0)

第1个模型的K倍平均得分为81.14,std为0.82,但公共领导委员会得分为0.75598, 第二个模型的K倍均值为80.92,std为1.56,而公共领导委员会得分为0.80861。在

哪种模式值得信赖?在

我的代码看起来像:

^{pr2}$

Tags: 模型nonerandomminresultsmaxstdsamples