在培训阶段,我是否可以通过分类标签来跟踪模型的性能?来自sklearn
的任何分类器都可以作为示例
更具体地说,我想在这里得到类似于混淆矩阵的列表:
clf = LinearSVC(random_state=42).fit(X_train, y_train)
# ... here ...
y_pred = clf.predict(X_test)
我在这里的目标是观察模型(在培训期间)的学习情况。这类似于分析培训损失,这是DNN的一种常见做法,pyTorch、Keras和Tensorflow等库已经实现了这种功能
我想快速浏览一下网络会让我得到我想要的,但显然不是。不过,我仍然认为这应该相当简单
一些ML从业者喜欢使用三重数据:培训、验证和测试集。后者根本不应该出现在任何训练中,但中间派可以。例如,交叉验证在“培训阶段”使用K个不同的验证集折叠,以便在使用数据的不同部分进行培训时获得偏差较小的性能估计
但是你可以根据你的要求在一个单一的验证折叠上完成这项工作
相关问题 更多 >
编程相关推荐