在训练ML模型时,有没有一种很好的方法来限制误报
假设您从一个具有两个类的平衡数据集开始。您为二元分类开发了一个ML模型。由于任务简单,输出分布将分别在0和1处达到峰值,并在0.5左右重叠。然而,你真正关心的是,你的假阳性率是可持续的,不能超过一定数量。 因此,您最好将其用于pred>;0.8你只有一门课
目前,我正在对两个类进行加权,以惩罚类“0”上的错误
history = model.fit(..., class_weight={0:5, 1:1}, ...)
正如预期的那样,它确实降低了pred地区的fpr>;0.8,这当然会使一级召回情况恶化
我想知道是否有其他的方法来执行这一点
多谢各位
根据你的问题,你可以考虑一类分类支持向量机。这篇文章很有用:https://towardsdatascience.com/outlier-detection-with-one-class-svms-5403a1a1878c。本文还介绍了为什么一类分类是更好地考虑,而不是一些其他经典技术,如过采样/欠采样或类加权。当然,这取决于你想解决的问题
相关问题 更多 >
编程相关推荐