减少ML模型的误报

2024-05-23 21:30:35 发布

您现在位置:Python中文网/ 问答频道 /正文

在训练ML模型时,有没有一种很好的方法来限制误报

假设您从一个具有两个类的平衡数据集开始。您为二元分类开发了一个ML模型。由于任务简单,输出分布将分别在0和1处达到峰值,并在0.5左右重叠。然而,你真正关心的是,你的假阳性率是可持续的,不能超过一定数量。 因此,您最好将其用于pred>;0.8你只有一门课

目前,我正在对两个类进行加权,以惩罚类“0”上的错误

history = model.fit(..., class_weight={0:5, 1:1}, ...)

正如预期的那样,它确实降低了pred地区的fpr>;0.8,这当然会使一级召回情况恶化

我想知道是否有其他的方法来执行这一点

多谢各位


Tags: 数据方法模型gt数量model错误分类
1条回答
网友
1楼 · 发布于 2024-05-23 21:30:35

根据你的问题,你可以考虑一类分类支持向量机。这篇文章很有用:https://towardsdatascience.com/outlier-detection-with-one-class-svms-5403a1a1878c。本文还介绍了为什么一类分类是更好地考虑,而不是一些其他经典技术,如过采样/欠采样或类加权。当然,这取决于你想解决的问题

相关问题 更多 >