kNN或DNN算法返回的“概率”的解释有什么区别

2021-09-16 23:36:35 发布

您现在位置:Python中文网/ 问答频道 /正文

我有两个数据集,每个数据集由相同的两个参数定义。如果你把它们画在散点图上,就会有一些重叠。我想对它们进行分类,但也可以得到一个给定点在一个或另一个数据集中的概率。所以在重叠区域,我绝不会期望概率是100%。你知道吗

我已经用python的scikit学习包和kNN算法kneighborscinerator实现了这一点。看起来不错!当我使用^{}返回概率时,它看起来就像我期望的那样!你知道吗

然后我尝试用TensorFlow和DNNClassifier分类器做同样的事情,主要是作为我自己的学习练习。当我评估测试样本时,我使用predict_proba返回概率,但是概率的分布看起来与kNN方法有很大的不同。看起来DNNClassifier真的是想把概率推到1或0,而不是把重叠区域的概率推到两者之间。你知道吗

我没有在这里发布代码,因为我的问题更基本:我能用同样的方式解释这两种方法返回的概率吗?或者它们之间有根本的区别?你知道吗

谢谢!你知道吗