使用混淆矩阵的分类报告

2024-04-29 15:36:42 发布

您现在位置:Python中文网/ 问答频道 /正文

我的ML模型有一个混淆矩阵

array([[508,  12],
       [ 78,  36]])

我们还有classification_report

              precision    recall  f1-score   support

           0       0.83      0.98      0.90       123
           1       0.85      0.31      0.45        36

    accuracy                           0.83       159
   macro avg       0.84      0.64      0.67       159
weighted avg       0.83      0.83      0.80       159

为了理解这个ML解决方案的有效性,我们为传统构建的系统生成了一个混淆矩阵

array([[305,  62],
       [ 108,  50]])

有没有办法从中生成classification_report?标准功能而不是编码,以确保一致性


Tags: 模型reportsupport矩阵arraymlprecisionf1
1条回答
网友
1楼 · 发布于 2024-04-29 15:36:42

我建议你在这里阅读这篇文章。根据混淆矩阵中的值,可以计算真阳性、真阴性、假阳性和假阴性。之后,您可以计算使用它们的任何度量

我找到了一个代码示例(source

def evaluate(self, dataset):
        predictions = self.predict(dataset[:,0])
        confusion_matrix = sklearn_confusion_matrix(dataset[:,1], predictions, labels=self.__classes)

        precisions = []
        recalls = []
        accuracies = []

        for gender in self.__classes:
            idx = self.__classes_indexes[gender]
            precision = 1
            recall = 1
            if np.sum(confusion_matrix[idx,:]) > 0:
                precision = confusion_matrix[idx][idx]/np.sum(confusion_matrix[idx,:])
            if np.sum(confusion_matrix[:, idx]) > 0:
                recall = confusion_matrix[idx][idx]/np.sum(confusion_matrix[:, idx])
            precisions.append(precision)
            recalls.append(recall)

        precision = np.mean(precisions)
        recall = np.mean(recalls)
        f1 = (2*(precision*recall))/float(precision+recall)
        accuracy = np.sum(confusion_matrix.diagonal())/float(np.sum(confusion_matrix))

        return precision, recall, accuracy, f1 

在代码中,您可以看到如何创建混淆矩阵以及如何导出分数。我知道你已经有了矩阵,所以也许你可以看看第二部分,试着理解如何只用矩阵来计算分数

相关问题 更多 >