我在做方言文本分类。当我测试模型时,精确度从90%下降到70%。我想我应该减少功能,因为我有大约45000个功能。因此,我使用递归特征消除:
from sklearn.feature_selection import RFECV
m=RFECV(MultinomialNB(), scoring="accuracy")
m.fit(X,y_train) #I have vectorized X using countVectorizer.
有没有其他方法可以减少这些功能?因为这个方法花的时间太长了。我在countvectorizer中使用了max\u特性,但它删除了所有相关特性。我想要的东西,像我可以尝试所有的组合,并找到最好的准确性,所有这些都是自动化与射频电子捕获。你知道吗
目前没有回答
相关问题 更多 >
编程相关推荐