from sklearn.feature_extraction.text import TfidfVectorizer
tfidf_vectorizer = TfidfVectorizer(max_df=0.95, max_features=200000,
min_df=.5, stop_words='english',
use_idf=True,sublinear_tf=True,tokenizer = tokenize_and_stem_body,ngram_range=(1,3))
tfidf_matrix_body = tfidf_vectorizer.fit_transform(totalvocab_stemmed_body)
上面的代码给了我一个错误
ValueError: After pruning, no terms remain. Try a lower min_df or a higher max_df.
有谁能帮我解决同样的问题吗?我已经将所有值从80改为100,但问题仍然是一样的?
目前没有回答
相关问题 更多 >
编程相关推荐