# Split-out validation dataset
X = df_row['tweets'].values
Y = df_row['label'].values
validation_size = 0.20
seed = 7
X_train, X_test, Y_train, Y_test = model_selection.train_test_split(X, Y, test_size=validation_size, random_state=seed)
vocab_size = 1000
# define Tokenizer with Vocab Size
tokenizer = Tokenizer(num_words=vocab_size)
tokenizer.fit_on_texts(X_train)
#X_test and X_train are data tweets(text columns)
X_train = tokenizer.texts_to_matrix(X_train, mode='tfidf')
#X_train is now in vectorized form
你的问题不能完全回答,但我可以给你一些出发点。 ,你需要做一些自己的研究 本教程将是一个很好的开始link
对于当地的发展,我建议Anaconda用于图书馆等和Jupyter笔记本电脑。 或 你可以使用谷歌colab或微软Azure笔记本电脑
还有一些帮助代码
相关问题 更多 >
编程相关推荐