我正在使用语句训练Python中的NaiveBayesClassifier
,它给出了下面的错误。我不知道可能是什么错误,任何帮助都是好的。
我尝试过许多其他输入格式,但错误仍然存在。代码如下:
from text.classifiers import NaiveBayesClassifier
from text.blob import TextBlob
train = [('I love this sandwich.', 'pos'),
('This is an amazing place!', 'pos'),
('I feel very good about these beers.', 'pos'),
('This is my best work.', 'pos'),
("What an awesome view", 'pos'),
('I do not like this restaurant', 'neg'),
('I am tired of this stuff.', 'neg'),
("I can't deal with this", 'neg'),
('He is my sworn enemy!', 'neg'),
('My boss is horrible.', 'neg') ]
test = [('The beer was good.', 'pos'),
('I do not enjoy my job', 'neg'),
("I ain't feeling dandy today.", 'neg'),
("I feel amazing!", 'pos'),
('Gary is a friend of mine.', 'pos'),
("I can't believe I'm doing this.", 'neg') ]
classifier = nltk.NaiveBayesClassifier.train(train)
我包括下面的回溯。
Traceback (most recent call last):
File "C:\Users\5460\Desktop\train01.py", line 15, in <module>
all_words = set(word.lower() for passage in train for word in word_tokenize(passage[0]))
File "C:\Users\5460\Desktop\train01.py", line 15, in <genexpr>
all_words = set(word.lower() for passage in train for word in word_tokenize(passage[0]))
File "C:\Python27\lib\site-packages\nltk\tokenize\__init__.py", line 87, in word_tokenize
return _word_tokenize(text)
File "C:\Python27\lib\site-packages\nltk\tokenize\treebank.py", line 67, in tokenize
text = re.sub(r'^\"', r'``', text)
File "C:\Python27\lib\re.py", line 151, in sub
return _compile(pattern, flags).sub(repl, string, count)
TypeError: expected string or buffer
似乎您正在尝试使用TextBlob,但正在培训NLTK NaiveBayesClassifier,正如在其他答案中指出的,它必须通过一个功能字典。
TextBlob有一个默认的特征提取程序,用于指示文档中包含培训集中的哪些单词(如其他答案中所示)。因此,TextBlob允许您按原样传入数据。
当然,简单的默认提取器并不适合所有问题。如果您想知道如何提取特征,只需编写一个函数,该函数以文本字符串作为输入,输出特征字典并将其传递给分类器。
我建议您在这里查看短TextBlob分类器教程:http://textblob.readthedocs.org/en/latest/classifiers.html
@275365的NLTK贝叶斯分类器数据结构教程很棒。从更高的层面来看,我们可以把它看作
我们有带有情感标签的输入语句:
让我们将我们的功能集视为单个单词,因此我们从训练数据(我们称之为词汇表)中提取所有可能单词的列表,如下所示:
本质上,这里的
vocabulary
与@275365的all_word
是相同的从每个数据点(即每个句子和pos/neg标记),我们想说一个特征(即词汇中的一个词)是否存在。
但我们也要告诉分类器哪些单词不存在于句子中,而是存在于词汇中,因此对于每个数据点,我们列出词汇中所有可能的单词,并说明某个单词是否存在:
但由于这两次循环遍历词汇表,这样做更有效:
所以对于每个句子,我们要告诉每个句子的分类器哪些单词存在,哪些单词不存在,并给它pos/neg标记。我们可以称之为a
feature_set
,它是由ax
(如上图所示)及其标记组成的元组。然后,我们将特征集中的这些特征和标记输入分类器以对其进行训练:
现在你有了一个训练有素的分类器,当你想标记一个新的句子时,你必须对新的句子进行“特征化”以查看新句子中的哪个单词在分类器所训练的词汇中:
注意:正如您从上面的步骤中看到的,naive bayes分类器无法处理词汇表外的单词,因为
foobar
标记在您对其进行特化后消失。然后你把这个特殊的测试句子输入分类器,并要求它进行分类:
希望这能更清楚地说明如何将数据输入NLTK的朴素bayes分类器进行情感分析。以下是没有注释和演练的完整代码:
你需要改变你的数据结构。这是您当前的
train
列表:但问题是,每个元组的第一个元素应该是一个功能字典。因此,我将把您的列表更改为分类器可以使用的数据结构:
现在,您的数据的结构应该如下所示:
注意,每个元组的第一个元素现在是一个字典。现在您的数据已经就位,并且每个元组的第一个元素是一个字典,您可以像这样训练分类器:
如果你想使用分类器,你可以这样做。首先,从一个测试句子开始:
然后,标记句子并找出句子与所有单词共享的单词。这些构成了句子的特点。
现在您的功能如下:
然后,您只需对这些功能进行分类:
这个测试句子似乎是肯定的。
相关问题 更多 >
编程相关推荐