s = 'Spot is a brown dog. Spot has brown hair. The hair of Spot is brown.'
words_we_want = ("Spot","brown","hair")
from collections import Counter
data = Counter(s.split())
print (sum(data[word] for word in words_we_want))
请注意,由于'brown.'和'brown'是单独的计数器项,因此这将被1计为不足。
一个稍微不那么优雅的解决方案,它不会在标点符号上出错,它使用正则表达式:
>>> len(re.findall('Spot|brown|hair','Spot is a brown dog. Spot has brown hair. The hair of Spot is brown.'))
8
>>> import nltk # Natural Language Toolkit
>>> from collections import Counter
>>> sum(x in {"Spot", "brown", "hair"} for x in nltk.wordpunct_tokenize(s))
8
我可以使用
Counter
:请注意,由于
'brown.'
和'brown'
是单独的计数器项,因此这将被1计为不足。一个稍微不那么优雅的解决方案,它不会在标点符号上出错,它使用正则表达式:
您可以通过简单的
这些解决方案的好处是,与gnibbler的解决方案相比,它们具有更好的算法复杂性。当然,在真实世界数据上表现更好的仍然需要用OP来衡量(因为OP是唯一一个有真实世界数据的对象)
这是你所要求的,但要注意,它也会计算像“毛茸茸的”,“布朗纳”等词
你也可以把它写成
map
更健壮的解决方案可能使用nltk package
相关问题 更多 >
编程相关推荐