python -nltk

1. 用word_tokenize的时候说 u'tokenizers/punkt/english.pickle' not found.

我nltk.download(),想把所有的corpus下下来,但经常断。于是手动在网站上把corpora下下来,但还是说不对。

其实只要nltk.download('punkt')

原文地址:https://www.cnblogs.com/yuchenkit/p/5486442.html