1. 用word_tokenize的时候说 u'tokenizers/punkt/english.pickle' not found.
我nltk.download(),想把所有的corpus下下来,但经常断。于是手动在网站上把corpora下下来,但还是说不对。
其实只要nltk.download('punkt')