分句功能参考 Stanford Tokenizer。
在edu.stanford.nlp.pipeline包中实现了一系列分词分句功能,其中SentenceAnnotator类实现了对文件分句功能.
运行Demo程序:在edu.stanford.nlp.pipeline.demo包中找到StanfordCoreNlpDemo类,设置propsprops.setProperty("annotators", "tokenize,ssplit"); ssplit表示分句,设置Arguments为要分句的文件,默认以句号+空格分句,输出如下: