Stanford CoreNLP--Split Sentence

分句功能参考 Stanford Tokenizer

在edu.stanford.nlp.pipeline包中实现了一系列分词分句功能,其中SentenceAnnotator类实现了对文件分句功能.

运行Demo程序:在edu.stanford.nlp.pipeline.demo包中找到StanfordCoreNlpDemo类,设置propsprops.setProperty("annotators", "tokenize,ssplit"); ssplit表示分句,设置Arguments为要分句的文件,默认以句号+空格分句,输出如下:

原文地址:https://www.cnblogs.com/csts/p/5489294.html