Day8-中文分词学习

  中文分词,调用现成的 lucene.jar 与IKAnalyzer.jar 进行

但是在代码上有一些问题   IKtokenizer.getAttribute()函数  总是 报错  

也可能是 lucene版本问题 导致,具体原因有待解决

原文地址:https://www.cnblogs.com/1983185414xpl/p/12270977.html