Solr 分词器配置

  1. solr 自带分词器

  2. 配置第三方分词器

分词器原理与作用

todo

一、Solr 自带分词器

Solr 自带的分词器,是将所有的中文次分成单独的最小个,如下

二、配置第三方 ik 分词器 

分词器下载地址:https://github.com/magese/ik-analyzer-solr ,服务器器 sorl 版本 7.7.0

查看类型:并没有ik 分词器 ,现在添加一个ik 分词器

 将下载好的 jar 包导入  /usr/local/tomcat8/webapps/solr/WEB-INF/lib

cd  /usr/local/tomcat8/webapps/solr/WEB-INF/lib
rz  xx.jar

此处WEB-INF 下没有 classes 文件,创建 classes文件夹,并将 resource 下的配置导入

 修改Core 核心下的 managed-schema

 

添加如下配置:

<!-- ik分词器 -->
<fieldType name="text_ik" class="solr.TextField">
  <analyzer type="index">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
  <analyzer type="query">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
</fieldType>

重启 solr ,并测试,发现分词成功

原文地址:https://www.cnblogs.com/bytecodebuffer/p/13793543.html