elasticsearch 安装IK中文分词器

1.去github下载zip包

具体地址:https://github.com/medcl/elasticsearch-analysis-ik
因为我本地装的是7.4.2版本,我ik分词器也下载这个版本
地址:https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.4.2

2.下载好后上传到服务器中,然后解压

unzip elasticsearch-analysis-ik-7.4.2.zip -d /usr/local/elasticsearch-7.4.2/plugins/ik/

3.重启 elasticsearch

4.测试中文分词效果

POST /_analyze
{
"analyzer": "ik_max_word",
"text": "我是中华人民共和国公民"
}

注意

ik_max_word 和 ik_smart 什么区别?

ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合,适合 Term Query;

ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”,适合 Phrase 查询

原文地址:https://www.cnblogs.com/hardy-wang/p/13863520.html