ElasticSearch的基本原理与用法

一、简介

ElasticSearch和Solr都是基于Lucene的搜索引擎,不过ElasticSearch天生支持分布式,而Solr是4.0版本后的SolrCloud才是分布式版本,Solr的分布式支持需要ZooKeeper的支持。

这里有一个详细的ElasticSearch和Solr的对比:http://solr-vs-elasticsearch.com/

语法参考:
Elasticsearch Java API
Elasticsearch Query DSL

ElasticSearch安装部署:http://nero.life/2017/10/27/Elasticsearch%E7%AC%94%E8%AE%B0-%E4%B8%80-%E5%AE%89%E8%A3%85%E9%83%A8%E7%BD%B2/

elasticsearch Docker:http://nero.life/2017/10/27/Elasticsearch%E7%AC%94%E8%AE%B0-%E4%BA%8C-Docker/

ElasticSearch笔记:http://nero.life/2017/10/27/Elasticsearch%E7%AC%94%E8%AE%B0/

二、基本用法

集群(Cluster): ES是一个分布式的搜索引擎,一般由多台物理机组成。这些物理机,通过配置一个相同的cluster name,互相发现,把自己组织成一个集群。

节点(Node):同一个集群中的一个Elasticsearch主机。

Node类型:

1)data node: 存储index数据。Data nodes hold data and perform data related operations such as CRUD, search, and aggregations.

2)client node: 不存储index,处理转发客户端请求到Data Node。

3)master node: 不存储index,集群管理,如管理路由信息(routing infomation),判断node是否available,当有node出现或消失时重定位分片(shards),当有node failure时协调恢复。(所有的master node会选举出一个master leader node)

详情参考:https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-node.html

主分片(Primary shard):索引(下文介绍)的一个物理子集。同一个索引在物理上可以切多个分片,分布到不同的节点上。分片的实现是Lucene 中的索引。

注意:ES中一个索引的分片个数是建立索引时就要指定的,建立后不可再改变。所以开始建一个索引时,就要预计数据规模,将分片的个数分配在一个合理的范围。

副本分片(Replica shard):每个主分片可以有一个或者多个副本,个数是用户自己配置的。ES会尽量将同一索引的不同分片分布到不同的节点上,提高容错性。对一个索引,只要不是所有shards所在的机器都挂了,就还能用。

索引(Index):逻辑概念,一个可检索的文档对象的集合。类似与DB中的database概念。同一个集群中可建立多个索引。比如,生产环境常见的一种方法,对每个月产生的数据建索引,以保证单个索引的量级可控。

类型(Type):索引的下一级概念,大概相当于数据库中的table。同一个索引里可以包含多个 Type。 

文档(Document):即搜索引擎中的文档概念,也是ES中一个可以被检索的基本单位,相当于数据库中的row,一条记录。

字段(Field):相当于数据库中的column。ES中,每个文档,其实是以json形式存储的。而一个文档可以被视为多个字段的集合。比如一篇文章,可能包括了主题、摘要、正文、作者、时间等信息,每个信息都是一个字段,最后被整合成一个json串,落地到磁盘。

映射(Mapping):相当于数据库中的schema,用来约束字段的类型,不过 Elasticsearch 的 mapping 可以不显示地指定、自动根据文档数据创建。

Database(数据库) Index(索引)
Table(表) Type(类型)
Row(行) Document(文档)
Column(列) Field(字段)
Schema(方案) Mapping(映射)
Index(索引) Everthing Indexed by default(所有字段都被索引)
SQL(结构化查询语言) Query DSL(查询专用语言)

Elasticsearch集群可以包含多个索引(indices),每一个索引可以包含多个类型(types),每一个类型包含多个文档(documents),然后每个文档包含多个字段(Fields),这种面向文档型的储存,也算是NoSQL的一种吧。

ES比传统关系型数据库,对一些概念上的理解:

Relational DB -> Databases -> Tables -> Rows -> Columns
Elasticsearch -> Indices   -> Types  -> Documents -> Fields

从创建一个Client到添加、删除、查询等基本用法:

1、创建Client

1     public ElasticSearchService(String ipAddress, int port) {
2         client = new TransportClient()
3                 .addTransportAddress(new InetSocketTransportAddress(ipAddress,
4                         port));
5     }

这里是一个TransportClient。

ES下两种客户端对比:

TransportClient:轻量级的Client,使用Netty线程池,Socket连接到ES集群。本身不加入到集群,只作为请求的处理。

Node Client:客户端节点本身也是ES节点,加入到集群,和其他ElasticSearch节点一样。频繁的开启和关闭这类Node Clients会在集群中产生“噪音”。

2、创建/删除Index和Type信息

 1     // 创建索引
 2     public void createIndex() {
 3         client.admin().indices().create(new CreateIndexRequest(IndexName))
 4                 .actionGet();
 5     }
 6 
 7     // 清除所有索引
 8     public void deleteIndex() {
 9         IndicesExistsResponse indicesExistsResponse = client.admin().indices()
10                 .exists(new IndicesExistsRequest(new String[] { IndexName }))
11                 .actionGet();
12         if (indicesExistsResponse.isExists()) {
13             client.admin().indices().delete(new DeleteIndexRequest(IndexName))
14                     .actionGet();
15         }
16     }
17 
18     // 删除Index下的某个Type
19     public void deleteType(){
20         client.prepareDelete().setIndex(IndexName).setType(TypeName).execute().actionGet();
21     }
22 
23     // 定义索引的映射类型
24     public void defineIndexTypeMapping() {
25         try {
26             XContentBuilder mapBuilder = XContentFactory.jsonBuilder();
27             mapBuilder.startObject()
28                     .startObject(TypeName)
29                     .startObject("_all").field("enabled", false).endObject()
30                     .startObject("properties")
31                     .startObject(IDFieldName).field("type", "long").endObject()
32                     .startObject(SeqNumFieldName).field("type", "long").endObject()
33                     .startObject(IMSIFieldName).field("type", "string").field("index", "not_analyzed").endObject()
34                     .startObject(IMEIFieldName).field("type", "string").field("index", "not_analyzed").endObject()
35                     .startObject(DeviceIDFieldName).field("type", "string").field("index", "not_analyzed").endObject()
36                     .startObject(OwnAreaFieldName).field("type", "string").field("index", "not_analyzed").endObject()
37                     .startObject(TeleOperFieldName).field("type", "string").field("index", "not_analyzed").endObject()
38                     .startObject(TimeFieldName).field("type", "date").field("store", "yes").endObject()
39                     .endObject()
40                     .endObject()
41                     .endObject();
42 
43             PutMappingRequest putMappingRequest = Requests
44                     .putMappingRequest(IndexName).type(TypeName)
45                     .source(mapBuilder);
46             client.admin().indices().putMapping(putMappingRequest).actionGet();
47         } catch (IOException e) {
48             log.error(e.toString());
49         }
50     }

这里自定义了某个Type的索引映射(Mapping):

1)默认ES会自动处理数据类型的映射:针对整型映射为long,浮点数为double,字符串映射为string,时间为date,true或false为boolean。

2)字段的默认配置是indexed,但不是stored的,也就是 field("index", "yes").field("store", "no")。

3)这里Disable了“_all”字段,_all字段会把所有的字段用空格连接,然后用“analyzed”的方式index这个字段,这个字段可以被search,但是不能被retrieve。

4)针对string,ES默认会做“analyzed”处理,即先做分词、去掉stop words等处理再index。如果你需要把一个字符串做为整体被索引到,需要把这个字段这样设置:field("index", "not_analyzed")。

5)默认_source字段是enabled,_source字段存储了原始Json字符串(original JSON document body that was passed at index time)。

详情参考:

https://www.elastic.co/guide/en/elasticsearch/guide/current/mapping-intro.html

https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-store.html

https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-all-field.html

https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-source-field.html

3、索引数据

 1     // 批量索引数据
 2     public void indexHotSpotDataList(List<Hotspotdata> dataList) {
 3         if (dataList != null) {
 4             int size = dataList.size();
 5             if (size > 0) {
 6                 BulkRequestBuilder bulkRequest = client.prepareBulk();
 7                 for (int i = 0; i < size; ++i) {
 8                     Hotspotdata data = dataList.get(i);
 9                     String jsonSource = getIndexDataFromHotspotData(data);
10                     if (jsonSource != null) {
11                         bulkRequest.add(client
12                                 .prepareIndex(IndexName, TypeName,
13                                         data.getId().toString())
14                                 .setRefresh(true).setSource(jsonSource));
15                     }
16                 }
17 
18                 BulkResponse bulkResponse = bulkRequest.execute().actionGet();
19                 if (bulkResponse.hasFailures()) {
20                     Iterator<BulkItemResponse> iter = bulkResponse.iterator();
21                     while (iter.hasNext()) {
22                         BulkItemResponse itemResponse = iter.next();
23                         if (itemResponse.isFailed()) {
24                             log.error(itemResponse.getFailureMessage());
25                         }
26                     }
27                 }
28             }
29         }
30     }
31 
32     // 索引数据
33     public boolean indexHotspotData(Hotspotdata data) {
34         String jsonSource = getIndexDataFromHotspotData(data);
35         if (jsonSource != null) {
36             IndexRequestBuilder requestBuilder = client.prepareIndex(IndexName,
37                     TypeName).setRefresh(true);
38             requestBuilder.setSource(jsonSource)
39                     .execute().actionGet();
40             return true;
41         }
42 
43         return false;
44     }
45 
46     // 得到索引字符串
47     public String getIndexDataFromHotspotData(Hotspotdata data) {
48         String jsonString = null;
49         if (data != null) {
50             try {
51                 XContentBuilder jsonBuilder = XContentFactory.jsonBuilder();
52                 jsonBuilder.startObject().field(IDFieldName, data.getId())
53                         .field(SeqNumFieldName, data.getSeqNum())
54                         .field(IMSIFieldName, data.getImsi())
55                         .field(IMEIFieldName, data.getImei())
56                         .field(DeviceIDFieldName, data.getDeviceID())
57                         .field(OwnAreaFieldName, data.getOwnArea())
58                         .field(TeleOperFieldName, data.getTeleOper())
59                         .field(TimeFieldName, data.getCollectTime())
60                         .endObject();
61                 jsonString = jsonBuilder.string();
62             } catch (IOException e) {
63                 log.equals(e);
64             }
65         }
66 
67         return jsonString;
68     }

ES支持批量和单个数据索引。

4、查询获取数据

 

 1     // 获取少量数据100个
 2     private List<Integer> getSearchData(QueryBuilder queryBuilder) {
 3         List<Integer> ids = new ArrayList<>();
 4         SearchResponse searchResponse = client.prepareSearch(IndexName)
 5                 .setTypes(TypeName).setQuery(queryBuilder).setSize(100)
 6                 .execute().actionGet();
 7         SearchHits searchHits = searchResponse.getHits();
 8         for (SearchHit searchHit : searchHits) {
 9             Integer id = (Integer) searchHit.getSource().get("id");
10             ids.add(id);
11         }
12         return ids;
13     }
14 
15     // 获取大量数据
16     private List<Integer> getSearchDataByScrolls(QueryBuilder queryBuilder) {
17         List<Integer> ids = new ArrayList<>();
18         // 一次获取100000数据
19         SearchResponse scrollResp = client.prepareSearch(IndexName)
20                 .setSearchType(SearchType.SCAN).setScroll(new TimeValue(60000))
21                 .setQuery(queryBuilder).setSize(100000).execute().actionGet();
22         while (true) {
23             for (SearchHit searchHit : scrollResp.getHits().getHits()) {
24                 Integer id = (Integer) searchHit.getSource().get(IDFieldName);
25                 ids.add(id);
26             }
27             scrollResp = client.prepareSearchScroll(scrollResp.getScrollId())
28                     .setScroll(new TimeValue(600000)).execute().actionGet();
29             if (scrollResp.getHits().getHits().length == 0) {
30                 break;
31             }
32         }
33 
34         return ids;
35     }

这里的QueryBuilder是一个查询条件,ES支持分页查询获取数据,也可以一次性获取大量数据,需要使用Scroll Search。

5、聚合(Aggregation Facet)查询 

 1     // 得到某段时间内设备列表上每个设备的数据分布情况<设备ID,数量>
 2     public Map<String, String> getDeviceDistributedInfo(String startTime,
 3                                                         String endTime, List<String> deviceList) {
 4 
 5         Map<String, String> resultsMap = new HashMap<>();
 6 
 7         QueryBuilder deviceQueryBuilder = getDeviceQueryBuilder(deviceList);
 8         QueryBuilder rangeBuilder = getDateRangeQueryBuilder(startTime, endTime);
 9         QueryBuilder queryBuilder = QueryBuilders.boolQuery()
10                 .must(deviceQueryBuilder).must(rangeBuilder);
11 
12         TermsBuilder termsBuilder = AggregationBuilders.terms("DeviceIDAgg").size(Integer.MAX_VALUE)
13                 .field(DeviceIDFieldName);
14         SearchResponse searchResponse = client.prepareSearch(IndexName)
15                 .setQuery(queryBuilder).addAggregation(termsBuilder)
16                 .execute().actionGet();
17         Terms terms = searchResponse.getAggregations().get("DeviceIDAgg");
18         if (terms != null) {
19             for (Terms.Bucket entry : terms.getBuckets()) {
20                 resultsMap.put(entry.getKey(),
21                         String.valueOf(entry.getDocCount()));
22             }
23         }
24         return resultsMap;
25     }

Aggregation查询可以查询类似统计分析这样的功能:如某个月的数据分布情况,某类数据的最大、最小、总和、平均值等。

详情参考:https://www.elastic.co/guide/en/elasticsearch/client/java-api/current/java-aggs.html

查询准备

当我们获取到connection以后,接下来就可以开始做查询的准备。

  • 1 首先我们可以通过client来获取到一个SearchRequestBuilder的实例,这个是我们查询的主干。
    然后你需要给SearchRequestBuilder指定查询目标, Index以及Type(映射到数据库就是数据库名称以及表名)

  • 2 指定分页信息,setFrom以及setSize。

PS: 千万不要指望能一次性的查询到所有的数据,尤其是document特别多的时候。Elasticsearch最多只会给你返回1000条数据,
一次性返回过量的数据是灾难性,这点无论是Elasticsearch亦或是Database都适用。

1 SearchRequestBuilder searchRequestBuilder = client.prepareSearch(ES_ITEM_INDEX).setTypes(ES_ITEM_TYPE)
2                 .setFrom((pageNum - 1) * pageSize)
3                 .setSize(pageSize);
  • 3 接下来,你可能需要指定返回的字段,可以用如下的代码设置:
1 String[] includes = {"id", "name"};
2 searchRequestBuilder.setFetchSource(includes, null);
  • 4 构建查询器

我们以自己熟悉的SQL来做实例讲解,如下sql:

select * from student where id = '123' and age > 12 and name like '小明' and hid in (...)

我们看SQL后面where条件。包含了’等于,大于,模糊查询,in查询’。

首先我们需要一个能包含复杂查询条件的BoolQueryBuilder,你可以将一个个小查询条件设置进去,最后将它设给searchRequestBuilder。

1 BoolQueryBuilder boolQueryBuilder = QueryBuilders.boolQuery();

id = ‘123’:

1 QueryBuilder idQueryBuilder = QueryBuilders.termQuery("id", 123);
2 boolQueryBuilder.must(idQueryBuilder);

age > 12:

1 RangeQueryBuilder ageQueryBuilder = QueryBuilders.rangeQuery("age").gt(12);
2 boolQueryBuilder.must(ageQueryBuilder);

name like ‘小明’:

1 MatchQueryBuilder matchQueryBuilder = QueryBuilders.matchQuery("name", '小明');
2 matchQueryBuilder.operator(Operator.AND);
3 boolQueryBuilder.must(matchQueryBuilder);

这个就是我们比较关注的关键字查询了。因为我的Elasticsearch中字段name,已经配置了ik_smart分词器。
所以此处会将我的条件”小明”进行ik_smart的分词查询。而我设置的Operator.AND属性,指的是必须要我传
入的查询条件分词后字段全部匹配,才会返回结果。默认是Operator.OR,也就是其中有一个匹配,结果就返回。

hid in (…):

1 QueryBuilder queryBuilder = QueryBuilders.termsQuery("hid", hidList);
2 boolQueryBuilder.must(queryBuilder);

PS: 上述的SQL条件中,皆是以AND关键字进行拼接。如果是其他的,比如OR,比如Not in呢?请看下面:

and – must
or – should
not in – must not

好,最后我们将queryBuilder设置进searchRequestBuilder中。

1 // 设置查询条件
2 searchRequestBuilder.setQuery(boolQueryBuilder);
  • 5 排序
    我们同样需要一个排序构造器:SortBuilder。

咱先根据age字段,做降序。如下代码:

1 SortBuilder sortBuilder = SortBuilders.fieldSort("age");
2 sortBuilder.order(SortOrder.fromString("DESC"));

如果想要做一些较为复杂的排序,比如多个字段相加:

1 String scriptStr = "doc['clickCount'].value + doc['soldNum'].value";
2 sortBuilder = SortBuilders.scriptSort(new Script(scriptStr), ScriptSortBuilder.ScriptSortType.NUMBER);
1 // 设置排序规则
2 searchRequestBuilder.addSort(sortBuilder);
  • 6 高亮显示

在具体业务查询中,其实我们通常需要用到如该图的效果。

将查询命中的关键,进行标记颜色样式。

Elasticsearch同样提供了功能的实现,我们只需要设置被查询的字段即可。如下代码:

1 HighlightBuilder highlightBuilder = new HighlightBuilder();
2 highlightBuilder.field("name");
3 searchRequestBuilder.highlighter(highlightBuilder);

在下面的解析结果中,会具体介绍怎么解析出这么高亮结果。

  • 7 聚合

当然,Elasticsearch也提供了强大的聚合功能:

1 // 年龄聚合计算
2 TermsAggregationBuilder ageTermsAggregationBuilder = AggregationBuilders.terms("ageAgg");
3 brandTermsAggregationBuilder.field("age");
4 brandTermsAggregationBuilder.size(1000);
5 searchRequestBuilder.addAggregation(ageTermsAggregationBuilder);
  • 8 执行查询
1 // 开始执行查询
2 SearchResponse searchResponse = searchRequestBuilder.execute().actionGet();
  • 9 解析结果

直接上代码:

 1 SearchHits searchHits = searchResponse.getHits();
 2 List<Student> students = new ArrayList<>();
 3 for (SearchHit hit : searchHits.getHits()) {
 4     String json = hit.getSourceAsString();
 5     # 读取json,转为成对象
 6     Student student= ...
 7     // 关键字高亮显示
 8     HighlightField highlightField = hit.getHighlightFields().get("name");
 9     String highName = student.getName();
10     if (highlightField != null) {
11         highName = highlightField.getFragments()[0].toString();
12     }
13     student.setHighName(highName);
14     students.add(student);
15 }

我们可以从searchResponse中,获取到所有的命中目标列表。然后循环列表,每个命中的hit,可以直接转化成json。
然后可以json转化工具,映射到自己的bean上。
其中,当你设置了highlightBuilder以后,你可以在每个hit里,get到被标签包裹着的String。
(ps: 默认是em,你也可以设置其他的标签,以供前端渲染。)

使用QueryBuilders进行查询

elastcisearch-query-builder接受配置文件(特定json格式)或者json格式的字符串配置,配置格式如下:

{
  "index": "user_portrait",
  "type": "docs",
  "from": "${from}",
  "size": "10",
  "include_source": ["name","age"],  //需要哪些字段
  "exclude_source": ["sex"],  //排除哪些字段
  "query_type": "terms_level_query",
  "terms_level_query": {
    "terms_level_type": "term_query",
    "term_query": {
      "value": "${value}",
      "key": "key",
      "boost": 2
    }
  },
  "aggregations": [
    {
      "aggregation_type": "terms",
      "name": "",
      "field": "field",
      "sub_aggregations": {
        "aggregation_type": "terms",
        "name": "sub",
        "field": "field",
        "size": "${size.value}",
        "sort": "asc",
        "sort_by": "_count"
      }
    }
  ],
  "highlight":{
      "fields": [
            {
              "field": "content",
              "number_of_fragment": 2,
              "no_match_size": 150
            }
       ],
      "pre_tags":["<em>"],
      "post_tags":["</em>"]
  },
  "sort": [
    "_score",
    {
      "field": "age",
      "order": "asc"
    }
  ]
}

参数说明

# index

index表示elasticSearch中的索引或者别名。

# type

type表示elasticSearch索引或者别名下的type。

# from

from表示检索文档时的偏移量,相当于关系型数据库里的offset。

# include_source

include_source 搜索结果中包含某些字段,格式为json数组,"include_source": ["name","age"]

# exclude_source

exclude_source 搜索结果中排除某些字段,格式为json数组,"exclude_source":["sex"]

# query_type

query_type表示查询类型,支持三种类型terms_level_query,text_level_query,bool_level_query,并且这三种类型
不可以一起使用。

    • terms_level_query 操作的精确字段是存储在反转索引中的。这些查询通常用于结构化数据,
      如数字、日期和枚举, 而不是全文字段,包含term_query,terms_query,range_query,exists_query 等类型。

    • text_level_query 查询通常用于在完整文本字段 (如电子邮件正文) 上运行全文查询。他们了解如何分析被查询的字段,
      并在执行之前将每个字段的分析器 (或 search_analyzer) 应用到查询字符串。

      包含 match_query,multi_match_query,query_string,simple_query_string 等类型。

    • bool_query 与其他查询的布尔组合匹配的文档匹配的查询。bool 查询映射到 Lucene BooleanQuery。它是使用一个或多个布尔子句生成的, 每个子句都有一个类型化的实例。
      布尔查询的查询值包括: must,filter,should,must_not. 在每个布尔查询的查询类型值中,可以包含terms_level_query 和 text_level_query中任意的查询类型,如此便可以构造非常复杂的查询情况。

QueryBuilder 是es中提供的一个查询接口, 可以对其进行参数设置来进行查询:

  1 package com.wenbronk.javaes;
  2 
  3 import java.net.InetSocketAddress;
  4 import java.util.ArrayList;
  5 import java.util.Iterator;
  6 import java.util.Map.Entry;
  7 
  8 import org.elasticsearch.action.ListenableActionFuture;
  9 import org.elasticsearch.action.get.GetRequestBuilder;
 10 import org.elasticsearch.action.get.GetResponse;
 11 import org.elasticsearch.action.search.SearchResponse;
 12 import org.elasticsearch.action.search.SearchType;
 13 import org.elasticsearch.client.transport.TransportClient;
 14 import org.elasticsearch.common.settings.Settings;
 15 import org.elasticsearch.common.text.Text;
 16 import org.elasticsearch.common.transport.InetSocketTransportAddress;
 17 import org.elasticsearch.common.unit.TimeValue;
 18 import org.elasticsearch.index.query.IndicesQueryBuilder;
 19 import org.elasticsearch.index.query.NestedQueryBuilder;
 20 import org.elasticsearch.index.query.QueryBuilder;
 21 import org.elasticsearch.index.query.QueryBuilders;
 22 import org.elasticsearch.index.query.QueryStringQueryBuilder;
 23 import org.elasticsearch.index.query.RangeQueryBuilder;
 24 import org.elasticsearch.index.query.SpanFirstQueryBuilder;
 25 import org.elasticsearch.index.query.WildcardQueryBuilder;
 26 import org.elasticsearch.search.SearchHit;
 27 import org.elasticsearch.search.SearchHits;
 28 import org.junit.Before;
 29 import org.junit.Test;
 30 
 31 /**
 32  * java操作查询api
 33  * @author 231
 34  *
 35  */
 36 public class JavaESQuery {
 37     
 38     private TransportClient client;
 39     
 40     @Before
 41     public void testBefore() {
 42         Settings settings = Settings.settingsBuilder().put("cluster.name", "wenbronk_escluster").build();
 43         client = TransportClient.builder().settings(settings).build()
 44                  .addTransportAddress(new InetSocketTransportAddress(new InetSocketAddress("192.168.50.37", 9300)));
 45         System.out.println("success to connect escluster");
 46     }
 47 
 48     /**
 49      * 使用get查询
 50      */
 51     @Test
 52     public void testGet() {
 53         GetRequestBuilder requestBuilder = client.prepareGet("twitter", "tweet", "1");
 54         GetResponse response = requestBuilder.execute().actionGet();
 55         GetResponse getResponse = requestBuilder.get();
 56         ListenableActionFuture<GetResponse> execute = requestBuilder.execute();
 57         System.out.println(response.getSourceAsString());
 58     }
 59     
 60     /**
 61      * 使用QueryBuilder
 62      * termQuery("key", obj) 完全匹配
 63      * termsQuery("key", obj1, obj2..)   一次匹配多个值
 64      * matchQuery("key", Obj) 单个匹配, field不支持通配符, 前缀具高级特性
 65      * multiMatchQuery("text", "field1", "field2"..);  匹配多个字段, field有通配符忒行
 66      * matchAllQuery();         匹配所有文件
 67      */
 68     @Test
 69     public void testQueryBuilder() {
 70 //        QueryBuilder queryBuilder = QueryBuilders.termQuery("user", "kimchy");
 71       QueryBUilder queryBuilder = QueryBuilders.termQuery("user", "kimchy", "wenbronk", "vini");
 72         QueryBuilders.termsQuery("user", new ArrayList<String>().add("kimchy"));
 73 //        QueryBuilder queryBuilder = QueryBuilders.matchQuery("user", "kimchy");
 74 //        QueryBuilder queryBuilder = QueryBuilders.multiMatchQuery("kimchy", "user", "message", "gender");
 75         QueryBuilder queryBuilder = QueryBuilders.matchAllQuery();
 76         searchFunction(queryBuilder);
 77         
 78     }
 79     
 80     /**
 81      * 组合查询
 82      * must(QueryBuilders) :   AND
 83      * mustNot(QueryBuilders): NOT
 84      * should:                  : OR
 85      */
 86     @Test
 87     public void testQueryBuilder2() {
 88         QueryBuilder queryBuilder = QueryBuilders.boolQuery()
 89             .must(QueryBuilders.termQuery("user", "kimchy"))
 90             .mustNot(QueryBuilders.termQuery("message", "nihao"))
 91             .should(QueryBuilders.termQuery("gender", "male"));
 92         searchFunction(queryBuilder);
 93     }
 94     
 95     /**
 96      * 只查询一个id的
 97      * QueryBuilders.idsQuery(String...type).ids(Collection<String> ids)
 98      */
 99     @Test
100     public void testIdsQuery() {
101         QueryBuilder queryBuilder = QueryBuilders.idsQuery().ids("1");
102         searchFunction(queryBuilder);
103     }
104     
105     /**
106      * 包裹查询, 高于设定分数, 不计算相关性
107      */
108     @Test
109     public void testConstantScoreQuery() {
110         QueryBuilder queryBuilder = QueryBuilders.constantScoreQuery(QueryBuilders.termQuery("name", "kimchy")).boost(2.0f);
111         searchFunction(queryBuilder);
112         // 过滤查询
113 //        QueryBuilders.constantScoreQuery(FilterBuilders.termQuery("name", "kimchy")).boost(2.0f);
114         
115     }
116     
117     /**
118      * disMax查询
119      * 对子查询的结果做union, score沿用子查询score的最大值, 
120      * 广泛用于muti-field查询
121      */
122     @Test
123     public void testDisMaxQuery() {
124         QueryBuilder queryBuilder = QueryBuilders.disMaxQuery()
125             .add(QueryBuilders.termQuery("user", "kimch"))  // 查询条件
126             .add(QueryBuilders.termQuery("message", "hello"))
127             .boost(1.3f)
128             .tieBreaker(0.7f);
129         searchFunction(queryBuilder);
130     }
131     
132     /**
133      * 模糊查询
134      * 不能用通配符, 不知道干啥用
135      */
136     @Test
137     public void testFuzzyQuery() {
138         QueryBuilder queryBuilder = QueryBuilders.fuzzyQuery("user", "kimch");
139         searchFunction(queryBuilder);
140     }
141     
142     /**
143      * 父或子的文档查询
144      */
145     @Test
146     public void testChildQuery() {
147         QueryBuilder queryBuilder = QueryBuilders.hasChildQuery("sonDoc", QueryBuilders.termQuery("name", "vini"));
148         searchFunction(queryBuilder);
149     }
150     
151     /**
152      * moreLikeThisQuery: 实现基于内容推荐, 支持实现一句话相似文章查询
153      * {   
154         "more_like_this" : {   
155         "fields" : ["title", "content"],   // 要匹配的字段, 不填默认_all
156         "like_text" : "text like this one",   // 匹配的文本
157         }   
158     }     
159     
160     percent_terms_to_match:匹配项(term)的百分比,默认是0.3
161 
162     min_term_freq:一篇文档中一个词语至少出现次数,小于这个值的词将被忽略,默认是2
163     
164     max_query_terms:一条查询语句中允许最多查询词语的个数,默认是25
165     
166     stop_words:设置停止词,匹配时会忽略停止词
167     
168     min_doc_freq:一个词语最少在多少篇文档中出现,小于这个值的词会将被忽略,默认是无限制
169     
170     max_doc_freq:一个词语最多在多少篇文档中出现,大于这个值的词会将被忽略,默认是无限制
171     
172     min_word_len:最小的词语长度,默认是0
173     
174     max_word_len:最多的词语长度,默认无限制
175     
176     boost_terms:设置词语权重,默认是1
177     
178     boost:设置查询权重,默认是1
179     
180     analyzer:设置使用的分词器,默认是使用该字段指定的分词器
181      */
182     @Test
183     public void testMoreLikeThisQuery() {
184         QueryBuilder queryBuilder = QueryBuilders.moreLikeThisQuery("user")
185                             .like("kimchy");
186 //                            .minTermFreq(1)         //最少出现的次数
187 //                            .maxQueryTerms(12);        // 最多允许查询的词语
188         searchFunction(queryBuilder);
189     }
190     
191     /**
192      * 前缀查询
193      */
194     @Test
195     public void testPrefixQuery() {
196         QueryBuilder queryBuilder = QueryBuilders.matchQuery("user", "kimchy");
197         searchFunction(queryBuilder);
198     }
199     
200     /**
201      * 查询解析查询字符串
202      */
203     @Test
204     public void testQueryString() {
205         QueryBuilder queryBuilder = QueryBuilders.queryStringQuery("+kimchy");
206         searchFunction(queryBuilder);
207     }
208     
209     /**
210      * 范围内查询
211      */
212     public void testRangeQuery() {
213         QueryBuilder queryBuilder = QueryBuilders.rangeQuery("user")
214             .from("kimchy")
215             .to("wenbronk")
216             .includeLower(true)     // 包含上界
217             .includeUpper(true);      // 包含下届
218         searchFunction(queryBuilder);
219     }
220     
221     /**
222      * 跨度查询
223      */
224     @Test
225     public void testSpanQueries() {
226          QueryBuilder queryBuilder1 = QueryBuilders.spanFirstQuery(QueryBuilders.spanTermQuery("name", "葫芦580娃"), 30000);     // Max查询范围的结束位置  
227       
228          QueryBuilder queryBuilder2 = QueryBuilders.spanNearQuery()  
229                 .clause(QueryBuilders.spanTermQuery("name", "葫芦580娃")) // Span Term Queries  
230                 .clause(QueryBuilders.spanTermQuery("name", "葫芦3812娃"))  
231                 .clause(QueryBuilders.spanTermQuery("name", "葫芦7139娃"))  
232                 .slop(30000)                                               // Slop factor  
233                 .inOrder(false)  
234                 .collectPayloads(false);  
235   
236         // Span Not
237          QueryBuilder queryBuilder3 = QueryBuilders.spanNotQuery()  
238                 .include(QueryBuilders.spanTermQuery("name", "葫芦580娃"))  
239                 .exclude(QueryBuilders.spanTermQuery("home", "山西省太原市2552街道"));  
240   
241         // Span Or   
242          QueryBuilder queryBuilder4 = QueryBuilders.spanOrQuery()  
243                 .clause(QueryBuilders.spanTermQuery("name", "葫芦580娃"))  
244                 .clause(QueryBuilders.spanTermQuery("name", "葫芦3812娃"))  
245                 .clause(QueryBuilders.spanTermQuery("name", "葫芦7139娃"));  
246   
247         // Span Term  
248          QueryBuilder queryBuilder5 = QueryBuilders.spanTermQuery("name", "葫芦580娃");  
249     }
250     
251     /**
252      * 测试子查询
253      */
254     @Test
255     public void testTopChildrenQuery() {
256         QueryBuilders.hasChildQuery("tweet", 
257                 QueryBuilders.termQuery("user", "kimchy"))
258             .scoreMode("max");
259     }
260     
261     /**
262      * 通配符查询, 支持 * 
263      * 匹配任何字符序列, 包括空
264      * 避免* 开始, 会检索大量内容造成效率缓慢;对于通配符查询必须注意一个问题,就是参数必须小写,即例子中“kihy”必须小写,这是个坑
265      */
266     @Test
267     public void testWildCardQuery() {
268         QueryBuilder queryBuilder = QueryBuilders.wildcardQuery("user", "ki*hy");
269         searchFunction(queryBuilder);
270     }
271     
272     /**
273      * 嵌套查询, 内嵌文档查询
274      */
275     @Test
276     public void testNestedQuery() {
277         QueryBuilder queryBuilder = QueryBuilders.nestedQuery("location", 
278                 QueryBuilders.boolQuery()
279                     .must(QueryBuilders.matchQuery("location.lat", 0.962590433140581))
280                     .must(QueryBuilders.rangeQuery("location.lon").lt(36.0000).gt(0.000)))
281         .scoreMode("total");
282         
283     }
284     
285     /**
286      * 测试索引查询
287      */
288     @Test
289     public void testIndicesQueryBuilder () {
290         QueryBuilder queryBuilder = QueryBuilders.indicesQuery(
291                 QueryBuilders.termQuery("user", "kimchy"), "index1", "index2")
292                 .noMatchQuery(QueryBuilders.termQuery("user", "kimchy"));
293         
294     }
295     
296     
297     
298     /**
299      * 查询遍历抽取
300      * @param queryBuilder
301      */
302     private void searchFunction(QueryBuilder queryBuilder) {
303         SearchResponse response = client.prepareSearch("twitter")
304                 .setSearchType(SearchType.DFS_QUERY_THEN_FETCH)
305                 .setScroll(new TimeValue(60000))
306                 .setQuery(queryBuilder)
307                 .setSize(100).execute().actionGet();
308         
309         while(true) {
310             response = client.prepareSearchScroll(response.getScrollId())
311                 .setScroll(new TimeValue(60000)).execute().actionGet();
312             for (SearchHit hit : response.getHits()) {
313                 Iterator<Entry<String, Object>> iterator = hit.getSource().entrySet().iterator();
314                 while(iterator.hasNext()) {
315                     Entry<String, Object> next = iterator.next();
316                     System.out.println(next.getKey() + ": " + next.getValue());
317                     if(response.getHits().hits().length == 0) {
318                         break;
319                     }
320                 }
321             }
322             break;
323         }
324 //        testResponse(response);
325     }
326     
327     /**
328      * 对response结果的分析
329      * @param response
330      */
331     public void testResponse(SearchResponse response) {
332         // 命中的记录数
333         long totalHits = response.getHits().totalHits();
334         
335         for (SearchHit searchHit : response.getHits()) {
336             // 打分
337             float score = searchHit.getScore();
338             // 文章id
339             int id = Integer.parseInt(searchHit.getSource().get("id").toString());
340             // title
341             String title = searchHit.getSource().get("title").toString();
342             // 内容
343             String content = searchHit.getSource().get("content").toString();
344             // 文章更新时间
345             long updatetime = Long.parseLong(searchHit.getSource().get("updatetime").toString());
346         }
347     }
348     
349     /**
350      * 对结果设置高亮显示
351      */
352     public void testHighLighted() {
353         /*  5.0 版本后的高亮设置
354          * client.#().#().highlighter(hBuilder).execute().actionGet();
355         HighlightBuilder hBuilder = new HighlightBuilder();
356         hBuilder.preTags("<h2>");
357         hBuilder.postTags("</h2>");
358         hBuilder.field("user");        // 设置高亮显示的字段
359         */
360         // 加入查询中
361         SearchResponse response = client.prepareSearch("blog")
362             .setQuery(QueryBuilders.matchAllQuery())
363             .addHighlightedField("user")        // 添加高亮的字段
364             .setHighlighterPreTags("<h1>")
365             .setHighlighterPostTags("</h1>")
366             .execute().actionGet();
367         
368         // 遍历结果, 获取高亮片段
369         SearchHits searchHits = response.getHits();
370         for(SearchHit hit:searchHits){
371             System.out.println("String方式打印文档搜索内容:");
372             System.out.println(hit.getSourceAsString());
373             System.out.println("Map方式打印高亮内容");
374             System.out.println(hit.getHighlightFields());
375 
376             System.out.println("遍历高亮集合,打印高亮片段:");
377             Text[] text = hit.getHighlightFields().get("title").getFragments();
378             for (Text str : text) {
379                 System.out.println(str.string());
380             }
381         }
382     }
383 }

elasticsearch查询api:match query:

match query

  • term query不同,match query的查询词是被分词处理的(analyzed),即首先分词,然后构造相应的查询,所以应该确保查询的分词器和索引的分词器是一致的;
  • terms query相似,提供的查询词之间默认是or的关系,可以通过operator属性指定;
  • match query有两种形式,一种是简单形式,一种是bool形式;

match query VS match_phrase query

注意其差别:

  • match query:会对查询语句进行分词,分词后查询语句中的任何一个词项被匹配,文档就会被搜索到。如果想查询匹配所有关键词的文档,可以用and操作符连接;
  • match_phrase query:满足下面两个条件才会被搜索到
    • (1)分词后所有词项都要出现在该字段中
    • (2)字段中的词项顺序要一致
原文地址:https://www.cnblogs.com/fnlingnzb-learner/p/10749509.html