Initially, we spoke about an “index” being similar to a “database” in an SQL database, and a “type” being equivalent to a “table”. This was a bad analogy that led to incorrect assumptions. [ref]
本文参考《Elasticsearch权威指南》
基础概念
映射
分析器自动通过映射将查询、域中的数据映射成不同的类型(整型、字符串、日期等):
- which string fields should be treated as full text fields.
- which fields contain numbers, dates, or geolocations.
- whether the values of all fields in the document should be indexed into the catch-all
_all
field. - the format of date values.
- custom rules to control the mapping for dynamically added fields.
索引中每个文档都有 类型 。每种类型都有它自己的 映射 ,或者 模式定义 。映射定义了类型中的域,每个域的数据类型,以及Elasticsearch如何处理这些域。映射也用于配置与类型有关的元数据。[ref]
[es 6.0以上,多个映射类型将被弃用,一个索引只允许一个映射类型]
查看映射
使用 /<index>/_mapping/<_type>
查看指定类型的映射
1 | curl http://192.168.1.103:9200/gb/_mapping/tweet | jq |
创建映射
1 | curl -X PUT "192.168.1.103:9200/gb" -H 'Content-Type: application/json' -d' |
尽管你可以 增加
一个存在的映射,你不能 修改
存在的域映射。我们可以更新一个映射来添加一个新域,但不能将一个存在的域从 analyzed
改为 not_analyzed
, 只能将其重新索引 [reindex] [create]
1 |
|
如果不改变映射类型,指向重命名一个
field
,那么引入 alias 可能更合理。
多领域
A mapping type contains a list of fields or properties pertinent to the document
以一条日志的映射类型为例(省略部分字段),一个属性可以包含多个领域信息(fields):
1 | { |
为了不同目的以不同的方式索引相同的字段通常很有用,比如一个字符串属性可以被索引为
text field
用于全文检索,同时又可以作为keyword field
用于排序或聚合。又或者你可以分别以标准分析器、英语分析器、法语分析器索引一个string field
(Alternatively, you could index a string field with the standard analyzer, the english analyzer, and the french analyzer.)
以上,是multi-fields
的目的,大部分datatypes支持通过fields
参数支持多领域
避免一个索引中定义过多的 field (属性? properties?)
Defining too many fields in an index is a condition that can lead to a mapping explosion, which can cause out of memory errors and difficult situations to recover from.[ref]
索引
一个索引对应了一个映射类型(ES6.0+), 在创建索引时可以同时指定映射类型,使数据可以自动被索引
创建
1 | 创建索引 ("settings可省略"),mapping在创建索引时指定 |
删除索引
- 删除一个索引:
DELETE /index-name
- 删除多个:
DELETE /index1,index2
,DELETE /index-*
alias
1 | # POST /_alias |
将别名my_index
从旧索引my_index_v1
移除,添加到新索引my_index_v2
,可实现索引迁移的平滑过渡
搜索
URL字符串简单搜索 (query string search)
空查询
不带任何限制查询所有的结果: GET: /_search/
1 | { |
- took 请求耗时 (ms)
- _shards 参与的分片信息
- timeout 查询是否超时(可以通过设置 ?timeout=10ms限定查询时间,请求超时之前,es会返回已查询到的结果)
- hits 包含10个(默认)查询到的结果,可以直接使用返回的文档
带索引、映射类型的查询
Each document had a meta-field containing the type name:
_type
es支持多个索引、多种类型同时查询以及索引的模糊匹配
索引:_index
映射类型:_type
单索引查询
- 查询索引以
sz-gdc-
为prefix的任意类型的记录:GET: /sz-gdc-*/_search
- 查询类型以
sz-gdc-20180101
为索引,类型为logs
的记录:GET: /sz-gdc-20180101/logs/_search
多索引查询
- 查询索引以
bioservice
和frontline
为索引的任意映射类型的记录:GET: /bioservice,frontline/_search
- 查询映射类型以以
bioservice
和frontline
为索引,映射类型为logs
的记录:GET: /bioservice,frontline/logs/_search
不限索引的映射类型查询
查询任意索引的为
查询任意索引的映射类型为logs
的记录: GET: /_all/logs/_search
分页
每次搜索默认展示10条记录,记录长度可以根据需要通过size
参数调整;如不指定from
参数,则默认返回第一页,可通过from
参数选择要访问的页面
pageNo = (from / size) + 1
指定获取的分页大小:
GET /_search?size=5
指定获取的分页大小及页面:
GET /_search?size=5&from=5
NOTE:
GET /_search?size=5
+GET /_search?size=5&from=5
的10条结果,无法保证与GET /_search?size=10
始终相等(每个分片上各自排序,再由协调点排序取前n)- 避免做深度分页(web 搜索引擎对任何查询都不要返回超过 10000 个结果)
Note that from + size can not be more than the index.max_result_window index setting which defaults to 10,000. See the Scroll or Search After API for more efficient ways to do deep scrolling.
为什么滚动过深会有问题:
假设在一个有 5 个主分片的索引中搜索。 当我们请求结果的第一页(结果从 1 到 10 ),每一个分片产生前 10 的结果,并且返回给 协调节点 ,协调节点对 50 个结果排序得到全部结果的前 10 个。
现在假设我们请求第 1000 页,结果从 10001 到 10010 。所有都以相同的方式工作除了每个分片不得不产生前10010个结果以外。 然后协调节点对全部 50050 个结果排序最后丢弃掉这些结果中的 50040 个结果。 (此处执行的是query then fetch
操作,汇总、排序、向其它分片取回完整信息)
如果要深度翻页,需要使用 scrolling api
轻量搜索
轻量搜索即在URL中附带查询条件
查询log_level属性包含ERROR
, class属性包含DownloadBlockTask
的记录: GET /_search?q=+log_level:ERROR +class:DownloadBlockTask
每个参数之间使用空格间隔,多个参数时前面带
+
, 如不带空格,则查询条件变成 “或”
更复杂的搜索
- name 字段中包含 mary 或者 john
- date 值大于 2014-09-10
- _all 字段包含 aggregations 或者 geo
GET /_search?q=+name:(mary john) +date:>2014-09-10 +(aggregations geo)
(+ 前缀表明这个词必须存在)
查询字符串搜索允许任何用户在索引的任意字段上执行可能较慢且重量级的查询,这可能会暴露隐私信息,甚至将集群拖垮。
查询时使用的分析器
当我们 索引 一个文档,它的全文域被分析成词条以用来创建倒排索引。 但是,当我们在全文域 搜索 的时候,我们需要将查询字符串通过 相同的分析过程 ,以保证我们搜索的词条格式与索引中的词条格式一致。
全文查询,理解每个域是如何定义的,因此它们可以做 正确的事:
- 当你查询一个 全文 域时, 会对查询字符串应用相同的分析器,以产生正确的搜索词条列表。
- 当你查询一个 精确值 域时,不会分析查询字符串, 而是搜索你指定的精确值。
现在你可以理解在 开始章节 的查询为什么返回那样的结果:
date 域包含一个精确值:单独的词条 2014-09-15
。
_all 域是一个全文域,所以分词进程将日期转化为三个词条: 2014
, 09
, 和 15
。
- 当我们在 _all 域查询
2014
,它匹配所有的12条推文,因为它们都含有2014
:
1 | GET /_search?q=2014 # 12 results |
- 当我们在 _all 域查询
2014-09-15
,它首先分析查询字符串,产生匹配2014
,09
, 或15
中任意
词条的查询。这也会匹配所有12条推文,因为它们都含有2014
:
1 | GET /_search?q=2014-09-15 # 12 results ! |
- 当我们在 date 域查询
2014-09-15
,它寻找 精确 日期,只找到一个推文:
1 | GET /_search?q=date:2014-09-15 # 1 result |
- 当我们在 date 域查询
2014
,它找不到任何文档,因为没有文档含有这个精确日志:
1 | GET /_search?q=date:2014 # 0 results ! |
使用分析器分析
查看分析器的分析方式
1
2
3
4
5
6curl -X GET "192.168.1.103:9200/_analyze" -H 'Content-Type: application/json' -d'
{
"analyzer": "standard",
"text": "+log_level:ERROR +thread:download-tid"
}
'查看指定映射类型的分析方式
此处的field对应的是上面提到的映射类型
_type
1 | curl 192.168.1.103:9200/gb/_analyze -H "Content-Type: application/json" -d ' |
请求体搜索
基本语法
GET/POST /<_index>/<_mapping_type>/_search
和URL字符串简单搜索请求的资源相同,将 -q
from
size
等参数移到body中
1 | curl -X GET "localhost:9200/twitter/_search" -H 'Content-Type: application/json' -d' |
支持的参数列表: [ref]
- timeout
- from
- size
- search_type
- request_cache
- allow_partial_search_results
- terminate_after
- batched_reduce_size
DSL
查询表达式的基本结构:
1 |
|
一条复合语句可以将多条语句 — 叶子语句和其它复合语句 — 合并成一个单一的查询语句
match_all
1 | { |
等价于空查询
match_all
经常与 filter 结合使用,对应的还有 match_none
match
全文搜索/精确查询
- 在精确值的字段上使用时:(数字、日期、布尔或者一个 not_analyzed字段)
1
2
3
4
5
6
7{
"query": {
"match": {
"log_level": "ERROR"
}
}
}
multi_match
在多个字段上执行相同的match查询
1 | { |
term
精确查询 (数字、日期、布尔或者一个 not_analyzed字段)
使用方法和match相似,当不匹配或字段是analyzed的,则返回空
terms
精确查询,和term相似,允许多值匹配
1 | { |
exists/missing
和SQL中的 NOT IS_NULL
、mongo中的$exists
很相似, 这些查询经常用于某个字段有值的情况和某个字段缺值的情况。
1 | { |
missing在2.2.0之后被弃用,使用组合的方式表达相同的意义
1 | { |
range
范围查询,gt
gte
lt
lte
和mongo的参数非常相似
1 |
|
组合多查询
使用以下关键词,可以根据自己的需求,无限组合出想要的查询条件
- must 必须匹配这些条件才包含到结果中
- must_not 必须不匹配这些条件才包含到结果中
- should 如果满足给出的任意条件,则增加
_score
,否则无影响(用于修正每个文档的相关性得分) - filter 必须匹配,但它以不评分、过滤模式来进行。(即这些条件不影响评分,只过滤出结果, 单独使用filter时,结果不评分 CHECK: 会使用内存缓存?)
这些关键词都需要配合 bool
使用。每一个子查询都独自地计算文档的相关性得分, 一旦他们的得分被计算出来, bool 查询就将这些得分进行合并并且返回一个代表整个布尔操作的得分
1 | { |
评分对查询性能的影响:
通过将 range 查询移到 filter 语句中,我们将它转成不评分的查询,将不再影响文档的相关性排名。由于它现在是一个不评分的查询,可以使用各种对 filter 查询有效的优化手段来提升性能。
所有查询都可以借鉴这种方式。将查询移到 bool 查询的 filter 语句中,这样它就自动的转成一个不评分的 filter 了。
bool和must、must_not、should、filter可以无限地嵌套使用
使用 constant_score
使用一个不变的常量评分,用于所有的返回结果中,通常用于 只有 filter
时,代替 bool
验证查询是否合法
1 | curl -X GET "localhost:9200/gb/tweet/_validate/query?explain" -H 'Content-Type: application/json' -d' |
搜索结果排序
es默认以搜索结果的相关性评分进行排序,如果评分相同,则以随机的顺序返回
相关性评分的依据:
- 检索词频率:检索词在文本中出现的频率,正相关
- 反向文档频率:检索词在索引中出现的频率,负相关(在越多的文档中出现则越说明相关性更小)
- 字段长度准则:文档的长度越长,相关性越低
按照字段值排序
只需在查询后面指定字段,并且指定排序方式即可
1
2
3
4
5
6
7
8{
"query": {},
"sort": {
"date": {
"order": "desc"
}
}
}或者使用简洁的方式指定字段进行排序 (默认升序)
1
2
3
4{
"query": {},
"sort": "date"
}
当指定其它字段进行排序时,则默认不进行评分
Fielddata is disabled on text fields by default.
多级排序
1 | { |
按照 sort列表中的顺序,当date
的值完全相同时,以第二个值_score
进行排序,以此类推
多值字段的排序
有时,部分字段有多个值,但这些多值字段中的值是没有固定顺序的,对于数字和日志,可以使用 min
max
avg
sum
将其减为单值
搜索过程及对节点的性能影响
一次查询分为几个步骤:
- 客户端发送查询请求到一个节点A {“from”: 90, “size”: 10}
- 节点A变成协调点,向其它节点(分片)广播查询信息;同时节点A创建一个大小为
from + size
的空“优先队列” - 每个分片在本地查询结果,并添加结果到大小为
from + size
的优先队列中,然后将各自查到的文档ID和任何排序需要用到的值返回给协调点 - 协调点合并这些值到自己的优先队列中来产生一个全局排序后的结果列表,向其它分片取回完整的文档信息添加到优先队列中
所以,当分页请求过深(from
过大)时,必然对每个分片/协调节点带来更重的负担。
使用scroll进行大批量的文档获取操作
1 |
|
每次滚动的请求会返回一个新的_scroll_id
,每次滚动需要使用最新的_scroll_id
才能完成滚动的效果