Index配置
https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules.html#index-modules-settings
static
static的配置只能在 closed index 时才能修改。
index.number_of_shards
默认1,最大1024,该参数即时close了index也不能修改。
dynamic
dynamic的配置可以通过RESTAPI update-index-settings 动态修改。
详细可配置参数见以上官方文档。
Index Shard Allocation索引分片分配
https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-allocation.html
Index级别分片分配过滤器
- Index-level shard allocation filtering
node节点的配置中,可以配置attribute打标签,例如 node.attr.size: medium
Index的设置可以使用对应的attribute条件进行分配,例如
PUT test/_settings 分配给size是big或medium的节点
{
"index.routing.allocation.include.size": "big,medium"
}
PUT test/_settings 分配给size是big且rack是rack1的节点
{
"index.routing.allocation.include.size": "big",
"index.routing.allocation.include.rack": "rack1"
}
条件匹配规则
index.routing.allocation.include.{attribute} 至少符合1个,逗号分割
index.routing.allocation.require.{attribute} 全部符合,逗号分割
index.routing.allocation.exclude.{attribute} 全部都不能符合,逗号分割
已内置的attr有:
| Match nodes by node name |
| Match nodes by host IP address (IP associated with hostname) |
| Match nodes by publish IP address |
| Match either or |
| Match nodes by hostname |
| Match nodes by node id |
条件匹配可以使用通配符
PUT test/_settings
{
"index.routing.allocation.include._ip": "192.168.2.*"
}
节点离开后的延迟分片分配
- Delaying allocation when a node leaves
当节点出于任何原因离开集群时,master节点的反应是:
将replica shard升级为primary shard(如果有replica shard)。
分配replica shard以替换丢失的replica shard(假设有足够的节点)。
在其余节点上均匀地重新平衡碎片。
如果节点只是短暂的离开(网络原因),节点加入后将触发分片再均衡,若频繁发生这种清空将给集群带来较大负担,因此有节点离开后延迟分配。
若没有延迟分配机制,则场景会是这样:
节点5失去网络连接。
对于节点5上的每个主节点,主节点将副本碎片升级到主节点。
主节点将新副本分配给群集中的其他节点。
每个新副本都会在网络上生成主碎片的完整副本。
将更多的碎片移动到不同的节点以重新平衡集群。
节点5在几分钟后返回。
主节点通过将碎片分配给节点5来重新平衡集群。
可以通过
index.unassigned.node_left.delayed_timeout
动态配置延迟大小,默认1m
PUT _all/_settings 可以在指定离开的index上或_all设置
{
"settings": {
"index.unassigned.node_left.delayed_timeout": "5m"
}
}
在延迟分配机制下,就会是这样:
主机会记录一条消息,说明未分配碎片的分配已延迟,以及延迟了多长时间。
群集保持黄色,因为存在未分配的副本碎片。
节点5在几分钟后,即超时到期之前返回。
丢失的副本被重新分配给节点5(同步刷新的碎片几乎立即恢复)。
NOTE:此设置不会影响将副本升级到主副本,也不会影响以前未分配的副本的分配。特别是,延迟分配在集群完全重启后不会生效。此外,在主故障切换情况下,经过的延迟时间被遗忘(即重置为完全初始延迟)。
运维技巧 删除节点场景:即某节点永远不会回来,并且希望Elasticsearch立即分配丢失的碎片,只需将超时更新为零
PUT _all/_settings
{
"settings": {
"index.unassigned.node_left.delayed_timeout": "0"
}
}
索引恢复优先级
- Index recovery prioritization
优先级按照
可选的index.priority设置
索引创建日期
索引名称
这意味着,默认情况下,较新的索引将在较旧的索引之前恢复。
可以使用
index.priority
设置优先级,数字越大越高。
PUT index_4
{
"settings": {
"index.priority": 5
}
}
或
PUT index_4/_settings
{
"index.priority": 1
}
每个节点总分片数
- Total shards per node
集群需要尽可能的在各个节点上均衡的分配分片,支持以下配置
index.routing.allocation.total_shards_per_node Index维度,单个节点上最多分片数(主分片和副本分片),默认无界。
cluster.routing.allocation.total_shards_per_node 全局维度,单个节点上最多分片数(主分片和副本分片),默认无界。
Index Blocks 索引限制
https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-blocks.html
可以阻止写、读或元数据操作。
支持配置:
index.blocks.read_only true则index和index metadata只读
index.blocks.read_only_allow_delete 只读但允许删除操作
index.blocks.read true则禁止读
index.blocks.write true则禁止写,但不影响metadata。例如,可以用写块关闭索引,但不能用只读块关闭索引。
index.blocks.metadata true则禁止读写
索引的Mapper 见 mapping 章节
translog 事务日志
https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-translog.html
与其他分布式系统的刷盘一样,由于Lucene的commit代价很高,因此写操作数据会先进入translog(系统页缓存),当崩溃时从translog回复

默认情况下,index.translog.pertability设置为request,就会在每次写操作请求时都执行fsync写入translog,这意味着需要在primary和每个replica的副本上成功同步和提交后,才会向客户端报告索引、删除、更新或批量请求的成功。
如果index.translog.pertability设置为async,就会使用 定时 同步机制 index.translog.sync_interval 把数据fsync到primary和每个replica的translog,这意味着在primary中尚未写入translog的数据当primary崩溃时会丢失,当然选择该方式可以提升一定的性能。
支持以下配置:
index.translog.sync_interval translog同步到磁盘并提交的频率。默认为5s。不允许小于100ms的值。
index.translog.durability request(默认)和async
index.translog.flush_threshold_size translog的文件大小,一旦达到最大大小,就会发生刷新,生成一个新的Lucene提交点。默认值为512mb。translog如果太大,恢复时间就会长。
index.translog.retention.size 控制每个shard保留的translog文件的总大小。默认值为512mb。
index.translog.retention.age 控制每个shard保存translog文件的最长持续时间。默认为12小时。
History retention 历史保留
https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-history-retention.html
在Lucene级别,写操作只有两个:索引一个新文档或删除一个文档。由于副本复制或跨集群复制时需要这2种数据信息,而索引一个新文档本身就已包含了数据信息,但删除操作的动作信息需要在一段时间内保留,因此有配置支持保留时间。
index.soft_deletes.retention_lease.period 默认12h。
Index Sorting 索引排序
https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-index-sorting.html
index的每个shard内的文档可以进行排序(注意是每个shard),默认不排序。
PUT my-index-000001
{
"settings": {
"index": {
"sort.field": "date",
"sort.order": "desc"
}
},
"mappings": {
"properties": {
"date": {
"type": "date"
}
}
}
}
PUT my-index-000001 配置多个字段的排序
{
"settings": {
"index": {
"sort.field": [ "username", "date" ],
"sort.order": [ "asc", "desc" ]
}
},
"mappings": {
"properties": {
"username": {
"type": "keyword",
"doc_values": true
},
"date": {
"type": "date"
}
}
}
}
index.sort.field 排序的字段,仅支持
boolean
,
numeric
date
and
keyword
index.sort.order asc 或 desc
index.sort.mode 由于排序支持多值的字段,因此需要配置取多值中的哪个值进行排序,min 或 max
index.sort.missing missing参数指定应如何处理缺少该字段的文档,可以选择排到 _last 或 _first
默认情况下,搜索请求必须访问与查询匹配的每个文档,但是当 index.sort.* 的配置与search的排序相同时,则可以使搜索提前结束以减少访问的文档数量。
例如下面这个例子就可以提前终止搜索请求得到正确的结果
PUT events 按timestamp倒排
{
"settings": {
"index": {
"sort.field": "timestamp",
"sort.order": "desc"
}
},
"mappings": {
"properties": {
"timestamp": {
"type": "date"
}
}
}
}
GET /events/_search 按timestamp的倒排search前10条
{
"size": 10,
"sort": [
{ "timestamp": "desc" }
]
}
GET /events/_search 不但提前结束,还进一步告诉ES不需要total字段,节省了ES内部一次count查询
{
"size": 10,
"sort": [
{ "timestamp": "desc" }
],
"track_total_hits": false
}
{ 不需要total字段的结果展示
"_shards": ...
"hits" : {
"max_score" : null,
"hits" : []
},
"took": 20,
"timed_out": false
}
Indexing pressure 索引压力
https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-indexing-pressure.html
由于ES对每个索引都有一定的自动处理机制,如协调、主和副本阶段。如果在系统中引入太多的索引工作,集群可能会饱和。这可能会对其他操作产生不利影响,例如搜索、群集协调和后台处理。
-
索引请求可能使用的未完成字节数。当达到或超过此限制时,节点将拒绝新的协调和主操作。当副本操作消耗该限制的1.5倍时,节点将拒绝新的副本操作。默认值为堆的10%。indexing_pressure.memory.limit