天天看点

Elasticsearch Index模块

Index配置 

https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules.html#index-modules-settings

static

static的配置只能在 closed index 时才能修改。

index.number_of_shards 

默认1,最大1024,该参数即时close了index也不能修改。

dynamic

dynamic的配置可以通过RESTAPI update-index-settings 动态修改。

详细可配置参数见以上官方文档。

Index Shard Allocation索引分片分配

https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-allocation.html

Index级别分片分配过滤器  

  • Index-level shard allocation filtering

node节点的配置中,可以配置attribute打标签,例如 node.attr.size: medium

Index的设置可以使用对应的attribute条件进行分配,例如

PUT test/_settings 分配给size是big或medium的节点
{
  "index.routing.allocation.include.size": "big,medium"
}

      
PUT test/_settings 分配给size是big且rack是rack1的节点
{
  "index.routing.allocation.include.size": "big",
  "index.routing.allocation.include.rack": "rack1"
}

      

条件匹配规则

index.routing.allocation.include.{attribute} 至少符合1个,逗号分割

index.routing.allocation.require.{attribute} 全部符合,逗号分割

index.routing.allocation.exclude.{attribute} 全部都不能符合,逗号分割

已内置的attr有:

_name

Match nodes by node name

_host_ip

Match nodes by host IP address (IP associated with hostname)

_publish_ip

Match nodes by publish IP address

_ip

Match either 

_host_ip

 or 

_publish_ip

_host

Match nodes by hostname

_id

Match nodes by node id

条件匹配可以使用通配符

PUT test/_settings
{
  "index.routing.allocation.include._ip": "192.168.2.*"
}      

节点离开后的延迟分片分配

  • Delaying allocation when a node leaves

当节点出于任何原因离开集群时,master节点的反应是:

将replica shard升级为primary shard(如果有replica shard)。

分配replica shard以替换丢失的replica shard(假设有足够的节点)。

在其余节点上均匀地重新平衡碎片。

如果节点只是短暂的离开(网络原因),节点加入后将触发分片再均衡,若频繁发生这种清空将给集群带来较大负担,因此有节点离开后延迟分配。

若没有延迟分配机制,则场景会是这样:

节点5失去网络连接。

对于节点5上的每个主节点,主节点将副本碎片升级到主节点。

主节点将新副本分配给群集中的其他节点。

每个新副本都会在网络上生成主碎片的完整副本。

将更多的碎片移动到不同的节点以重新平衡集群。

节点5在几分钟后返回。

主节点通过将碎片分配给节点5来重新平衡集群。

可以通过 

index.unassigned.node_left.delayed_timeout

 动态配置延迟大小,默认1m

PUT _all/_settings  可以在指定离开的index上或_all设置
{
  "settings": {
    "index.unassigned.node_left.delayed_timeout": "5m"
  }
}      

在延迟分配机制下,就会是这样:

主机会记录一条消息,说明未分配碎片的分配已延迟,以及延迟了多长时间。

群集保持黄色,因为存在未分配的副本碎片。

节点5在几分钟后,即超时到期之前返回。

丢失的副本被重新分配给节点5(同步刷新的碎片几乎立即恢复)。

NOTE:此设置不会影响将副本升级到主副本,也不会影响以前未分配的副本的分配。特别是,延迟分配在集群完全重启后不会生效。此外,在主故障切换情况下,经过的延迟时间被遗忘(即重置为完全初始延迟)。

运维技巧 删除节点场景:即某节点永远不会回来,并且希望Elasticsearch立即分配丢失的碎片,只需将超时更新为零

PUT _all/_settings
{
  "settings": {
    "index.unassigned.node_left.delayed_timeout": "0"
  }
}      

索引恢复优先级

  • Index recovery prioritization

优先级按照

可选的index.priority设置

索引创建日期

索引名称

这意味着,默认情况下,较新的索引将在较旧的索引之前恢复。

可以使用  

index.priority

 设置优先级,数字越大越高。

PUT index_4
{
  "settings": {
    "index.priority": 5
  }
}
或      
PUT index_4/_settings
{
  "index.priority": 1
}

      

每个节点总分片数

  • Total shards per node

集群需要尽可能的在各个节点上均衡的分配分片,支持以下配置

index.routing.allocation.total_shards_per_node Index维度,单个节点上最多分片数(主分片和副本分片),默认无界。

cluster.routing.allocation.total_shards_per_node 全局维度,单个节点上最多分片数(主分片和副本分片),默认无界。

Index Blocks 索引限制

https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-blocks.html

可以阻止写、读或元数据操作。

支持配置:

index.blocks.read_only true则index和index metadata只读

index.blocks.read_only_allow_delete 只读但允许删除操作

index.blocks.read true则禁止读

index.blocks.write true则禁止写,但不影响metadata。例如,可以用写块关闭索引,但不能用只读块关闭索引。

index.blocks.metadata true则禁止读写

索引的Mapper 见 mapping 章节

translog 事务日志

https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-translog.html

与其他分布式系统的刷盘一样,由于Lucene的commit代价很高,因此写操作数据会先进入translog(系统页缓存),当崩溃时从translog回复

Elasticsearch Index模块

默认情况下,index.translog.pertability设置为request,就会在每次写操作请求时都执行fsync写入translog,这意味着需要在primary和每个replica的副本上成功同步和提交后,才会向客户端报告索引、删除、更新或批量请求的成功。

Elasticsearch Index模块

如果index.translog.pertability设置为async,就会使用 定时 同步机制 index.translog.sync_interval 把数据fsync到primary和每个replica的translog,这意味着在primary中尚未写入translog的数据当primary崩溃时会丢失,当然选择该方式可以提升一定的性能。

Elasticsearch Index模块

支持以下配置:

index.translog.sync_interval translog同步到磁盘并提交的频率。默认为5s。不允许小于100ms的值。

index.translog.durability request(默认)和async

index.translog.flush_threshold_size translog的文件大小,一旦达到最大大小,就会发生刷新,生成一个新的Lucene提交点。默认值为512mb。translog如果太大,恢复时间就会长。

index.translog.retention.size 控制每个shard保留的translog文件的总大小。默认值为512mb。

index.translog.retention.age 控制每个shard保存translog文件的最长持续时间。默认为12小时。

History retention 历史保留

https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-history-retention.html

在Lucene级别,写操作只有两个:索引一个新文档或删除一个文档。由于副本复制或跨集群复制时需要这2种数据信息,而索引一个新文档本身就已包含了数据信息,但删除操作的动作信息需要在一段时间内保留,因此有配置支持保留时间。

index.soft_deletes.retention_lease.period 默认12h。

Index Sorting 索引排序 

https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-index-sorting.html

index的每个shard内的文档可以进行排序(注意是每个shard),默认不排序。 

PUT my-index-000001
{
  "settings": {
    "index": {
      "sort.field": "date", 
      "sort.order": "desc"  
    }
  },
  "mappings": {
    "properties": {
      "date": {
        "type": "date"
      }
    }
  }
}      
PUT my-index-000001  配置多个字段的排序
{
  "settings": {
    "index": {
      "sort.field": [ "username", "date" ], 
      "sort.order": [ "asc", "desc" ]       
    }
  },
  "mappings": {
    "properties": {
      "username": {
        "type": "keyword",
        "doc_values": true
      },
      "date": {
        "type": "date"
      }
    }
  }
}      

index.sort.field 排序的字段,仅支持

boolean

numeric

date

 and 

keyword

index.sort.order asc 或 desc

index.sort.mode 由于排序支持多值的字段,因此需要配置取多值中的哪个值进行排序,min 或 max

index.sort.missing missing参数指定应如何处理缺少该字段的文档,可以选择排到 _last 或 _first

默认情况下,搜索请求必须访问与查询匹配的每个文档,但是当 index.sort.* 的配置与search的排序相同时,则可以使搜索提前结束以减少访问的文档数量。

例如下面这个例子就可以提前终止搜索请求得到正确的结果

PUT events   按timestamp倒排
{
  "settings": {
    "index": {
      "sort.field": "timestamp",
      "sort.order": "desc" 
    }
  },
  "mappings": {
    "properties": {
      "timestamp": {
        "type": "date"
      }
    }
  }
}      
GET /events/_search  按timestamp的倒排search前10条
{
  "size": 10,
  "sort": [
    { "timestamp": "desc" }
  ]
}      
GET /events/_search  不但提前结束,还进一步告诉ES不需要total字段,节省了ES内部一次count查询
{
  "size": 10,
  "sort": [ 
      { "timestamp": "desc" }
  ],
  "track_total_hits": false
}      
{   不需要total字段的结果展示
  "_shards": ...
   "hits" : {  
      "max_score" : null,
      "hits" : []
  },
  "took": 20,
  "timed_out": false
}      

Indexing pressure 索引压力

https://www.elastic.co/guide/en/elasticsearch/reference/7.15/index-modules-indexing-pressure.html

由于ES对每个索引都有一定的自动处理机制,如协调、主和副本阶段。如果在系统中引入太多的索引工作,集群可能会饱和。这可能会对其他操作产生不利影响,例如搜索、群集协调和后台处理。

indexing_pressure.memory.limit

  索引请求可能使用的未完成字节数。当达到或超过此限制时,节点将拒绝新的协调和主操作。当副本操作消耗该限制的1.5倍时,节点将拒绝新的副本操作。默认值为堆的10%。