cluster配置
集群简单配置
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
{
"persistent" : {
"cluster" : {
"routing" : {
"allocation" : {
"node_concurrent_incoming_recoveries" : "4",
"node_concurrent_recoveries" : "8",
"disk" : {
"watermark" : {
"low" : "200gb",
"flood_stage" : "200gb",
"high" : "180gb"
}
},
"exclude" : {
"_name" : "elk-es-master-12,elk-es-master-13,elk-es-master-14"
},
"node_concurrent_outgoing_recoveries" : "8"
}
},
"info" : {
"update" : {
"interval" : "1m"
}
}
},
"indices" : {
"recovery" : {
"max_bytes_per_sec" : "800mb"
}
},
"xpack" : {
"monitoring" : {
"collection" : {
"enabled" : "true"
}
}
}
},
"transient" : { }
}
以上配置的hany
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
1. persistent: 这个字段包含的是持久性配置,这些配置在集群重启后仍然有效。
2. cluster.routing.allocation:
node_concurrent_incoming_recoveries: 指定每个节点可以同时处理的传入分片恢复(例如,由于重新平衡或节点加入集群)的最大数量。在这个例子中,设置为 4。
node_concurrent_outgoing_recoveries: 指定每个节点可以同时处理的传出分片恢复(例如,由于重新平衡或节点离开集群)的最大数量。在这个例子中,设置为 8。
disk.watermark.low: 磁盘使用量达到这个阈值时,Elasticsearch 将尝试不再在该节点上分配新的分片。在这个例子中,设置为 150gb。
disk.watermark.high: 磁盘使用量达到这个阈值时,Elasticsearch 将尝试将分片迁移到其他节点,直到磁盘使用量低于这个阈值。在这个例子中,设置为 120gb。
disk.watermark.flood_stage: 磁盘使用量达到这个阈值时,Elasticsearch 将阻止所有正在进行的写操作,并尝试删除非必要的索引分片以释放磁盘空间。在这个例子中,设置为 80gb。
exclude._name: 指定集群中不应该分配分片的节点名称,可以是逗号分隔的节点名称列表。在这个例子中,elk-es-master-12、elk-es-master-13 和 elk-es-master-14 被排除在分片分配之外。
3. cluster.info.update.interval: 指定集群信息更新频率。在这个例子中,设置为每分钟更新一次 (1m)。
4. indices.recovery.max_bytes_per_sec: 控制分片恢复期间每秒可以传输的最大字节数。这个设置可以限制恢复操作对集群带宽的使用。在这个例子中,设置为 800mb。
5. xpack.monitoring.collection.enabled: 指定是否启用 X-Pack 监控功能。在这个例子中,设置为 true,表示启用监控收集。
6. transient: 这个字段包含的是临时性配置,这些配置在集群重启后不再有效。在您提供的 JSON 中,transient 字段是空的,意味着没有设置临时性配置。
本文由作者按照
CC BY 4.0
进行授权