es集群share平衡问题

今天把集群关闭后会造成shards移动到其他正常节点,但是重新启动shares并不会移动到恢复的节点。

在网上找了一会儿资料发现一个方法:

把副本数调整为0,会自动平衡shares,再增加number_of_replicas,会自动再建立副本数。(怀疑是重启过程出现副本数损坏了),此时shared又达到集群之间平衡了

  PUT _settings
        {
        "number_of_replicas":0
       }

 

PUT /fact_terminal_keepalive_info10/_settings
{
"index": { "routing.allocation.total_shards_per_node" : "20" }
}

 每个节点最大的分片数量,少了分片会放置不上去一直等待分配

上一篇:Python CookBook(self report)


下一篇:实现数据模型或类型系统