ELK——Elasticsearch 搭建集群经验

本文内容

  • 背景
  • ES集群中第一个master节点
  • ES slave节点

迁移到:http://www.bdata-cap.com/newsinfo/1712679.html

本文总结 Elasticsearch(以下简称ES)搭建集群的经验。以 Elasticsearch-rtf-2.2.1 版本为例。

我搭过三个集群:研究ELK时搭了一个;测试环境搭了一个;生产环境搭了一个。回想起来,搭建这三个集群时遇到的问题都不一样(我这么说,主要针对集群中节点发现,以及master问题,而不是es启动不起来或报错等问题)~

  • 研究ELK时,搭建ES集群倒是很顺利,原因很简单,先从一台机器开始的;
  • 可是测试环境搭建集群时,遭遇新加入节点一直不能发现 master 节点,或是集群节点出现都选举自己为 master 这两个情况,因为,节点都是陆续启动的,配置不当,是会出问题;
  • 等到在生产环境搭建集群时,遭遇无法选举出 master 节点的情况。ES head 和 kopf 两个插件都不可用,因为,既然集群没有选举出 master 节点,显然,整个集群是用不了的。而前面的情况,head 和 kopf 插件还是能用的,但能用,意义也不大~

总结起来,搭建集群,应该注意两个问题。首先,当然是 Elasticsearch.yml 配置是否正确;再就是你的操作方式。比如节点启动步骤等。

因为,如果搭建一个集群,那么必须保证集群有一个 master 节点,一般来说,第一个启动的节点,一定是 master。然后,分别启动其他节点,这些节点就会找到 master 节点,而 master 节点,也会发现这些节点。

  • 因此,配置集群中的第一个master节点,务必简单(简单到什么程度,后面再说),先启动它,它会立刻成为 master 节点。之后,再配置其他节点,最好直接告诉它们,可能的 master 节点是什么,然后启动他们,它们就会发现 master,而 master 节点,也会发现新加入的节点。
  • 否则,如果第一个启动的节点,配置过于复杂(条件苛刻),造成它不能成为 master 节点,那么,整个集群会失败。

稍后,你再配置节点时,可以采用更高级、复杂点的配置,就不会有什么问题了~

所以,我才强调,ES 集群中第一个 master 节点的配置务必简单,以后再调整。

背景


假设,我们想搭建这样一个名为 myfirstcluster 的ES集群,它有两个节点:

节点 主机名 是否为 master
192.168.1.2 es-01
192.168.1.3 es-02

ES集群中第一个master节点


最简单的 ES master 节点配置如下。该配置文件,是一个完整的 ES 配置文件,所以很长。我顺便翻译成了中文。

   1: # ======================== Elasticsearch Configuration =========================

   2: #

   3: # 注意: Elasticsearch 大多数设置都有默认值.

   4: #       在你着手调整和优化配置之前,确保你明白你期望什么,得到什么结果

   5: #

   6: # 配置一个节点的主要方式就是通过该文件. 该模板列出了大多数重要的设置.

   7: #

   8: # 更多配置选项参见如下链接:

   9: # <http://www.elastic.co/guide/en/elasticsearch/reference/current/setup-configuration.html>

  10: #

  11: # ---------------------------------- 集群 -----------------------------------

  12: #

  13: # 集群名称:

  14: #

  15: cluster.name: mycluster

  16: #

  17: # ------------------------------------ 节点 ------------------------------------

  18: #

  19: # 节点名称:

  20: #

  21: node.name: es-01

  22: node.master: true

  23: node.data: true

  24: #

  25: # 为节点添加自定义属性,如机架:

  26: #

  27: # node.rack: r1

  28: #

  29: # ----------------------------------- 路径 ------------------------------------

  30: #

  31: # 存放数据的目录 (多个目录用逗号分隔):

  32: #

  33: # path.data: /path/to/data

  34: #

  35: # 日志文件目录:

  36: #

  37: # path.logs: /path/to/logs

  38: #

  39: # ----------------------------------- 内存 -----------------------------------

  40: #

  41: # 启动时锁定内存:

  42: #

  43: # bootstrap.mlockall: true

  44: #

  45: # 确保设置了 `ES_HEAP_SIZE` 环境变量, 大小为系统内存的一半,

  46: # 该值为线程可以使用的最大内存

  47: #

  48: # 当系统正在交换内存时, Elasticsearch 执行性能会很差.

  49: #

  50: # ---------------------------------- 网络 -----------------------------------

  51: #

  52: # 设置绑定地址到指定IP (IPv4 or IPv6):

  53: #

  54: network.host: 192.168.1.2

  55: #

  56: # 设置自定义 HTTP 端口:

  57: http.port: 9200

  58: # 集群内部通信端口:

  59: tcp.port: 9300

  60: #

  61: # 更多信息, 参见如下链接:

  62: # <http://www.elastic.co/guide/en/elasticsearch/reference/current/modules-network.html>

  63: #

  64: # --------------------------------- 节点发现 ----------------------------------

  65: #

  66: # 当新节点加入时,传递一个主机的初始化列表以完成节点发现:

  67: # 默认主机列表为 ["127.0.0.1", "[::1]"]

  68: #

  69: discovery.zen.ping.unicast.hosts: ["127.0.0.1:9300"]

  70: #

  71: # 通过配置大多数节点阻止脑裂现象 (数量: 节点总数量 / 2 + 1):

  72: #

  73: # discovery.zen.minimum_master_nodes: 2

  74: #

  75: # 更多信息, 参见如下链接:

  76: # <http://www.elastic.co/guide/en/elasticsearch/reference/current/modules-discovery.html>

  77: #

  78: # ---------------------------------- 网关 -----------------------------------

  79: #

  80: # 当整个集群重新启动后, 只有 N 个节点启动了, 集群才会恢复,否则将阻塞:

  81: #

  82: # gateway.recover_after_nodes: 2

  83: #

  84: # 更多信息, 参见如下链接:

  85: # <http://www.elastic.co/guide/en/elasticsearch/reference/current/modules-gateway.html>

  86: #

  87: # ---------------------------------- 其他 -----------------------------------

  88: #

  89: # 禁止在一个系统上启动多个节点:

  90: #

  91: # node.max_local_storage_nodes: 1

  92: #

  93: # 当删除 index 是必需显式名称:

  94: #

  95: # action.destructive_requires_name: true

  96:  

  97: index:

  98:   analysis:

  99:     tokenizer:

 100:       my_pinyin:

 101:         type: pinyin

 102:         first_letter: prefix

 103:         padding_char: ''

 104:       pinyin_first_letter:

 105:         type: pinyin

 106:         first_letter: only

 107:       mmseg_maxword:

 108:         type: mmseg

 109:         seg_type: max_word

 110:       mmseg_complex:

 111:         type: mmseg

 112:         seg_type: complex

 113:       mmseg_simple:

 114:         type: mmseg

 115:         seg_type: simple

 116:       semicolon_spliter:

 117:         type: pattern

 118:         pattern: ";"

 119:       pct_spliter:

 120:         type: pattern

 121:         pattern: "[%]+"

 122:       ngram_1_to_2:

 123:         type: nGram

 124:         min_gram: 1

 125:         max_gram: 2

 126:       ngram_1_to_3:

 127:         type: nGram

 128:         min_gram: 1

 129:         max_gram: 3

 130:     filter:

 131:       ngram_min_3:

 132:         max_gram: 10

 133:         min_gram: 3

 134:         type: nGram

 135:       ngram_min_2:

 136:         max_gram: 10

 137:         min_gram: 2

 138:         type: nGram

 139:       ngram_min_1:

 140:         max_gram: 10

 141:         min_gram: 1

 142:         type: nGram

 143:       min2_length:

 144:         min: 2

 145:         max: 4

 146:         type: length

 147:       min3_length:

 148:         min: 3

 149:         max: 4

 150:         type: length

 151:       pinyin_first_letter:

 152:         type: pinyin

 153:         first_letter: only

 154:     analyzer:

 155:       lowercase_keyword:

 156:         type: custom

 157:         filter:

 158:         - lowercase

 159:         tokenizer: standard

 160:       lowercase_keyword_ngram_min_size1:

 161:         type: custom 

 162:         filter:

 163:         - lowercase 

 164:         - stop

 165:         - trim

 166:         - unique

 167:         tokenizer: nGram

 168:       lowercase_keyword_ngram_min_size2:

 169:         type: custom

 170:         filter:

 171:         - lowercase

 172:         - min2_length

 173:         - stop

 174:         - trim

 175:         - unique

 176:         tokenizer: nGram

 177:       lowercase_keyword_ngram_min_size3:

 178:         type: custom

 179:         filter:

 180:         - lowercase

 181:         - min3_length

 182:         - stop

 183:         - trim

 184:         - unique

 185:         tokenizer: ngram_1_to_3 

 186:       lowercase_keyword_ngram:

 187:         type: custom

 188:         filter:

 189:         - lowercase

 190:         - stop

 191:         - trim

 192:         - unique

 193:         tokenizer: ngram_1_to_3

 194:       lowercase_keyword_without_standard:

 195:         type: custom

 196:         filter:

 197:         - lowercase

 198:         tokenizer: keyword

 199:       lowercase_whitespace:

 200:         type: custom

 201:         filter:

 202:         - lowercase

 203:         tokenizer: whitespace

 204:       ik:

 205:         alias:

 206:         - ik_analyzer

 207:         type: ik

 208:       ik_max_word:

 209:         type: ik

 210:         use_smart: true

 211:       ik_smart:

 212:         type: ik

 213:         use_smart: true

 214:       mmseg:

 215:         alias:

 216:         - mmseg_analyzer

 217:         type: mmseg

 218:       mmseg_maxword:

 219:         type: custom

 220:         filter:

 221:         - lowercase

 222:         tokenizer: mmseg_maxword

 223:       mmseg_complex:

 224:         type: custom

 225:         filter:

 226:         - lowercase

 227:         tokenizer: mmseg_complex

 228:       mmseg_simple:

 229:         type: custom

 230:         filter:

 231:         - lowercase

 232:         tokenizer: mmseg_simple

 233:       comma_spliter:

 234:         type: pattern

 235:         pattern: "[,|\\s]+"

 236:       pct_spliter:

 237:         type: pattern

 238:         pattern: "[%]+"

 239:       custom_snowball_analyzer:

 240:         type: snowball

 241:         language: English

 242:       simple_english_analyzer:

 243:         type: custom

 244:         tokenizer: whitespace

 245:         filter:

 246:         - standard

 247:         - lowercase

 248:         - snowball

 249:       edge_ngram:

 250:         type: custom

 251:         tokenizer: edgeNGram

 252:         filter:

 253:         - lowercase

 254:       pinyin_ngram_analyzer:

 255:         type: custom

 256:         tokenizer: my_pinyin

 257:         filter:

 258:         - lowercase

 259:         - nGram

 260:         - trim

 261:         - unique

 262:       pinyin_first_letter_analyzer:

 263:         type: custom

 264:         tokenizer: pinyin_first_letter

 265:         filter:

 266:         - standard

 267:         - lowercase

 268:       pinyin_first_letter_keyword_analyzer:

 269:         alias:

 270:         - pinyin_first_letter_analyzer_keyword

 271:         type: custom

 272:         tokenizer: keyword

 273:         filter:

 274:         - pinyin_first_letter

 275:         - lowercase

 276:       path_analyzer: #used for tokenize :/something/something/else

 277:         type: custom

 278:         tokenizer: path_hierarchy 

 279:  

 280: #index.analysis.analyzer.default.type: mmseg

 281: index.analysis.analyzer.default.type: ik 

 282:  

 283: # rtf.filter.redis.host: 127.0.0.1

 284: # rtf.filter.redis.port: 6379

说明:

  • 第15行,指定集群名称 myfirstcluster;
  • 第21行,指定节点名称,最好写主机名;
  • 第22和23行,指定该是否可能为master节点,以及是否为数据节点。ES的所说master节点,其实弱化了很多,仅仅就是为了节点发现和选举master节点而已,它甚至都可以不用来保存数据。

因此,看你的规划,完全可以让一个 master 节点,不保存任何数据;

  • 第54行,指定节点IP地址,192.168.1.2;
  • 第57行,指定HTTP端口,比如,head、kopf插件等插件,都使用该端口。事实上,你可以指定从 92开头的任何端口;
  • 第59行,指定集群内部通信的端口,比如,节点发现都使用该端口。事实上,你可以指定93开头的任何端口,该行也可以写成“transport.tcp.port: 9300”;

这7行配置,在我看来,针对集群中第一个master节点,必须配置正确的。其他配置,可以暂时不用。

其中,第57行和第59行,实际上,一台物理机,是可以运行多个 ES,只需要指定不同的配置文件即可。

  • 第69行,指定节点初始化列表,因为该节点是集群第一台机器,并且要当 master,所以写”127.0.0.1:9300”,端口号,就是你在第59行指定的端口。相关资料显示,也可以不指定端口,那是不是会93开头的所有端口扫描一下呢?;
  • 从97行开始,是配置ES的分词。

slave 节点


Slave 节点配置如下。该配置文件内容只列出了配置项,但是是完整的。

   1: # ======================== Elasticsearch Configuration =========================

   2: #

   3: # ---------------------------------- Cluster -----------------------------------

   4: #

   5: # Use a descriptive name for your cluster:

   6: #

   7: cluster.name: myfirstcluster

   8: #

   9: # ------------------------------------ Node ------------------------------------

  10: #

  11: # Use a descriptive name for the node:

  12: #

  13: node.name: es-02

  14: node.master: true

  15: node.data: true

  16: #

  17: # ----------------------------------- Paths ------------------------------------

  18: #

  19: # Path to directory where to store the data (separate multiple locations by comma):

  20: #

  21: # path.data: /path/to/data

  22: #

  23: # Path to log files:

  24: #

  25: # path.logs: /path/to/logs

  26: #

  27: # ----------------------------------- Memory -----------------------------------

  28: #

  29: # ...

  30: #

  31: # ---------------------------------- Network -----------------------------------

  32: #

  33: # Set the bind address to a specific IP (IPv4 or IPv6):

  34: #

  35: network.host: 192.168.1.3

  36: #

  37: # Set a custom port for HTTP:

  38: #

  39: http.port: 9200

  40: transport.tcp.port: 9300

  41: #

  42: # --------------------------------- Discovery ----------------------------------

  43: #

  44: # Pass an initial list of hosts to perform discovery when new node is started:

  45: # The default list of hosts is ["127.0.0.1", "[::1]"]

  46: #

  47: discovery.zen.ping.unicast.hosts: ["192.168.1.2:9300"]

  48: #

  49: # ---------------------------------- Gateway -----------------------------------

  50: #

  51: # ...

  52: #

  53: # ---------------------------------- Various -----------------------------------

  54: # ...

  55:  

  56: index:

  57:   analysis:

  58:     tokenizer:

  59:       my_pinyin:

  60:         type: pinyin

  61:         first_letter: prefix

  62:         padding_char: ''

  63:       pinyin_first_letter:

  64:         type: pinyin

  65:         first_letter: only

  66:       mmseg_maxword:

  67:         type: mmseg

  68:         seg_type: max_word

  69:       mmseg_complex:

  70:         type: mmseg

  71:         seg_type: complex

  72:       mmseg_simple:

  73:         type: mmseg

  74:         seg_type: simple

  75:       semicolon_spliter:

  76:         type: pattern

  77:         pattern: ";"

  78:       pct_spliter:

  79:         type: pattern

  80:         pattern: "[%]+"

  81:       ngram_1_to_2:

  82:         type: nGram

  83:         min_gram: 1

  84:         max_gram: 2

  85:       ngram_1_to_3:

  86:         type: nGram

  87:         min_gram: 1

  88:         max_gram: 3

  89:     filter:

  90:       ngram_min_3:

  91:         max_gram: 10

  92:         min_gram: 3

  93:         type: nGram

  94:       ngram_min_2:

  95:         max_gram: 10

  96:         min_gram: 2

  97:         type: nGram

  98:       ngram_min_1:

  99:         max_gram: 10

 100:         min_gram: 1

 101:         type: nGram

 102:       min2_length:

 103:         min: 2

 104:         max: 4

 105:         type: length

 106:       min3_length:

 107:         min: 3

 108:         max: 4

 109:         type: length

 110:       pinyin_first_letter:

 111:         type: pinyin

 112:         first_letter: only

 113:     analyzer:

 114:       lowercase_keyword:

 115:         type: custom

 116:         filter:

 117:         - lowercase

 118:         tokenizer: standard

 119:       lowercase_keyword_ngram_min_size1:

 120:         type: custom

 121:         filter:

 122:         - lowercase

 123:         - stop

 124:         - trim

 125:         - unique

 126:         tokenizer: nGram

 127:       lowercase_keyword_ngram_min_size2:

 128:         type: custom

 129:         filter:

 130:         - lowercase

 131:         - min2_length

 132:         - stop

 133:         - trim

 134:         - unique

 135:         tokenizer: nGram

 136:       lowercase_keyword_ngram_min_size3:

 137:         type: custom

 138:         filter:

 139:         - lowercase

 140:         - min3_length

 141:         - stop

 142:         - trim

 143:         - unique

 144:         tokenizer: ngram_1_to_3

 145:       lowercase_keyword_ngram:

 146:         type: custom

 147:         filter:

 148:         - lowercase

 149:         - stop

 150:         - trim

 151:         - unique

 152:         tokenizer: ngram_1_to_3

 153:       lowercase_keyword_without_standard:

 154:         type: custom

 155:         filter:

 156:         - lowercase

 157:         tokenizer: keyword

 158:       lowercase_whitespace:

 159:         type: custom

 160:         filter:

 161:         - lowercase

 162:         tokenizer: whitespace

 163:       ik:

 164:         alias:

 165:         - ik_analyzer

 166:         type: ik

 167:       ik_max_word:

 168:         type: ik

 169:         use_smart: false

 170:       ik_smart:

 171:         type: ik

 172:         use_smart: true

 173:       mmseg:

 174:         alias:

 175:         - mmseg_analyzer

 176:         type: mmseg

 177:       mmseg_maxword:

 178:         type: custom

 179:         filter:

 180:         - lowercase

 181:         tokenizer: mmseg_maxword

 182:       mmseg_complex:

 183:         type: custom

 184:         filter:

 185:         - lowercase

 186:         tokenizer: mmseg_complex

 187:       mmseg_simple:

 188:         type: custom

 189:         filter:

 190:         - lowercase

 191:         tokenizer: mmseg_simple

 192:       comma_spliter:

 193:         type: pattern

 194:         pattern: "[,|\\s]+"

 195:       pct_spliter:

 196:         type: pattern

 197:         pattern: "[%]+"

 198:       custom_snowball_analyzer:

 199:         type: snowball

 200:         language: English

 201:       simple_english_analyzer:

 202:         type: custom

 203:         tokenizer: whitespace

 204:         filter:

 205:         - standard

 206:         - lowercase

 207:         - snowball

 208:       edge_ngram:

 209:         type: custom

 210:         tokenizer: edgeNGram

 211:         filter:

 212:         - lowercase

 213:       pinyin_ngram_analyzer:

 214:         type: custom

 215:         tokenizer: my_pinyin

 216:         filter:

 217:         - lowercase

 218:         - nGram

 219:         - trim

 220:         - unique

 221:       pinyin_first_letter_analyzer:

 222:         type: custom

 223:         tokenizer: pinyin_first_letter

 224:         filter:

 225:         - standard

 226:         - lowercase

 227:       pinyin_first_letter_keyword_analyzer:

 228:         alias:

 229:         - pinyin_first_letter_analyzer_keyword

 230:         type: custom

 231:         tokenizer: keyword

 232:         filter:

 233:         - pinyin_first_letter

 234:         - lowercase

 235:       path_analyzer: #used for tokenize :/something/something/else

 236:         type: custom

 237:         tokenizer: path_hierarchy

 238:  

 239: #index.analysis.analyzer.default.type: mmseg

 240: index.analysis.analyzer.default.type: ik

说明:

  • 第7行,也是指定了集群名称;
  • 第13行,指定了节点名称为 es-02(主机名)
  • 第14和15行,指定了该节点可能成为 master 节点,还可以是数据节点;
  • 第35行,指定节点IP地址为 192.168.1.3;
  • 第39行,指定http端口,你使用head、kopf等相关插件使用的端口;
  • 第40行,集群内部通信端口,用于节点发现等;

上面的配置master也是这么配置的。

  • 第47行,跟master节点配置不一样了。这里直接告诉该的节点,可能的master节点是什么。

参考资料


上一篇:Microsoft Dynamics CRM 2011 安装完全教程


下一篇:C#中调用c++的dll具体创建与调用步骤,亲测有效~