一. 安装elastic和可视化工具kibana
1.在/opt内创建一目录docker_elastic,
2. vi docker-compose.yml配置文件
3. 通过component up -d 启动服务
1 # ElasticSearch.yml 2 version: '3.1' 3 services: 4 elasticsearch: 5 image: daocloud.io/library/elasticsearch:6.5.4 6 container_name: elasticsearch 7 restart: always 8 ports: 9 - 9200:9200 10 # kibana是elastic的可视化工具 11 kibana: 12 image: daocloud.io/library/kibana:6.5.4 13 container_name: kibana 14 restart: always 15 ports: 16 - 5601:5601 17 environment: 18 - elasticsearch_url=http://192.168.43.30:9200 19 depends_on: 20 - elasticsearch
这样启动以后, 如果报错;原因是内存不足,
可以参考这篇: https://blog.csdn.net/u011144214/article/details/106737303
解决方式:
docker exec -it d64 bash 命令进入elasticsearch内部, 找到elasticsearch.yml配置文件 追加:
bootstrap.system_call_filter: false
cluster.initial_master_nodes: ["node-1"]
然后可以访问9200端口和5601端口;
二. 安装分词器:
默认的分词器只能将单个中国字分开, 可以用ik分词器更精准
github上, 要求ik必须和ES的版本一致
点击release
下载地址是:https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.5.4/elasticsearch-analysis-ik-6.5.4.zip
进入es内部, 下载该插件
一定要重启es让分词器生效: docker restart es的id
就可以访问