冲!!!!!!!!!!!!!!!!!!!!!!!!!!!1
下面不多说,我本地自己搞一个es集群和使用kibanna
本次使用的是7.6.2版本,如果觉得麻烦的话可以直接下载:
链接:https://pan.baidu.com/s/1BFsEveHMpsO3PbqRhCZijw
提取码:jk9z
下载下来之后,首先先配置es
这里我复制了三份es,并改名
es_cluster_01
es_cluster_02
es_cluster_03
接着我们打开每个es里面的config目录下的elasticsearch.yml文件
首先,我们打开es_cluster_01的elasticsearch.yml文件,修改内容如下:
http.cors.enabled: true
http.cors.allow-origin: "*"
# 集群名称
cluster.name: my-es
# 节点名称
node.name: node-1
# 本机IP地址
network.host: 127.0.0.1
# 服务端口号
http.port: 9201
# 集群间通信端口号
transport.tcp.port: 9301
# 设置集群自动发现机器IP集合
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9301","127.0.0.1:9302","127.0.0.1:9303"]
cluster.initial_master_nodes: ["node-1"]
这里的cluster.initial_master_nodes三个es里面要保持统一,我这里使用的是node-1
接着,我们打开es_cluster_02的elasticsearch.yml文件,修改内容如下:
http.cors.enabled: true
http.cors.allow-origin: "*"
# 集群名称
cluster.name: my-es
# 节点名称
node.name: node-2
# 本机IP地址
network.host: 127.0.0.1
# 服务端口号
http.port: 9202
# 集群间通信端口号
transport.tcp.port: 9302
# 设置集群自动发现机器IP集合
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9301","127.0.0.1:9302","127.0.0.1:9303"]
cluster.initial_master_nodes: ["node-1"]
接着,我们打开es_cluster_03的elasticsearch.yml文件,修改内容如下:
http.cors.enabled: true
http.cors.allow-origin: "*"
# 集群名称
cluster.name: my-es
# 节点名称
node.name: node-3
# 本机IP地址
network.host: 127.0.0.1
# 服务端口号
http.port: 9203
# 集群间通信端口号
transport.tcp.port: 9303
# 设置集群自动发现机器IP集合
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9301","127.0.0.1:9302","127.0.0.1:9303"]
cluster.initial_master_nodes: ["node-1"]
这样,我们就把集群的配置给修改好了,当然,还有一个重要的是,每个es目录的data里面需要把东西都删了
就这个data里面的东西都删除,三个es都需要删除
当然,如果需要使用ik分词器的时候,在我上面的网盘里面下载,下载之后解压到每一个es里面的plugins目录下,进入目录之后创建文件夹为ik
然后把ik分词器解压到这里ik里面就行
这样我们就基本配置好了,就可以去分别启动es了,进行每个es的bin目录下,双击:elasticsearch.bat即可
不会闪退,说明启动成功;
访问:localhost:9201
localhost:9202
localhost:9203
当然,我们不想每次都来看这个,那我们是不是可以使用一个可视化工具来进行监督呢?
答案当然是可以的
使用kibana来进行数据的增删改查和监控es运行状态
下载我上面的kibana
打开config文件夹下的kibana.yml文件
elasticsearch.hosts: ["http://127.0.0.1:9201","http://127.0.0.1:9202","http://127.0.0.1:9203"]
添加这一行或者把下面的elasticsearch.hosts注释放开,然后把我们的集群和ip+端口写进行
接下来提供kibana就行了
kibana默认访问的端口是5601
启动之后我们访问:localhost:5601出现如下界面
说明配置成功了
点击左侧的心脏,进行集群的检测配置,选择默认的就行,配置完之后打开就是:
好了,我们点击扳手就可以对数据进行操作了,既然大伙都看了这么多了,我就分享一些常用操作:
GET _search
{
"query": {
"match_all": {}
}
}
PUT /es_db
GET /es_db
PUT /es_db/_doc/4
{
"name": "admin",
"sex": 1,
"age": 25,
"address": "广州天河公园"
}
GET /es_db/_doc/1
GET /es_db/_doc/_search
GET /es_db/_doc/_search?_source=name,age
POST /es_db/_search
{
"query": {
"term": {
"name": "admin"
}
}
}
POST /es_db/_doc/_search
{
"from": 0,
"size": 10,
"query": {
"match": {
"address": "广州"
}
}
}
POST /es_db/_doc/_search
{
"query":{
"multi_match":{
"query":"张三",
"fields":["address","name"]
}
}
}
POST /es_db/_search
{
"query":{
"query_string":{
"query":"(广州) OR 长沙"
}
}
}
POST /es_db/_doc/_search
{
"query":{
"query_string":{
"query":"admin OR 长沙",
"fields":["name","address"]
}
}
}
POST _analyze
{
"analyzer": "ik_smart",
"text": "*"
}
POST _analyze
{
"analyzer":"ik_max_word",
"text":"我爱你中国"
}
可以自己试试看看,打解释有点麻烦了哈哈,自此,就搭建好了;linux搭建按道理也基本是这个流程;附送linux命令:
cd kibana-7.4.2-linux-x86_64
ps -ef|grep kibana
nohup ./bin/kibana >out.file 2>&1 &
3.重启 服务
cd ~/bin
./elasticsearch -d
喜欢的可以点个关注哦!!!!!!!
下一期使用springboot来进行es的开发!!!1