centos7安装es及简单使用

为了方便日后查看,简单记录下!
【启动es前,需要调整这个配置文件(/opt/elasticsearch-6.3.0/config/elasticsearch.yml)的两处ip地址,同时访问页面地址的ip:9200时,ip地址也对应修改】

【启动kibana前,需要调整这个配置文件(/opt/kibana-6.3.0/config/kibana.yml)的一处ip地址,同时访问页面地址的ip:5601时,ip地址也对应修改】

因为每次虚拟机的ip地址可能会有所不同,这和所在网络有关,也可将ip固定,这样不需要调整配置文件

安装并使用

文件

待上传

centos7安装es

1. 解压包

cd /opt

tar -xvf elasticsearch-6.3.0.tar.gz

2. 创建es用户

adduser esuser

chown -R esuser:esuser elasticsearch-6.3.0

3. 修改配置文件

3.1 vi /opt/elasticsearch-6.3.0/config/elasticsearch.yml

取消如下注释,并修改为当前主机地址:

cluster.name: my-application

node.name: node-1

bootstrap.memory_lock: false

network.host: 192.168.133.167

http.port: 9200

discovery.zen.ping.unicast.hosts: ["192.168.133.167"]

discovery.zen.minimum_master_nodes: 1 #注意,因为本人目前是单节点,这里必须为1

新增如下配置:

transport.tcp.port: 9300

transport.tcp.compress: true

bootstrap.system_call_filter: false

3.2 vi /etc/sysctl.conf文件

vm.max_map_count=262144

退出保存后执行如下命令: sysctl -p

3.3 vi /etc/security/limits.conf

文件末尾添加

esuser soft nofile 65536

esuser hard nofile 65536

esuser soft nproc 4096

esuser hard nproc 4096

4.启动es

切换用户 su esuser

进入/opt目录 cd /opt

后台启动 elasticsearch-6.3.0/bin/elasticsearch -d

测试是否启动成功

http://192.168.133.167:9200

5.查看进程

ps -ef | grep elastic

centos7安装kibana

1.解压缩包

cd /opt/

tar -xvf kibana-6.3.0-linux-x86_64.tar.gz

2.重命名

mv kibana-6.3.0-linux-x86_64 kibana-6.3.0

3.修改配置文件

vi config/kibana.yml

#端口

server.port: 5601

#主机

server.host: "192.168.10.114"

#es的地址

elasticsearch.url: "http://192.168.10.114:9200"

#kibana在es中的索引

kibana.index: ".kibana"

4.启动

cd bin

nohup ./kibana &

5.查看进程

ps -ef|grep node

6.页面地址访问

http://192.168.124.22:5601/

"Dev Tool"模块下进行对数据进行es筛选

centos7安装ik分词器

1.解压缩

cd /opt/elasticsearch-6.3.0/plugins

unzip elasticsearch-analysis-ik-6.3.0.zip -d ik-analyzer

rm -rf elasticsearch-analysis-ik-6.3.0.zip

2.重启es及kibana即可

es的使用

访问kibana地址进入"Dev Tool"模块

新增数据

xml 复制代码
PUT book/novel/2
{
"title":"肖战杂志",
"author":"肖战",
"word_count":1000,
"publish_date":"2015-02-25"
}

查询数据

xml 复制代码
GET book/novel/2

修改数据

xml 复制代码
PUT book/novel/2
{
"title":"肖战杂志111"
}

删除数据

xml 复制代码
DELETE book/novel/2

es的java程序调用

暂时未完成,稍后补充

相关推荐
得物技术33 分钟前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康2 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康1 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
Elasticsearch2 天前
如何使用 Agent Builder 排查 Kubernetes Pod 重启和 OOMKilled 事件
elasticsearch
Elasticsearch3 天前
通用表达式语言 ( CEL ): CEL 输入如何改进 Elastic Agent 集成中的数据收集
elasticsearch
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP5 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库5 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全