ElasticStack安装(windows)

官网 : Elasticsearch 平台 --- 大规模查找实时答案 | Elastic

Elasticsearch

Elastic Stack(一套技术栈)

包含了数据的整合 =>提取 =>存储 =>使用,一整套!

各组件介绍:

  • beats 套件:从各种不同类型的文件/应用中采集数据。比如:a,b,cd,e,aa,bb,cc
  • Logstash:从多个采集器或数据源来抽取/转换数据,向 es 输送。比如:a,bb,cc
  • elasticsearch:存储、查询数据
  • kibana:可视化 es 的数据

百度网盘

链接:Elastic Stack_免费高速下载|百度网盘-分享无限制 (baidu.com)

提取码:e7vy

ElasticSearch

Elasticsearch : Set up Elasticsearch | Elasticsearch Guide [7.17] | Elastic

安装 : Install Elasticsearch with .zip on Windows | Elasticsearch Guide [7.17] | Elastic

windows 点击 zip 包下载

Kibana

kibana : Kibana---your window into Elastic | Kibana Guide [7.17] | Elastic

安装 : Install Kibana | Kibana Guide [7.17] | Elastic

windows 点击 zip包下载

只要是一套技术,所有版本必须一致!!!此处都用 7.17 版本。
输入命令 或者 点击elasticsearch.bat

java 复制代码
elasticsearch.bat

访问成功 , localhost:9200

与JDK版本不一致问题 : 解决

只需要改成 : JAVA="$ES_HOME/jdk/bin/java"

java 复制代码
JAVA="$ES_HOME/jdk/bin/java"
java 复制代码
# now set the path to java
if [ ! -z "$ES_JAVA_HOME" ]; then
  JAVA="$ES_JAVA_HOME/bin/java"
  JAVA_TYPE="ES_JAVA_HOME"
elif [ ! -z "$JAVA_HOME" ]; then
  # fallback to JAVA_HOME
  echo "warning: usage of JAVA_HOME is deprecated, use ES_JAVA_HOME" >&2
  #只需要把这个 JAVA="$JAVA_HOME/bin/java" 和 JAVA_TYPE="JAVA_HOME" 换成 
  #JAVA="$ES_HOME/jdk/bin/java"
  JAVA="$ES_HOME/jdk/bin/java"
else
  # use the bundled JDK (default)
  if [ "$(uname -s)" = "Darwin" ]; then
    # macOS has a different structure
    JAVA="$ES_HOME/jdk.app/Contents/Home/bin/java"
  else
    JAVA="$ES_HOME/jdk/bin/java"
  fi
  JAVA_TYPE="bundled JDK"
fi

IK分词器

下载地址 : GitHub - medcl/elasticsearch-analysis-ik: The IK Analysis plugin integrates Lucene IK analyzer into elasticsearch, support customized dictionary.
创建一个 plugins文件夹

plugins内再创建一个文件夹

解压

如果没有相应版本的分词器,可以改版本 ,在 plugin-descriptor.properties 文件里修改

安装IK分词器后启动es可能出现 访问被拒绝 的报错 , 可能是路径有 空格 导致的

Logstash

传输处理 数据的管道 , 数据同步的时候可能会用 , 不必须

文章 : Getting Started with Logstash | Logstash Reference [7.17] | Elastic

下载地址 : Past Releases of Elastic Stack Software | Elastic

好处:用起来方便,插件多

缺点:成本更大、一般要配合其他组件使用(比如 kafka)


这期就到这里 , 下期见 !

相关推荐
武子康21 小时前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
洛森唛2 天前
Elasticsearch DSL 查询语法大全:从入门到精通
后端·elasticsearch
字节跳动数据平台2 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术2 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康2 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康3 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天3 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
Elasticsearch4 天前
如何使用 Agent Builder 排查 Kubernetes Pod 重启和 OOMKilled 事件
elasticsearch
Elasticsearch5 天前
通用表达式语言 ( CEL ): CEL 输入如何改进 Elastic Agent 集成中的数据收集
elasticsearch
武子康5 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive