k8s下离线搭建elasticsearch

前提

已经完成k8s安装

已经完成相关组件如helm的安装

下载es的chart包

如下地址

复制代码
https://helm.elastic.co/helm/elasticsearch/elasticsearch-版本号.tgz

如6.8.10

https://helm.elastic.co/helm/elasticsearch/elasticsearch-6.8.10.tgz

修改配置

修改value.yaml文件,根据需求修改replicas数量,确定节点数,修改service.type为NodePort,修改service.nodePort,指定一个30000-32767的端口号,为外部访问使用,如果准备使用其他方式如只在集群内部或使用ingress代理,也可不指定

修改template/statefulset.yaml文件

在volumeClaimTemplates.spec下增加storageClass

复制代码
spec:
   storageClass: "elasticsearch-storageclass"

创建存储部分

创建存储类文件sc.yaml:

复制代码
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: elasticsearch-storageclass
provisioner: kubernetes.io/no-provisioner
volumeBindingMode: WaitForFirstConsumer

执行命令

复制代码
kubectl apply -f sc.yaml

创建存储卷:

pv.yaml

复制代码
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv1
spec:
  capacity:
    storage: 50Gi
  volumeMode: Filesystem
  accessModes:
    - ReadWriteOnce
  persistentVolumeReclaimPolicy: Retain
  storageClassName: elasticsearch-storageclass
  local:
    path: /data/espv1
  nodeAffinity:
    required:
      nodeSelectorTerms:
      - matchExpressions:
        - key: kubernetes.io/hostname
          operator: In
          values:
            - ${k8s集群的主机,只能写一条}
  1. 其中values下的k8s主机只能有一条,虽然是个列表
  2. local.path指定路径必须提前创建好,否则会报错
  3. capacity下面的存储信息按照一个es节点的需求来

执行命令:

复制代码
kubectl apply -f pv.yaml

注意:这是创建了es一个节点的存储卷,如果es是集群方式搭建,需要多个节点,请将上面的apply -f pv.yaml执行对应次数,并且每次修改里面meta.name、并每次根据需求修改里面的k8s主机和存储路径

下载镜像

找个能连互联网的主机

复制代码
docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/elasticsearch:6.8.0
docker save -o es.tar swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/elasticsearch:6.8.0

之后将es.tar上传到部署环境,使用docker load上传镜像,使用dokcer tag修改镜像名称,使用docker push传到本地镜像仓库

修改value.yaml文件,把里面的image参数改成实际的镜像地址

安装

把chart包使用helm package+cm push方式上传到仓库,方法可以参考:

helm与chartmuseum安装-CSDN博客

之后执行安装命令:

复制代码
helm install elasticsearch -n ${命名空间} ${本地仓库名}/elasticsearch

使用命令查看安装效果:

复制代码
kubect get pod -n${命名空间}

pod都起来就行了,接着使用:

复制代码
kubect get svc -n${命名空间}

查看创建的es服务,主要是端口号

之后在其他pod里面就可以用下面地址访问:

elasticsearch-master.{空间名称}.svc.cluster.local:{端口号}

在外部使用集群任意节点ip+前面指定nodePort访问

增加使用用户名密码的http basic认证

如果需要增加认证,还要做一些改造

修改values.yaml文件,修改如下内容:

复制代码
esConfig: 
  elasticsearch.yml: |
     network.host: 0.0.0.0
     xpack.security.enabled: true
     xpack.security.transport.ssl.enabled: true
     http.cors.enabled: true
     http.cors.allow-origin: "*"
     http.cors.allow-headers: Authorization

envFrom: 
  ELASTIC_USERNAME: elastic
  ELASTIC_PASSWORD: ${密码,自己根据需求指定}

接着安装es,启动后使用kubectl get pod去查看pod状态,会发现es的状态始终为未启动完成,这是因为密码还未被设定,pod的健康检查始终通过不了

使用如下格式命令进入es的pod:

复制代码
kubectl exec -it ${任意es的pod名称} -n${空间名} /bin/sh

在当前es目录中使用:

复制代码
bin/elasticsearch-setup-passwords interactive

指定每个用户的密码,

之后exit退出pod,再使用kubectl get pod去查看,等所有pod都启动完成即成功

相关推荐
落日漫游几秒前
K8s资源管理:高效管控CPU与内存
java·开发语言·kubernetes
ZLRRLZ2 小时前
【Docker】Docker基础
运维·docker·容器
ggaofeng3 小时前
k8s网络原理
网络·容器·kubernetes
AAA修煤气灶刘哥4 小时前
ES 聚合爽到飞起!从分桶到 Java 实操,再也不用翻烂文档
后端·elasticsearch·面试
Elasticsearch4 小时前
Elastic Observability 中 Discover 的跟踪,用于深入的应用洞察
elasticsearch
Elasticsearch5 小时前
使用 cloud-native Elasticsearch 与 ECK 运行
elasticsearch
在未来等你8 小时前
Elasticsearch面试精讲 Day 9:复合查询与过滤器优化
大数据·分布式·elasticsearch·搜索引擎·面试
boonya12 小时前
Elasticsearch核心原理与面试总结
大数据·elasticsearch·面试
77qqqiqi12 小时前
安装es和kibana
elasticsearch·kibana
LQ深蹲不写BUG15 小时前
ElasticSearch 基础内容深度解析
大数据·elasticsearch·搜索引擎