虚拟机搭建---K8S环境

K8S:docker容器其实本质上是一个linux里面的一个进程,容器本身自己是没有可再生能力的,没有高可用,而且生产环境运行容器,不可能只运行一两个,因此为了更加方便的管理众多容器,以及让容器具备高可用性,有一个东西出来了,容器编排工具。

k8s是个工具,它是管理容器的,k8s管理/调度的最小单元/单位是一个pod。

实际生产环境搭建K8S是以二进制的方式搭建的。

虚拟机搭建K8S环境至少2个vcpu

克隆三台虚拟机

修改主机名

配置静态IP

可以选择配置静态IP或者DHCP分配IP

运行脚本

3个节点分别运行同一个脚本

root@kmaster \~\]# sh Stream8-k8s-v1.27.0.sh \[root@knode1 \~\]# sh Stream8-k8s-v1.27.0.sh \[root@knode2 \~\]# sh Stream8-k8s-v1.27.0.sh 等待3个节点全部运行完毕后,把脚本里面第11步操作的命令,单独拷贝出来,在master节点上执行(注意,不需要在node上执行,仅在master上) \[root@kmaster \~\]# kubeadm init --image-repository registry.aliyuncs.com/google_containers --kubernetes-version=v1.27.0 --pod-network-cidr=10.244.0.0/16 ![](https://i-blog.csdnimg.cn/direct/ea4e86267b4745248a0ce1c0c935f288.png) **如果集群初始化失败,大概率都是因为网络原因,更换网络再试** \[root@kmaster \~\]# mkdir -p $HOME/.kube \[root@kmaster \~\]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config \[root@kmaster \~\]# sudo chown $(id -u):$(id -g) $HOME/.kube/config \[root@kmaster \~\]# echo 'export KUBECONFIG=/etc/kubernetes/admin.conf' \>\> /etc/profile \[root@kmaster \~\]# source /etc/profile \[root@kmaster \~\]# \[root@kmaster \~\]# kubectl get node NAME STATUS ROLES AGE VERSION kmaster NotReady control-plane 6m32s v1.27.0 加入其他两个节点 把生成的token命令分别在其他两个节点上执行,就会加入当前的集群 kubeadm join 192.168.100.221:6443 --token faze5f.2xcem41hpwiqiprv \\ --discovery-token-ca-cert-hash sha256:79f0aaa17a84d8de2ef22237c7afb4b19cc091303d58445734d4cef4d48b8864 ![](https://i-blog.csdnimg.cn/direct/7c4fbddc3f7a4b1f849cccfb224b6425.png) ## 安装calico网络插件 \[root@kmaster \~\]# kubectl create -f tigera-operator-3-26-1.yaml \[root@kmaster \~\]# kubectl create -f custom-resources-3-26-1.yaml \[root@kmaster \~\]# watch kubectl get pods -n calico-system 所有pod全部变为running,整个集群创建成功。 ![](https://i-blog.csdnimg.cn/direct/7a89a476f94441b4acd5529ef0d20264.png) 现在集群状态就变为了ready ![](https://i-blog.csdnimg.cn/direct/7940591341554a2f8a4404bf1e6fe770.png) 如果执行两个yaml文件之后,看不到明明空间,或者出现了其他错误。解决方案,倒着删除,重新执行。 kubectl delete -f cutomxxxx.....yaml kubectl delete -f tigera.....yaml 先删干净,再次尝试执行 kubectl create -f tigera....yaml kubectl create -f custom...yaml

相关推荐
luback5 分钟前
前端对Docker简单了解
运维·docker·容器
帷幄庸者19 分钟前
记一次Kubernetes“僵尸”挖矿病毒的排查与歼灭全录
云原生·容器·kubernetes
eventer1232 小时前
在国产ARM64环境下从源码编译Greptime DB及构建Docker镜像实践
数据库·docker·容器
楓叶子3 小时前
K8S部署
云原生·容器·kubernetes
Ribou4 小时前
LDAP安装docker版
运维·docker·容器
一只栖枝4 小时前
K8s 认证级别怎么选?适配不同运维场景
云原生·容器·kubernetes·k8s·cka
gOODiDEA4 小时前
Kubernetes集群的搭建与DevOps实践(上)- 架构设计篇
云原生·kubernetes·devops·架构设计·技术选型
Yeliang Wu4 小时前
k8s上部署open-webUI
云原生·容器·kubernetes·openwebui
NetInside_4 小时前
基于 Gartner 2025 报告:数字体验监测(DEM)核心价值与企业落地指南
运维·云原生
哲Zheᗜe༘4 小时前
K8S-Ingress资源对象
云原生·容器·kubernetes