一.资料
二、文档整理
1.安装
shell
# kubeadm快速安装、或者二进制方式安装
# Sealos离线安装
https://zhuanlan.zhihu.com/p/654146218
# 设置服务器名
hostnamectl set-hostname xxx
2.常用命令
日常操作
shell
# 获取所有节点
kubectl get nodes
# 获取所有命名空间
kubectl get namespace
# 查看service关联的pod
kubectl get endpoints
# 包括所有命名空间
kubectl get endpoints -A
# 获取指定命名空间deployment
kubectl get deployment -n default
# 获取指定命名空间service
kubectl get service -n default
# 获取指定命名空间pod
kubectl get pods -n default
kubectl describe pod <pod名>
# 新建资源
kubectl create
# 新建或更新资源,主要用于yaml文件
kubectl apply -f deployment.yaml
# 应用升级
kubectl apply -f deployment web
# nginx为容器名称
kubectl set image deployment web nginx=nginx:1.17
# --record=true 开启升级备注,会将命令记录下来
kubectl set image deployment web nginx=nginx:1.17 --record=true
# 回滚
# 查看发布的版本
kubectl rollout history deployment web
# 回退上一个版本
kubectl rollout undo deployment web
# 回退到历史指定版本
kubectl rollout undo deployment web --to-revision=2
# 扩容:修改副本数量
kubectl scale deployment web --replicas=10
# 或者修改yaml的replicas值,再apply
# 滚动升级,重启,即使yml没变更也重新创建
kubectl rollout restart deployment xxx -n test
# 查日志
kubectl logs <pod名>
# 进入容器终端
# pod多容器时,使用-c指定具体容器
kubectl exec -it <pod名> <-c 指定具体容器> -- bash
集群节点变动
shell
# 设置节点不可调度,逐台进行
kubectl cordon xxx-node-01
# 驱逐节点上的pod,逐台进行
kubectl drain xxx-node-01 --force --ignore-daemonsets
# 扩容完毕恢复节点可调度
kubectl uncordon xxx-node-01
集群灾难性问题重置并重启
shell
# 第一种,利用kubeadm,执行前需备份数据
kubeadm reset
systemctl stop kubelet
systemctl stop docker
systemctl start docker
systemctl start kubelet
kubeadm init
# 第二种,kubectl可用时
# 使用kubectl命令重启k8s API Server、Controller Manager和Scheduler等重要组件
kubectl delete pod kube-apiserver-master-x -n kube-system
kubectl delete pod kube-controller-manager-master-x -n kube-system
kubectl delete pod kube-scheduler-master-x -n kube-system
kubectl delete pod etcd-master-x -n kube-system
3.相关技术
shell
1.yaml文件 内容分割
使用---符号,--- xxx ---包裹的内容,代表一段yaml资源。
2.yaml字段
# Deployment类型
apiVersion:API版本 ,可去官网查询,也可执行命令:kubectl api-resources | grep deployment
kind:资源类型
metadata:元素预信息,名字,标记等
replicas:副本数
selector:标签选择器,标签匹配,保证每个应用唯一,起到资源关联的作用。与下边metadata.labels保持一致。
template:Pod模板
spec:Pod规格
containers:容器配置
image:指定镜像
# service类型
port:service端口,通过ClusterIP访问用
targetPort:镜像内服务端口,例如nginx镜像是80
type:Service类型 NodePort ClusterIP等
# 基本资源概念
Pod:k8s最小部署单元,一组容器的集合。
Deployment:最常见的控制器,用于更高级别部署和管理Pod。
Service:为Pod提供负载均衡,对外提供统一访问入口。
Label:标签,附加到某个资源上,用于关联对象、查询和筛选。
# 命名空间:逻辑分离,多个虚拟集群,利于权限控制,实际部署推荐使用。
default:默认命名空间
kube-system:k8s系统方面的命名空间
kube-public:公开的命名空间,谁都可以访问
kube-node-lease:k8s内部命名空间
# 命令行通过-n指定命名空间
# yaml资源元数据里指定namespace
# Deployment:工作负载管理器,管理Pod、应用部署、升级、扩容、回滚等。
# Pod
# 逻辑抽象概念,Kubernetes是创建和管理的最小单元,一个Pod由一个容器或多个容器组成。
# 一个Pod为一个应用实例。
# Pod中的容器始终部署在一个Node上。
# Pod中容器共享网络、存储资源。
# 有两种用法,可运行单个容器(常用做法,此时可认为pod就是一个容器的抽象封装),
# 也可运行多个容器(边车模式)。可在Pod中定义专门的容器,用来执行主容器之外的辅助工作。
# 如:日志收集,应用监控。网络共享、共享存储(数据卷形式,k8s实现),用来读取文件。
# Service
# 解决pod的动态变化,提供统一入口。
# 定义一组pod的访问策略,负载均衡。
port:service端口
protocol:TCP/UDP 协议
targetPort:容器端口
# Service三种类型:spec中的type属性指定
ClusterIP:集群内部使用,分配一个稳定的IP地址,即VIP(负载均衡器),只能集群内部使用。
NodePort:对外暴露应用,在每个节点上启用一个端口来暴露服务,可在集群外部访问。也会分配内部集群IP地址。
LoadBalancer:对外暴露应用,适用公有云,除暴露服务外,请求底层云平台上的负载均衡器,将node添加进去。
# Ingress
# 暴露应用的入口定义方法
# Ingress Controller:路由规则
# 官方nginx控制器:https://github.com/kubernetes/ingress-nginx
# 修改官方镜像地址:lizhenliang/nginx-ingress-controller:0.30.0
# 将Ingress Controller暴露,一般使用宿主机网络或者NodePort
# spec: hostNetwork:true
三、k8s管理系统
1.kuboard
shell
sudo docker run -d \
--restart=unless-stopped \
--name=kuboard \
-p 12880:80/tcp \
-p 10081:10081/tcp \
-e KUBOARD_ENDPOINT="http://192.168.1.107:12880" \
-e KUBOARD_AGENT_SERVER_TCP_PORT="10081" \
-v /opt/kuboard:/data \
eipwork/kuboard:v3
# 国内镜像源
sudo docker run -d \
--restart=unless-stopped \
--name=kuboard \
-p 12880:80/tcp \
-p 10081:10081/tcp \
-e KUBOARD_ENDPOINT="http://192.168.1.107:12880" \
-e KUBOARD_AGENT_SERVER_TCP_PORT="10081" \
-v /opt/kuboard:/data \
swr.cn-east-2.myhuaweicloud.com/kuboard/kuboard:v3
# 访问地址:http://192.168.1.107:30080/
# 默认账号密码:amdin/Kuboard123
# 当前密码:admin/admin123
2.命令行
参考命令总结。
四、Sealos整理
1.应用场景
- Kubernetes 集群安装
- Kubernetes 集群、数据库、中间件、SaaS 应用整体打包,一键交付
- 离线交付,多架构支持,国产化支持
- 各种在 Kubernetes 上编排的分布式应用交付
2.国内官网
Sealos命令行安装
shell
# 二进制下载
curl -sfL https://mirror.ghproxy.com/https://raw.githubusercontent.com/labring/sealos/main/scripts/install.sh | PROXY_PREFIX=https://mirror.ghproxy.com sh -s ${VERSION} labring/sealos
# v4.3.7
curl -sfL https://mirror.ghproxy.com/https://raw.githubusercontent.com/labring/sealos/main/scripts/install.sh | PROXY_PREFIX=https://mirror.ghproxy.com sh -s v4.3.7 labring/sealos
# 包管理工具安装
# DEB 源
echo "deb [trusted=yes] https://apt.fury.io/labring/ /" | sudo tee /etc/apt/sources.list.d/labring.list
sudo apt update
sudo apt install sealos
# RPM 源
sudo cat > /etc/yum.repos.d/labring.repo << EOF
[fury]
name=labring Yum Repo
baseurl=https://yum.fury.io/labring/
enabled=1
gpgcheck=0
EOF
sudo yum clean all
sudo yum install sealos
常用命令
shell
# 安装k8s单机版
sealos run registry.cn-shanghai.aliyuncs.com/labring/kubernetes:v1.27.9 registry.cn-shanghai.aliyuncs.com/labring/helm:v3.9.4 registry.cn-shanghai.aliyuncs.com/labring/cilium:v1.13.4 --single
# 安装 K8s 集群
sealos run registry.cn-shanghai.aliyuncs.com/labring/kubernetes:v1.27.9 registry.cn-shanghai.aliyuncs.com/labring/helm:v3.9.4 registry.cn-shanghai.aliyuncs.com/labring/cilium:v1.13.4 \
--masters 192.168.184.128 \
--nodes 192.168.184.129,192.168.184.130 -p 123456
# 使用docker版本的k8s
sealos run registry.cn-shanghai.aliyuncs.com/labring/kubernetes-docker:v1.27.9 registry.cn-shanghai.aliyuncs.com/labring/helm:v3.9.4 registry.cn-shanghai.aliyuncs.com/labring/cilium:v1.13.4 \
--masters 192.168.184.128 \
--nodes 192.168.184.129,192.168.184.130 -p 123456
# 使用cilium,因linux内核版本过低无法启动,issues:https://github.com/rancher/rke2/issues/3571
sealos run sealos.hub/labring/kubernetes-docker:v1.24.10-4.1.6-amd64 sealos.hub/labring/helm:v3.8.2 sealos.hub/labring/flannel:v0.20.2-amd64 \
--masters 192.168.2.176 \
--nodes 192.168.2.177,192.168.2.178,192.168.2.179 \
--passwd 123456
# 本地ubuntu集群
sealos run sealos.hub/labring/kubernetes-docker:v1.24.10-4.1.6-amd64 sealos.hub/labring/helm:v3.8.2 sealos.hub/labring/flannel:v0.20.2-amd64 \
--masters 192.168.184.132 \
--nodes 192.168.184.133,192.168.184.134 \
--passwd 123456
# K8s 节点管理
sealos add --nodes 192.168.64.21,192.168.64.19
sealos add --masters 192.168.64.21,192.168.64.19
sealos delete --nodes 192.168.64.21,192.168.64.19
# 清理 K8s 集群
sealos reset
# 离线安装 K8s:离线环境只需要提前导入镜像,其它步骤与在线安装一致。
sealos pull registry.cn-shanghai.aliyuncs.com/labring/kubernetes-docker:v1.27.9 registry.cn-shanghai.aliyuncs.com/labring/helm:v3.9.4 registry.cn-shanghai.aliyuncs.com/labring/cilium:v1.13.4
# -m 保存多镜像只支持docker-archive格式
sealos save -o kubernetes.tar -m --format docker-archive registry.cn-shanghai.aliyuncs.com/labring/kubernetes-docker:v1.27.9 registry.cn-shanghai.aliyuncs.com/labring/helm:v3.9.4 registry.cn-shanghai.aliyuncs.com/labring/cilium:v1.13.4
sealos load -i kubernetes.tar
sealos images
# 快速启动 K8s 集群:单机安装,集群安装同理
sealos run registry.cn-shanghai.aliyuncs.com/labring/kubernetes:v1.28.5
# 或者
sealos run kubernetes.tar