部署云原生边缘计算平台kubeedge

文章目录

    • 1、kubeedge架构
    • 2、基础服务提供 负载均衡器 metallb
      • 2.1、开启ipvc模式中的strictARP
      • 2.2、部署metalb
        • 2.2.1、创建IP地址池
        • 2.2.2、开启二层转发,实现在k8s集群节点外访问
        • 2.2.3、测试
    • 3、部署cloudcore
      • 3.1、部署cloudcore
      • 3.2、修改cloudcore的网络类型
    • 4、部署edgecore

前提:已经搭建好一套k8s集群。

1、kubeedge架构

2、基础服务提供 负载均衡器 metallb

由于需要为cloudcore与edeecore提供通信地址,建议使用LB为cloudcOre提供公网IP或K8S集群节点相同网段lP地址,实际生产中使用的是公网IP地址。

2.1、开启ipvc模式中的strictARP

bash 复制代码
kubectl edit configmap -n kube-system kube-proxy

如果不开启ipvs中的strictARP,那么数据在集群之外无法访问到。

bash 复制代码
#重新运行,使得上述改变生效
kubectl rollout restart daemonset kube-proxy -n kube-system

2.2、部署metalb

注意版本v0.13.5

为cloudcore提供初始化的网络ip,方便跟edgecore进行通信连接。

bash 复制代码
#运行此命令,将metalb部署到k8s集群中
kubectl apply -f https://raw.githubusercontent.com/metallb/metallb/v0.13.5/config/manifests/metallb-native.yaml

查看状态

bash 复制代码
kubectl get pods n metallb-system
2.2.1、创建IP地址池

为了给服务分配一个IP,首先创建IPAddressPool 网段地址池,通过IPAddressPools分配的IP构成IP池,MetalLB使用该IP池将IP分配给服务。

bash 复制代码
vim first-pool.yaml
bash 复制代码
apiVersion: metallb.io/v1beta1
kind: IPAddressPool
metadata:
  name: first-pool
  namespace: metallb-system
spec:
  addresses:
  - 172.23.144.240-172.23.144.250
bash 复制代码
kubectl apply -f  first-pool.yaml
bash 复制代码
kubectl get ipaddresspool -n metallb-system
2.2.2、开启二层转发,实现在k8s集群节点外访问
  • 2层配置
    2层模式是最简单的配置:在许多情况下,您不需要任何特定于协议的配置,只需要IP地址。

2层模式不需要将IP绑定到工作节点的网络接口。它的工作原理是直接响应本地网络上的ARP请求,将机器的MAC地址提供给客户端。

为了播发来自IPAddressPool的IP,必须将L2Advertisement实例关联到IPAAddressPool。

bash 复制代码
vim l2forward.yaml
yaml 复制代码
apiVersion: metallb.io/v1beta1
kind: L2Advertisement
metadata:
  name: example
  namespace: metallb-system
bash 复制代码
kubectl apply -f l2forward.yaml

将所有的地址通告出去。

2.2.3、测试

部署一个nginx deployment应用。

service的类型是loadbalancer,nginx-svc获得一个与k8s集群节点相同网段的ip地址,它是从创建的地址池中分配的;这个ip地址是自动分配的,一般是从网段的第一个开始分配的,也就是240.

yaml 复制代码
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx
spec:
  selector:
    matchLabels:
      app: nginx
  replicas: 1 # 指定Pod副本数
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:latest # 使用nginx镜像
---
apiVersion:  v1
kind:  Service
metadata:
  name:  nginx-svc
spec:
  type:  LoadBalancer
  ports:
  - port:  80
    targetPort:  80
  selector:
    app:  nginx
bash 复制代码
kubectl apply -f nginx.yaml
bash 复制代码
kubectl get pod
kubectl get svc

集群内任意节点外网ip+32290端口访问:

测试完毕后记着删除:

bash 复制代码
kubectl delete -f nginx.yaml

3、部署cloudcore

3.1、部署cloudcore

具体部署方法详见kubesphere官网,进行开启边缘节点功能。

确保集群中已经部署好cloudcore:

bash 复制代码
kubectl get pod -n kubeedge

3.2、修改cloudcore的网络类型

修改cloudcore的网络类型为loadbalance,此时它的外部ip会自动填充。

  • 修改前:
bash 复制代码
kubectl get svc -n kubeedge
  • 修改后:
bash 复制代码
#修改cloudcore的服务网络
kubectl edit svc cloudcore -n kubeedge
#查看cloudcore的服务网络
kubectl get svc -n kubeedge -owide


修改边缘节点的容忍度

bash 复制代码
kubectl get daemonset -n kube-system | grep -v NAME | awk '{print $1}' | xargs -n 1 kubectl patch daemonset -n kube-system --type='json' -p='[{"op":"replace", "path":"/spec/template/spec/affinity", "value":{"nodeAffinity":{"requiredDuringSchedulingIgnoredDuringExecution": {"nodeSelectorTerms": [{"matchExpressions": [{"key":"node-role.kubernetes.io/edge","operator":"DoesNotExist"}]}]}}}}]'
bash 复制代码
kubectl get daemonset -n metallb-system | grep -v NAME | awk '{print $1}' | xargs -n 1 kubectl patch daemonset -n metallb-system --type='json' -p='[{"op":"replace", "path":"/spec/template/spec/affinity", "value":{"nodeAffinity":{"requiredDuringSchedulingIgnoredDuringExecution": {"nodeSelectorTerms": [{"matchExpressions": [{"key":"node-role.kubernetes.io/edge","operator":"DoesNotExist"}]}]}}}}]'

下载安装metrics-server

bash 复制代码
kubectl apply -f https://github.com/kubernetes-sigs/metrics-server/releases/latest/download/components.yaml
bash 复制代码
kubectl get pods -n kube-system

设置不要证书:

bash 复制代码
kubectl patch deploy metrics-server -n kube-system --type='json' p='[{"op":"add","path": "/spec/template/spec/containers/0/args/-","value":"--kubelet-insecure-tls"}]'

4、部署edgecore

获取token,从master节点:

bash 复制代码
#master节点获取token
keadm gettoken

#边缘节点添加token变量
TOKEN=09a9f5b068f206ce30934076eb3d045fa826a0fa17d4050e4bf4ad7b4bcda103.eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJleHAiOjE3MTE2MjM5NTh9.vdzI6snHBGPO-sHdnJqZWUerXbq5-p2-GZX1jRRgUZ4

#边缘节点添加server
SERVER=
相关推荐
Linux运维老纪6 小时前
DNS缓存详解(DNS Cache Detailed Explanation)
计算机网络·缓存·云原生·容器·kubernetes·云计算·运维开发
Elastic 中国社区官方博客19 小时前
使用 Ollama 和 Kibana 在本地为 RAG 测试 DeepSeek R1
大数据·数据库·人工智能·elasticsearch·ai·云原生·全文检索
Linux运维老纪1 天前
windows部署deepseek之方法(The Method of Deploying DeepSeek on Windows)
linux·人工智能·分布式·云原生·运维开发·devops
Elastic 中国社区官方博客2 天前
Elastic Cloud Serverless 获得主要合规认证
大数据·数据库·elasticsearch·搜索引擎·云原生·serverless·全文检索
超级阿飞2 天前
在K8s中部署动态nfs存储provisioner
云原生·容器·kubernetes·nfs
赵渝强老师2 天前
【赵渝强老师】K8s中Pod探针的TCPSocketAction
云原生·容器·kubernetes
努力的小T2 天前
Linux二进制部署K8s集群的平滑升级教程
linux·运维·服务器·云原生·容器·kubernetes·云计算
2的n次方_2 天前
Eureka 服务注册和服务发现的使用
spring boot·spring cloud·云原生·eureka·服务发现
赵渝强老师3 天前
【赵渝强老师】K8s中Pod探针的ExecAction
云原生·容器·kubernetes
vibag3 天前
Kubernetes(一)
java·云原生·容器·kubernetes