政采云基于 Dubbo 的混合云数据跨网实践

*作者:王晓彬,政采云资深开发工程师

项目背景

政采云的业务是为政府提供的购物网站,类似于淘宝。政府采购会在政采云上做企业采购、政府采购的业务。

云岛中的"云"是指我们的云平台,云平台是我们公司自己部署的一套购物网站,技术上对应的是一套微服务框架。而"岛"呢,比如安徽或者山西它们都有自己的局域网,如果我们在它们那里也部署一套这个服务框架,就叫"岛"。我们的云平台主要是给浙江省和其他相关的区划用的。

我们的云和岛之间存在数据传输的问题,举个例子,比如我现在收到一个政府的公告,而这个公告可能是全国性的。那么我可能会在云平台的管理平台上去录公告,再把它推送出去,这个时候云和岛之间就存在了一些数据的同步。

1. 云岛网络

对我们云平台来说,这个局域网是我们公司内部完全可控的。比如你要开个端口,很快就能开起来。岛端它可能是局域网或者是私有网络,比如我们之前做了一个浙商银行的项目,它是完全隔离的一个岛。他们的安全策略和开端口的东西都是他们自己定义的,这就是我们云岛的业务结构。

2. 混合云岛网络

上图是大概的数据链路图。云平台下面有分支机构、分公司,它们会对应一套业务的系统。政务云是我刚才说的省级(安徽省)或者市级(无锡市)对应的区块,隔离的政务云。私有部署是银行、国企、军队、政企等典型的混合云的网络架构。

3. 混合云岛网络的特点

我们混合云网络架构的特点包括:

  • 平台的一致性。 我们部署在公有云、云平台、政务云、私有云上的那一套的代码是一样的。我们把一套代码部署在不同的地方就变成了多个平台。
  • 网络连接与能力复用。 我们会依赖一些第三方的能力,比如短信,但私有云上它的网络管控比较严,所以和第三方互通端口或者网络的流程就会比较复杂。这个时候我们希望去复用我们云平台的能力,这个时候他们之间又有一些数据的交互。
  • 跨域访问迁移。 存在跨域互访的场景。
  • 统一的平台管理。 像我刚才举的例子,如果要发公告,我们希望可以在一个平台上就可以管理起来。而不是浙江发一条,安徽发一条,那样维护的成本也会比较高。

4. 政企网络痛点

很多公司都会和政府打交道,政企网络有以下几个特点:

网络复杂。比如银行的网络,它们的安全性和内部的东西很复杂,流程的开通也比较多,需要你要经常去跑,跑完了之后发现有新的问题,又要去跑。

安全要求高。比如在开通端口的时候,我们需要去传数据,如果里面的那些序列化的协议不符合它们的规范,它们就会拿掉。这个时候给我们的业务其实是超时的,或者是那种通用的异常。而我们并不知道发生了什么,这就会带来未知的风险。

业务驱动运维。我们有了业务才会去部署,才会去做事情。我们就会多次、重复的投入,这就会导致人力、时间成本会比较高,私有部署的时候会更多。

5. 现有方案

基于以上的痛点,我们做了两个方案。

第一个方案,基于 Dubbo Filter 的单向方案。 这个方案的历史比较久一些,它有两个特点。

第一个特点,单向传输。它是从"岛"到"云"只有一个方向,它基于 Dubbo Filter 的原因是,我们公司内部的微服务都是通过 Dubbo 来调用的,所以我们是强依赖的来 Dubbo 的。所以做数据跨网的方案肯定会基于 Dubbo 的特性来做。

第二个特点,在本地部署业务的 provider 过滤器是运维上的负担。当岛端需要把数据同步给云端的时候,也就是从岛端的业务 Web 传输到云端的业务 provider。这个时候我必须在岛端也部署一套业务的 provider 才可以。部署它的原因是它要拦截这个请求,然后把这个请求转发给部署在云平台的 Dubbo 网关。

但这个时候就会给我们带来负担。如果岛端本来就有数据的入库就还好,因为 provider 本来就存在,但一些业务只是做跨网用的,没有本地的入库,那么这个时候业务部署的 provider 就是多余的了。

第二个方案,网状点对点方案。 因为岛和岛之间需要网络互通,所以就会单独开通这个点和你需要传输的点之间的端口。开通之后我们就可以调用了,调用的形式可以用 Dubbo,也可以用其他。

这个方案有一个很明显的缺陷,线特别多,所以点和点之间开通的复杂度也很高,对后面的扩展可能也非常不利。

以上方案存在的问题包括单向传输、白名单开通成本高、平台维护成本高、公共功能的缺失。

基于以上的问题,我们做了一个新的方案,叫高速公路。

为什么叫高速公路

为什么叫高速公路呢?因为我们想要达到的效果是:

  • 只建一次,可复用

    比如北京到上海的高速公路,它只要够宽,一条就够了。如果你是从上海到北京或者从杭州到北京,是可以复用的,不用单独再修建一条。

  • 隧道机制

    因为高速公路修建的地方不一定都在平原,可能会在河、海、山等等附近。如果我们在高速公路下面搭建一条隧道,这个时候对于司机来说就是无感的。我们的目的是一样的,如果你觉得政企网络很复杂,那么我们就帮你把它屏蔽掉,这样你也是无感的了。

  • 考虑传输性能

    如果每个业务部门都自己搭建一套传输链路,那么传输性能只要能承载自己的业务就够了,因为不一定要给别人用,或者给别人用了也是小范围的。但如果搭建的是一条可复用的链路,就必须考虑传输的性能了。

修路实践

接下来介绍一下我们在修建高速公路的时候遇到的一些问题以及具体的做法。我们在客户端接入上遇到了以下问题:

第一个问题,强依赖 Dubbo。

第二个问题,透明传输,不改变使用 Dubbo 的方式。也就是我不需要自己写一些注解代替 Dubbo,或者写一些 API 调用 Dubbo。因为写了之后,一些新人可能并不能理解或者不能习惯,也不知道里面有什么坑。所以我们用原始的 Dubbo 来做可能会对用户更加无感。

第三个问题,接入灵活,支持多种形态。虽然我们强依赖 Dubbo 必须支持 Dubbo,但我们也需要支持其他的形式,比如 HTTP。但在接入之前,我们需要考虑接入灵活性的问题。

下面我们先介绍一下 Dubbo 的方式。Dubbo 的客观接入主要有以下三种方式:

第一种,注解方式。 使用 @DubboReference 提供的通用 parameters 参数,设置路由目标,可以达到方法粒度的路由。路由信息写在中间 parameters 那里,parameters 是 Dubbo 给我们提供的通用参数的传递。

如果是正常的,我写了这个信息,Dubbo 是不做任何处理的,因为这个东西对它来说没有含义。但因为你引入了高速公路的 SDK,所以在你写了这个东西之后,我们就会去解析,拦截 Dubbo 的请求,把 parameters 里的参数抓起来做一些路由处理,这种形式其实没有改变 Dubbo 的使用方式。

第二种,配置中心指定。 比如我们用的是阿波罗的配置中心,它完全可以把接入方式替换掉,parameters 的信息在配置中心配置也可以,只要 SDK 可以支持就好。这种方式其实代码是完全无侵入的,就是跟跨网之前和跨网之后没有任何区别。但最后发现我们的业务并不喜欢这种方式,首先因为阿波罗大家不喜欢用,其次不好理解。如果是一个新人看这个代码,他就会认为是在调本地的接口。

第三种,线程指定。 当你在线程里指定了路由信息,下面再去调用的时候,这次调用就会走你的路由。如果再调用一次,它就会调回本地。因为基于线程的形式,在 Dubbo 的扩展里,它会在调用完成之后把线程信息清理掉。所以需要注意一下,如果你想多次调用,就需要写多次。如果不想写多次,你可以用上面这种方式,你只要注入在当前的 bean 里,都是路由到上海。

接下来介绍一下高速公路的架构, 刚才介绍点对点的方式,它的缺点是开通白名单比较复杂。现在我们的高速公路架构是一个新型的架构,所以它开通白名单的复杂度会低一点。

如上图所示,比如最左边的节点是上海,最上边的节点是安徽,我想从安徽到上海,这个时候中心网关就需要开通一个白名单。开完之后,这条链路就可以直接过去了。可以看到一共就六条线,所以它的复杂度也就下来了。

上图是高速公路里最核心的架构图。

比如山西集群的 APP1 调 APP2 的时候,我想去调上海 APP2,如果你什么都不做,它默认调的就是山西集群的 APP2。如果你在 APP 调用的时候加了一些路由信息,放在山西集群 APP1 里的 SDK 就会把它的流量切走,切到山西集群的 Dubbo 网关。

之后 Dubbo 网关会通过 HTTP 的协议走统一网关,再通过 HTTP 的协议到上海集群的 Dubbo 网关。在这里会把路由信息拿到,包括调用的 Service、方法、版本号、参数等等。然后通过泛化的形式调上海集群的 APP1,最后返回,完成这次跨网的调用。

那么为什么要有 Dubbo Proxy 这个角色呢?为什么不直接从 APP1 切到统一网关?少一个步骤不好么?涉及到的原因有以下三点:

虽然这个图上只画了一个 APP1,但实际上山西集群里的调用非常多。如果几百个应用都直接到统一网关,网关就需要建立很多的长链接,而统一网关的资源是有限的。

因为安全性的问题,可能每次调用都要走一下白名单来保证安全。这个时候如果加了一个 Dubbo Proxy,就可以去收敛 IP。岛内不用和 Dubbo Proxy 交互,因为它们是同一个环境,不用考虑安全的问题。当 Dubbo Proxy 请求到网关之后,因为网关和统一网关之间只有一条链接,所以 IP 是收敛的。

还有一个是功能的收敛,当后面要做升级的时候,如果更新 SDK,就需要每个应用都升级,这就需要推动业务做升级,做起来会比较痛苦。所以我们希望把升级功能全放在一个应用里,对业务功能无感,连升级 SDK 都不需要。当然因为 SDK 就做了一件事情,就是切换路由,基本不需要更新。

所以对于业务来说,它也解放了。我把它理解成是一个功能上的收益。这个模式叫分布式运行时,在现在也比较流行。我们可以把它理解成 Dapr,把一些比较公共麻烦的操作放到公共的独立进程里,留给业务的 SDK 是很纯粹的。

另外,为什么要用 HTTP 协议呢?它也并不是很高效的协议。而 Dubbo 协议中的 Dubbo2 其实也是比较精简的,除了一些协格式全部都是数据。这样的话其实我们后面是可以考虑把 HTTP 升级掉,让它的性能更快一点。

现在用 HTTP 协议的原因是,它是一个标准的协议, 中间可能会通过很多设备,虽然我们这里只画了一个。HTTP 协议是没有任何障碍的,如果用 Dubbo 协议,还需要一个个打通。

为了实现这个架构,Dubbo 本身并不能直接用。因为 Dubbo 没有提供跨网的特性,所以我们需要从 Dubbo 层面解决我们碰到的问题。

在动态 IP 切换方面,其实 Dubbo 是支持的,但因为这个特性比较新,所以也会出现一些问题。它的支持程度是部分支持,比如在最开始的时候 Dubbo2 不支持,Dubbo3 支持。此外,还会有一些 bug。

在 404 扩展方面,对于 HTTP 来说,你要调一个接口,但这个接口不存在,就会返回给前端一个 404 的报错。比如当我们把流量从 APP1 切到 Dubbo Proxy 的时候,Dubbo Proxy 其实是 Dubbo 的一个应用,它引入了一个 Dubbo 的 jar 包,它是 Dubbo 的一个空应用。这个流量到 Dubbo 的网关后,它不能识别,它的功能是要把它转发出去。这个时候我们就需要加入这个扩展。

下面介绍一下隧道的机制。 隧道机制的作用是屏蔽网络的复杂性,屏蔽中间的协议转换,给用户一个统一、透明的调用方式。

中间的 HTTP 协议里面的 body 带了一个原始的 body。包装之后再把它拆包拆出来,再通过泛化去调。这个时候隧道是可以屏蔽掉这些差异的。

另外,隧道机制对 Dubbo 协议的支持力度更高。比如 APP1 和本地的 APP 3,最终调到 APP2 的时候,它看到了二进制流是一样的。因为我并没有去做什么,我只是把它分装起来,最后拆包。中间除了一点路由信息之外其他都一模一样。

这个机制的好处是,基本上 Dubbo 的所有特性都能支持。但也有一些个例,比如 token 和网络相关的机制。

未来规划

借用网络分层的架构对高速公路做了一些规划:

第一层,物理网络层打通。它其实跟我们关系不大,因为我理解的是开通端口,你开通了那么多事,可以总结一些经验或者方法论去加快这个事情。

第二层,通讯协议层加速。中间的 HTTP 协议转发,我们是可以加速的。比如 Tripple 协议也是基于 HTTP2 对网络设备进行了识别,然后把问题解决了。所以我们也可以考虑去调研,在通讯协议层去做优化。

第三层,语言层编译加速。GraalVM 之前我们也调研过,而且也真正的去试过。虽然没有落地,但编译加速是可以的。特别是网关层,它的特点是流量大,但是每个流量又特别小,对语言本身的性能要求比较高。如果把它用 Go 来实现,其实也是一个比较好的加速。

第四层,框架层功能升级。中间件层我们也做了很多事情。

第五层,通用任务调度与编排。调用其实会经过很多节点,比如 a 到 b 到 c 到 d 到 e,随着业务越来越复杂,我们可能会有更多的路由。比如 a 到 c,c 和 d 汇合起来再到 d,未来也将会规划进去。

第六层: 定制任务调度与编排。

第七层: 监控 & 告警 & 可观测性。

第八层: 规范 & 流程 & 安全。

最后做一个总结。

为什么要做这个项目?之前的方案比较多,成本也比较高。所以我们需要有一个统一的方案,会考虑更多公共的东西,然后把这个方案给推广起来。目前我们已经接入了非常多的应用,它已经成为了公司政务数据跨网的统一方案。

我们要达到的效果,项目架构,未来规划刚才都介绍过了,就不再重复了。

重点说一下我们的开源与社区的合作。刚才的方案其实是我们公司内部使用的,也对 Dubbo 做了深度的定制。一般我们会选择私有版本进行开发,但因为想要开源,所以在最开始的时候,我们就和 Dubbo 社区沟通,看能不能在开源层实施掉。一方面社区可以帮我们 review 这些特性,做一些安全上的把控。另一方面我们也能把自己做的一些事情,特别是把公共的东西抽出来反馈给社区。

相关推荐
A ?Charis17 小时前
我来讲一下-Service Mesh.
云原生·service_mesh
严格要求自己19 小时前
nacos-operator在k8s集群上部署nacos-server2.4.3版本踩坑实录
云原生·容器·kubernetes
少吃一口就会少吃一口19 小时前
k8s笔记
云原生·容器·kubernetes
星海幻影20 小时前
云原生-docker安装与基础操作
网络·安全·docker·云原生·容器
2301_8061313621 小时前
Kubernetes 核心组件调度器(Scheduler)
云原生·容器·kubernetes
运维&陈同学1 天前
【HAProxy08】企业级反向代理HAProxy高级功能之自定义日志格式与IP透传
linux·运维·nginx·云原生·负载均衡·lvs·haproxy·反向代理
涔溪1 天前
云原生后端深度解析
后端·云原生
运维&陈同学1 天前
【HAProxy05】企业级反向代理HAProxy调度算法之静态算法与动态算法
linux·运维·算法·nginx·云原生·负载均衡·lvs·haproxy
颜淡慕潇2 天前
【K8S问题系列 | 9】如何监控集群CPU使用率并设置告警?
后端·云原生·容器·kubernetes·问题解决
运维&陈同学2 天前
【模块一】kubernetes容器编排进阶实战之k8s基础概念
运维·docker·云原生·容器·kubernetes·云计算