分布式事务seata

分布式事务问题

本地事务

本地事务,也就是传统的单机事务。在传统数据库事务中,必须要满足四个原则:


分布式事务

分布式事务,就是指不是在单个服务或单个数据库架构下,产生的事务,例如:

  • 跨数据源的分布式事务
  • 跨服务的分布式事务
  • 综合情况

在数据库水平拆分、服务垂直拆分之后,一个业务操作通常要跨多个数据库、服务才能完成。例如电商行业中比较常见的下单付款案例,包括下面几个行为:

  • 创建新订单
  • 扣减商品库存
  • 从用户账户余额扣除金额

完成上面的操作需要访问三个不同的微服务和三个不同的数据库。

订单的创建、库存的扣减、账户扣款在每一个服务和数据库内是一个本地事务,可以保证ACID原则。

但是当我们把三件事情看做一个"业务",要满足保证"业务"的原子性,要么所有操作全部成功,要么全部失败,不允许出现部分成功部分失败的现象,这就是分布式系统下的事务了。

此时ACID难以满足,这是分布式事务要解决的问题


理论基础

解决分布式事务问题,需要一些分布式系统的基础知识作为理论指导。

CAP定理

1998年,加州大学的计算机科学家 Eric Brewer 提出,分布式系统有三个指标。

  • Consistency(一致性)
  • Availability(可用性)
  • Partition tolerance (分区容错性)

它们的第一个字母分别是 C、A、P。

Eric Brewer 说,这三个指标不可能同时做到。这个结论就叫做 CAP 定理。


一致性

Consistency(一致性):用户访问分布式系统中的任意节点,得到的数据必须一致。

比如现在包含两个节点,其中的初始数据是一致的:

当我们修改其中一个节点的数据时,两者的数据产生了差异:

要想保住一致性,就必须实现node01 到 node02的数据 同步:


可用性

Availability (可用性):用户访问集群中的任意健康节点,必须能得到响应,而不是超时或拒绝。

如图,有三个节点的集群,访问任何一个都可以及时得到响应:

当有部分节点因为网络故障或其它原因无法访问时,代表节点不可用:


分区容错

Partition(分区):因为网络故障或其它原因导致分布式系统中的部分节点与其它节点失去连接,形成独立分区。

Tolerance(容错):在集群出现分区时,整个系统也要持续对外提供服务


矛盾

在分布式系统中,系统间的网络不能100%保证健康,一定会有故障的时候,而服务有必须对外保证服务。因此Partition Tolerance不可避免。

当节点接收到新的数据变更时,就会出现问题了:

如果此时要保证一致性,就必须等待网络恢复,完成数据同步后,整个集群才对外提供服务,服务处于阻塞状态,不可用。

如果此时要保证可用性,就不能等待网络恢复,那node01、node02与node03之间就会出现数据不一致。

也就是说,在P一定会出现的情况下,A和C之间只能实现一个。


BASE理论

BASE理论是对CAP的一种解决思路,包含三个思想:

  • Basically Available (基本可用):分布式系统在出现故障时,允许损失部分可用性,即保证核心可用。
  • **Soft State(软状态):**在一定时间内,允许出现中间状态,比如临时的不一致状态。
  • Eventually Consistent(最终一致性):虽然无法保证强一致性,但是在软状态结束后,最终达到数据一致。

解决分布式事务的思路

分布式事务最大的问题是各个子事务的一致性问题,因此可以借鉴CAP定理和BASE理论,有两种解决思路:

  • AP模式:各子事务分别执行和提交,允许出现结果不一致,然后采用弥补措施恢复数据即可,实现最终一致。

  • CP模式:各个子事务执行后互相等待,同时提交,同时回滚,达成强一致。但事务等待过程中,处于弱可用状态。

但不管是哪一种模式,都需要在子系统事务之间互相通讯,协调事务状态,也就是需要一个事务协调者(TC)

这里的子系统事务,称为分支事务 ;有关联的各个分支事务在一起称为全局事务


Seata Server配置Nacos

找到conf下的application.yml配置文件

按如下配置:

分别配置 config 配置中心 | registry 注册中心

yml 复制代码
seata:
  config:
    # support: nacos, consul, apollo, zk, etcd3
    # type: file
    type: nacos
    nacos:
      server-addr: 127.0.0.1:8848
      namespace: 48d1a3a0-88f5-4fe6-98bd-72fa493b5dd4
      group: DEFAULT_GROUP
      username: nacos
      password: nacos
      context-path:
      data-id: seataServer.properties
  registry:
    # support: nacos, eureka, redis, zk, consul, etcd3, sofa
    # type: file
    type: nacos
    nacos:
      application: seata-server
      server-addr: 127.0.0.1:8848
      group: DEFAULT_GROUP
      namespace: 48d1a3a0-88f5-4fe6-98bd-72fa493b5dd4
      cluster: default
      username: nacos
      password: nacos

重启Seata Server

打开nacos控台,已经可以看到seata服务

接着在nacos新增配置文件

seataServer.properties

properties 复制代码
store.mode=db
store.db.dbType=mysql
store.db.datasource=druid
# store.db.driver-class-name=com.mysql.cj.jdbc.Driver
store.db.driverClassName=com.mysql.cj.jdbc.Driver
store.db.url=jdbc:mysql://localhost/seata?characterEncoding=UTF8&autoReconnect=true&serverTimezone=Asia/Shanghai
store.db.user=seata
store.db.password=seata

这里注意需要先新建数据库

数据库要运行sql脚本,文件位置如下

重启Seata Server


Seata Client配置Nacos

修改客户端bootstrap.properties配置文件

一般springcloud相关配置都放在bootstrap.properies

properties 复制代码
# ==================== Seata 事务配置 ====================
# Seata 配置中心设置,要和Seata Server的application.yml配置保持一致
# 配置类型,指定使用 Nacos 作为配置中心
seata.config.type=nacos
# Nacos 服务器的地址和端口
seata.config.nacos.server-addr=127.0.0.1:8848
# Nacos 配置组名称
seata.config.nacos.group=DEFAULT_GROUP
# Nacos 命名空间 ID
seata.config.nacos.namespace=48d1a3a0-88f5-4fe6-98bd-72fa493b5dd4
# 配置数据 ID,用于标识具体的配置文件
seata.config.nacos.dataId=seataServer.properties
# Nacos 登录用户名
seata.config.nacos.username=nacos
# Nacos 登录密码
seata.config.nacos.password=nacos

# Seata 注册中心设置,要和Seata Server的application.yml配置保持一致
# 注册中心类型,指定使用 Nacos
seata.registry.type=nacos
# 应用名称,用于注册到 Nacos
seata.registry.nacos.application=seata-server
# Nacos 服务器的地址和端口
seata.registry.nacos.server-addr=127.0.0.1:8848
# Nacos 注册组名称
seata.registry.nacos.group=DEFAULT_GROUP
# Nacos 命名空间 ID
seata.registry.nacos.namespace=48d1a3a0-88f5-4fe6-98bd-72fa493b5dd4
# Nacos 登录用户名
seata.registry.nacos.username=nacos
# Nacos 登录密码
seata.registry.nacos.password=nacos

# 事务组名称,必须在nacos中有配置过:service.vgroupMapping.train-group=default
seata.tx-service-group=train-group

################################################
# 以下是nacos中的seataServer.properties的相关配置
################################################
# # 和微服务模块的seata.tx-service-group保持一致
# # 事务组和seata集群做关联
# service.vgroupMapping.train-group=default
# # seata集群对应的机器
# service.default.grouplist=127.0.0.1:8091
#
# # 和微服务模块的seata.tx-service-group保持一致
# service.vgroupMapping.test-group=default1
# service.default1.grouplist=127.0.0.1:18091
################################################

修改server端配置文件

nacos配置文件

properties 复制代码
store.mode=db
store.db.dbType=mysql
store.db.datasource=druid
# store.db.driver-class-name=com.mysql.cj.jdbc.Driver
store.db.driverClassName=com.mysql.cj.jdbc.Driver
store.db.url=jdbc:mysql://localhost/seata?characterEncoding=UTF8&autoReconnect=true&serverTimezone=Asia/Shanghai
store.db.user=seata
store.db.password=seata

# 和微服务模块的seata.tx-service-group保持一致
service.vgroupMapping.train-group=default
service.default.grouplist=127.0.0.1:8091

# 和微服务模块的seata.tx-service-group保持一致
service.vgroupMapping.test-group=default1
service.default1.grouplist=127.0.0.1:18091
# 这里18091的集群并不存在,只是做演示,而且客户端配置的事务组名称为train-group,所以找的也是8091

Seata的架构

Seata事务管理中有三个重要的角色:

  • TC (Transaction Coordinator) - **事务协调者:**维护全局和分支事务的状态,协调全局事务提交或回滚。

  • TM (Transaction Manager) - **事务管理器:**定义全局事务的范围、开始全局事务、提交或回滚全局事务。

  • RM (Resource Manager) - **资源管理器:**管理分支事务处理的资源,与TC交谈以注册分支事务和报告分支事务的状态,并驱动分支事务提交或回滚。

整体的架构如图:

Seata基于上述架构提供了四种不同的分布式事务解决方案:

  • XA模式:强一致性分阶段事务模式,牺牲了一定的可用性,无业务侵入
  • AT模式:最终一致的分阶段事务模式,无业务侵入,也是Seata的默认模式
  • TCC模式:最终一致的分阶段事务模式,有业务侵入
  • SAGA模式:长事务模式,有业务侵入

无论哪种方案,都离不开TC,也就是事务的协调者。


XA模式

XA 规范 是 X/Open 组织定义的分布式事务处理(DTP,Distributed Transaction Processing)标准,XA 规范 描述了全局的TM与局部的RM之间的接口,几乎所有主流的数据库都对 XA 规范 提供了支持。

两阶段提交

XA是规范,目前主流数据库都实现了这种规范,实现的原理都是基于两阶段提交。

正常情况:

异常情况:

一阶段:

  • 事务协调者通知每个事物参与者执行本地事务
  • 本地事务执行完成后报告事务执行状态给事务协调者,此时事务不提交,继续持有数据库锁

二阶段:

  • 事务协调者基于一阶段的报告来判断下一步操作
    • 如果一阶段都成功,则通知所有事务参与者,提交事务
    • 如果一阶段任意一个参与者失败,则通知所有事务参与者回滚事务

Seata的XA模型

Seata对原始的XA模式做了简单的封装和改造,以适应自己的事务模型,基本架构如图:Seata对原始的XA模式做了简单的封装和改造,以适应自己的事务模型,基本架构如图:

RM一阶段的工作:

​ ① 注册分支事务到TC

​ ② 执行分支业务sql但不提交

​ ③ 报告执行状态到TC

TC二阶段的工作:

  • TC检测各分支事务执行状态

    a.如果都成功,通知所有RM提交事务

    b.如果有失败,通知所有RM回滚事务

RM二阶段的工作:

  • 接收TC指令,提交或回滚事务

优缺点

XA模式的优点是什么?

  • 事务的强一致性,满足ACID原则。
  • 常用数据库都支持,实现简单,并且没有代码侵入

XA模式的缺点是什么?

  • 因为一阶段需要锁定数据库资源,等待二阶段结束才释放,性能较差
  • 依赖关系型数据库实现事务

总结:XA 是分布式事务领域的"硬一致性"标准,虽然慢,但最稳。

  • 适用场景:对数据一致性要求极高(如银行转账、核心金融业务),但并发量不是特别巨大,或者事务跨度较短的场景。
  • 不适用场景:高并发、高性能要求的互联网业务(通常会改用 TCC、Saga 或 最终一致性方案)。

实现XA模式

新增依赖

xml 复制代码
<dependency>
    <groupId>com.alibaba.cloud</groupId>
    <artifactId>spring-cloud-starter-alibaba-seata</artifactId>
</dependency>

修改 bootstrap.properties 文件(每个参与事务的微服务),将事务模式修改为XA模式即可:

properties 复制代码
seata.data-source-proxy-mode:=XA

给发起全局事务的入口方法添加@GlobalTransactional注解:

java 复制代码
    @Override
    @GlobalTransactional
    public Long create(Order order) {
        // 创建订单
        orderMapper.insert(order);
        try {
            // 扣用户余额
            accountClient.deduct(order.getUserId(), order.getMoney());
            // 扣库存
            storageClient.deduct(order.getCommodityCode(), order.getCount());

        } catch (FeignException e) {
            log.error("下单失败,原因:{}", e.contentUTF8(), e);
            throw new RuntimeException(e.contentUTF8(), e);
        }
        return order.getId();
    }

AT模式

AT模式同样是分阶段提交的事务模型,不过缺弥补了XA模型中资源锁定周期过长的缺陷。

Seata的AT模型

基本流程图:

阶段一RM的工作:

  • 注册分支事务
  • 记录undo-log(数据快照)
  • 执行业务sql并提交
  • 报告事务状态

阶段二提交时RM的工作:

  • 删除undo-log即可

阶段二回滚时RM的工作:

  • 根据undo-log恢复数据到更新前

流程梳理

我们用一个真实的业务来梳理下AT模式的原理。

比如,现在又一个数据库表,记录用户余额:

id money
1 100

其中一个分支业务要执行的SQL为:

sql 复制代码
update tb_account set money = money - 10 where id = 1

AT模式下,当前分支事务执行流程如下:

一阶段:

1)TM发起并注册全局事务到TC

2)TM调用分支事务

3)分支事务准备执行业务SQL

4)RM拦截业务SQL,根据where条件查询原始数据,形成快照。

json 复制代码
{
    "id": 1, "money": 100
}

5)RM执行业务SQL,提交本地事务,释放数据库锁。此时 money = 90

6)RM报告本地事务状态给TC

二阶段:

1)TM通知TC事务结束

2)TC检查分支事务状态

​ a)如果都成功,则立即删除快照

​ b)如果有分支事务失败,需要回滚。读取快照数据({"id": 1, "money": 100}),将快照恢复到数据库。此时数据库再次恢复为100

流程图:


AT与XA的区别

简述AT模式与XA模式最大的区别是什么?

  • XA模式一阶段不提交事务,锁定资源;AT模式一阶段直接提交,不锁定资源。
  • XA模式依赖数据库机制实现回滚;AT模式利用数据快照实现数据回滚
  • XA模式强一致;AT模式最终一致

脏写问题

在多线程并发访问AT模式的分布式事务时,有可能出现脏写问题

  1. 全局事务 A 修改了数据(100 改为 90),本地已提交,释放了 DB 锁,等待第二阶段指令。
  2. 事务 B (可能是另一个全局事务,也可能是本地事务)紧接着修改了同一行数据(90 改为 80),并本地提交
  3. 全局事务 A 此时因为其他分支报错,决定回滚
  4. 冲突发生:事务 A 想要通过 Undo Log 把数据还原回 100。如果强行还原,事务 B 的更新(80)就彻底丢失了。这就是脏写。

如图:

Seata 如何解决脏写?

Seata 通过两道防线来解决这个问题:全局锁(Global Lock)数据校验

防线一:写隔离(针对 Seata 管理的事务)

这是最主要的防御机制。前提是所有操作该数据的事务都必须经过 Seata 管理

  • 机制 :在第一阶段本地事务提交之前 ,Seata 的 RM(资源管理器)必须向 TC(服务端)注册一个全局锁
  • 锁的粒度:表名 + 主键值(Row Lock)。
  • 流程:
    1. 事务 A 拿到本地 DB 锁。
    2. 事务 A 尝试向 TC 申请全局锁。
    3. 成功 -> 提交本地事务,释放本地 DB 锁(但全局锁仍在 TC 处保留)。
    4. 失败 -> 说明有其他全局事务正在操作这行数据。事务 A 会重试,直到拿到全局锁或超时回滚。

结果:如果事务 B 也是 Seata 事务,它在修改数据前也必须申请全局锁。因为事务 A 还没结束(第二阶段没完),全局锁被 A 占着,B 只能等待。从而避免了脏写。

防线二:回滚校验(针对非 Seata 管理的事务)

如果事务 B 绕过了 Seata(比如直接在控制台执行 SQL,或者未接入 Seata 的代码),它不需要申请全局锁,就能直接修改数据库(因为 A 已经释放了数据库层面的锁)。

这时候,事务 A 要回滚怎么办?Seata 采用了 "After Image 对比" 策略:

  1. 事务 A 回滚时,会读取当前数据库中的值的(Current Value)。
  2. 事务 A 拿出自己 Undo Log 中的 后镜像(After Image)(即 A 修改后的值,90)。
  3. 对比:
    • 如果 Current Value == After Image:说明中间没人动过数据,安全,执行回滚(还原为 Before Image 100)。
    • 如果 Current Value != After Image:说明数据被"脏写"了(变成了 80)。

结果 :Seata 判定数据已脏,无法自动回滚

  • 它会抛出 BranchRollbackFailed_Retriable 异常。
  • 这种情况下,通常需要人工介入(运维处理),或者配置策略让事务挂起报警。

优缺点

AT模式的优点:

  • 一阶段完成直接提交事务,释放数据库资源,性能比较好
  • 利用全局锁实现读写隔离
  • 没有代码侵入,框架自动完成回滚和提交

AT模式的缺点:

  • 两阶段之间属于软状态,属于最终一致
  • 框架的快照功能会影响性能,但比XA模式要好很多

总结

  • 核心交换:用"空间"换"时间"

    传统的 XA 模式之所以慢,是因为它在第一阶段(Prepare)之后,数据库必须一直持有锁,直到第二阶段(Commit/Rollback)结束。这是一种以时间换一致性的做法,严重阻塞并发。

    AT 模式的本质反其道而行之:

    • 提前释放锁 :在第一阶段,它就直接提交了本地事务,释放了数据库的物理锁(Row Lock)。这使得数据库可以立刻服务于其他请求,极大提升了吞吐量(节省了"时间")。
    • 记录快照 :为了敢于"提前释放锁",它必须在提交前保存一份"后悔药"。这就是 undo_log 表。它记录了数据修改前(Before Image)和修改后(After Image)的快照。这消耗了数据库的存储资源(消耗了"空间")。

    结论 :AT 的本质是通过记录 Undo Log(空间),换取数据库锁的快速释放(时间/并发能力)。

  • 锁的演变:从"物理锁"到"逻辑锁"

    由于 AT 模式在第一阶段就释放了数据库的物理锁 ,为了防止并发导致的数据不一致(如脏写),它引入了全局锁

    • 物理锁:数据库层面的锁(如 MySQL 的 InnoDB 行锁)。AT 模式持有时间极短(仅限 SQL 执行过程)。
    • 逻辑锁:Seata Server (TC) 端维护的一张表(锁记录)。AT 模式在整个分布式事务期间一直持有。

    结论 :AT 模式的本质是将长周期的"数据库物理锁"转化为 Seata 服务端的"逻辑全局锁",从而减轻数据库的压力。

  • 终极概括

    如果把 XA 比作**"一手交钱一手交货"**(双方必须同时在场,都不动,直到交易完成),

    那么 AT 模式就是**"无理由退货机制"**:

    1. 你先买走(本地先提交,释放资源)。
    2. 系统留个小票(Undo Log)。
    3. 如果最后决定不要了,拿着小票把货退回来(根据 Undo Log 反向生成 SQL 回滚)。
    4. 为了防止你退货时货已经被别人改坏了,系统有个后台记录(全局锁)来协调。

实现AT模式

修改 bootstrap.properties 文件(每个参与事务的微服务),将事务模式修改为AT模式即可:

properties 复制代码
seata.data-source-proxy-mode:=AT # 默认就是AT

对分布式事务涉及到的数据库,增加undo_log表,供seata使用

sql 复制代码
CREATE TABLE `undo_log` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `branch_id` bigint(20) NOT NULL,
  `xid` varchar(100) NOT NULL,
  `context` varchar(128) NOT NULL,
  `rollback_info` longblob NOT NULL,
  `log_status` int(11) NOT NULL,
  `log_created` datetime NOT NULL,
  `log_modified` datetime NOT NULL,
  `ext` varchar(100) DEFAULT NULL,
  PRIMARY KEY (`id`),
  UNIQUE KEY `ux_undo_log` (`xid`,`branch_id`)
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;

TCC模式

TCC模式与AT模式非常相似,每阶段都是独立事务,不同的是TCC通过人工编码来实现数据恢复。需要实现三个方法:

  • Try:资源的检测和预留;

  • Confirm:完成资源操作业务;要求 Try 成功 Confirm 一定要能成功。

  • Cancel:预留资源释放,可以理解为try的反向操作。

流程分析

举例,一个扣减用户余额的业务。假设账户A原来余额是100,需要余额扣减30元。

  • 阶段一( Try ):检查余额是否充足,如果充足则冻结金额增加30元,可用余额扣除30

初识余额:

余额充足,可以冻结:

此时,总金额 = 冻结金额 + 可用金额,数量依然是100不变。事务直接提交无需等待其它事务。

  • 阶段二(Confirm):假如要提交(Confirm),则冻结金额扣减30

确认可以提交,不过之前可用金额已经扣减过了,这里只要清除冻结金额就好了:

此时,总金额 = 冻结金额 + 可用金额 = 0 + 70 = 70元

  • 阶段二(Canncel):如果要回滚(Cancel),则冻结金额扣减30,可用余额增加30

需要回滚,那么就要释放冻结金额,恢复可用金额:


Seata的TCC模型

Seata中的TCC模型依然延续之前的事务架构,如图:


优缺点

TCC模式的每个阶段是做什么的?

  • Try:资源检查和预留
  • Confirm:业务执行和提交
  • Cancel:预留资源的释放

TCC的优点是什么?

  • 一阶段完成直接提交事务,释放数据库资源,性能好
  • 相比AT模型,无需生成快照,无需使用全局锁,性能最强
  • 不依赖数据库事务,而是依赖补偿操作,可以用于非事务型数据库

TCC的缺点是什么?

  • 有代码侵入,需要人为编写try、Confirm和Cancel接口,太麻烦
  • 软状态,事务是最终一致
  • 需要考虑Confirm和Cancel的失败情况,做好幂等处理

业务悬挂和空回滚

空回滚

当某分支事务的try阶段阻塞 时,可能导致全局事务超时而触发二阶段的cancel操作。在未执行try操作时先执行了cancel操作,这时cancel不能做回滚,就是空回滚

如图:

执行cancel操作时,应当判断try是否已经执行,如果尚未执行,则应该空回滚。


业务悬挂

对于已经空回滚的业务,之前被阻塞的try操作恢复,继续执行try,就永远不可能confirm或cancel ,事务一直处于中间状态,这就是业务悬挂

执行try操作时,应当判断cancel是否已经执行过了,如果已经执行,应当阻止空回滚后的try操作,避免悬挂


实现TCC模式

解决空回滚和业务悬挂问题,必须要记录当前事务状态,是在try、还是cancel?

思路分析

这里我们定义一张表:

sql 复制代码
CREATE TABLE `account_freeze_tbl` (
  `xid` varchar(128) NOT NULL,
  `user_id` varchar(255) DEFAULT NULL COMMENT '用户id',
  `freeze_money` int(11) unsigned DEFAULT '0' COMMENT '冻结金额',
  `state` TINYINT DEFAULT '0' COMMENT '事务状态,0:try,1:confirm,2:cancel',
  PRIMARY KEY (`xid`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 ROW_FORMAT=COMPACT;

其中:

  • xid:是全局事务id
  • freeze_money:用来记录用户冻结金额
  • state:用来记录事务状态

那此时,我们的业务开怎么做呢?

  • Try业务:
    • 记录冻结金额和事务状态到account_freeze表
    • 扣减account表可用金额
  • Confirm业务
    • 根据xid删除account_freeze表的冻结记录
  • Cancel业务
    • 修改account_freeze表,冻结金额为0,state为2
    • 修改account表,恢复可用金额
  • 如何判断是否空回滚?
    • cancel业务中,根据xid查询account_freeze,如果为null则说明try还没做,需要空回滚
  • 如何避免业务悬挂?
    • try业务中,根据xid查询account_freeze ,如果已经存在则证明Cancel已经执行,拒绝执行try业务

接下来,我们改造account-service,利用TCC实现余额扣减功能。


声明TCC接口

TCC的Try、Confirm、Cancel方法都需要在接口中基于注解来声明,

声明TCC三个接口:

java 复制代码
public interface AccountTCCService {

    /**
     * try逻辑,@TwoPhaseBusinessAction中的name属性要与当前方法名一致,用于指定try逻辑对应的方法
     * @BusinessActionContextParameter: 标记:把这个参数放入上下文
     */
    @TwoPhaseBusinessAction(name = "deduct", commitMethod = "confirm", rollbackMethod = "cancel")
    void deduct(@BusinessActionContextParameter(paramName = "userId") String userId,
                @BusinessActionContextParameter(paramName = "money") int money);

    /**
     * 二阶段confirm确认方法,可以另外命名,但要保证与commitMethod一致
     * BusinessActionContext ctx: 上下文,可以传递try方法的参数
     */
    boolean confirm(BusinessActionContext ctx);

    /**
     * 二阶段回滚方法,可以另外命名,但要保证与rollbackMethod一致
     */
    boolean cancel(BusinessActionContext ctx);
}

编写实现类

java 复制代码
@Service
@Slf4j
public class AccountTCCServiceImpl implements AccountTCCService {

    @Autowired
    private AccountMapper accountMapper;
    @Autowired
    private AccountFreezeMapper freezeMapper;

    @Override
    @Transactional
    public void deduct(String userId, int money) {
        // 0.获取事务id
        String xid = RootContext.getXID();

        // 避免业务悬挂:
        // 判断freeze中是否有冻结记录,如果有,一定是cancel执行过,我要拒绝业务
        AccountFreeze oldFreeze = freezeMapper.selectById(xid);
        if(oldFreeze!=null) {
            // cancel执行过,我要拒绝业务
            return;
        }

        // 1.扣减可用余额
        accountMapper.deduct(userId, money);
        // 2.记录冻结金额,事务状态
        AccountFreeze freeze = new AccountFreeze();
        freeze.setUserId(userId);
        freeze.setFreezeMoney(money);
        freeze.setState(AccountFreeze.State.TRY);
        freeze.setXid(xid);
        freezeMapper.insert(freeze);
    }

    @Override
    public boolean confirm(BusinessActionContext ctx) {
        // 1.获取事务id
        String xid = ctx.getXid();
        // 2.根据id删除冻结记录
        int count = freezeMapper.deleteById(xid);
        return count == 1;
    }

    @Override
    public boolean cancel(BusinessActionContext ctx) {
        // 0.查询冻结记录
        String xid = ctx.getXid();
        AccountFreeze freeze = freezeMapper.selectById(xid);

        // 是否空回滚
        // 空回滚的判断,判断freeze是否为null,为null则证明try没执行,需要回滚
        if (freeze == null) {
            // 证明try没执行,需要回滚
            freeze = new AccountFreeze();
            freeze.setUserId(ctx.getActionContext("userId").toString());
            freeze.setFreezeMoney(0);
            freeze.setState(AccountFreeze.State.CANCEL);
            freeze.setXid(xid);
            freezeMapper.insert(freeze);
        }
        // 幂等性判断
        if(freeze.getState() == AccountFreeze.State.CANCEL) {
            // 已经处理过一次cancel了,无需重复处理
            return true;
        }

        // 1.恢复可用余额
        accountMapper.refund(freeze.getUserId(), freeze.getFreezeMoney());

        // 2.将冻结金额清零,状态改为CANCEL
        freeze.setFreezeMoney(0);
        freeze.setState(AccountFreeze.State.CANCEL);
        int count = freezeMapper.updateById(freeze);
        return count == 1;
    }
}

SAGA模式

Saga 模式是 Seata 即将开源的长事务解决方案,将由蚂蚁金服主要贡献。

其理论基础是Hector & Kenneth 在1987年发表的论文Sagas

Seata官网对于Saga的指南:https://seata.io/zh-cn/docs/user/saga.html

原理

在 Saga 模式下,分布式事务内有多个参与者,每一个参与者都是一个冲正补偿服务,需要用户根据业务场景实现其正向操作和逆向回滚操作。

分布式事务执行过程中,依次执行各参与者的正向操作,如果所有正向操作均执行成功,那么分布式事务提交。如果任何一个正向操作执行失败,那么分布式事务会去退回去执行前面各参与者的逆向回滚操作,回滚已提交的参与者,使分布式事务回到初始状态。

Saga也分为两个阶段:

  • 一阶段:直接提交本地事务
  • 二阶段:成功则什么都不做;失败则通过编写补偿业务来回滚

4优缺点

优点:

  • 事务参与者可以基于事件驱动实现异步调用,吞吐高
  • 一阶段直接提交事务,无锁,性能好
  • 不用编写TCC中的三个阶段,实现简单

缺点:

  • 软状态持续时间不确定,时效性差
  • 没有锁,没有事务隔离,会有脏写

四种模式对比

表格

模式 描述 优点 缺点 适用场景
XA 基于两阶段提交协议的分布式事务 - 强一致性,适合对数据一致性要求极高的场景 - 支持多种数据库和消息中间件 - 性能较低,尤其在高并发场景下 - 实现复杂,配置和管理成本高 对一致性要求极高的场景
AT 自动事务管理,默认模式 - 开发简单,几乎无需修改代码 - 性能高,适合高并发场景 - 仅支持关系型数据库 - 对复杂业务场景灵活性不足 大多数简单场景
TCC 三阶段事务:尝试、确认、取消 - 灵活性高,适合复杂业务逻辑 - 支持多种数据源 - 开发复杂,需要实现三个接口 - 需深入理解业务逻辑 需要精细控制的复杂业务
SAGA 将长事务拆分为多个短事务,使用补偿机制 - 适合长事务,能够有效管理复杂业务流程 - 每个子事务独立,失败时可补偿 - 需实现补偿逻辑,增加开发复杂度 - 可能导致数据不一致的窗口期 长事务和复杂业务流程

总结

  • XA:适合对一致性要求极高的场景,但性能较低。
  • AT:适合大多数简单场景,易于实现。
  • TCC:适合需要精细控制的复杂业务,灵活性高。
  • SAGA:适合长事务和复杂业务流程,能够有效管理。

相关推荐
optimistic_chen2 小时前
【Redis 系列】常用数据结构---Hash类型
linux·数据结构·redis·分布式·哈希算法
为什么要做囚徒2 小时前
多线程基础系列-线程死锁
java·多线程
bluetata3 小时前
在 Spring Boot 中使用 Amazon Textract 从图像中提取文本
java·spring boot·后端
yuankunliu3 小时前
【分布式事务】4、分布式事务Seata的高级应用详解
分布式
黎雁·泠崖3 小时前
Java底层探秘入门:从源码到字节码!方法调用的中间形态全解析
java·开发语言
we1less3 小时前
[audio] AudioTrack (六) 共享内存使用分析
java·开发语言
CYTElena3 小时前
关于JAVA异常的笔记
java·开发语言·笔记·语言基础
YIN_尹3 小时前
【C++11】lambda表达式(匿名函数)
java·c++·windows
猴子年华、3 小时前
【每日一技】:SQL 常用函数实战速查表(函数 + 场景版)
java·数据库·sql·mysql