文章目录
-
-
- [📊📋 一、 序言:线程同步的"速度与激情"](#📊📋 一、 序言:线程同步的“速度与激情”)
- [🌍📈 二、 深度拆解:synchronized的锁升级之路](#🌍📈 二、 深度拆解:synchronized的锁升级之路)
-
- [🛡️🧩 2.1 锁的物理载体:Mark Word](#🛡️🧩 2.1 锁的物理载体:Mark Word)
- [🔄🧱 2.2 演进逻辑:从"偏爱"到"博弈"再到"沉重"](#🔄🧱 2.2 演进逻辑:从“偏爱”到“博弈”再到“沉重”)
- [💻🚀 示例代码:锁升级的语义观察](#💻🚀 示例代码:锁升级的语义观察)
- [🔄🎯 三、 乐观派的胜利:CAS 的无锁神话](#🔄🎯 三、 乐观派的胜利:CAS 的无锁神话)
-
- [🧬🧩 3.1 硬件指令的降维打击](#🧬🧩 3.1 硬件指令的降维打击)
- [📉⚠️ 3.2 性能陷阱:自旋风暴](#📉⚠️ 3.2 性能陷阱:自旋风暴)
- [📊📋 四、 ABA 问题:被掩盖的真相与终极对策](#📊📋 四、 ABA 问题:被掩盖的真相与终极对策)
-
- [🛡️⚖️ 4.1 现实中的灾难:栈逻辑失效](#🛡️⚖️ 4.1 现实中的灾难:栈逻辑失效)
- [💻🚀 示例代码:使用版本号解决ABA问题](#💻🚀 示例代码:使用版本号解决ABA问题)
- [🛠️🔍 五、 实战:手写一个基于自旋的自定义锁](#🛠️🔍 五、 实战:手写一个基于自旋的自定义锁)
-
- [💻🚀 核心代码:自定义自旋锁实现](#💻🚀 核心代码:自定义自旋锁实现)
- [🌍📈 六、 未来前瞻:Project Loom 与虚拟线程的冲击](#🌍📈 六、 未来前瞻:Project Loom 与虚拟线程的冲击)
- [🌟🏁 七、 总结:架构师的锁选型指南](#🌟🏁 七、 总结:架构师的锁选型指南)
-
🎯🔥 Java锁优化:从synchronized到CAS的演进与实战选择
📊📋 一、 序言:线程同步的"速度与激情"
在多核CPU统治计算领域的今天,并发(Concurrency)不再是高级开发者的加分项,而是每一位工程师的生存底座。然而,并发是一把双刃剑:它赋予了程序极高的吞吐能力,也带来了致命的线程安全隐患。
为了保证数据的原子性,我们最先接触到的是synchronized。在早期的Java版本中,它是一把沉重的"大锁",一旦涉及同步,性能便会断崖式下跌。但随着技术的演进,JVM的设计者们通过一系列精妙的"骗局"------偏向锁、轻量级锁、自旋锁,让synchronized焕发了新生。而与此同时,以CAS(Compare And Swap)为代表的"无锁化"方案也异军突起。
从"悲观"到"乐观",从"加锁"到"比较",这不仅是API的更迭,更是对CPU指令集、内存屏障(Memory Barrier)以及操作系统调度算法的极致压榨。
🌍📈 二、 深度拆解:synchronized的锁升级之路
在JVM的内核中,synchronized并不是一成不变的。它会根据竞争的激烈程度,在后台悄悄进行"变脸",这就是著名的**锁升级(Lock Escalation)**机制。
🛡️🧩 2.1 锁的物理载体:Mark Word
要理解锁升级,必须先看Java对象的"额头"------对象头(Object Header) 。其中的Mark Word记录了对象的锁状态:
- 无锁状态:存储Hash码、分代年龄。
- 偏向锁状态:存储持有锁的线程ID。
- 轻量级锁状态 :存储指向线程栈中
Lock Record的指针。 - 重量级锁状态:存储指向监视器(ObjectMonitor)的指针。
🔄🧱 2.2 演进逻辑:从"偏爱"到"博弈"再到"沉重"
- 偏向锁(Biased Locking):研究发现,大多数情况下锁不仅不存在竞争,还总是由同一线程获得。偏向锁通过在对象头记录线程ID,下次该线程进入时仅需做一次简单的比较,完全消除了同步开销。
- 轻量级锁(Lightweight Locking):一旦有第二个线程尝试竞争,偏向锁升级为轻量级锁。此时线程会在自己的栈帧中创建锁记录,并尝试通过CAS将对象头的Mark Word指向该记录。
- 重量级锁(Heavyweight Locking) :如果CAS失败(即竞争激烈),线程不会立即挂起,而是会进行自旋(Spinning)。如果自旋多次仍未获得锁,则膨胀为重量级锁,此时线程进入阻塞状态,交给操作系统调度。
💻🚀 示例代码:锁升级的语义观察
java
/**
* 演示synchronized在不同竞争场景下的语义差异
* 注:锁升级是JVM底层行为,此处通过代码逻辑模拟其背后的开销
*/
public class LockEscalationDemo {
private final Object lock = new Object();
public void processTask() {
// 场景1:单线程循环,JVM可能保持偏向锁状态
for (int i = 0; i < 1000000; i++) {
synchronized (lock) {
// 执行极短的计算任务
doSimpleMath();
}
}
}
private void doSimpleMath() {
int a = 1 + 1;
}
public static void main(String[] args) throws InterruptedException {
LockEscalationDemo demo = new LockEscalationDemo();
// 场景2:多线程交替执行,锁可能升级为轻量级锁
Thread t1 = new Thread(demo::processTask);
Thread t2 = new Thread(demo::processTask);
t1.start();
Thread.sleep(10); // 错开执行,减少直接冲突
t2.start();
t1.join();
t2.join();
System.out.println("任务处理完成");
}
}
🔄🎯 三、 乐观派的胜利:CAS 的无锁神话
当锁竞争变得极其频繁,或者我们需要原子性地更新一个变量时,synchronized即便优化得再好,也难免有上下文切换的风险。此时,CAS(Compare And Swap) 登场了。
🧬🧩 3.1 硬件指令的降维打击
CAS的核心是CPU提供的一个原子指令------cmpxchg。它接受三个操作数:内存位置(V)、预期值(A)和新值(B)。只有当V的值等于A时,才将其修改为B。整个过程是原子性的、非阻塞的。
📉⚠️ 3.2 性能陷阱:自旋风暴
CAS虽然快,但它假设"竞争不激烈"。如果成千上万个线程同时CAS一个变量,失败的线程会陷入死循环自旋,这会极大地消耗CPU时钟周期。这就是为什么在高并发写入场景下,LongAdder(通过分段计数的思想)往往比AtomicLong更优秀。
📊📋 四、 ABA 问题:被掩盖的真相与终极对策
CAS存在一个经典的逻辑漏洞:如果内存中的值从A变到了B,又变回了A,那么CAS会认为它"从未变过"。
🛡️⚖️ 4.1 现实中的灾难:栈逻辑失效
想象一个并发栈,你认为栈顶依然是元素A,所以你执行了弹出操作。但在你比较期间,另一个线程弹出了A、弹出了B,然后又压入了A。此时栈的内部结构已经天差地远,但你的CAS依然会成功。
💻🚀 示例代码:使用版本号解决ABA问题
java
import java.util.concurrent.atomic.AtomicStampedReference;
/**
* 演示使用 AtomicStampedReference 解决 CAS 中的 ABA 问题
*/
public class ABASolutionDemo {
public static void main(String[] args) throws InterruptedException {
// 初始值为 100,初始版本号为 1
AtomicStampedReference<Integer> atomicRef = new AtomicStampedReference<>(100, 1);
Thread t1 = new Thread(() -> {
int stamp = atomicRef.getStamp(); // 获取当前版本
System.out.println("线程1 初始版本: " + stamp);
try {
// 等待线程2完成一次 ABA 操作
Thread.sleep(1000);
} catch (InterruptedException e) {}
// 尝试更新,由于版本号已经变了,这次 CAS 会失败
boolean success = atomicRef.compareAndSet(100, 101, stamp, stamp + 1);
System.out.println("线程1 CAS结果 (预期失败): " + success);
});
Thread t2 = new Thread(() -> {
int stamp = atomicRef.getStamp();
System.out.println("线程2 第一次更新版本: " + stamp);
// A -> B
atomicRef.compareAndSet(100, 200, stamp, stamp + 1);
System.out.println("线程2 值变更为 200, 新版本: " + atomicRef.getStamp());
// B -> A
atomicRef.compareAndSet(200, 100, atomicRef.getStamp(), atomicRef.getStamp() + 1);
System.out.println("线程2 值变回 100, 新版本: " + atomicRef.getStamp());
});
t1.start();
t2.start();
t1.join();
t2.join();
}
}
🛠️🔍 五、 实战:手写一个基于自旋的自定义锁
为了加深对锁优化的理解,我们利用AtomicReference手写一个简单的不可重入自旋锁。通过这个例子,你可以看到在高层API之下,锁是如何被"构造"出来的。
💻🚀 核心代码:自定义自旋锁实现
java
import java.util.concurrent.atomic.AtomicReference;
/**
* 一个简单的自定义自旋锁实现
*/
public class SimpleSpinLock {
// 使用线程引用作为锁标记,null表示锁可用
private AtomicReference<Thread> owner = new AtomicReference<>();
public void lock() {
Thread current = Thread.currentThread();
// 如果抢锁失败,就在这里不停自旋
// 相比于 synchronized 的挂起,这里不释放CPU,适合执行时间极短的任务
while (!owner.compareAndSet(null, current)) {
// 在实际工程中,这里可以加入 Thread.onSpinWait() 来优化CPU消耗
}
System.out.println(current.getName() + " 已获取锁");
}
public void unlock() {
Thread current = Thread.currentThread();
// 只有持有者才能释放锁
if (owner.compareAndSet(current, null)) {
System.out.println(current.getName() + " 已释放锁");
}
}
public static void main(String[] args) {
SimpleSpinLock spinLock = new SimpleSpinLock();
Runnable task = () -> {
spinLock.lock();
try {
System.out.println(Thread.currentThread().getName() + " 正在执行临界区逻辑...");
Thread.sleep(100); // 模拟业务耗时
} catch (InterruptedException e) {
e.printStackTrace();
} finally {
spinLock.unlock();
}
};
new Thread(task, "Worker-1").start();
new Thread(task, "Worker-2").start();
}
}
🌍📈 六、 未来前瞻:Project Loom 与虚拟线程的冲击
Java的锁优化是否已经走到了终点?答案是否定的。
随着 JDK 21 中 虚拟线程(Virtual Threads / Project Loom) 的正式落地,我们对锁的看法正在发生根本性的改变。
- 传统模型:锁之所以昂贵,是因为底层的平台线程(OS Thread)是昂贵的,挂起线程涉及系统调用。
- 未来模型 :虚拟线程是极其廉价的。即使你在
synchronized块中阻塞了,JVM可以将虚拟线程"挂载"到另一个载体线程上。
这意味着,在未来,我们可能不再需要为了避开重量级锁而绞尽脑汁地去写复杂的CAS代码,简单直观的同步语法可能重新成为主流。
🌟🏁 七、 总结:架构师的锁选型指南
在长达万字的分析中,我们从底层的二进制位看到了高层的业务并发。作为一名合格的架构师,你应该掌握以下选型哲学:
- 低竞争、极短任务 :首选
synchronized。JVM的自适应自旋和偏向锁已经处理得极其出色。 - 原子更新、单变量修改 :首选
java.util.concurrent.atomic包。CAS的指令级优化是性能保障。 - 高竞争、复杂逻辑 :首选
ReentrantLock。它提供了更丰富的公平性选项、超时获取机制以及中断支持。 - 海量写计数 :首选
LongAdder。它通过空间换时间(分段槽位),规避了CAS的自旋风暴。 - 时刻警惕ABA :如果你的业务逻辑依赖于"中间过程",请务必使用
AtomicStampedReference带上版本号。
结语:加锁的本质是"等待",而并发的艺术是"利用等待"。锁优化不是消失了,而是变得更隐蔽、更智能了。理解了这些,你便能在代码的丛林中,写出既安全又如同闪电般迅捷的程序。