文章目录
- 一、不使用并发容器如何保证安全
- 二:阻塞队列容器
-
- 2、ArrayBlockingQueue
-
- [2.1 内部成员](#2.1 内部成员)
- [2.2 put 方法的实现](#2.2 put 方法的实现)
- [2.3 take 方法的实现](#2.3 take 方法的实现)
- 3、LinkedBlockingQueue
-
- [3.1 内部成员](#3.1 内部成员)
- [3.2 put 方法的实现](#3.2 put 方法的实现)
- [3.3 take 方法的实现](#3.3 take 方法的实现)
- 三、写时复制容器
-
- 1、CopyOnWriteArrayList
-
- [1.1 内部成员](#1.1 内部成员)
- [1.2 get 方法的实现](#1.2 get 方法的实现)
- [1.3 修改方法的实现](#1.3 修改方法的实现)
- 2、CopyOnWriteArraySet
- 3、总结
- 四、锁分段容器(面)
-
- 1、HashMap原理回顾
- 2、ConcurrentHashMap(1.7-)
-
- [2.1 概述](#2.1 概述)
- [2.2 put() 原理](#2.2 put() 原理)
- [2.3 get() 原理](#2.3 get() 原理)
- [2.4 size 原理](#2.4 size 原理)
- 3、ConcurrentHashMap(1.8+)
-
- [3.1 成员属性](#3.1 成员属性)
- [3.2 put 原理](#3.2 put 原理)
- [3.3 get原理](#3.3 get原理)
一、不使用并发容器如何保证安全
一般在 Java 中的容器可分为四类:Map、List、Queue 以及 Set 容器
在使用过程中,对应 ArrayList、HashMap 等 这类容器都是经常使用的,但问题在于这些容器在并发环境下都会存在线程安全问题
所以当我们在多线程环境下使用容器时,一般会使用 Vector、HashTable来替代之前的 ArrayList、HashMap
或则通过如下几个 Colletions 提供的方法来将容器转换线程安全的:
java
// 将一个List转换为线程安全的List
Collections.synchronizedList(new ArrayList<E>());
// 将一个Set转换为线程安全的Set
Collections.synchronizedSet(new HashSet<E>());
// 将一个map转换为线程安全的map
Collections.synchronizedMap(new HashMap<K,V>());
然而这些方法虽然能保证线程安全,但是底层的工作原理都是对方法加上 sync 关键字实现的
因此,在 JDK1.5 之后,JUC 并发包中,则推出了三个系列的并发容器:
- 阻塞队列容器
- 写时复制容器
- 分段容器
二:阻塞队列容器
明白了 ReentrantleLock 的多条件等待 Condition 原理即可理解队列的阻塞原理的实现过程
阻塞队列容器一般可以在创建线程池的时候使用到
阻塞队列与普通队列最大的不同点在于:支持队列内元素的阻塞添加与阻塞弹出,也就是代表着:
- 当在往队列中添加元素时,如果队列已经满了,那么当前添加元素的线程则会阻塞,直至队列弹出一个元素后才会唤醒,并将元素添加至队列中
- 阻塞弹出同理,如若队列为空,那么会阻塞至队列中有元素为止。
在 JUC 中主要提供了两类阻塞队列:单向阻塞队列以及双向阻塞队列,在 JUC 包中分别对应着 BlockingQueue、BlockingDeque 两个接口
- BlockingQueue单向FIFO先进先出阻塞队列:
- ArrayBlockingQueue:由数组结构支持的有界队列
- LinkedBlockingQueue:由链表结构支持的可选有界队列
- PriorityBlockingQueue:由最小二叉堆(优先级堆)结构支持的无界优先级队列
- DelayQueue:由最小二叉堆(优先级堆)结构支持且基于时间的调度队列
- SynchronousQueue:实现简单聚集(rendezvous)机制的同步阻塞交换队列(只存一个元素)
- LinkedTransferQueue:由链表结构支持的无界队列(1-②、1-⑤与3-①优点组成的超集)
- DelayWorkQueue:由最小二叉堆(优先级堆)结构支持的定时线程池定制版无界优先级队列
- BlockingDeque双向阻塞队列:
- LinkedBlockingDeque:由链表结构支持的可选双向有界队列
- 其他队列(非阻塞队列)
- ConcurrentLinkedQueue:由链表结构支持的并发无界队列
- PriorityQueue:由最小二叉堆(优先级堆)结构支持无界队列
- ConcurrentLinkedDeque:由链表结构支持的并发双向无界队列
- ArrayDeque:由数组结构支持的双向有界队列
单向,双向,有界,无界
- 有界:代表队列可以设置固定长度,队列中元素数量达到队列最大长度时则不能入列
- 无界:代表队列不需要设长度,在内存允许的情况下可以一直添加元素直至溢出。
- 单向:遵循先进先出FIFO原则的队列
- 双向:两端都可以插入/弹出元素的队列,可以使用双向队列实现栈结构
Java中的阻塞队列都实现自BlockingQueue接口,也包括BlockingDeque接口也继承自BlockingQueue接口
java
public interface BlockingQueue<E> extends Queue<E> {
// 如果队列未满则将元素e插入队列尾部,插入成功返回true,
// 如果队列已满,则抛IllegalStateException异常
boolean add(E e);
// 如果队列未满则将元素e插入队列尾部,插入成功返回true
boolean offer(E e);
// 如果队列未满则将元素e插入队列尾部,插入成功返回true,
// 如果该队列已满,则在指定的等待时间之内阻塞至可用空间出现
// 如果超出指定时间还未将元素插入队列则返回(可响应线程中断)
boolean offer(E e, long timeout, TimeUnit unit) throws InterruptedException;
// 将元素插入队列的尾部,如果该队列已满,则一直阻塞等待
void put(E e) throws InterruptedException;
// 获取并移除队列的头部元素,如果没有元素则阻塞等待,
// 直到有线程添加元素后再唤醒等待线程执行该操作
E take() throws InterruptedException;
// 获取并移除队列的头部元素,在指定的等待时间之内阻塞等待获取元素,
// 如果超出指定时间还未获取到元素则返回(可响应线程中断)
E poll(long timeout, TimeUnit unit) throws InterruptedException;
// 从队列中移除某个指定元素,移除成功返回true,没有该元素则返回false
boolean remove(Object o);
// 获取队列剩余的可用空位
// 假设队列长度为10,已有3个元素,调用该方法则返回7
int remainingCapacity();
// 检查队列中是否存在指定元素,存在返回true,反之false
public boolean contains(Object o);
// 一次性从队列中获取所有可用元素
int drainTo(Collection<? super E> c);
// 一次性从队列中获取指定个数的可用元素
int drainTo(Collection<? super E> c, int maxElements);
}
总的来说,阻塞队列中的方法可分为三类:增删查(有时也称为生产/消费、新增/弹出、添加/获取)
在使用阻塞队列时一般都是通过这三类方法操作队列容器
java
package com.example.bootrocketmq.mythread;
import java.util.UUID;
import java.util.concurrent.ArrayBlockingQueue;
import java.util.concurrent.BlockingQueue;
public class BlockingQueueDemo {
// 阻塞队列, 线程安全, 容量固定 = 5
private static ArrayBlockingQueue<String> arrayBlockingQueue = new ArrayBlockingQueue<>(5);
/**
* 生产者
*/
static class Producer implements Runnable {
// 阻塞队列声明
private BlockingQueue<String> blockingQueue;
private Producer(BlockingQueue<String> b) {
this.blockingQueue = b;
}
@Override
public void run() {
// 死循环模拟无限生产
for (; ; )
producer();
}
private void producer() {
String task = "hello-" + UUID.randomUUID();
try {
// 尝试将任务加入到阻塞队列中
blockingQueue.put(task);
System.out.println(Thread.currentThread().getName() + "生产任务:" + task);
Thread.sleep(100);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
/**
* 消费者
*/
static class Consumer implements Runnable {
// 阻塞队列声明
private BlockingQueue<String> blockingQueue;
private Consumer(BlockingQueue<String> b) {
this.blockingQueue = b;
}
@Override
public void run() {
// 死循环模拟无限消费
for (; ; )
consumer();
}
private void consumer() {
try {
Thread.sleep(200);
String task = blockingQueue.take(); // 尝试消费任务
System.out.println(Thread.currentThread().getName() + "消费任务:" + task);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
public static void main(String[] args) {
// create producer and consumer
Producer producerTask = new Producer(arrayBlockingQueue);
Consumer consumerTask = new Consumer(arrayBlockingQueue);
// thread group of producer
Thread p1 = new Thread(producerTask, "p1");
Thread p2 = new Thread(producerTask, "p2");
// thread group of consumer
Thread c1 = new Thread(consumerTask, "c1");
Thread c2 = new Thread(consumerTask, "c2");
p1.start();
p2.start();
c1.start();
c2.start();
}
}
2、ArrayBlockingQueue

2.1 内部成员
构造器
属性
java
// 内部存储元素的数组结构
final Object[] items;
// 记录获取元素的下标(take、poll、peek、remove方法都会用到)
int takeIndex;
// 记录添加元素的下标(put、offer、add方法都会用到)
int putIndex;
// 当前队列中元素的数量
int count;
// 控制并发的ReentrantLock锁对象
final ReentrantLock lock;
// 用于控制获取元素线程的condition对象[不空添加满足的时候才能取数据]
private final Condition notEmpty;
// 用于控制添加元素线程的condition对象[不满条件满足的时候才能加数据]
private final Condition notFull;
// 迭代器对象,注意此处声明为transient,说明序列化的时候忽略这个
transient Itrs itrs = null;
ArrayBlockingQueue内部使用一个数组成员items存储所有的队列元素
分别使用三个数值:takeIndex、putIndex以及count记录添加与获取元素的数组位置与队列中的元素个数
同时内部使用ReentrantLock解决线程安全问题,用两个Condition对象:notEmpty、notFull控制"写"线程与"读"线程的阻塞。
🎉 ArrayBlockingQueue的阻塞操作是基于ReentrantLock与Condition实现的,所以在创建ArrayBlockingQueue队列对象时也可以指定为公平/非公平模式,所
以公平模式则是指:先阻塞的线程一定先操作队列。
2.2 put 方法的实现
java
// ArrayBlockingQueue类 → put()方法
public void put(E e) throws InterruptedException {
// 检查元素是否为空,为空则抛出空指针异常
checkNotNull(e);
// 获取ReentrantLock成员锁对象
final ReentrantLock lock = this.lock;
// 可响应中断式获取锁
lock.lockInterruptibly();
try {
// 如果队列元素已满
while (count == items.length)
// 阻塞当前添加元素的线程
notFull.await();
// 如果队列元素未满则执行添加操作
enqueue(e);
} finally {
// 释放锁
lock.unlock();
}
}
// 添加元素的逻辑
// ArrayBlockingQueue类 → enqueue()方法
private void enqueue(E x) {
// 获取存储元素的items数组成员
final Object[] items = this.items;
// 将元素放在数组的putIndex下标位置
items[putIndex] = x;
// 对putIndex+1,+1后如果=数组长度了则重置为0
if (++putIndex == items.length)
putIndex = 0;
// 记录队列元素的数值count+1
count++;
// 唤醒等待获取队列元素的线程【声明不是空的条件满足了】
notEmpty.signal();
}
非常简单,一共就四步:
- 判断元素是否为空,为空抛出空指针异常
- 获取锁资源(保证多线程情况下容器操作的安全问题)
- 判断队列是否已满,如果满了则阻塞当前执行线程
- 如果未满则调用 enqueue(e) 方法进行添加操作
2.3 take 方法的实现
java
// ArrayBlockingQueue类 → take()方法
public E take() throws InterruptedException {
// 获取成员ReentrantLock锁对象
final ReentrantLock lock = this.lock;
// 可响应中断式获取锁
lock.lockInterruptibly();
try {
// 如果队列为空
while (count == 0)
// 通过condition对象阻塞当前获取元素的线程
notEmpty.await();
// 如果队列不为空则获取元素
return dequeue();
} finally {
// 释放锁
lock.unlock();
}
}
// 获取元素的逻辑
// ArrayBlockingQueue类 → dequeue()方法
private E dequeue() {
// 获取存储队列元素的成员数组items
final Object[] items = this.items;
@SuppressWarnings("unchecked")
// 获取数组中下标为taseIndex位置上的元素
E x = (E) items[takeIndex];
// 获取后清除该位置的元素
items[takeIndex] = null;
// 对takeIndex进行+1
if (++takeIndex == items.length)
// 如果takeIndex=数组长度时则将takeIndex置为0
takeIndex = 0;
// 记录队列元素数量的数值count-1
count--;
// 同时更新迭代器中的元素
if (itrs != null)
itrs.elementDequeued();
// 当取出一个元素后唤醒添加操作的线程【拿出元素之后不是满的条件将会满足】
notFull.signal();
// 返回
return x;
}
也是非常简单,一共就4步:
- 判断元素是否为空,为空抛出空指针异常
- 获取锁资源(保证多线程情况下容器操作的安全问题)
- 判断队列是否为空,如果满了则阻塞当前执行线程
- 如果未满则调用 dequeue(e) 方法进行获取操作
3、LinkedBlockingQueue
其中采用了读写分离的思想提升了容器整体的吞吐量
3.1 内部成员
构造器
java
// 构造器:可指定队列长度
public LinkedBlockingQueue(int capacity) {
// 如果指定的队列长度为0或小于0则抛出异常
if (capacity <= 0) throw new IllegalArgumentException();
// 将传入的指定长度赋值给capacity成员
this.capacity = capacity;
// 初始化空的节点作为队列头节点
last = head = new Node<E>(null);
}
// 构造器:不指定长度默认则为Integer.MAX_VALUE
public LinkedBlockingQueue() {
this(Integer.MAX_VALUE);
}
内部类
java
// LinkedBlockingQueue类 → Node内部类
static class Node<E> {
// 当前节点存储的元素本身
E item;
// 当前节点的后继节点
Node<E> next;
// 构造器
Node(E x) { item = x; }
}
内部属性
java
// 队列的长度(可以指定长度,默认为Integer.MAX_VALUE)
private final int capacity;
// 原子计数器:记录队列中元素的个数
private final AtomicInteger count = new AtomicInteger();
// 队列(内部链表)的头节点
transient Node<E> head;
// 队列(内部链表)的尾节点
private transient Node<E> last;
// 读锁:线程从队列中获取元素时,使用这把锁
private final ReentrantLock takeLock = new ReentrantLock();
// 获取元素时,队列为空,线程加入该condition队列等待
private final Condition notEmpty = takeLock.newCondition();
// 写锁:线程向队列中添加元素时,使用这把锁
private final ReentrantLock putLock = new ReentrantLock();
// 添加元素时,队列已满,线程加入该condition队列等待
private final Condition notFull = putLock.newCondition();
LinkedBlockingQueue
因为是基于链表结构实现的队列容器,所以通过Node
内部类构建了一个单向链表
同时使用AtomicInteger
原子类记录队列中元素数量,head、last
分别指向队列的头部以及尾部
同时使用takeLock、putLock
两个ReentrantLock
控制队列容器的读写并发访问。
3.2 put 方法的实现
java
// LinkedBlockingQueue类 → put()方法
public void put(E e) throws InterruptedException {
// 如果元素为空则抛出空指针异常
if (e == null) throw new NullPointerException();
int c = -1;
// 将要添加的元素封装成node节点
Node<E> node = new Node<E>(e);
// 拿到写锁
final ReentrantLock putLock = this.putLock;
// 获取当前队列的元素数量
final AtomicInteger count = this.count;
// 可响应中断式加锁
putLock.lockInterruptibly();
try {
// 如果队列已满
while (count.get() == capacity) {
// 挂起当前线程
notFull.await();
}
// 如果队列未满,将封装的node节点加入队列
enqueue(node);
// 更新count计数器并获取更新前的count值
c = count.getAndIncrement();
// 如果队列还未满
if (c + 1 < capacity)
// 唤醒下一个添加线程,执行元素添加操作
notFull.signal();
} finally {
// 释放锁
putLock.unlock();
}
// 如果更新前队列为空,现在添加了一个元素
// 代表着目前队列中肯定有数据了
// 那么则唤醒等待获取元素的线程
if (c == 0)
// 如果存在元素则唤醒take线程
signalNotEmpty();
}
// LinkedBlockingQueue类 → enqueue()方法
private void enqueue(Node<E> node) {
// 将新来的节点添加到链表的尾部
last = last.next = node;
}
整体原理看上去好像和ArrayBlockingQueue差不多,但是有一点不同的是:LinkedBlockingQueue
在添加元素完成后会唤醒等待队列中的其他线程执行添加操
作,而之前的ArrayBlockingQueue
却不会
这是因为LinkedBlockingQueue添加和获取元素使用的是两把不同的锁,而之前的ArrayBlockingQueue添加和获取元素是公用同一把锁
在ArrayBlockingQueue中同时只允许添加/获取中一个操作执行。在添加完成后会唤醒take线程,获取完成后会唤醒put线程。
在LinkedBlockingQueue中则不同,使用的是两把完全不同的锁,也就是说LinkedBlockingQueue的读/写完全是分离的,各自使用自己的锁进行并发控制,添加
元素与获取元素的线程并不会产生互斥,所以这也是为什么一条线程添加元素后会继续唤醒等待列队中的其他线程的原因。
同时这种做法也可以在很大程度上提升容器的吞吐量。
3.3 take 方法的实现
java
// LinkedBlockingQueue类 → take()方法
public E take() throws InterruptedException {
E x;
int c = -1;
// 获取队列中元素数量以及读锁
final AtomicInteger count = this.count;
final ReentrantLock takeLock = this.takeLock;
// 可响应中断式加锁
takeLock.lockInterruptibly();
try {
// 如果队列为空则挂起当前线程
while (count.get() == 0) {
notEmpty.await();
}
// 如果队列不为空则获取元素
x = dequeue();
// 更新count成员并获取更新前的count值
c = count.getAndDecrement();
// 如果队列中还有元素
if (c > 1)
// 唤醒等待队列的其他线程,继续执行获取操作
notEmpty.signal();
} finally {
// 释放锁
takeLock.unlock();
}
// 如果之前队列是满的,那么现在弹出了一个元素
// 则代表着当前队列出现了空位,那么唤醒添加线程
if (c == capacity)
signalNotFull();
return x;
}
// LinkedBlockingQueue类 → dequeue()方法
private E dequeue() {
// 获取队列头节点
// 因为头节点是空节点
// 所以队列中的第一个带数据的节点为:
// 头结点的后继节点
Node<E> h = head;
// 获取head节点的后继节点
Node<E> first = h.next;
h.next = h; // 方便GC,置空引用信息
// 将头节点的后继节点变为头节点
head = first;
// 获取后继节点上存储的元素数据
E x = first.item;
// 置空头节点的后继节点数据,将后继节点变为头节点
first.item = null;
// 返回获取到的数据
return x;
}
也是非常简单的,一共是四个大步骤
- 获取take锁并判断队列是否为空,为空则挂起当前线程
- 如果不为空则移除并获取队列头部节点中存储的元素信息
- 更新count并获取更新之前的count值,判断队列是否还有元素,有则唤醒其他线程继续执行
- 判断之前的队列是否是满的,如果是满的现在弹出了一个元素,代表队列有空位,那么唤醒添加线程
⚠️ 这里所谓的"读锁"并非真正意义上的读,因为如果只是读操作的话是不需要加锁的,而队列的take方法在读取了元素之后还需移除该元素,所以里面也涉
及到了写的操作,自然也需要加锁保证线程安全。准确来说,我所谓的"读/写锁"实际上是指"take/put"锁。
三、写时复制容器
写时复制容器是计算机程序设计领域惯用的一种优化思想
在很多系统设计中,比如Linux中的Fork父子进程数据同步等机制都采用了这种思想
子进程在创建时并不会拷贝父进程的数据,对于需要用到的数据仅仅只是存在一个引用指向父进程中存储的数据地址,每次读取时都是通过引用地址从父进程中读
取数据,而当子进程中要修改数据时才发生真正的拷贝动作,将父进程中的数据拷贝一份,修改完成后再将指向父进程数据的指针改成指向拷贝数据。
当然,写时复制实则也是懒加载、惰性加载思想的产物。
在JUC包中,写时复制容器主要提供了两种:CopyOnWriteArrayList
与CopyOnWriteArraySet
在使用这两个容器时,读操作不会加锁,写操作时则会先获取锁,然后再复制一份原有数据进行修改,修改完成后再修改原有引用指向。
【数据不一致问题】
1、CopyOnWriteArrayList

1.1 内部成员
构造器
java
// 构造器1:初始化长度为0的数组
public CopyOnWriteArrayList() {
setArray(new Object[0]);
}
//构造器2:入参为一个Collection集合对象
public CopyOnWriteArrayList(Collection<? extends E> c) {
Object[] elements;
// 如果传入的Collection对象就是COWL对象则直接拷贝数据
if (c.getClass() == CopyOnWriteArrayList.class)
elements = ((CopyOnWriteArrayList<?>)c).getArray();
// 如果不是
else {
// 将Collection集合对象转换为Object数组
elements = c.toArray();
// 如果调用toArray()后没返回数组
if (elements.getClass() != Object[].class)
// 再次自己copy集合的数据转化为数组
elements = Arrays.copyOf(elements, elements.length, Object[].class);
}
// 赋值给array成员
setArray(elements);
}
// 构造器3:入参为一个数组对象
public CopyOnWriteArrayList(E[] toCopyIn) {
setArray(Arrays.copyOf(toCopyIn, toCopyIn.length, Object[].class));
}
内部类
java
// COWIterator内部类:迭代器。该迭代器不是fail-fast的
static final class COWIterator<E> implements ListIterator<E> {
private final Object[] snapshot;
// 省略其他代码.......
}
// COWSubList内部类:子列表。与ArrayList的子列表同样的作用
private static class COWSubList<E> extends AbstractList<E> implements RandomAccess{}
// COWSubListIterator内部类:子列表的迭代器。
private static class COWSubListIterator<E> implements ListIterator<E> {}
属性
java
private static final long serialVersionUID = 8673264195747942595L;
// ReentrantLock独占锁:用于保证线程安全
final transient ReentrantLock lock = new ReentrantLock();
// volatile修饰的数组:用于存储数据,volatile保证读取可见性
private transient volatile Object[] array;
// array的封装方法
final void setArray(Object[] a) {
array = a;
}
CopyOnWriteArrayList使用ReentrantLock独占锁保证容器整体写操作的安全问题
其内部使用一个volatile关键字修饰的Object类型数组存储数据
同时CopyOnWriteArrayList存在三个内部类,分别为自身的迭代器、子列表以及子列表的迭代器类。
值得注意的是:CopyOnWriteArrayList的迭代器并不是fail-fast的,即代表着当有一条线程在通过迭代器遍历一个CopyOnWriteArrayList对象时,另外一条线程对
该容器进行了写操作,不会对使用迭代器遍历容器的线程产生影响。
而ArrayList容器,迭代器则是fail-fast的,当一条线程使用迭代器遍历数据,另外一条执行修改操作时,迭代器线程会抛出异常。
1.2 get 方法的实现
java
// CopyOnWriteArrayList类 → get()方法
public E get(int index) {
return get(getArray(), index);
}
// CopyOnWriteArrayList类 → get()重载方法
private E get(Object[] a, int index) {
return (E) a[index];
}
get()方法的实现一目了然,无非就是将数组指定下标的元素数据返回了而已
1.3 修改方法的实现
set方法
java
// CopyOnWriteArrayList类 → set()方法
public E set(int index, E element) {
// 获取锁对象并加锁
final ReentrantLock lock = this.lock;
lock.lock();
try {
// 获取内部存储数据的数组成员:array
Object[] elements = getArray();
// 获取数组中指定下标原有的数据
E oldValue = get(elements, index);
// 如果指定下标位置原本存储的数据与新的数据不同
if (oldValue != element) {
// 获取数组的长度
int len = elements.length;
// 拷贝一个新的数组对象
Object[] newElements = Arrays.copyOf(elements, len);
// 将指定下标位置的元素修改为指定的数据
newElements[index] = element;
// 将成员array的引用从原本的数组改为新的数组
setArray(newElements);
} else {
// 如果指定下标位置原本存储的数据与新的数据相同
// 不做任何更改
setArray(elements);
}
// 返回原本下标位置的值
return oldValue;
} finally {
// 释放锁/解锁
lock.unlock();
}
}
set()方法是直接替换的方法,比如指定的下标位置已经有数据的情况下会覆盖之前的数据
该方法需要传递两个参数,第一个参数为下标位置,第二个参数为要设置的数据本身,下面是set方法的执行流程:
- 加锁后获取原本的数组,同时获取指定下标原有的值
- 判断原有值与新值是否相同,相同则不做任何修改
- 老值与新值不同时,先拷贝原有数组内的元素数据,然后将指定下标位置的数据修改为新值,最后将array成员的引用指向新数组并释放锁
- 返回指定下标被替换掉的老值
add方法
java
// CopyOnWriteArrayList类 → add()方法
public void add(int index, E element) {
// 获取锁/加锁
final ReentrantLock lock = this.lock;
lock.lock();
try {
// 获取内部存储数据的数组成员:array
Object[] elements = getArray();
int len = elements.length;
// 如果指定下标位置超出数组长度或小于0则抛出异常
if (index > len || index < 0)
throw new IndexOutOfBoundsException("Index: "+index+", Size: "+len);
// 创建一个新的数组对象
Object[] newElements;
// 计算插入的下标位置是在数组中间还在数组最后
int numMoved = len - index;
// 如果在数组最后,那么拷贝原本的数组并长度+1,留个空位
if (numMoved == 0)
newElements = Arrays.copyOf(elements, len + 1);
// 如果要在数组中间插入数据
else {
// 先创建一个长度为len+1的新数组
newElements = new Object[len + 1];
// 然后将拷贝老数组中的所有数据拷贝过来
// 但是将下标为index的位置空出来
System.arraycopy(elements, 0, newElements, 0, index);
System.arraycopy(elements, index, newElements, index + 1, numMoved);
}
// 将要添加的数据设置到数组的index下标位置
newElements[index] = element;
// 将成员array的引用从原本的数组改为新的数组
setArray(newElements);
} finally {
// 释放锁/解锁
lock.unlock();
}
}
add()方法与set()方法参数是相同的,但区别在于:add方法不会替换指定下标位置之前的老值,而是将新值插入到数组中,执行流程如下:
- 加锁后获取数组数据、数组长度
- 判断要插入数据的下标位置是否超出数组长度+1或小于0,如果是则抛出异常
- 判断要插入数据的下标位置在数组中间还是在数组最后
- 如果是在最后位置插入,那么先创建一个长度+1的新数组,同时拷贝原有数组的所有数据,将要插入的数据添加到数组的最后位置,最后将array成员的引用指向新数组并释放锁
- 如果要插入的下标位置在数组中间,也会先创建一个长度+1的新数组,同时拷贝原有数组的所有数据,但是在拷贝时会将指定下标位置空出来,然后将要插入的数据添加到该位置,最后将array成员的引用指向新数组并释放锁
remove方法
java
// CopyOnWriteArrayList类 → remove()方法
public E remove(int index) {
// 获取锁/加锁
final ReentrantLock lock = this.lock;
lock.lock();
try {
// 拷贝原本的数组
Object[] elements = getArray();
// 获取数组长度与数组中要移除的值
int len = elements.length;
E oldValue = get(elements, index);
// 计算要移除的位置是在数组的最后还是在数组的中间
int numMoved = len - index - 1;
// 如果在数组最后
if (numMoved == 0)
// 拷贝数组时,将最后一个元素不拷贝即可
// 拷贝完成后重新更改引用指向
setArray(Arrays.copyOf(elements, len - 1));
// 如果要移除的位置是在数组中间
else {
// 创建一个长度为原本长度-1的新数组
Object[] newElements = new Object[len - 1];
// 在拷贝数据时,将指定位置的元素不拷贝即可
System.arraycopy(elements, 0, newElements, 0, index);
System.arraycopy(elements, index + 1, newElements, index,
numMoved);
// 更改成员array的引用指向
setArray(newElements);
}
// 返回被移除的值
return oldValue;
} finally {
// 释放锁/解锁
lock.unlock();
}
}
remove()方法是移除容器中数据的方法,该方法需要传入要移除的下标位置,执行流程如下:
- 加锁后获取原本的数组数据及其长度,同时获取指定下标原有的值
- 判断要删除数据的下标位置在数组中间还是在数组最后
- 如果是在数组最后一个位置,则在拷贝数组数据时,不拷贝最后一个元素,完成后将array成员的引用指向新数组并释放锁
- 如果要删除的下标在数组中间位置,那么则先创建一个长度-1的新数组,同时在拷贝数据时,不拷贝指定下标位置的元素数据即可,完成后将array成员的引用指向新数组并释放锁
2、CopyOnWriteArraySet
CopyOnWriteArraySet的底层是CopyOnWriteArrayList,所以不再赘述
java
public class CopyOnWriteArraySet<E> extends AbstractSet<E>
implements java.io.Serializable {
// 内部存储数据的结构
private final CopyOnWriteArrayList<E> al;
// 构造器
public CopyOnWriteArraySet() {
al = new CopyOnWriteArrayList<E>();
}
}
3、总结
关于写时复制的容器,优势比较明显,其内部充分运用了读写分离的思想提升了容器的整体并发吞吐量,以及避免了并发修改抛出异常。
但是也存在两个致命的缺陷:
- 内存占用问题。因为CopyOnWrite容器每次在发生修改时都会复制一个新的数组,所以当数组数据过大时对内存消耗比较高。
- 数据不一致性问题。CopyOnWrite容器保证的是最终一致性,一条线程在执行修改操作,另一条线程在执行读取操作,读取的线程并不能看到最新的数据,就算修改操作执行了setArray()方法将指向改成了新数组,原本读取的线程也不能看到最新的数据。因为读取线程在执行读操作时并不是直接访问成员array完成的,而是通过getArray()方法的形式获取到的数组数据,在getArray()方法执行完成之后,读取数据的线程拿到的引用已经是旧数组的地址了,之后就算修改成员array的指向也不会影响get的访问。
⚠️ CopyOnWrite写时复制容器提升的只是读操作的吞吐量,而整个容器的写操作还是基于同一把独占锁保证的线程安全,所以如果需要频繁执行写操作的场景,
并不适合用CopyOnWrite容器,同时还会因为复制带来的内存、时间开销导致性能下降。
四、锁分段容器(面)
1、HashMap原理回顾
HashMap是基于哈希表结构实现的一个容器,底层是基于数组+单向链表结构实现的,数组长度默认为16,每个数组下标的位置用于存储每个链表的头节点。
而链表的每个节点在JDK1.7中是Entity对象,Entity对象则由key、value以及next向下指针三个元素组成。
在HashMap中,结构采用的是数组+单向链表的形式存储数据(数组的每个位置也被称作为"桶")
使用数组结构存储每个链表的头节点,如果某个数据经过计算后得到下标位置上已经有了数据,那么则追加在链表的尾部。
put原理
- 首先将
key-value
封装成节点对象 - 调用
hashcode()
方法计算出key
的哈希值 - 通过哈希算法将哈希值转换为具体的下标值
- 根据计算出的下标位置将key-value数据进行存储。但在存储前会先判断该下标是否有数据:
- 如果没有:将该数据存储在数组的该下标位置,作为链表头节点
- 如果有:会用key值与链表每个节点的key值比较,如果相同则覆盖,如果全部不同则将数据使用头插法添加到链表的头部(jdk1.8之后是尾插法,追加到链表尾部)
get 原理
- 调用
hashcode()
方法计算出key
的哈希值并计算出具体的下标值 - 通过下标值快速定位到数组的某个位置,首先会判断该位置上是否有数据:
- 如果没有:代表该位置还不存在链表,直接返回null
- 如果有:会用key值与链表每个节点的key值进行比较,相同则获取该节点的数据返回,如果遍历完整个链表后如果还是不存在返回null
⚠️ HashMap重写了equals()方法,因为equals()默认是比较内存地址,而重写后,在HashMap中是比较key值
resize原理
- 前置条件:默认容量=16,负载因子=0.75,阈值 = 容量*负载因子
- 扩容条件:当数组容器中的元素数量达到阈值时,会发生扩容动作
- 扩容实现过程:
- 当容量达到阈值时,创建一个2倍长度的新数组,调用
transfer()
方法迁移数据 - 遍历原本老数组的所有元素(头节点),根据每个头节点循环每个链表,使用头插法将数据转移到新的数组中
- 当容量达到阈值时,创建一个2倍长度的新数组,调用
⚠️ 1.7中因为使用的是头插法,所以在多线程环境下容易导致死循环、数据丢失的问题。
Jdk1.8的改进
JDK1.8中,当链表长度大于8时,链表结构会转换为红黑树结构。
但前提是:当数组长度小于64时,如果有链表的长度大于8了,那么代表着当前数组中的数据哈希冲突比较严重,在这种情况下是不会直接发生红黑树转换的,而
是会先对于数组进行扩容,扩容之后对数据重新进行哈希计算,重新散列分布。
所以其实真正的链表转红黑树的条件是:当数组长度已经超过64并且链表中的元素数量超过默认设定(8个)时,才会将链表转化为红黑树结构。
对比项 | JDK1.7 | JDK1.8 |
---|---|---|
节点类型 | Entry | Node/TreeNode |
存储结构 | 数组+单向链表 | 数组+单向链表/红黑树 |
插入方式 | 头插法 | 尾插法 |
扩容时机 | 先扩容再插入 | 先插入再扩容 |
哈希算法 | 4次位运算+五次异或 | 1次位运算+1次异或 |
插入方式 | 数组+单向链表 | 数组+单向链表/红黑树 |
2、ConcurrentHashMap(1.7-)
2.1 概述

在多线程环境下使用HashMap是线程不安全的,而使用线程安全的HashTable效率又非常低下[全局锁],所以便诞生了ConcurrentHashMap
ConcurrentHashMap中采用了锁分段的技术实现了更细粒度的并发控制,从而提升了容器吞吐
在JDK1.7中,ConcurrentHashMap使用Segment数组+HashEntry数组+单向链表的方式实现。
而Segment继承了ReentrantLock,所以Segment对象也可以作为ConcurrentHashMap中的锁资源使用。结构如下:
如上,ConcurrentHashMap的每个Segment(段)相当于一个HashTable容器【所有的方法都是synchronized的,所以是全局锁】
而Segment数组长度默认为16,但在创建时可以指定段数,必须为2的次幂,如果不为2的次幂则会自优化。
在写入数据时都会分段上锁,每个段之间互不影响。而当有线程读取数据时则不会加锁,但是在一个数据在读的时候发生了修改则会重新加锁读取一次。
🎉 在ConcurrentHashMap的每个段(Segment对象)中都存在一个计数器:volatile修饰的count变量,count表示每个段中的所有HashEntry数组中所有链表的数据总和数量。同时在每个段中还有一个modCount计数器,记录着当前这个段的写入操作次数,主要用于跨段操作时判断段中是否发生了更改操作。
2.2 put() 原理

⚠️ ConcurrentHashMap中不允许key=null,也不允许value=null。 因为如果允许放入null,会产生二义性
2.3 get() 原理
-
根据数据的key值计算hash值,通过哈希值定位到具体的Segment(段)位置【定位段的位置,知道要上那条道去找】
-
再次根据哈希值在段中定位具体的数组位置,获取数组位置上存储的头节点【定位数组的位置,知道具体的位置】
-
根据头节点遍历整个链表,用传入的key值和每个节点的key值进行判断是否相同:【遍历具体位置的冲突链表,判断有没有相等的】
- 相同:返回该节点中存储的value值
- 全部不同:返回null
-
如果key值相同,但读到的value依旧为null时会加锁重读一次【因为ConcurrentHashMap中不允许value=null,所以当存在key,但value为null时可能是出现
了指令重排导致数据暂时为null,所以需要加锁重读一次】
2.4 size 原理
- 先记录所有段的modCount值且统计总和
- 统计所有段中记录元素个数的count成员总和
- 统计完成后再将之前记录的modCount与现在每个段中的modCount进行判断是否相同:
- 相同:代表统计前后没有发生写操作,直接返回求和所有段count的总数
- 不同:代表统计前后发生了写操作,重新再执行①②③步骤重新统计一次(最多执行三次)
- 如果统计三次后,每次统计总和前后都发生了写入操作,则对容器所有段上锁进行统计并返回
3、ConcurrentHashMap(1.8+)
在JDK1.8中,采用了更轻量级的Node数组+链表+红黑树+CAS+Synchronized关键字实现。
3.1 成员属性
java
// Node节点数组,该数组中每个位置要存储的元素为每个链表的头节点
transient volatile Node<K,V>[] table;
// 在扩容时过渡用的table表,扩容时节点会暂时转迁到这个数组
private transient volatile Node<K,V>[] nextTable;
// 计数器值=baseCount+每个CounterCell[i].value。所以baseCount只是计数器的一部分
private transient volatile long baseCount;
// 这个值在不同情况时存放值都不同,主要有如下几种情况:
// 1. 数组没新建时,暂时存储数组容量大小的数值
// 2. 数组正在新建时,该成员为-1
// 3. 数组正常情况时,存放阈值
// 4. 数组扩容时,高16bit存放旧容量唯一对应的一个标签值,低16bit存放进行扩容的线程数量
private transient volatile int sizeCtl;
//扩容时使用,正常情况时=0,扩容刚开始时为容量,代表下一次领取的扩容任务的索引上界
private transient volatile int transferIndex;
//CounterCell相配套一个独占锁
private transient volatile int cellsBusy;
//counterCells也是计数器的一部分
private transient volatile CounterCell[] counterCells;
// 三种特殊的节点哈希值,一个节点正常的哈希值都为>=0的正数
// 此节点是扩容期间的转发节点,这个节点持有新table的引用
static final int MOVED = -1;
// 代表此节点是红黑树的节点
static final int TREEBIN = -2;
// 代表此节点是一个占位节点,不包含任何实际数据
static final int RESERVED = -3;
节点类型
ConcurrentHashMap的节点稍微有些复杂,如下:
- Node:如果数组某个下标位置(桶)的结构为单向链表,那所有数据会被封装成Node节点加入链表中。Node类的value与next指针都为volatile修饰的,保证了写操作的可见性
- TreeNode:如果数组某个下标位置(桶)的结构为红黑树结构,那么其桶内存储的节点则为TreeNode类型,而TreeBin是TreeNode的封装体,用作放在数组下标上作为根节点使用,但TreeBin并不是真正的根节点,根节点为其内部封装的root成员。这样包装的好处在于:因为红黑树随着平衡旋转操作,根节点随时可能发生变化,所以如果直接使用TreeNode作为根节点,数组上的成员会经常变化,而用TreeBin进行封装,可以让数组成员不会发生变化
- ForwardingNode:扩容期间的转发节点,这个节点持有新table的引用
- ReservationNode:占位节点,不包含任何实际数据
3.2 put 原理
put()方法为整个ConcurrentHashMap的核心
java
// ConcurrentHashMap类 → put()方法
public V put(K key, V value) {
// 调用其内部的putVal()方法
return putVal(key, value, false);
}
// ConcurrentHashMap类 → putVal()方法
final V putVal(K key, V value, boolean onlyIfAbsent) {
// ================== 1:初始工作 ==================
if (key == null || value == null) {
throw new NullPointerException(); // // 检查key,value是否为空,如果有为空的,直接抛出空指针
}
// 根据key的原始哈希值计算新的哈希值,目的是为了找到桶
int hash = spread(key.hashCode());
// 代表一个位置下(桶)的节点数量
int binCount = 0;
// 开始遍历整个table数组(Node数组)
for (Node<K,V>[] tab = table; ; ) {
Node<K,V> f;
int n, i, fh;
if (tab == null || (n = tab.length) == 0) {
// 情况1:如果数组还未初始化
// 对数组进行初始化操作
tab = initTable();
} else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
// 情况2:如果通过哈希值计算出的下标位置为null
// 使用CAS机制将现有数据封装成Node节点插入该位置成为头节点
if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value, null))) {
// 插入到空桶(空箱)时不需要上锁,也无法上锁
break;
}
} else if ((fh = f.hash) == MOVED) {
// 情况3:如果计算出的下标位置不为空,但节点的哈希值为MOVED -代表当前位置的桶正在执行扩容操作
// 当前线程执行帮忙扩容操作
tab = helpTransfer(tab, f);
} else {
// 情况4:如果计算出的下标位置不为空,且哈希值不为MOVED
V oldVal = null;
// 以数组下标位置的元素(头节点)作为锁资源上锁
synchronized (f) {
// 加锁成功后要再次检查f是否为头节点
if (tabAt(tab, i) == f) {
// 如果哈希值>=0代表是正常节点
if (fh >= 0) {
// 把binCount=1
binCount = 1;
// 根据头节点遍历整个链表,每遍历一次对binCount+1
for (Node<K,V> e = f;; ++binCount) {
K ek;
// 如果节点的key与传入的key相同
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
// 用新值替换旧值
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
// 停止遍历操作
break;
}
// 如果在整个链表中没有找到key值相同的节点
Node<K,V> pred = e;
// 找到链表尾部
if ((e = e.next) == null) {
// 将传入的数据封装成Node节点插入到链表尾部
pred.next = new Node<K,V>(hash, key,
value, null);
// 插入完成后停止链表遍历操作
break;
}
}
}
// 如果头节点是一个TreeBin类型
// 代表当前位置的结构已经变为了红黑树结构
else if (f instanceof TreeBin) {
Node<K,V> p;
// 把binCount=2,红黑树结构时binCount固定为2
binCount = 2;
// 将传入的k,v,hash值作为参数,调用putTreeVal方法
// putTreeVal方法可能返回两种结果:
// ①在整棵树中没有找到key相同的节点,新建Node插入返回null
// ②找到key相同的节点并返回原本的value值
// 如果找到了key值相同的节点
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key, value)) != null) {
// 用新值替换旧值
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
// 如果binCount!=0,代表着当前线程肯定执行了写入操作
if (binCount != 0) {
// 如果链表节点数量达到了8
if (binCount >= TREEIFY_THRESHOLD)
// 执行扩容操作或链表转红黑树的操作
treeifyBin(tab, i);
// 如果这次put操作仅是新值换旧值,那么返回旧值
if (oldVal != null)
return oldVal;
break;
}
}
}
// 如果本次put是插入操作,那么size增加1
addCount(1L, binCount);
// 并且返回null
return null;
}
/**
* 初始化table
*/
private final Node<K,V>[] initTable() {
// 声明标识
Node<K,V>[] tab;
int sc;
// 再次判断数组有没有初始化,并且复制tab
while ((tab = table) == null || tab.length == 0) {
// 将sizeCtl赋值给sc变量,并且判断是否小于0
if ((sc = sizeCtl) < 0)
Thread.yield(); // 尝试让出线程占用,可能失败
// 可以尝试初始化数组,线程会以CAS的方式,将sizeCtl修改成为-1, 代表当前的线程可以初始化数组
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
// 再次判断当前的数组是不是已经初始化完毕
if ((tab = table) == null || tab.length == 0) {
// 开始进行初始化
// 如果sizeCtl > 0, 就初始化sizeCtl长度的数组
// 如果sizeCtl == 0, 就初始化默认长度16的数组
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
// 初始化数组
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
// 将初始化的数组nt,复制给table & tab
table = tab = nt;
// sc赋值为数组长度 - 数组长度右移2位 n - n / 4
// 作为下次的阈值
sc = n - (n >>> 2);
}
} finally {
// 将复制好的sc,赋值给sizeCtl
sizeCtl = sc;
}
break;
}
}
return tab;
}
可见,复杂的部分都在情况四[put的正常情况],这里给出具体过程:
- 以头节点作为锁资源进行加锁操作,加锁成功后再次判断头节点是否被移除,没有则执行put操作
- 判断头节点的哈希值是否>=0,如果大于等于0说明是普通的链表的头结点,否则是红黑树
如果当前节点是普通的链表头节点
- 将binCount=1
- 根据头节点指针开始遍历整个链表,判断传入的key值是否与链表中节点的key值相同:
- 相同:代表是同一个key值,用新值替换旧值,返回旧值
- 不同:将数据封装成节点对象,使用尾插法插入到链表尾部,返回null
- ⚠️ :在遍历链表时,每遍历一个节点,binCount += 1
- 判断binCount是否>=8,如果是则代表当前链表过长,调用treeifBin方法扩容或树化
- 判断本次put操作是否为新值换旧值:
- 是:返回旧值
- 不是:代表是插入操作,那么对size+1,然后返回null
如果头节点的类型为TreeBin类型,代表当前位置(桶)的结构已经变为了红黑树
- 将binCount=2
- 调用putTreeVal()方法查找整棵树,查看是否有key值相同的节点:
- 有:返回旧值,在外部执行新值换旧值的操作,返回旧值
- 没有:将数据封装成树节点插入到红黑树中,返回null
- 判断本次put操作是否为新值换旧值:
- 是:返回旧值
- 不是:代表是插入操作,那么对size+1,然后返回null
两个疑问?
为什么当计算出的下标位置(桶)元素为空时,不加锁反而使用CAS机制添加元素?
因为1.8之后的ConcurrentHashMap是基于synchronized关键字实现锁机制的,而synchronized是基于对象上锁的,如果下标位置元素为空则代表没有头节点,
那么无法基于头节点进行上锁,所以只能通过CAS机制进行添加,将第一个数据添加到下标位置变为头节点。
binCount这个值,在链表结构的情况下,遍历链表时,每遍历一个节点则binCount自增1,而在红黑树结构时,binCount保持为2,这是为什么?
因为binCount最终的作用是:判断当前位置是否发生扩容或者树化的,而只有链表结构的情况下需要扩容或树化。
3.3 get原理
java
public V get(Object key) {
// 定义相关局部变量
Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
// 通过key的hashcode计算新的哈希值
int h = spread(key.hashCode());
// 如果数组不为空,并且数组已经初始化,并且计算出的具体下标位置不为空
if ((tab = table) != null && (n = tab.length) > 0 &&
(e = tabAt(tab, (n - 1) & h)) != null) {
// 判断头节点的key是否与传入的key相同
if ((eh = e.hash) == h) {
// 相同则直接返回头节点中存储的value值
if ((ek = e.key) == key || (ek != null && key.equals(ek)))
return e.val;
}
// 如果头节点的哈希值小于0,代表当前位置(桶)处于特殊状态,有如下三种:
// ①为ForwardingNode节点:当前在扩容中,需转发到nextTable上查找
// ②为TreeBin节点:代表当前位置是红黑树结构,需要二叉查找
// ③为ReservationNode节点:代表当前槽位之前是null,是占位节点,所以直接返回null
else if (eh < 0)
return (p = e.find(h, key)) != null ? p.val : null;
// 如果头节点为正常节点,那么根据next指针遍历整个链表
while ((e = e.next) != null) {
// 比较每个节点中的key值是否相同,相同则返回节点中的value值
if (e.hash == h &&
((ek = e.key) == key || (ek != null && key.equals(ek))))
return e.val;
}
}
// 在链表中没有找到key值相同的节点则返回null
return null;
}
- 通过传入的key值计算出新的哈希值
- 判断map内部的数组是否为空,是否已经初始化,key所在的位置(桶)是否为空
- 判断计算后的桶位置,头节点是否为要查找的数据,如果是则直接返回头节点的value
- 判断头节点的哈希值是否小于0,如果小于0代表当前位置(桶)处于特殊状态,有三种情况:
- 为ForwardingNode节点:当前在扩容中,需转发到nextTable上查找
- 为TreeBin节点:代表当前位置是红黑树结构,需要二叉查找
- 为ReservationNode节点:代表当前槽位之前是null,是占位节点,所以直接返回null
- 如果头节点为普通的链表节点,那么根据头节点遍历整个链表,判断每个节点中的key是否相同:
- 相同:返回对应节点中的value值
- 遍历完整个链表还找到key值相同的节点,代表没有这个数据,返回null