看图学源码 之 ConcurrentHashMap put、get、remove、clear、扩容等相关方法的源码分析
ConcurrentHashMap
引入
HashMap 的弊端
多线程下是不安全的,是有死循环的
JDK1.7 的时候会使用头插法将新的节点增加到头部,那么就会造成链表翻转成为了闭环,就是所谓的死循环。
JDK1.8之后使用的是尾插法,因此不会造成环形链表,从而不会形成死循环,但是多线程情况下仍然会造成数据的覆盖,导致线程不安全。
使用hashtable 为什么效率不行
hashtable 使用的是 synchronized 来保证线程安全,每次只能有一个线程访问 hashtable 的同步方法,其他线程访问的时候就会进入阻塞或者轮询的状态。这里的synchronized 锁的是一个大的数组,就是说锁的是一个对象整体,所以性能比较差。
这个 类的很多方法和代码都是和HashMap 类似的,但是 为什么不直接继承HashMap ?
原因是ConcurrentHashMap的内部源码中,锁都是在方法内部加的,而非是方法上加的,如果用继承实现,一般只能在方法声明上加锁,而无法在方法内部中加锁
ConcurrentHashMap
使用的是分段式锁,把一个大的数组分为多个小的数组,每个数组都用于一把锁,允许多个修改操作的并发执行。put 数据的时候会根据 hash 来确定具体存放在哪个 segment 中,segment 内部同步的机制是基于Lock 操作的,每个 segment 都会分配一把锁,当线程占用锁访问其中一段数据的时候,其他段的数据也能被其他线程访问。
然而分段锁在不同版本也是有具体实现的区别的
版本对比
1.7中:
HashEntry数组 + Segment数组 + Unsafe 「大量方法运用」+ ReentrantLock
每个segment 数组中存放的元素是:HashEntry数组 + 链表的结果;
每个segment 数组都是继承于可重入锁ReentrantLock
,所以就会带有锁的功能,当线程执行put的时候,只锁住对应的那个 segment 对象,对其他的 Segment 的 get 、put
互不干扰,这样子就提升了效率,做到了线程安全。
ConcurrentHashMap 是如何解决hashmap在put 的时候扩容引起的安全问题
- ConcurrentHashMap 在put的时候进行了两次hash 计算,定位数据的存储位置,尽可能的减少hash冲突的可能性
- 根据计算出来的hash 值会以 Unsafe 调用的方式直接获取对应的 Segment,最后将数据添加到容器中是由segment 对象的put 方法完成
- 由于segment 对象本身就是一把锁,新增数据的时候相应的segment 对象是被锁住的,其他线程并不能操作这个segment对象
- 扩容只是针对 segment 对象中的 HashEntry 数组进行扩容;扩容的时候也是因为segment 对象是一把锁,所以在 rehash 的时候其他线程无法对 segment 的hash 表进行操作,从而解决了hashmap 在put 操作引起的闭环问题
从而保证了数据的安全性
1.8中:
synchronized+CAS+Node+红黑树:synchronized+CAS保证安全性
放弃了HashEntry 的结构,采用了和 HashMap结构相似的Node数组 + 链表的结构,使用synchronized替代了ReentrantLock
synchronized替代了ReentrantLock
- synchronized 是在 Java 语法层面的同步,足够清晰,也足够简单,并且锁的释放不需要程序员手动操作就可触发执行。
- 在粗粒度加锁中 ReentrantLock 可能通过 Condition 来控制各个低粒度的边界,更加的灵活,而在低粒度中,Condition的优势就没有了,所以使用内置的 synchronized ,其效果并不比ReentrantLock差。
成员变量
最大的 table 容量
private static final int MAXIMUM_CAPACITY = 1 << 30;
默认的 table 容量
private static final int DEFAULT_CAPACITY = 16;
支持的最大的map 的大小
static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
并发更新的线程数量
private static final int DEFAULT_CONCURRENCY_LEVEL = 16;
负载因子
private static final float LOAD_FACTOR = 0.75f;
树化的链表长度的阈值
static final int TREEIFY_THRESHOLD = 8;
取消树化的链表长度的阈值
static final int UNTREEIFY_THRESHOLD = 6;
树化的数组长度临界值
static final int MIN_TREEIFY_CAPACITY = 64;
扩容期间 并发转移节点 (transfer()方法执行的) 的最小节点数,默认的线程迁移数据范围
private static final int MIN_TRANSFER_STRIDE = 16;
生成标记的位数。对于 32 位数组,必须至少为 6
private static int RESIZE_STAMP_BITS = 16;
可以帮助调整大小的最大线程数。必须适合 32 - RESIZE_STAMP_BITS 位。
private static final int MAX_RESIZERS = (1 << (32 - RESIZE_STAMP_BITS)) - 1;
sizeCtl 中记录大小标记的位移位
private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;
记录节点的状态
static final int MOVED = -1; // hash for forwarding nodes 移动
static final int TREEBIN = -2; // hash for roots of trees 树
static final int RESERVED = -3; // hash for transient reservations 转化状态
static final int HASH_BITS = 0x7fffffff; // usable bits of normal node hash
CPU核心数
static final int NCPU = Runtime.getRuntime().availableProcessors();
/** For serialization compatibility. */
private static final ObjectStreamField[] serialPersistentFields = {
new ObjectStreamField("segments", Segment[].class),
new ObjectStreamField("segmentMask", Integer.TYPE),
new ObjectStreamField("segmentShift", Integer.TYPE)
};
存储数据的 table 数组
transient volatile Node<K,V>[] table;
扩容之后的 新的table 数组
private transient volatile Node<K,V>[] nextTable;
统计节点的个数,和 CounterCell[] counterCells 结合用于计算concurrentHashMap的size
private transient volatile long baseCount;
可以进行控制数组 初始化和扩容,初始化之后赋值为扩容的阈值
当初始化大小被指定了的时候,这会将这个大小保存在sizeCt1中,大小为数组的0.75
当为负值时,表正在被初始化或调整大小
初始化数组的时候为 -1,
活动的扩容的线程数为-(1+n) n:表示活动的扩容线程
当table为null时,保留创建时使用的初始表大小,默认为0。
当为正值时:记录下一次需要扩容的大小。为3/4数组最大长度,扩容的阈值
private transient volatile int sizeCtl;
/**
*transient 关键字表示该字段不会被序列化,即在对象被序列化为字节流时,该字段的值不会被包含在字节流中。
volatile 关键字表示该字段是可见的,即对该字段的读取和写入操作都是原子的,并且对该字段的写入操作会立即刷新到主内存中,而不会被缓存。
这样可以确保多个线程之间对 transferIndex 的操作是同步的,避免了数据不一致性和竞态条件的问题。
*/
调整大小(resizing)过程中确定下一个要拆分的表索引(加一)的字段。
private transient volatile int transferIndex;
用于计算concurrentHashMap的size时需要加cas锁的标记
private transient volatile int cellsBusy;
用于计算concurrentHashMap的size 默认长度是2
private transient volatile CounterCell[] counterCells;
构造器
构造器
public ConcurrentHashMap() {
}
// 有参构造器最后的长度为 传入长度 *3/2 + 1 的最接近的 2 的幂次方
含参构造器
public ConcurrentHashMap(int initialCapacity) {
if (initialCapacity < 0)
throw new IllegalArgumentException();
int cap = ((initialCapacity >= (MAXIMUM_CAPACITY >>> 1)) ?
MAXIMUM_CAPACITY :
tableSizeFor(initialCapacity + (initialCapacity >>> 1) + 1));
this.sizeCtl = cap;
}
/**
* 置为 >= c 的最小 2 次幂
*/
private static final int tableSizeFor(int c) {
int n = c - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
public ConcurrentHashMap(Map<? extends K, ? extends V> m) {
this.sizeCtl = DEFAULT_CAPACITY;
putAll(m);
}
public ConcurrentHashMap(int initialCapacity, float loadFactor) {
this(initialCapacity, loadFactor, 1);
}
public ConcurrentHashMap(int initialCapacity, float loadFactor, int concurrencyLevel) {
if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)
throw new IllegalArgumentException();
if (initialCapacity < concurrencyLevel) // Use at least as many bins
initialCapacity = concurrencyLevel; // as estimated threads
long size = (long)(1.0 + (long)initialCapacity / loadFactor);
int cap = (size >= (long)MAXIMUM_CAPACITY) ?
MAXIMUM_CAPACITY : tableSizeFor((int)size);
this.sizeCtl = cap;
}
HashMap 只能使用在单线程下,所以不会有二义性的问题,并且会有
containsKey()
判断元素是不是存在的,所以key可以是null但是 ConcurrentHashMap 会有二义性的问题,所以value不可以是null,但是源码中将 key == null 也进行了判断,所以key也不可以是null
if (key == null || value == null) throw new NullPointerException();
put
public V put(K key, V value) {
return putVal(key, value, false);
}
putVal
hash值:
1、大于等于0
表示节点下面是一个链表
2、如果是-1
,表明节点正在迁移
3、都不是
,那么节点后面是一个红黑树sizeCtl的值
1、
sizeCtl < 0
,表正在被初始化或调整大小? 1.1、
-1
表示数组正在 初始化数组,? 1.2、
-(1+n)
表示扩容的线程数量 (n:表示活动的扩容线程
)2、默认值是
0
,当table=null
时,保留创建时使用的初始表大小。3、
sizeCtl > 0
时: 表示记录下一次需要扩容的阈值3/4*n(n:数组长度)
/** Implementation for put and putIfAbsent */
final V putVal(K key, V value, boolean onlyIfAbsent) {
键和值都不能为空 否则抛出空指针异常
if (key == null || value == null) throw new NullPointerException();
计算key的hash值,两次 hash 计算
int hash = spread(key.hashCode());
/*
第一次: hashCode key为Object, 重写的hashcode方法
第二次: static final int spread(int h) {
return (h ^ (h >>> 16)) & HASH_BITS); // static final int HASH_BITS = 0x7fffffff;
}
*/
int binCount = 0;
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
初始化数组
if (tab == null || (n = tab.length) == 0)
tab = initTable();
找到当前值应该存放的位置的值是不是 null
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
/*
获取给定索引位置上的数组元素
static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) {
((long)i << ASHIFT) + ABASE是用于计算给定索引位置上的元素在数组中的偏移量。
ASHIFT和ABASE是常量,用于优化计算偏移量的操作。
return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);
}
*/
如果计算出的数组位置的node为null 直接用cas进行替换即可
// 在指定位置的节点数组中执行 CAS 操作,将期望值替换为新值。
if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value, null)))
/*
tab 是一个节点数组,i 是数组中的索引位置,c 是期望的节点值,v 是新的节点值
static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i, Node<K,V> c, Node<K,V> v) {
// compareAndSwapObject 比较指定内存位置的值是否等于期望值 c,如果相等则将该位置的值替换为新值 v,并返回操作结果。
将索引 i 左移 ASHIFT 位,并加上 ABASE,计算出需要进行 CAS 操作的内存位置
return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);
}
*/
break; // no lock when adding to empty bin
}
判断当前节点是不是正在迁移
else if ((fh = f.hash) == MOVED)
是就 进行协助 迁移
tab = helpTransfer(tab, f);
不在迁移状态
else {
V oldVal = null;
// 对当前节点进行加锁
synchronized (f) {
// 进行一次验证,防止当前值被其他线程进行变动,值发生了变化
if (tabAt(tab, i) == f) {
//未发生变动,fh f的hash 值 > 0 ,此时表示为链表状态
if (fh >= 0) {
链表 // 设置bitCount 为 1
binCount = 1;
// 遍历链表
for (Node<K,V> e = f;; ++binCount) {
K ek;
// 判断 key 是不是一样的
if (e.hash == hash && ((ek = e.key) == key || (ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent) // onlyIfAbsent 表示是不是要进行覆盖,要是fasle 进行覆盖
e.val = value;
break; // 否则退出循环
}
Node<K,V> pred = e;
// 要是e 的 下一个是 null,表示遍历到链表尾部, 就创建新的节点并插入,随后退出循环 e = e.next 并将 e 进行后移
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key, value, null);
break;
}
}
}
// 未出现变化,此时判断要不要进行树化
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
树 // 设置bitCount 为 2
// 也就是存在key相同的并且然后根据红黑树的规则添加到树中
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent) // 允许被覆盖就覆盖旧的值 ,onlyIfAbsent = false 就 更新此节点的值
p.val = value;
}
}
}
}
是树或者是链表
if (binCount != 0) {
要是超过 树化阈值(8) 就进行树化,并返回旧值
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
addCount(1L, binCount); //进行增加元素个数,并判断要不要扩容
return null;
}
initTable
作用是在初始化哈希表时,确保只有一个线程进行初始化操作,并创建一个初始的节点数组。
private final Node<K,V>[] initTable() {
Node<K,V>[] tab; int sc;
while ((tab = table) == null || tab.length == 0) {
<0 表示有其他线程正在进行初始化 ,此时当前线程 礼让等待
if ((sc = sizeCtl) < 0)
Thread.yield();
>= 0 把么就 cas 的方式 将 sc置为 -1
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
cas 成功的话,表示当前线程拥有hash表的操作权限
try {
判空,进行初始化
if ((tab = table) == null || tab.length == 0) {
确定新的数组长度n(如果sc = sizeCtl大于0,则为sizeCtl,否则为默认容量DEFAULT_CAPACITY)
int n = (sc > 0) ? sc : DEFAULT_CAPACITY; // 16
@SuppressWarnings("unchecked")
初始化 Node 数组
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = tab = nt;
计算新的sizeCtl值, sc = n * 3/4
sc = n - (n >>> 2); // 设置 sc = n * 3/4
}
} finally {
赋值 扩容的阈值
sizeCtl = sc;
}
break;
}
}
返回tab数组
return tab;
}
helpTransfer
帮助进行数组转移,通过判断条件和执行相应的操作来实现数组的扩容和数据的迁移。
final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
Node<K,V>[] nextTab; int sc;
//传入的表格数组tab不为空 && 传入的节点f是一个转发节点(ForwardingNode) && 转发节点的下一个数组nextTab也不为空
// 判断是否需要进行扩容和数据迁移。
if (tab != null && (f instanceof ForwardingNode) &&(nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
// 根据当前哈希表的长度计算出一个扩容标记rs
int rs = resizeStamp(tab.length) << RESIZE_STAMP_SHIFT;
//nextTab等于nextTable && table等于tab && sizeCtl < 0。
tab != null:判断变量 tab 是否不为 null,即检查当前的哈希表是否已经存在。
(f instanceof ForwardingNode):判断变量 f 是否是 ForwardingNode 类型的实例。ForwardingNode 是用于表示正在进行扩容操作的特殊节点。
强制将 f 转换为 ForwardingNode 类型,并判断其 nextTable 是否不为 null。nextTable 表示扩容后的新哈希表
while (nextTab == nextTable && table == tab &&(sc = sizeCtl) < 0) {
// 中断循环。 sc等于rs + MAX_RESIZERS、sc等于rs + 1、transferIndex小于等于0。
// 进行数据迁移的准备工作,并执行数据迁移操作
sc == rs + 1 表示当前线程是扩容操作的发起者。
sc == rs + MAX_RESIZERS 已经达到了最大的扩容线程数,当前线程不能参与扩容操作。
transferIndex <= 0 表示当前扩容操作已经迁移完成或者还未开始迁移,当前线程应该退出循环。
if (sc == rs + MAX_RESIZERS || sc == rs + 1 || transferIndex <= 0)
break;
// cas 增加sizeCtl的值 成功 且 不满足上述的条件, 进行转移 并 中断循环
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
transfer(tab, nextTab);
break;
}
}
return nextTab;
}
//如果不需要进行扩容和数据迁移,则返回原始的哈希表table。
return table;
}
transfer
用于并发扩容哈希表的迁移操作,确保在多线程环境下,能够正确地将旧的哈希表中的元素迁移到新的扩容后的哈希表中。
// 在扩容时将元素从旧的数组转移到新的数组中。
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
int n = tab.length, stride;
// 根据当前数组的长度和处理器核心数,计算出每个线程需要处理的元素数量。
//根据cpu数量计算一个线程迁移的范围 默认是16;也就是说一个容量为32的旧数组 第一个线程第一次迁移的范围应该是16-31
// stride表示每个线程处理的元素数量。如果线程数大于1,则将哈希表长度的1/8除以线程数,否则设为哈希表长度。
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE; // subdivide range
//如果nextTab为空,表示扩容刚开始。需要初始化一个新的哈希表。
if (nextTab == null) { // initiating
try {
@SuppressWarnings("unchecked")
//创建一个新的数组,并将其赋值给nextTab。 容量是原来的两倍
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
sizeCtl = Integer.MAX_VALUE;
return;
}
nextTable = nextTab;
//transferIndex表示数据迁移的开始索引 默认是从原数组的末尾开始迁移
transferIndex = n;
}
//获取新哈希表的长度,并创建一个ForwardingNode节点,表示已迁移的节点。advance和finishing用于控制迁移的进程。
int nextn = nextTab.length;
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
//当 advance 为 true 时,表示继续进行数据迁移。当 advance 为 false 时,表示停止数据迁移。
boolean advance = true;
boolean finishing = false; // to ensure sweep before committing nextTab
//循环遍历旧哈希表的每个元素。i表示当前元素的索引,bound表示当前线程需要处理的元素的上限。advance控制是否继续迁移。
for (int i = 0, bound = 0;;) {
Node<K,V> f; int fh;
//下面 这三个判断都是判断当前线程是否完成自己范围内要迁移的数据; 如果完成了直接设置 advance = false 跳出while循环
while (advance) {
int nextIndex, nextBound;
// 这表示要么已经迭代到了边界之外,要么已经完成了迭代。
if (--i >= bound || finishing)
advance = false;
//没有需要迁移的节点,即没有进行数据迁移的工作。
else if ((nextIndex = transferIndex) <= 0) {
i = -1;
advance = false;
}
// 成功更新了迁移索引,并更新了边界和迭代变量。
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
bound = nextBound;
i = nextIndex - 1;
advance = false;
}
}
//如果i超出了索引范围,表示迁移完成。
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
//如果finishing为true,表示迁移已经完成,更新哈希表的相关变量并返回。如果已经扩容完成 将新数组赋值给table
if (finishing) {
nextTable = null;
table = nextTab;
sizeCtl = (n << 1) - (n >>> 1);
return;
}
//否则,cas 的 将sizeCtl减1,表示迁移进入完成阶段。
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
// 表示已经迁移完成
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
return;
finishing = advance = true;
i = n; // recheck before commit
}
}
//如果是空的节点 直接cas替换为fwd节点 如果节点是fwd 也就是MOVE类型的节点 证明节点上有线程正在迁移
else if ((f = tabAt(tab, i)) == null)
advance = casTabAt(tab, i, null, fwd);
//表示该位置已经处理过,直接继续遍历下一个位置。
else if ((fh = f.hash) == MOVED)
advance = true; // already processed
//如果元素的哈希值大于等于0,表示是普通节点,需要进行处理:
else {
synchronized (f) { // 同步锁保证只有一个线程可以处理该节点
// 根据节点的哈希值和新数组的长度,确定该节点在新数组中的位置。
if (tabAt(tab, i) == f) {
Node<K,V> ln, hn;
if (fh >= 0) {
int runBit = fh & n;
Node<K,V> lastRun = f;
// 将该节点拆分为两个链表(低位链表和高位链表),并将它们放入新数组的对应位置。
for (Node<K,V> p = f.next; p != null; p = p.next) {
int b = p.hash & n;
if (b != runBit) {
runBit = b;
lastRun = p;
}
}
if (runBit == 0) {
ln = lastRun;
hn = null;
}
else {
hn = lastRun;
ln = null;
}
for (Node<K,V> p = f; p != lastRun; p = p.next) {
int ph = p.hash; K pk = p.key; V pv = p.val;
if ((ph & n) == 0)
// 构建低位链表
ln = new Node<K,V>(ph, pk, pv, ln);
else
//构建高位链表
hn = new Node<K,V>(ph, pk, pv, hn);
}
//将低位链表放在新数组的原下标位置
setTabAt(nextTab, i, ln);
//将高位链表放在新数组下标为 (原下标位置 + 原容量大小)的位置
setTabAt(nextTab, i + n, hn);
//将旧数组的位置设置为fwd节点 表示该节点已经迁移数据
setTabAt(tab, i, fwd);
advance = true;
}
// 如果是树节点,则将树节点转换为链表节点,并将链表节点放入新哈希表的对应位置。
else if (f instanceof TreeBin) {
// 同样进行数据的高低位链表计算
TreeBin<K,V> t = (TreeBin<K,V>)f;
TreeNode<K,V> lo = null, loTail = null;
TreeNode<K,V> hi = null, hiTail = null;
int lc = 0, hc = 0;
// 循环遍历了原数组中的每个元素,并根据其哈希值的特征,将元素分别放入新数组的对应位置
for (Node<K,V> e = t.first; e != null; e = e.next) {
int h = e.hash;
TreeNode<K,V> p = new TreeNode<K,V>
(h, e.key, e.val, null, null);
// 如果哈希值在某一位上为0,则将元素放入低位链表(lo)中;如果哈希值在某一位上为1,则将元素放入高位链表(hi)中。
if ((h & n) == 0) {
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
}
else {
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
// 如果迁移后的高低位链表长度小于6(UNTREEIFY_THRESHOLD) 那么会把原来的数结构变成链表结构
// 根据计数的阈值条件,决定是否将链表转换为树结构 或者 树结构转换为链表结构
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new TreeBin<K,V>(lo) : t;
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new TreeBin<K,V>(hi) : t;
// 将低位链表放在新数组的原下标位置
setTabAt(nextTab, i, ln);
// 将高位链表放在新数组下标为 (原下标位置 + 原容量大小)的位置
setTabAt(nextTab, i + n, hn);
//将旧数组的位置设置为fwd节点 表示该节点已经迁移数据
setTabAt(tab, i, fwd);
advance = true;
}
}
}
}
}
}
treeifyBin
//用于将哈希表中的一个索引位置的链表转换为红黑树
private final void treeifyBin(Node<K,V>[] tab, int index) {
Node<K,V> b; int n, sc;
if (tab != null) {
if ((n = tab.length) < MIN_TREEIFY_CAPACITY) // < 64
tryPresize(n << 1); // 尝试扩容
// 如果哈希表在指定索引位置上的节点存在,并且节点的哈希值大于等于0,
else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
synchronized (b) { // 加锁树化 使用了同步锁来保证线程安全。
if (tabAt(tab, index) == b) {
//红黑树节点的左右子节点初始化为 null。
TreeNode<K,V> hd = null, tl = null;
// 遍历原链表上的每个节点,将每个节点转换为红黑树节点,并构建红黑树结构。
for (Node<K,V> e = b; e != null; e = e.next) {
//对当前节点 进行 树化,创建树节点
// 首先创建一个新的红黑树节点 p,并将链表节点的关键字和值复制到红黑树节点中。
TreeNode<K,V> p = new TreeNode<K,V>(e.hash, e.key, e.val,null, null);
// 创建的树的前一个节点 == null p就是头结点
//将红黑树节点的 prev 指针指向当前红黑树的最后一个节点 tl。
if ((p.prev = tl) == null)
//如果 tl 为 null,说明链表为空,将头节点 hd 设置为当前红黑树节点 p。
hd = p;
else
// 否则的话就加到 尾节点上
// 否则,将当前红黑树节点 p 设置为 tl 节点的下一个节点。
tl.next = p;
// 为节点是 p 将当前红黑树节点 p 设置为最后一个节点 tl,完成节点的串联。
tl = p;
}
//TreeBin 类中进行 左旋 右旋 等树化操作
// 将转换后的红黑树替换原链表在指定索引位置上的节点
// 调用setTabAt 方法将转换后的红黑树节点数组更新到指定的位置 index。
setTabAt(tab, index, new TreeBin<K,V>(hd));
}
}
}
}
}
tryPresize
数组长度< 64 的时候就进行扩容
// 用于动态调整哈希表的大小,以适应不同的负载情况
private final void tryPresize(int size) {
// 首先判断给定的大小是否超过了最大容量的一半,如果是,则将容量设置为最大容量;否则,调用tableSizeFor方法计算出新的容量大小。
int c = (size >= (MAXIMUM_CAPACITY >>> 1)) ? MAXIMUM_CAPACITY :
tableSizeFor(size + (size >>> 1) + 1); //找到不小于期望大小的最小的 2 的幂次方值
int sc;
// sizeCtl大于等于0
while ((sc = sizeCtl) >= 0) {
Node<K,V>[] tab = table; int n;
// 首先判断当前哈希表是否为空或者长度为0
if (tab == null || (n = tab.length) == 0) {
// 如果是,则将容量设置为sc和c中的较大值,
n = (sc > c) ? sc : c;
// 尝试使用原子操作将sizeCtl的值从sc修改为-1。
if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
if (table == tab) {
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = nt;
sc = n - (n >>> 2);
}
} finally {
sizeCtl = sc;
}
}
}
扩容的目标大小c大于sizeCtl,并且当前table数组与tab相等
else if (c <= sc || n >= MAXIMUM_CAPACITY)
break;
// 如果哈希表不为空且长度不为0,并且c大于sc并且当前长度没有达到最大容量,
else if (tab == table) {
// 计算出一个调整大小的戳记rs
int rs = resizeStamp(n);
// 如果sc小于0
if (sc < 0) {
Node<K,V>[] nt;
//则进行扩容操作
//首先判断sc是否与戳记rs相等,以及其他一些条件是否满足,如果满足则进行扩容操作。
// sc >>> RESIZE_STAMP_SHIFT) != rs 如果不相等,表示其他线程已经开始了新一轮的扩容操作
// sc == rs + 1 表示当前线程是扩容操作的发起者。
// sc == rs + MAX_RESIZERS 已经达到了最大的扩容线程数,当前线程不能参与扩容操作。
// (nt = nextTable) == null 扩容操作已经完成,当前线程应该退出循环。
// transferIndex <= 0 表示当前扩容操作已经迁移完成或者还未开始迁移,当前线程应该退出循环。
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
transferIndex <= 0)
break;
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
transfer(tab, nt);
}
//否则进行缩小容量的操作。
//使用原子操作将sc的值修改为(rs << RESIZE_STAMP_SHIFT) + 2,并进行数据迁移操作。 表示当前线程正在进行扩容操作
else if (U.compareAndSwapInt(this, SIZECTL, sc,
(rs << RESIZE_STAMP_SHIFT) + 2))
transfer(tab, null);
}
}
}
addCount
// 添加到计数中,如果表太小且尚未调整大小,则启动传输。如果已经调整大小,则在有工作可用时帮助执行转移。转移后重新检查占用情况,以查看是否需要再次调整大小,因为调整大小是滞后的添加。
private final void addCount(long x, int check) { // check>0 表示扩容添加,否则非添加
// 这里采用CounterCell数组的方式来缓解cas计算count的压力
CounterCell[] as; long b, s;
/*
变量说明:
as:表示 counterCells 数组,用于存储计数器的单元格。
U:是一个用于执行原子操作的工具类。
BASECOUNT:表示 baseCount 字段的偏移量,用于在内存中定位该字段。
b:表示当前的 baseCount 值。
s:表示计数操作后的新的 baseCount 值。
CounterCell:是一个用于存储计数器值的单元格。
v:表示单元格中的计数器值。
m:表示 counterCells 数组的长度减 1。
uncontended:表示计数操作是否存在竞争的标志。
*/
//首先检查计数器是否使用了数组来存储计数值(counterCells),如果是,则使用原子操作增加计数值
//对baseCount进行cas操作 如果成功 那么直接返回 失败的话 就走下面的逻辑
if ((as = counterCells) != null ||
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
CounterCell a; long v; int m;
boolean uncontended = true;
//如果增加失败,或者计数器没有使用数组存储计数值,或者数组中的某个单元格被占用,则调用 fullAddCount 方法来处理增加计数的逻辑
if (as == null || (m = as.length - 1) < 0 ||
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
!(uncontended = U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
fullAddCount(x, uncontended);
/*这里return 的原因:
是为了避免频繁地进行数组的扩容操作。如果每次执行CAS操作失败都立即进行扩容检查,会增加额外的开销,并且可能导致扩容操作频繁进行,影响性能。
相反,将失败的情况交给fullAddCount()方法处理,可以在该方法中根据具体的情况来判断是否需要进行数组的扩容操作。这种延迟扩容的方式可以在一定程度上减少不必要的扩容操作,提高性能。
*/
return;
}
// 只有一个或没有计数存在
if (check <= 1)
return;
s = sumCount();
}
//它通过 check 参数控制是否需要进行表格扩容。
// 如果 check 大于等于 0
if (check >= 0) {
Node<K,V>[] tab, nt; int n, sc;
//则会检查 当前计数值 s 是否超过了 sizeCtl 的值,并且表格 table 不为 null,并且表格长度小于最大容量。
while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
(n = tab.length) < MAXIMUM_CAPACITY) {
int rs = resizeStamp(n) << RESIZE_STAMP_SHIFT;
if (sc < 0) {
//sc 是否等于 rs + MAX_RESIZERS 或者 rs + 1,或者 nextTable 为 null,或者 transferIndex 小于等于 0
if (sc == rs + MAX_RESIZERS || sc == rs + 1 ||
(nt = nextTable) == null || transferIndex <= 0)
break;
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
// 会调用 transfer 方法来进行表格扩容。
transfer(tab, nt);
}
else if (U.compareAndSwapInt(this, SIZECTL, sc, rs + 2))
transfer(tab, null);
s = sumCount();
}
}
}
fullAddCount
和Atomic 类源码浅析二(cas + 分治思想的原子累加器)文章 中的 striped64中的 longAccumulate 类似
private final void fullAddCount(long x, boolean wasUncontended) {
int h;
// 获取当前线程的探针;如果h的值为0,表示当前线程的probe尚未初始化
if ((h = ThreadLocalRandom.getProbe()) == 0) {
ThreadLocalRandom.localInit(); // 通过ThreadLocalRandom.localInit()强制进行初始化
// 然后再次获取h的值,同时将wasUncontended的值设为true,表示当前线程是未争用的。
h = ThreadLocalRandom.getProbe();
//将 wasUncontended 的值设为 true,表示当前线程是未争用的。
wasUncontended = true;
}
boolean collide = false; // True if last slot nonempty
for (;;) {
CounterCell[] as; CounterCell a; int n; long v;
// 第一次进入方法counterCells肯定是 null 所以不会走这个if的逻辑
//判断计数器的数组counterCells是否为空,以及数组的长度n是否大于0。如果满足条件,进入下一步判断。
if ((as = counterCells) != null && (n = as.length) > 0) {
// 当前线程所用CounterCell数组下标的值为null
// 尝试获取数组中指定位置的计数器a。如果a为null,表示该位置为空,可以尝试创建新的计数器。
if ((a = as[(n - 1) & h]) == null) {
// 没有加锁
if (cellsBusy == 0) { // Try to attach new Cell
CounterCell r = new CounterCell(x); // Optimistic create
//加锁
if (cellsBusy == 0 &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
boolean created = false;
try { // Recheck under lock
CounterCell[] rs; int m, j;
// 加锁之后再次检查指定位置是否为空 数组初始化过了 && 当前位置的值不是null
if ((rs = counterCells) != null &&
(m = rs.length) > 0 &&
rs[j = (m - 1) & h] == null) {
//将新的计数器 r 放置在计数器数组的指定位置 j,并将 created 的值设为 true,表示成功创建了新的计数器。
rs[j] = r;
created = true;
}
} finally {
//解锁
cellsBusy = 0;
}
// 计数器增加操作完成,跳出循环。
if (created)
break;
continue; // Slot is now non-empty
}
}
collide = false;
}
//如果指定位置的计数器a不为空,表示该位置已经有计数器存在。
//会根据wasUncontended的值来判断是否已经尝试过CAS操作。
//如果wasUncontended为false,表示之前尝试过CAS操作失败,发生了竞争;会将wasUncontended设为true,以便下次使用,之后继续循环
else if (!wasUncontended) // CAS already known to fail
wasUncontended = true; // Continue after rehash
// 尝试使用 CAS 操作将计数器 a 的值增加 x。如果 CAS 操作成功,即成功将计数器的值增加了 x,则跳出循环,完成计数器增加操作。
else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
break;
//如果CAS操作失败,代码会继续判断计数器数组是否发生变化,以及数组的长度是否达到处理器数量最大值。
//如果发生了变化或达到最大值,表示计数器数组已经无法继续扩容,将collide设为false,表示不再尝试扩容
else if (counterCells != as || n >= NCPU)
collide = false; // At max size or stale
else if (!collide)
collide = true;
//如果collide为true,表示之前已经发生过碰撞(即CAS操作失败),并且当前没有其他线程在操作计数器数组,代码会尝试获取操作计数器数组的锁。
//加锁
else if (cellsBusy == 0 &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
try {
//如果成功获取锁,进行数组的扩容操作。
if (counterCells == as) {// Expand table unless stale
// 对counterCells进行扩容 扩容为原来的2倍
CounterCell[] rs = new CounterCell[n << 1];
// 原数组as中的元素复制到新数组rs中。
for (int i = 0; i < n; ++i)
rs[i] = as[i];
// 将collide设为false,表示不再尝试扩容。
// 将新数组赋值给counterCells字段,以扩展计数器数组的大小。
counterCells = rs;
}
} finally {
cellsBusy = 0;
}
collide = false;
//扩容成功 进入下一次循环
continue; // Retry with expanded table
}
h = ThreadLocalRandom.advanceProbe(h);
}
//首次进入方法 肯定是0 而且counterCells没有初始化 应该是null
// 以cas的方式进行加锁 保证只有一个线程来进行初始化
// 进行计数器数组初始化时,如果当前没有其他线程在操作计数器数组,并且成功获取到操作计数器数组的锁
else if (cellsBusy == 0 && counterCells == as &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
boolean init = false;
try { // Initialize table
// 如果 counterCells 等于 as,则创建一个长度为 2 的 CounterCell 数组 rs。在 rs 数组的索引位置 h & 1 处创建一个新的 CounterCell 对象,并将其赋值给 rs 数组。
if (counterCells == as) {
//默认创建一个大小为2的数组 并且为当前线程
CounterCell[] rs = new CounterCell[2];
// 将新创建的计数器CounterCell赋值给新数组rs的指定位置
rs[h & 1] = new CounterCell(x);
//初始化当前线程需要的数组下标的CounterCell
counterCells = rs;
init = true;
}
} finally {
cellsBusy = 0;
}
if (init)
break;
}
//最后如果还是没有计算成功 那么cas加到baseCount中
else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
break; // Fall back on using base
}
}
sumCount
final long sumCount() {
//它首先将counterCells数组赋值给as,
CounterCell[] as = counterCells; CounterCell a;
//然后将baseCount赋值给sum。
long sum = baseCount;
//如果as不为null,
if (as != null) {
//就会遍历as数组,并将每个元素的value值累加到sum中
for (int i = 0; i < as.length; ++i) {
if ((a = as[i]) != null)
sum += a.value;
}
}
// 返回计算得到的总和sum
return sum;
}
get
public V get(Object key) {
Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
int h = spread(key.hashCode());
// 数组值不是 null 并且 该元素存在
if ((tab = table) != null && (n = tab.length) > 0 &&
(e = tabAt(tab, (n - 1) & h)) != null) {
// 是数组
if ((eh = e.hash) == h) {
if ((ek = e.key) == key || (ek != null && key.equals(ek)))
return e.val;
}
// 表示节点 e 是一个链表或树的根节点
else if (eh < 0)
return (p = e.find(h, key)) != null ? p.val : null;
// 节点 e 是一个链表的非根节点,那么通过循环遍历链表中的每个节点进行查找:
while ((e = e.next) != null) {
//如果节点 e 的哈希值与给定哈希值 h 相等,并且节点 e 的键与给定键 key 相等(或者键 ek 不为 null 且与给定键 key 相等)
if (e.hash == h && ((ek = e.key) == key || (ek != null && key.equals(ek))))
// 返回节点 e 的值 val
return e.val;
}
}
return null;
}
find
Node
Node<K,V> find(int h, Object k) {
Node<K,V> e = this;
//如果键值 k 不为 null,则进入循环。
if (k != null) {
do {
K ek;
//在循环中,首先将节点 e 的哈希值与给定哈希值 h 进行比较,然后继续执行以下操作:
if (e.hash == h &&((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
//节点后移,直到return
} while ((e = e.next) != null);
}
return null;
}
ForwardingNode
// 哈希表中查找给定哈希值h和键k对应的节点。它使用了循环来避免在转发节点上出现任意深度的递归
Node<K,V> find(int h, Object k) {
// loop to avoid arbitrarily deep recursion on forwarding nodes
outer: for (Node<K,V>[] tab = nextTable;;) {
Node<K,V> e; int n;
//找不到 返回 null
if (k == null || tab == null || (n = tab.length) == 0 ||
(e = tabAt(tab, (n - 1) & h)) == null)
return null;
for (;;) {
int eh; K ek;
//匹配到key 直接返回 e
if ((eh = e.hash) == h && ((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
// 迁移 或者 是 树
if (eh < 0) {
// 是 迁移节点 将转发节点的下一个数组赋值给变量 tab,并继续外部循环跳到标签 outer 处)
if (e instanceof ForwardingNode) {
tab = ((ForwardingNode<K,V>)e).nextTable;
continue outer;
}
else
// 调用树的方法找节点
return e.find(h, k);
}
// 节点后移,直到结尾,都找不到 返回 null
if ((e = e.next) == null)
return null;
}
}
}
TreeBin
// 在红黑树中查找指定哈希值和键对应的节点
final Node<K,V> find(int h, Object k) {
// k 存在
if (k != null) {
// 遍历节点
for (Node<K,V> e = first; e != null; ) {
int s; K ek;
//判断当前对象的 lockState 的值是否为 WAITER 或 WRITER,即是否有其他线程在等待或持有写锁
if (((s = lockState) & (WAITER|WRITER)) != 0) {
//判断节点 e 的哈希值与给定哈希值 h 相等,并且节点 e 的键与给定键 k 相等(或者键 ek 不为 null 且与给定键 k 相等)。
if (e.hash == h &&
((ek = e.key) == k || (ek != null && k.equals(ek))))
// 如果满足条件,则返回节点 e。
return e;
// e 后移
e = e.next;
}
// 要是没有 其他线程在等待或持有写锁
// 使用 compareAndSwapInt 方法将当前对象的 lockState 的值增加 READER,即获取读锁
else if (U.compareAndSwapInt(this, LOCKSTATE, s, s + READER)) {
TreeNode<K,V> r, p;
try {
//调用红黑树的 findTreeNode 方法,在红黑树中查找匹配的节点,并将结果赋值给变量 p
p = ((r = root) == null ? null :
r.findTreeNode(h, k, null));
} finally {
// 通过 getAndAddInt 方法将当前对象的 lockState 的值减去 READER,即释放读锁。
//如果在释放读锁之前,当前对象的 lockState 的值为 (READER|WAITER),并且存在等待线程 waiter,则使用 unpark 方法唤醒等待线程。
Thread w;
if (U.getAndAddInt(this, LOCKSTATE, -READER) ==
(READER|WAITER) && (w = waiter) != null)
LockSupport.unpark(w);
}
return p;
}
}
}
//表示在红黑树中没有找到匹配的节点,返回 null
return null;
}
final TreeNode<K,V> findTreeNode(int h, Object k, Class<?> kc) {
//首先,检查传入的键k是否为空,如果为空,则直接返回null。
if (k != null) {
TreeNode<K,V> p = this;
//如果键k不为空,则从当前节点开始进行查找。使用一个循环,不断根据哈希值h和键k的比较结果来决定下一步的查找方向。
do {
int ph, dir; K pk; TreeNode<K,V> q;
TreeNode<K,V> pl = p.left, pr = p.right;
// 如果当前节点的哈希值大于h,则向左子节点继续查找;
if ((ph = p.hash) > h)
p = pl;
//如果当前节点的哈希值小于h,则向右子节点继续查找;
else if (ph < h)
p = pr;
//如果当前节点的哈希值等于h,则比较键值。
else if ((pk = p.key) == k || (pk != null && k.equals(pk)))
// 如果键值相等,则找到了目标节点,直接返回该节点。
return p;
//如果左子节点为空,则向右子节点继续查找;。
else if (pl == null)
p = pr;
// 如果右子节点为空,则向左子节点继续查找。
else if (pr == null)
p = pl;
//如果传入的键比较类kc不为空,或者通过方法comparableClassFor(k)获取到了键的比较类kc,并且通过方法compareComparables(kc, k, pk)比较键k和当前节点的键pk的大小
else if ((kc != null ||
(kc = comparableClassFor(k)) != null) &&
(dir = compareComparables(kc, k, pk)) != 0)
//得到一个非零的结果dir,那么根据dir的正负来决定下一步的查找方向。
p = (dir < 0) ? pl : pr;
//如果以上条件都不满足,则说明需要在右子树中继续查找,递归调用右子节点的findTreeNode方法
else if ((q = pr.findTreeNode(h, k, kc)) != null)
return q;
else
p = pl;
} while (p != null);
}
// 如果循环结束时仍然没有找到目标节点,则返回null。
return null;
}
TreeNode
// 在二叉树中查找给定哈希值h和键k对应的节点
Node<K,V> find(int h, Object k) {
return findTreeNode(h, k, null);
}
remove
public V remove(Object key) {
return replaceNode(key, null, null);
}
replaceNode
//在哈希表中替换指定键的节点值
final V replaceNode(Object key, V value, Object cv) {
int hash = spread(key.hashCode());
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
if (tab == null || (n = tab.length) == 0 ||
(f = tabAt(tab, i = (n - 1) & hash)) == null)
break;
// 表示节点f是一个转发节点
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
else {
V oldVal = null;
boolean validated = false;
synchronized (f) {
if (tabAt(tab, i) == f) {
//在链表中查找匹配的节点,并根据验证对象cv与节点值的关系来确定是否进行替换以及如何进行替换。如果找到匹配的节点,则更新节点的值为新值value,或者移除该节点。最后,返回被替换的旧值。
if (fh >= 0) {
validated = true;
for (Node<K,V> e = f, pred = null;;) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
V ev = e.val;
// 如果验证对象cv为null,或者验证对象cv与节点的旧值ev引用相同,或者验证对象cv与节点的旧值ev相等(通过equals方法比较)
if (cv == null || cv == ev ||
(ev != null && cv.equals(ev))) {
oldVal = ev;
// 如果新值value不为空,
if (value != null)
//则更新节点e的值为新值value,
e.val = value;
// 如果前驱节点pred不为空,
else if (pred != null)
// 则将前驱节点的next指向节点e的next,
pred.next = e.next;
else
// 否则将哈希桶中的第一个节点指向节点e的next。
setTabAt(tab, i, e.next);
}
break;
}
pred = e;
if ((e = e.next) == null)
break;
}
}
//在树中查找匹配的节点,并根据验证对象cv与节点值的关系来确定是否进行替换以及如何进行替换。如果验证通过,则更新节点的值为新值value,或者移除该节点。最后,返回被替换的旧值。
else if (f instanceof TreeBin) {
// 将标志位validated设置为true,表示已经验证过节点f。
validated = true;
// 将节点f强制转换为树节点(TreeBin)类型,并赋值给变量t。
TreeBin<K,V> t = (TreeBin<K,V>)f;
//定义了两个变量r和p,分别表示树节点t的根节点和要查找的节点。
TreeNode<K,V> r, p;
//如果树节点t的根节点r不为null,并且通过给定的哈希值hash和键key调用 findTreeNode方法 在树中找到了匹配的节点p
if ((r = t.root) != null &&
(p = r.findTreeNode(hash, key, null)) != null) {
//获取节点p的值pv。
V pv = p.val;
//如果验证对象cv为null,或者验证对象cv与节点p的值pv引用相同,或者验证对象cv与节点p的值pv相等(通过equals方法比较)
if (cv == null || cv == pv ||
(pv != null && cv.equals(pv))) {
//将节点p的值pv赋值给变量oldVal,用于最后返回被替换的旧值。
oldVal = pv;
//如果新值value不为null,将节点p的值更新为新值value。
if (value != null)
p.val = value;
//如果新值value为null,并且成功移除了节点p(通过调用树节点t的removeTreeNode方法)
else if (t.removeTreeNode(p))
//将树的第一个节点转为普通节点放到当前位置上
setTabAt(tab, i, untreeify(t.first));
}
}
}
}
}
if (validated) {
if (oldVal != null) {
if (value == null)
// 更新并发哈希表的计数器
addCount(-1L, -1);
return oldVal;
}
break;
}
}
}
return null;
}
clear
public void clear() {
//初始化变量delta为0,用于记录删除的节点数量。
long delta = 0L; // negative number of deletions
//使用变量i遍历哈希表的每个槽位。
int i = 0;
Node<K,V>[] tab = table;
while (tab != null && i < tab.length) {
int fh;
// 获取当前槽位tab[i]的节点f。
Node<K,V> f = tabAt(tab, i);
// 如果f为null,则说明该槽位没有节点,将i加1继续遍历下一个槽位。
if (f == null)
++i;
// 如果f的哈希值为MOVED,说明该节点正在进行迁移操作,需要调用helpTransfer方法帮助完成迁移,并重新从头开始遍历。
else if ((fh = f.hash) == MOVED) {
tab = helpTransfer(tab, f);
i = 0; // restart
}
//否则,使用synchronized关键字对节点f进行同步操作,确保多线程环境下的安全性。
else {
synchronized (f) {
// 检查当前槽位tab[i]是否仍然是节点f,防止其他线程修改了节点。
if (tabAt(tab, i) == f) {
//如果f是树节点(TreeBin),则获取树的首节点,遍历树节点链表,同样将每个节点p的delta减1,并将tab[i]置为null。继续遍历下一个槽位,直到遍历完整个哈希表。
Node<K,V> p = (fh >= 0 ? f :
(f instanceof TreeBin) ?
((TreeBin<K,V>)f).first : null);
//如果f是普通节点,则遍历节点链表,将每个节点p的delta减1,并将tab[i]置为null,表示删除节点。
while (p != null) {
--delta;
p = p.next;
}
setTabAt(tab, i++, null);
}
}
}
}
// 如果delta不等于0,调用addCount方法将delta加到计数器中
if (delta != 0L)
addCount(delta, -1);
}
总结
initTable的主要流程
1、要是数组正在初始化就礼让出cpu
2、否则的话就 设置数组的大小,设置阈值
addCount的主要流程
阶段一:计算元素个数
1、在竞争的时候 调用
fullAddCount(x, uncontended)
增加 map 集合中的元素个数,之后返回2、在没有竞争但是 计数(put中就是 bitCount ) <= 1 的时候 直接返回
3、在没有竞争但是 计数> 1 的时候调用
sumCount()
累加得到元素个数,之后进行检查要不要扩容
阶段二:检查扩容
1、数组超过阈值 并且当前节点正在执行扩容操作
? 1.1、无法扩容就退出循环
? 1.2、此时要是允许扩容那么就cas 的方式增加sizeCtl 的值(cas 的目的就是避免了多个线程同时进行数据迁移操作,保证只有一个线程可以成功执行扩容),cas 成功那么就会进行扩容,
2、要是当前节点不在进行扩容,那么就cas 的方式更新sc的值,cas 成功就进行扩容
3、要是两个cas的操作都失败了,那么就统计 map 中的所有的元素的个数,并进行下一次循环
helpTransfer主要流程
1、要是当前节点不在迁移就表示不需要进行扩容和数据迁移,返回原始的数组
2、要是当前节点在迁移,并且处于可以执行扩容,就cas 的方式增加sizeCtl 的值(cas 的目的就是避免了多个线程同时进行数据迁移操作,保证只有一个线程可以成功执行扩容),cas 成功那么就会进行扩容;无论能否执行扩容,最后都返回迁移之后的数组
treeifyBin主要流程
1、要是初始化过,数组长度< 64 ,尝试对数组扩容调用
tryPresize
2、要是数组长度 > 64, 指定位置的节点有值,该节点后面是链表
3、加锁,再次检查当前位置的元素没有在多线程场景下被别的线程修改,那么就将所有的链表节点转为树节点然后连接起来,再将所有的节点转为红黑树,并设置到对应的位置上
tryPresize主要流程
1、根据传入的size参数计算出 扩容的目标大小c
只要数组不在初始化就进行扩容,
2、但是数组是null,那么就和设置数组的大小,设置阈值
3、要是当前节点正在执行扩容
? 3.1、无法扩容就退出循环? 3.2、此时要是允许扩容那么就cas 的方式增加sizeCtl 的值(cas 的目的就是避免了多个线程同时进行数据迁移操作,保证只有一个线程可以成功执行扩容),cas 成功那么就会进行扩容,cas失败就继续下一次循环
4、要是当前节点不在进行扩容,那么就进行扩容
fullAddCount主要流程
无限循环
1、要是处于竞争状态,
? 1.1、当前位置值为null,那么就加锁,尝试在数组中插入一个新的Cells 对象
? 1.2、当前位置有值,cas 的更新此位置的值,成功就跳出循环
? 1.3、cas 失败,要是不能扩容就不再尝试扩容
? 1.4、要是能继续扩容,就加锁扩容,扩容为两倍
2、要是不处于竞争状态,但是Cells 数组没有被其他线程占用,加锁初始化这个数组的位置的值
3、不处于竞争状态,并且数组这个位置被占用,就直接进行计算
put 主要流程总结:
循环遍历数组
1、要是数组没有初始化,那么就进行
初始化
2、要是指定位置的没有值(此时是不加锁的),那么就cas 的方式插入,成功退出循环,失败继续下一次循环 (是数组上的节点)
3、要是当前节点正在迁移,处于 MOVED 状态,那么就 进行
协助迁移
4、否则,这个节点就是正常的节点,那么就根据 是树还是链表执行对应的操作 (是树或者链表上的节点)
? 4.1、对树或者链表: 找到就进行覆盖并返回旧值,找不到就加到链表的结尾,返回null <锁住头节点开始执行>
? 4.2、要是对树或者链表 执行成功,那判断是不是 > 阈值,要是 > 8 那么就进行
树化
5、最后
增加map 中的元素个数
,累加的原理和 原子累加器类似,最后在这个里面决定要不要扩容
transfer 的流程总结:
1、要是开始扩容了,那么就将数组扩大到2倍
无限循环中
2、判断是不是要继续迁移,要是要迁移就更新相应的扩容边界和相关变量
3、要是 超过了索引的范围
? 3.1、迁移已经完成了,那么就替换数组为扩容数组和更新阈值,返回
? 3.2、要是迁移没有完成,那么就cas 的方式把 sc -1
? 3.2.1、cas 成功的话
? 3.2.1.1 要是存在竞争,无法扩容直接,返回
? 3.2.1.2 要是不存在竞争,更新结束,进行下次循环
? 3.2.2、cas 失败继续下次循环
4、要是当前值为null ,cas 的将当前节点设置为转化节点,进行下次循环
5、要是当前节点正在前移状态,进行下次循环
6、加锁锁住这个位置的节点 ,那么此时就是链表或者树,那么就进行迁移,此时的迁移会有高低位之分,高位节点放到 新数组中 原来位置 + 原来数组长度 的索引,低位的放到新数组中原来的索引;注意,树的结构中,要是当前树的长度 < 6,要调用
untreeify
取消树化。
get 流程总结:
1、指定位置的值存在,hash 等且key 相等,返回
2、要是hash 不等,是链表的话就遍历直到找到一样的,找到返回该值,找不到返回 null
3、要是不是链表,调用对应的节点数据类型的find 方法,找到返回该值,找不到返回 null
remove 流程总结:
循环遍历数组
1、要是 数组没有初始化或者当期位置的值为 null,退出循环
2、要是当前位置的节点处于迁移状态,进行协助迁移
3、锁住当前位置的节点
? 3.1、是链表就遍历链表
? 3.1.1、要是找到对应 key 的值,返回旧值;
? 3.1.1.1、新值不是null, 就把这个值设置为新值 「使用的api 是
remove(Object key, Object value)
」? 3.1.1.2、新值是null,但是当前节点前驱节点不是 null,就更新链表中相关删除节点前后的指针关系「要是使用的api 是
remove(Object key)
」
3.1.1.3、要是当前节点前驱节点是 null ,那么就在指定的位置设置为删除节点的后继节点,结束循环
3.1.2、要是找不到对应的值,就后移,直到 null,结束循环(null 表示遍历完链表都找不到这个key ,该 key 对应的节点不存在),返回 null? 3.2、是树,调用 树的 findTreeNode方法 在树中找到了匹配的节点p,
? 3.2.1、要是找到节点,返回旧的值;
? 3.2.1.1、要是新值不为null,就更新对应的节点的值
3.2.1.2、要是新值为null,就调用树的 removeTreeNode方法 移除这个节点,并将树的第一个节点转为普通节点放到当前位置上? 3.2.2 、要是找不到节点,返回null;
4、要是新值为 null , 就 更新数组中的元素个数
clear流程总结:
进行循环:循环条件—数组存在,没有遍历结束
1、要是当前节点为 null ,后移动节点
2、要是当前节点正在迁移, 进行
协助迁移
3、加锁锁住当前位置的节点,要是节点是链表或者树的节点,遍历所有节点,对所有节点的值置为 null,要是存在被清除的节点,就进行原子累加的操作,更新 map中所有元素总数的大小
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!