今天我們介紹一下ConcurrentHashMap在JDK1.8中的實作。
基本結構
ConcurrentHashMap在1.8中的實作,相比于1.7的版本基本上全部都變掉了。首先,取消了Segment分段鎖的資料結構,取而代之的是數組+連結清單(紅黑樹)的結構。而對于鎖的粒度,調整為對每個數組元素加鎖(Node)。然後是定位節點的hash算法被簡化了,這樣帶來的弊端是Hash沖突會加劇。是以在連結清單節點數量大于8時,會将連結清單轉化為紅黑樹進行存儲。這樣一來,查詢的時間複雜度就會由原先的O(n)變為O(logN)。下面是其基本結構:
相關屬性
private transient volatile int sizeCtl;
sizeCtl用于table[]的初始化和擴容操作,不同值的代表狀态如下:
- -1:table[]正在初始化。
- -N:表示有N-1個線程正在進行擴容操作。
非負情況:
- 如果table[]未初始化,則表示table需要初始化的大小。
- 如果初始化完成,則表示table[]擴容的閥值,預設是table[]容量的0.75 倍。
private static finalint DEFAULT_CONCURRENCY_LEVEL = 16;
- DEFAULT_CONCURRENCY_LEVEL:表示預設的并發級别,也就是table[]的預設大小。
private static final float LOAD_FACTOR = 0.75f;
- LOAD_FACTOR:預設的負載因子。
static final int TREEIFY_THRESHOLD = 8;
- TREEIFY_THRESHOLD:連結清單轉紅黑樹的閥值,當table[i]下面的連結清單長度大于8時就轉化為紅黑樹結構。
static final int UNTREEIFY_THRESHOLD = 6;
- UNTREEIFY_THRESHOLD:紅黑樹轉連結清單的閥值,當連結清單長度<=6時轉為連結清單(擴容時)。
構造函數
public ConcurrentHashMap(int initialCapacity,
float loadFactor, int concurrencyLevel) {
if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)
throw new IllegalArgumentException();
if (initialCapacity < concurrencyLevel) // 初始化容量至少要為concurrencyLevel
initialCapacity = concurrencyLevel;
long size = (long)(1.0 + (long)initialCapacity / loadFactor);
int cap = (size >= (long)MAXIMUM_CAPACITY) ?
MAXIMUM_CAPACITY : tableSizeFor((int)size);
this.sizeCtl = cap;
}
從上面代碼可以看出,在建立ConcurrentHashMap時,并沒有初始化table[]數組,隻對Map容量,并發級别等做了指派操作。
相關節點
- Node:該類用于構造table[],隻讀節點(不提供修改方法)。
- TreeBin:紅黑樹結構。
- TreeNode:紅黑樹節點。
- ForwardingNode:臨時節點(擴容時使用)。
put()操作
public V put(K key, V value) {
return putVal(key, value, false);
}
final V putVal(K key, V value, boolean onlyIfAbsent) {
if (key == null || value == null) throw new NullPointerException();
int hash = spread(key.hashCode());
int binCount = 0;
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
if (tab == null || (n = tab.length) == 0)// 若table[]未建立,則初始化
tab = initTable();
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {// table[i]後面無節點時,直接建立Node(無鎖操作)
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
else if ((fh = f.hash) == MOVED)// 如果目前正在擴容,則幫助擴容并傳回最新table[]
tab = helpTransfer(tab, f);
else {// 在連結清單或者紅黑樹中追加節點
V oldVal = null;
synchronized (f) {// 這裡并沒有使用ReentrantLock,說明synchronized已經足夠優化了
if (tabAt(tab, i) == f) {
if (fh >= 0) {// 如果為連結清單結構
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {// 找到key,替換value
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
if ((e = e.next) == null) {// 在尾部插入Node
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
else if (f instanceof TreeBin) {// 如果為紅黑樹
Node<K,V> p;
binCount = 2;
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
if (binCount != 0) {
if (binCount >= TREEIFY_THRESHOLD)// 到達閥值,變為紅黑樹結構
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
addCount(1L, binCount);
return null;
}
從上面代碼可以看出,put的步驟大緻如下:
- 參數校驗。
- 若table[]未建立,則初始化。
- 當table[i]後面無節點時,直接建立Node(無鎖操作)。
- 如果目前正在擴容,則幫助擴容并傳回最新table[]。
- 然後在連結清單或者紅黑樹中追加節點。
- 最後還回去判斷是否到達閥值,如到達變為紅黑樹結構。
除了上述步驟以外,還有一點我們留意到的是,代碼中加鎖片段用的是synchronized關鍵字,而不是像1.7中的ReentrantLock。這一點也說明了,synchronized在新版本的JDK中優化的程度和ReentrantLock差不多了。
get()操作
public V get(Object key) {
Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
int h = spread(key.hashCode());// 定位到table[]中的i
if ((tab = table) != null && (n = tab.length) > 0 &&
(e = tabAt(tab, (n - 1) & h)) != null) {// 若table[i]存在
if ((eh = e.hash) == h) {// 比較連結清單頭部
if ((ek = e.key) == key || (ek != null && key.equals(ek)))
return e.val;
}
else if (eh < 0)// 若為紅黑樹,查找樹
return (p = e.find(h, key)) != null ? p.val : null;
while ((e = e.next) != null) {// 循環連結清單查找
if (e.hash == h &&
((ek = e.key) == key || (ek != null && key.equals(ek))))
return e.val;
}
}
return null;// 未找到
}
get()方法的流程相對簡單一點,從上面代碼可以看出以下步驟:
- 首先定位到table[]中的i。
- 若table[i]存在,則繼續查找。
- 首先比較連結清單頭部,如果是則傳回。
- 然後如果為紅黑樹,查找樹。
- 最後再循環連結清單查找。
從上面步驟可以看出,ConcurrentHashMap的get操作上面并沒有加鎖。是以在多線程操作的過程中,并不能完全的保證一緻性。這裡和1.7當中類似,是 弱一緻性的展現。
size()操作
// 1.2時加入
public int size() {
long n = sumCount();
return ((n < 0L) ? 0 :
(n > (long)Integer.MAX_VALUE) ? Integer.MAX_VALUE :
(int)n);
}
// 1.8加入的API
public long mappingCount() {
long n = sumCount();
return (n < 0L) ? 0L : n; // ignore transient negative values
}
final long sumCount() {
CounterCell[] as = counterCells; CounterCell a;
long sum = baseCount;
if (as != null) {
for (int i = 0; i < as.length; ++i) {
if ((a = as[i]) != null)
sum += a.value;
}
}
return sum;
}
從上面代碼可以看出來,JDK1.8中新增了一個mappingCount()的API。這個API與size()不同的就是傳回值是Long類型,這樣就不受Integer.MAX_VALUE的大小限制了。
兩個方法都同時調用了,sumCount()方法。對于每個table[i]都有一個CounterCell與之對應,上面方法做了求和之後就傳回了。進而可以看出,size()和mappingCount()傳回的都是一個 估計值。 (這一點與JDK1.7裡面的實作不同,1.7裡面使用了加鎖的方式實作。這裡面也可以看出JDK1.8犧牲了精度,來換取更高的效率。)
連結: http://moguhu.com/article/detail?articleId=36