天天看點

ConcurrentHashMap源碼解析

本源碼解析基于JDK1.7,參考[HashMap] HashMap HashTable

概要

  • ConcurrentHashMap實作了 的全部方法,且是線程安全的Map
  • HashTable的put,get等方法都是同步的,效率較低,ConcurrentHashMap通過對table進行分段加鎖,當一部分在修改時,其他部分可以同時的操作,在保證線程安全的情況下提高了效率
  • concurrencyLevel用來确定劃分段的數目,預設為16,值越大可支援的并發度越高,操作的開銷就越大
  • key和value都不允許為null
  • 基本存儲結構

    ConcurrentHashMap 類中包含兩個靜态内部類 HashEntry 和 Segment。HashEntry 用來封裝映射表的鍵 / 值對;Segment 用來充當鎖的角色,每個 Segment 對象守護整個散列映射表的若幹個桶。每個桶是由若幹個 HashEntry 對象連結起來的連結清單。一個 ConcurrentHashMap 執行個體中包含由若幹個 Segment 對象組成的數組,每個segment都儲存自己的count,而不是整個HashMap儲存一份count,避免了多個segment共享一個變量成為性能瓶頸

Java記憶體模型

由于 ConcurrentHashMap 是建立在 Java 記憶體模型基礎上的,為了更好的了解 ConcurrentHashMap,讓我們首先來了解一下 Java 的記憶體模型。

Java 語言的記憶體模型由一些規則組成,這些規則确定線程對記憶體的通路如何排序以及何時可以確定它們對線程是可見的。下面我們将分别介紹 Java 記憶體模型的重排序,記憶體可見性和 happens-before 關系。

重排序

記憶體模型描述了程式的可能行為。具體的編譯器實作可以産生任意它喜歡的代碼 – 隻要所有執行這些代碼産生的結果,能夠和記憶體模型預測的結果保持一緻。這為編譯器實作者提供了很大的自由,包括操作的重排序。

編譯器生成指令的次序,可以不同于源代碼所暗示的“顯然”版本。重排序後的指令,對于優化執行以及成熟的全局寄存器配置設定算法的使用,都是大有脾益的,它使得程式在計算性能上有了很大的提升。

重排序類型包括:

- 編譯器生成指令的次序,可以不同于源代碼所暗示的“顯然”版本。

- 處理器可以亂序或者并行的執行指令。

- 緩存會改變寫入送出到主記憶體的變量的次序。

記憶體可見性

由于現代可共享記憶體的多處理器架構可能導緻一個線程無法馬上(甚至永遠)看到另一個線程操作産生的結果。是以 Java 記憶體模型規定了 JVM 的一種最小保證:什麼時候寫入一個變量對其他線程可見。

在現代可共享記憶體的多處理器體系結構中每個處理器都有自己的緩存,并周期性的與主記憶體協調一緻。假設線程 A 寫入一個變量值 V,随後另一個線程 B 讀取變量 V 的值,在下列情況下,線程 B 讀取的值可能不是線程 A 寫入的最新值:

- 執行線程 A 的處理器把變量 V 緩存到寄存器中。

- 執行線程 A 的處理器把變量 V 緩存到自己的緩存中,但還沒有同步重新整理到主記憶體中去。

- 執行線程 B 的處理器的緩存中有變量 V 的舊值。

Happens-before 關系

happens-before 關系保證:如果線程 A 與線程 B 滿足 happens-before 關系,則線程 A 執行動作的結果對于線程 B 是可見的。如果兩個操作未按 happens-before 排序,JVM 将可以對他們任意重排序。

下面介紹幾個與了解 ConcurrentHashMap 有關的 happens-before 關系法則:

1. 程式次序法則:如果在程式中,所有動作 A 出現在動作 B 之前,則線程中的每動作 A 都 happens-before 于該線程中的每一個動作 B。

2. 螢幕鎖法則:對一個螢幕的解鎖 happens-before 于每個後續對同一螢幕的加鎖。

3. Volatile 變量法則:對 Volatile 域的寫入操作 happens-before 于每個後續對同一 Volatile 的讀操作。

4. 傳遞性:如果 A happens-before 于 B,且 B happens-before C,則 A happens-before C。

Reentlock與内置鎖

ReentrantLock和synchronized不同在于

  • 後者在因為資源等待時刻,線程如果被喚醒就是打斷(中止),但是在前者中,等待的線程可以在等待一段時間之後繼續進行其他的工作。無需一直等待。
  • ReentrantLock在使用的時候是直接構造一個ReentrantLock對象,而不是使用的對象的内部鎖。是以在最終需要在finally塊中保證釋放鎖,而synchronized同步鎖則是由JVM自動釋放的。典型的應用如下:(記得必須釋放鎖)
Lock lock= new ReentrantLock();
lock.lock();
try{
//update object state
}catch{
//catch the exception
}finally{
lock.unlock();
}           
  • 效率更高,且可以設計公平性。公平性是指在等待隊列中,等待時間更長的線程更有可能得到鎖(資源),synchronized本身是不公平的,考慮優先級的。在java.util.concurrent.locks包中ReentLock可以設計公平性,但是公平性的鎖機制效率很低。

Unsafe 機制

  • 這裡Unsafe的主要作用是提供原子操作
  • Unsafe機制可以讓你突破Java文法的限制,做許多非法的操作(突破限制建立執行個體,使用直接擷取記憶體的方式實作淺克隆,建立超大數組)等,他會帶來許多記憶體安全方面的問題,非特殊情況慎用
  • sun.misc.Unsafe UNSAFE

    該類存在與sun包中,并不随源碼一起釋出, 參考連結
private static final sun.misc.Unsafe UNSAFE;
    private static final long SBASE;
    private static final int SSHIFT;
    private static final long TBASE;
    private static final int TSHIFT;
    private static final long HASHSEED_OFFSET;
    private static final long SEGSHIFT_OFFSET;
    private static final long SEGMASK_OFFSET;
    private static final long SEGMENTS_OFFSET;
    static {
        int ss, ts;
        try {
            UNSAFE = sun.misc.Unsafe.getUnsafe();
            Class tc = HashEntry[].class;
            Class sc = Segment[].class;
            TBASE = UNSAFE.arrayBaseOffset(tc);
            SBASE = UNSAFE.arrayBaseOffset(sc);
            ts = UNSAFE.arrayIndexScale(tc);
            ss = UNSAFE.arrayIndexScale(sc);
            HASHSEED_OFFSET = UNSAFE.objectFieldOffset(
                ConcurrentHashMap.class.getDeclaredField("hashSeed"));
            SEGSHIFT_OFFSET = UNSAFE.objectFieldOffset(
                ConcurrentHashMap.class.getDeclaredField("segmentShift"));
            SEGMASK_OFFSET = UNSAFE.objectFieldOffset(
                ConcurrentHashMap.class.getDeclaredField("segmentMask"));
            SEGMENTS_OFFSET = UNSAFE.objectFieldOffset(
                ConcurrentHashMap.class.getDeclaredField("segments"));
        } catch (Exception e) {
            throw new Error(e);
        }
        if ((ss & (ss-1)) != 0 || (ts & (ts-1)) != 0)
            throw new Error("data type scale not a power of two");
        SSHIFT = 31 - Integer.numberOfLeadingZeros(ss);
        TSHIFT = 31 - Integer.numberOfLeadingZeros(ts);
    }             

類的頭部

  • 該類由AbstractMap擴充而來,AbstractMap實作了一些方法
  • 與其他Map相比,可序列化,但是沒有實作Clonable
  • ConcurrentMap除了包含Map接口的方法外,增加了putIfAbsent,remove,replace方法
public class ConcurrentHashMap<K, V> extends AbstractMap<K, V>
        implements ConcurrentMap<K, V>, Serializable {
public interface ConcurrentMap<K, V> extends Map<K, V> {
    V putIfAbsent(K key, V value);
    boolean remove(Object key, Object value);
    boolean replace(K key, V oldValue, V newValue);
    V replace(K key, V value);
}
public interface Map<K,V> {
    int size();
    boolean isEmpty();
    boolean containsKey(Object key);
    boolean containsValue(Object value);
    V get(Object key);
    V put(K key, V value);
    V remove(Object key);
    void putAll(Map<? extends K, ? extends V> m);
    void clear();
    Set<K> keySet();
    Collection<V> values();
    Set<Map.Entry<K, V>> entrySet();
    interface Entry<K,V> {
        K getKey();
        V getValue();
        V setValue(V value);
        boolean equals(Object o);
        int hashCode();
    }
    boolean equals(Object o);
    int hashCode();
}             

常數項

  • 與HashMap類似,Capacity表示table數組總大小,LoadFactor時間空間效率平衡參數,預設值與HashMap相同
  • ConcurrencyLevel,并發系數,即segment個數,系數越大分段越多,開銷越大,換取更大的并發度
  • RETRIES_BEFORE_LOCK在size,containsValue方法擷取鎖時的重試次數,
static final int DEFAULT_INITIAL_CAPACITY = 16;
    static final float DEFAULT_LOAD_FACTOR = 0.75f;
    static final int DEFAULT_CONCURRENCY_LEVEL = 16;
    static final int MAXIMUM_CAPACITY = 1 << 30;
    static final int MIN_SEGMENT_TABLE_CAPACITY = 2;
    static final int RETRIES_BEFORE_LOCK = 2;             

重要成員

  • hashSeed 進一步打亂key的hash值,減少hash碰撞
  • segmentMask key的hash值的高位與segmentMask來确定segment号,算法:hash左移segmentShift位于segmentMask按位與得到segment号
  • KeySet等為Map的視圖,即提供對map不同的操作方式
private transient final int hashSeed = randomHashSeed(this); 
    final int segmentMask;
    final int segmentShift;
    final Segment<K,V>[] segments;

    transient Set<K> keySet;
    transient Set<Map.Entry<K,V>> entrySet;
    transient Collection<V> values;            

基本節點

  • Entry 實作比HashMap中簡單,沒有key,value的get set方法,以及equals,hashCode等方法
  • 其hash與key聲明為了final,value和next域聲明為volatile
  • 添加了方法setNext,兩個靜态變量 NUSAFE,nextOffset,用來處理next域
static final class HashEntry<K,V> {
        final int hash;
        final K key;
        volatile V value;
        volatile HashEntry<K,V> next;
        HashEntry(int hash, K key, V value, HashEntry<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }
        final void setNext(HashEntry<K,V> n) {
            UNSAFE.putOrderedObject(this, nextOffset, n);
        }
        // Unsafe mechanics
        static final sun.misc.Unsafe UNSAFE;
        static final long nextOffset;
        static {
            try {
                UNSAFE = sun.misc.Unsafe.getUnsafe();
                Class k = HashEntry.class;
                nextOffset = UNSAFE.objectFieldOffset
                    (k.getDeclaredField("next"));
            } catch (Exception e) {
                throw new Error(e);
            }
        }
    }             

構造函數

  • 通過參數進行構造
    • 首先ssize确定比segmentLevel大的首個2的幂次,代表了segment的總個數,同時記錄ssize移位次數sshift
    • ssize-1得到segmentMask,由于ssize為2的幂次,按位與即取餘操作
    • segmentShift代表hash值需要左移的位數,由32-sshift得到
    • 每個segment的大小是不小于 initialCapacity/ssize的最小的2的幂次,即每個segment内Entry數是2的幂次
    • 初始化時隻建立了一個segment,懶加載可以送出初始化效率
  • 通過其他map來進行構造

    首先由原map确定initialCapacity,其他使用預設值進行預設初始化,然後将原map元素逐個插入

public ConcurrentHashMap(int initialCapacity,
                             float loadFactor, int concurrencyLevel) {
        if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0)
            throw new IllegalArgumentException();
        if (concurrencyLevel > MAX_SEGMENTS)
            concurrencyLevel = MAX_SEGMENTS;
        // Find power-of-two sizes best matching arguments
        int sshift = 0;
        int ssize = 1;
        while (ssize < concurrencyLevel) {
            ++sshift;
            ssize <<= 1;
        }
        this.segmentShift = 32 - sshift;
        this.segmentMask = ssize - 1;
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        int c = initialCapacity / ssize;
        if (c * ssize < initialCapacity)
            ++c;
        int cap = MIN_SEGMENT_TABLE_CAPACITY;
        while (cap < c)
            cap <<= 1;
        // create segments and segments[0]
        Segment<K,V> s0 =
            new Segment<K,V>(loadFactor, (int)(cap * loadFactor),
                             (HashEntry<K,V>[])new HashEntry[cap]);
        Segment<K,V>[] ss = (Segment<K,V>[])new Segment[ssize];
        UNSAFE.putOrderedObject(ss, SBASE, s0); // ordered write of segments[0]
        this.segments = ss;
    } 
        // segment構造函數
        Segment(float lf, int threshold, HashEntry<K,V>[] tab) {
            this.loadFactor = lf;
            this.threshold = threshold;
            this.table = tab;
        }  
    public ConcurrentHashMap(Map<? extends K, ? extends V> m) {
        this(Math.max((int) (m.size() / DEFAULT_LOAD_FACTOR) + 1,
                      DEFAULT_INITIAL_CAPACITY),
             DEFAULT_LOAD_FACTOR, DEFAULT_CONCURRENCY_LEVEL);
        putAll(m);
    } 
    public void putAll(Map<? extends K, ? extends V> m) {
        for (Map.Entry<? extends K, ? extends V> e : m.entrySet())
            put(e.getKey(), e.getValue());
    }             

查詢操作 get

  • (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE

    segment的定位采用了Unsafe機制,

    (h >>> segmentShift) & segmentMask

    通過移位和按位與操作取得hash值的高位對segment進行定位
  • 在segment内部采用與HashMap類似的查找方式,逐個周遊table數組點,如果對應位置不為空再周遊該位置上的連結清單
public V get(Object key) {
        Segment<K,V> s; // manually integrate access methods to reduce overhead
        HashEntry<K,V>[] tab;
        int h = hash(key);
        long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;
        if ((s = (Segment<K,V>)UNSAFE.getObjectVolatile(segments, u)) != null &&
            (tab = s.table) != null) {
            for (HashEntry<K,V> e = (HashEntry<K,V>) UNSAFE.getObjectVolatile
                     (tab, ((long)(((tab.length - 1) & h)) << TSHIFT) + TBASE);
                 e != null; e = e.next) {
                K k;
                if ((k = e.key) == key || (e.hash == h && key.equals(k)))
                    return e.value;
            }
        }
        return null;
    }             

插入更新操作

  • int j = (hash >>> segmentShift) & segmentMask

    ,取hash值的高位定位segment号
  • s = ensureSegment(j);

    ,由于初始化時使用了懶加載,并沒有初始化所有的segment,該函數用來根據segment[0]首次建立對應segment
  • 構造HashEntry放入對應segment,

    static final class Segment<K,V> extends ReentrantLock implements Serializable {

    ,segment繼承自Reentlock,在放入元素時首先嘗試鎖定,然後用key的hash值的低位(通過與table.length-1按位與,由于table.lenght是2的幂次,按位與即取餘操作),定位在segment的table數組中的位置,然後執行頭插法,将元素插入
  • 注意如果插入位置已有元素就不會執行擴容,隻有插入到segment的table位置不為空時才會檢查

    capacity*loadFactor>size

    而調用rehash方法進行擴容
  • 每個segment都儲存自己的count,而不是整個HashMap儲存一份count,避免了多個segment共享一個變量成為性能瓶頸
  • 擷取頭節點時的檢查

    由于在并發環境下,其他線程的put,rehash或者remove操作可能會導緻連結清單頭結點的變化,是以在過程中需要進行檢查,如果頭結點發生變化則重新對表進行周遊。而如果其他線程引起了連結清單中的某個節點被删除,可能導緻目前線程無法觀察到,但因為不影響周遊的正确性是以忽略不計。之是以在擷取鎖的過程中對整個連結清單進行周遊,主要目的是希望周遊的連結清單被CPU cache所緩存,為後續實際put過程中的連結清單周遊操作提升性能。

  • ConcurrentHashMap對擴容方法rehash進行了優化,這種優化在存在連續的節點在擴容後index不變的情況下才會有效
    • 首先不同的hash值的key被定位到table的同一index位置是由于取餘操作。
    • 由于HashMap擴容是二倍擴容,在原table上指定位置的元素由于取餘的數組長度加倍,rehash後可能會定位到原來位置加上原數組長度的位置
    • 由于有大量的Entry在擴容後還是留在原Index,是以沒有必要全部重建Entry
    • rehash方法中會定位第一個後續所有節點在擴容後index都保持不變的節點,隻需要将該節點作為頭結點插入指定位置,則該節點後續節點都不需要複制
    • 該節點之前的節點需要進行複制到對應的位置
public V put(K key, V value) {
        Segment<K,V> s;
        if (value == null)
            throw new NullPointerException();
        int hash = hash(key);
        int j = (hash >>> segmentShift) & segmentMask;
        if ((s = (Segment<K,V>)UNSAFE.getObject          // nonvolatile; recheck
             (segments, (j << SSHIFT) + SBASE)) == null) //  in ensureSegment
            s = ensureSegment(j);
        return s.put(key, hash, value, false);
    } 
        // 當對應segment不存在時,建立對應segment
    private Segment<K,V> ensureSegment(int k) {
        final Segment<K,V>[] ss = this.segments;
        long u = (k << SSHIFT) + SBASE; // raw offset
        Segment<K,V> seg;
        if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u)) == null) {
            Segment<K,V> proto = ss[0]; // use segment 0 as prototype
            int cap = proto.table.length;
            float lf = proto.loadFactor;
            int threshold = (int)(cap * lf);
            HashEntry<K,V>[] tab = (HashEntry<K,V>[])new HashEntry[cap];
            if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
                == null) { // recheck
                Segment<K,V> s = new Segment<K,V>(lf, threshold, tab);
                while ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
                       == null) {
                    if (UNSAFE.compareAndSwapObject(ss, u, null, seg = s))
                        break;
                }
            }
        }
        return seg;
    }  
        // segment 類内部函數
        final V put(K key, int hash, V value, boolean onlyIfAbsent) {
            HashEntry<K,V> node = tryLock() ? null :
                scanAndLockForPut(key, hash, value);
            V oldValue;
            try {
                HashEntry<K,V>[] tab = table;
                int index = (tab.length - 1) & hash;
                HashEntry<K,V> first = entryAt(tab, index);
                for (HashEntry<K,V> e = first;;) {
                    if (e != null) {
                        K k;
                        if ((k = e.key) == key ||
                            (e.hash == hash && key.equals(k))) {
                            oldValue = e.value;
                            if (!onlyIfAbsent) {
                                e.value = value;
                                ++modCount;
                            }
                            break;
                        }
                        e = e.next;
                    }
                    else {
                        if (node != null)
                            node.setNext(first);
                        else
                            node = new HashEntry<K,V>(hash, key, value, first);
                        int c = count + 1;
                        if (c > threshold && tab.length < MAXIMUM_CAPACITY)
                            rehash(node);
                        else
                            setEntryAt(tab, index, node);
                        ++modCount;
                        count = c;
                        oldValue = null;
                        break;
                    }
                }
            } finally {
                unlock();
            }
            return oldValue;
        } 
        private HashEntry<K,V> scanAndLockForPut(K key, int hash, V value) {
            HashEntry<K,V> first = entryForHash(this, hash);
            HashEntry<K,V> e = first;
            HashEntry<K,V> node = null;
            int retries = -1; // negative while locating node
            while (!tryLock()) {
                HashEntry<K,V> f; // to recheck first below
                if (retries < 0) {
                    if (e == null) {
                        if (node == null) // speculatively create node
                            node = new HashEntry<K,V>(hash, key, value, null);
                        retries = 0;
                    }
                    else if (key.equals(e.key))
                        retries = 0;
                    else
                        e = e.next;
                }
                else if (++retries > MAX_SCAN_RETRIES) {
                    lock();
                    break;
                }
                else if ((retries & 1) == 0 &&
                         (f = entryForHash(this, hash)) != first) {
                    e = first = f; // re-traverse if entry changed
                    retries = -1;
                }
            }
            return node;
        }  
        private void rehash(HashEntry<K,V> node) {
            HashEntry<K,V>[] oldTable = table;
            int oldCapacity = oldTable.length;
            int newCapacity = oldCapacity << 1;
            threshold = (int)(newCapacity * loadFactor);
            HashEntry<K,V>[] newTable =
                (HashEntry<K,V>[]) new HashEntry[newCapacity];
            int sizeMask = newCapacity - 1;
            for (int i = 0; i < oldCapacity ; i++) {
                HashEntry<K,V> e = oldTable[i];
                if (e != null) {
                    HashEntry<K,V> next = e.next;
                    int idx = e.hash & sizeMask;
                    if (next == null)   //  Single node on list
                        newTable[idx] = e;
                    else { // Reuse consecutive sequence at same slot
                        HashEntry<K,V> lastRun = e;
                        int lastIdx = idx;
                        for (HashEntry<K,V> last = next;
                             last != null;
                             last = last.next) {
                            int k = last.hash & sizeMask;
                            if (k != lastIdx) {
                                lastIdx = k;
                                lastRun = last;
                            }
                        }
                        newTable[lastIdx] = lastRun;
                        // Clone remaining nodes
                        for (HashEntry<K,V> p = e; p != lastRun; p = p.next) {
                            V v = p.value;
                            int h = p.hash;
                            int k = h & sizeMask;
                            HashEntry<K,V> n = newTable[k];
                            newTable[k] = new HashEntry<K,V>(h, p.key, v, n);
                        }
                    }
                }
            }
            int nodeIndex = node.hash & sizeMask; // add the new node
            node.setNext(newTable[nodeIndex]);
            newTable[nodeIndex] = node;
            table = newTable;
        }             

統計元素個數 size()

  • 首先嘗試鎖定所有segment
  • 然後對每個segment的count值進行加和,并驗證是否超過Integer.MaxValue,如果超過傳回Integer.MaxValue
  • 在finally塊中釋放鎖,確定釋放操作的執行
public int size() {
        // Try a few times to get accurate count. On failure due to
        // continuous async changes in table, resort to locking.
        final Segment<K,V>[] segments = this.segments;
        int size;
        boolean overflow; // true if size overflows 32 bits
        long sum;         // sum of modCounts
        long last = 0L;   // previous sum
        int retries = -1; // first iteration isn't retry
        try {
            for (;;) {
                if (retries++ == RETRIES_BEFORE_LOCK) {
                    for (int j = 0; j < segments.length; ++j)
                        ensureSegment(j).lock(); // force creation
                }
                sum = 0L;
                size = 0;
                overflow = false;
                for (int j = 0; j < segments.length; ++j) {
                    Segment<K,V> seg = segmentAt(segments, j);
                    if (seg != null) {
                        sum += seg.modCount;
                        int c = seg.count;
                        if (c < 0 || (size += c) < 0)
                            overflow = true;
                    }
                }
                if (sum == last)
                    break;
                last = sum;
            }
        } finally {
            if (retries > RETRIES_BEFORE_LOCK) {
                for (int j = 0; j < segments.length; ++j)
                    segmentAt(segments, j).unlock();
            }
        }
        return overflow ? Integer.MAX_VALUE : size;
    }             

其他操作

  • containsValue 與size()操作類似
  • containsKey 與get()方法類似
public boolean containsKey(Object key) {
        Segment<K,V> s; // same as get() except no need for volatile value read
        HashEntry<K,V>[] tab;
        int h = hash(key);
        long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;
        if ((s = (Segment<K,V>)UNSAFE.getObjectVolatile(segments, u)) != null &&
            (tab = s.table) != null) {
            for (HashEntry<K,V> e = (HashEntry<K,V>) UNSAFE.getObjectVolatile
                     (tab, ((long)(((tab.length - 1) & h)) << TSHIFT) + TBASE);
                 e != null; e = e.next) {
                K k;
                if ((k = e.key) == key || (e.hash == h && key.equals(k)))
                    return true;
            }
        }
        return false;
    } 
    public boolean containsValue(Object value) {
        // Same idea as size()
        if (value == null)
            throw new NullPointerException();
        final Segment<K,V>[] segments = this.segments;
        boolean found = false;
        long last = 0;
        int retries = -1;
        try {
            outer: for (;;) {
                if (retries++ == RETRIES_BEFORE_LOCK) {
                    for (int j = 0; j < segments.length; ++j)
                        ensureSegment(j).lock(); // force creation
                }
                long hashSum = 0L;
                int sum = 0;
                for (int j = 0; j < segments.length; ++j) {
                    HashEntry<K,V>[] tab;
                    Segment<K,V> seg = segmentAt(segments, j);
                    if (seg != null && (tab = seg.table) != null) {
                        for (int i = 0 ; i < tab.length; i++) {
                            HashEntry<K,V> e;
                            for (e = entryAt(tab, i); e != null; e = e.next) {
                                V v = e.value;
                                if (v != null && value.equals(v)) {
                                    found = true;
                                    break outer;
                                }
                            }
                        }
                        sum += seg.modCount;
                    }
                }
                if (retries > 0 && sum == last)
                    break;
                last = sum;
            }
        } finally {
            if (retries > RETRIES_BEFORE_LOCK) {
                for (int j = 0; j < segments.length; ++j)
                    segmentAt(segments, j).unlock();
            }
        }
        return found;
    }            

疊代器

  • 一個segment周遊完需要跳到另一個segment
  • segment内部當一個table數組點的位置的連結清單周遊結束,跳到下一個table index位置處
abstract class HashIterator {
        int nextSegmentIndex;
        int nextTableIndex;
        HashEntry<K,V>[] currentTable;
        HashEntry<K, V> nextEntry;
        HashEntry<K, V> lastReturned;
        HashIterator() {
            nextSegmentIndex = segments.length - 1;
            nextTableIndex = -1;
            advance();
        }
        /**
         * Set nextEntry to first node of next non-empty table
         * (in backwards order, to simplify checks).
         */
        final void advance() {
            for (;;) {
                if (nextTableIndex >= 0) {
                    if ((nextEntry = entryAt(currentTable,
                                             nextTableIndex--)) != null)
                        break;
                }
                else if (nextSegmentIndex >= 0) {
                    Segment<K,V> seg = segmentAt(segments, nextSegmentIndex--);
                    if (seg != null && (currentTable = seg.table) != null)
                        nextTableIndex = currentTable.length - 1;
                }
                else
                    break;
            }
        }
        final HashEntry<K,V> nextEntry() {
            HashEntry<K,V> e = nextEntry;
            if (e == null)
                throw new NoSuchElementException();
            lastReturned = e; // cannot assign until after null check
            if ((nextEntry = e.next) == null)
                advance();
            return e;
        }
        public final boolean hasNext() { return nextEntry != null; }
        public final boolean hasMoreElements() { return nextEntry != null; }
        public final void remove() {
            if (lastReturned == null)
                throw new IllegalStateException();
            ConcurrentHashMap.this.remove(lastReturned.key);
            lastReturned = null;
        }
    }             

總結

由于對于Map而言,讀操作使用頻度要遠大于寫入修改。通過 HashEntry 對象的不變性和用 volatile 型變量協調線程間的記憶體可見性,使得 大多數時候,讀操作不需要加鎖就可以正确獲得值。ConcurrentHashMap 是一個并發散列映射表的實作,它允許完全并發的讀取,并且支援給定數量的并發更新。相比于 HashTable 和用同步包裝器包裝的 HashMap(Collections.synchronizedMap(new HashMap())),ConcurrentHashMap 擁有更高的并發性。在 HashTable 和由同步包裝器包裝的 HashMap 中,使用一個全局的鎖來同步不同線程間的并發通路,這雖然保證多線程間的安全并發通路,但同時也導緻對容器的通路變成串行化的了。

在使用鎖來協調多線程間并發通路的模式下,減小對鎖的競争可以有效提高并發性。有兩種方式可以減小對鎖的競争:

  • 減小請求 同一個鎖的 頻率。
  • 減少持有鎖的 時間。

ConcurrentHashMap 的高并發性主要來自于三個方面:

  • 用分離鎖實作多個線程間的更深層次的共享通路。
  • 用 HashEntery 對象的不變性來降低執行讀操作的線程在周遊連結清單期間對加鎖的需求。
  • 通過對同一個 Volatile 變量的寫 / 讀通路,協調不同線程間讀 / 寫操作的記憶體可見性。