版權聲明:本文為部落客原創文章,未經部落客允許不得轉載。 https://blog.csdn.net/qq_34173549/article/details/79936625 一、HashMap概述 二、HashMap的資料結構 三、HashMap源碼分析 1、關鍵屬性 2、構造方法 3、存儲資料 4、調整大小 5、資料讀取 6、HashMap的性能參數 7、Fail-Fast機制
HashMap基于哈希表的 Map 接口的實作。此實作提供所有可選的映射操作,并允許使用 null 值和 null 鍵。(除了不同步和允許使用 null 之外,HashMap 類與 Hashtable 大緻相同。)此類不保證映射的順序,特别是它不保證該順序恒久不變。
值得注意的是HashMap不是線程安全的,如果想要線程安全的HashMap,可以通過Collections類的靜态方法synchronizedMap獲得線程安全的HashMap。
Map map = Collections.synchronizedMap(new HashMap());
HashMap的底層主要是基于數組和連結清單來實作的,它之是以有相當快的查詢速度主要是因為它是通過計算散列碼來決定存儲的位置。HashMap中主要是通過key的hashCode來計算hash值的,隻要hashCode相同,計算出來的hash值就一樣。如果存儲的對象對多了,就有可能不同的對象所算出來的hash值是相同的,這就出現了所謂的hash沖突。學過資料結構的同學都知道,解決hash沖突的方法有很多,HashMap底層是通過連結清單來解決hash沖突的。

圖中,0~15部分即代表哈希表,也稱為哈希數組,數組的每個元素都是一個單連結清單的頭節點,連結清單是用來解決沖突的,如果不同的key映射到了數組的同一位置處,就将其放入單連結清單中。
從上圖我們可以發現哈希表是由數組+連結清單組成的,一個長度為16的數組中,每個元素存儲的是一個連結清單的頭結點Bucket桶。那麼這些元素是按照什麼樣的規則存儲到數組中呢。一般情況是通過hash(key)%len獲得,也就是元素的key的哈希值對數組長度取模得到。比如上述哈希表中,12%16=12,28%16=12,108%16=12,140%16=12。是以12、28、108以及140都存儲在數組下标為12的位置。
HashMap其實也是一個線性的數組實作的,是以可以了解為其存儲資料的容器就是一個線性數組。這可能讓我們很不解,一個線性的數組怎麼實作按鍵值對來存取資料呢?這裡HashMap有做一些處理。
首先HashMap裡面實作一個靜态内部類Entry,其重要的屬性有 key , value, next,從屬性key,value我們就能很明顯的看出來Entry就是HashMap鍵值對實作的一個基礎bean,我們上面說到HashMap的基礎就是一個線性數組,這個數組就是Entry[],Map裡面的内容都儲存在Entry[]裡面。
我們看看HashMap中Entry類的代碼:
/** Entry是單向連結清單。
* 它是 “HashMap鍊式存儲法”對應的連結清單。
*它實作了Map.Entry 接口,即實作getKey(), getValue(), setValue(V value), equals(Object o), hashCode()這些函數
**/
static class Entry<K,V> implements Map.Entry<K,V> {
final K key;
V value;
// 指向下一個節點
Entry<K,V> next;
final int hash;
// 構造函數。
// 輸入參數包括"哈希值(h)", "鍵(k)", "值(v)", "下一節點(n)"
Entry(int h, K k, V v, Entry<K,V> n) {
value = v;
next = n;
key = k;
hash = h;
}
public final K getKey() {
return key;
}
public final V getValue() {
return value;
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
// 判斷兩個Entry是否相等
// 若兩個Entry的“key”和“value”都相等,則傳回true。
// 否則,傳回false
public final boolean equals(Object o) {
if (!(o instanceof Map.Entry))
return false;
Map.Entry e = (Map.Entry)o;
Object k1 = getKey();
Object k2 = e.getKey();
if (k1 == k2 || (k1 != null && k1.equals(k2))) {
Object v1 = getValue();
Object v2 = e.getValue();
if (v1 == v2 || (v1 != null && v1.equals(v2)))
return true;
}
return false;
}
// 實作hashCode()
public final int hashCode() {
return (key==null ? 0 : key.hashCode()) ^
(value==null ? 0 : value.hashCode());
}
public final String toString() {
return getKey() + "=" + getValue();
}
// 當向HashMap中添加元素時,繪調用recordAccess()。
// 這裡不做任何處理
void recordAccess(HashMap<K,V> m) {
}
// 當從HashMap中删除元素時,繪調用recordRemoval()。
// 這裡不做任何處理
void recordRemoval(HashMap<K,V> m) {
}
}
HashMap其實就是一個Entry數組,Entry對象中包含了鍵和值,其中next也是一個Entry對象,它就是用來處理hash沖突的,形成一個連結清單。
先看看HashMap類中的一些關鍵屬性:
transient Entry[] table;//存儲元素的實體數組
transient int size;//存放元素的個數
int threshold; //臨界值 當實際大小超過臨界值時,會進行擴容threshold = 加載因子*容量
final float loadFactor; //加載因子
transient int modCount;//被修改的次數
其中loadFactor加載因子是表示Hsah表中元素的填滿的程度.
若:加載因子越大,填滿的元素越多,好處是,空間使用率高了,但:沖突的機會加大了.連結清單長度會越來越長,查找效率降低。
反之,加載因子越小,填滿的元素越少,好處是:沖突的機會減小了,但:空間浪費多了.表中的資料将過于稀疏(很多空間還沒用,就開始擴容了)
沖突的機會越大,則查找的成本越高.
是以,必須在 "沖突的機會"與"空間使用率"之間尋找一種平衡與折衷. 這種平衡與折衷本質上是資料結構中有名的"時-空"沖突的平衡與折衷.
如果機器記憶體足夠,并且想要提高查詢速度的話可以将加載因子設定小一點;相反如果機器記憶體緊張,并且對查詢速度沒有什麼要求的話可以将加載因子設定大一點。不過一般我們都不用去設定它,讓它取預設值0.75就好了。
下面看看HashMap的幾個構造方法:
public HashMap(int initialCapacity, float loadFactor) {
//確定數字合法
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
// Find a power of 2 >= initialCapacity
int capacity = 1; //初始容量
while (capacity < initialCapacity) //確定容量為2的n次幂,使capacity為大于initialCapacity的最小的2的n次幂
capacity <<= 1;
this.loadFactor = loadFactor;
threshold = (int)(capacity * loadFactor);
table = new Entry[capacity];
init();
}
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR;
threshold = (int)(DEFAULT_INITIAL_CAPACITY * DEFAULT_LOAD_FACTOR);
table = new Entry[DEFAULT_INITIAL_CAPACITY];
init();
}
我們可以看到在構造HashMap的時候如果我們指定了加載因子和初始容量的話就調用第一個構造方法,否則的話就是用預設的。預設初始容量為16,預設加載因子為0.75。我們可以看到上面代碼中13-15行,這段代碼的作用是確定容量為2的n次幂,使capacity為大于initialCapacity的最小的2的n次幂,至于為什麼要把容量設定為2的n次幂,我們等下再看。
重點分析下HashMap中用的最多的兩個方法put和get
3、存儲資料
下面看看HashMap存儲資料的過程是怎樣的,首先看看HashMap的put方法:
public V put(K key, V value) {
// 若“key為null”,則将該鍵值對添加到table[0]中。
if (key == null)
return putForNullKey(value);
// 若“key不為null”,則計算該key的哈希值,然後将其添加到該哈希值對應的連結清單中。
int hash = hash(key.hashCode());
//搜尋指定hash值在對應table中的索引
int i = indexFor(hash, table.length);
// 循環周遊Entry數組,若“該key”對應的鍵值對已經存在,則用新的value取代舊的value。然後退出!
for (Entry<K,V> e = table[i]; e != null; e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { //如果key相同則覆寫并傳回舊值
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
//修改次數+1
modCount++;
//将key-value添加到table[i]處
addEntry(hash, key, value, i);
return null;
}
上面程式中用到了一個重要的内部接口:Map.Entry,每個 Map.Entry 其實就是一個 key-value 對。從上面程式中可以看出:當系統決定存儲 HashMap 中的 key-value 對時,完全沒有考慮 Entry 中的 value,僅僅隻是根據 key 來計算并決定每個 Entry 的存儲位置。這也說明了前面的結論:我們完全可以把 Map 集合中的 value 當成 key 的附屬,當系統決定了 key 的存儲位置之後,value 随之儲存在那裡即可。
我們慢慢的來分析這個函數,第2和3行的作用就是處理key值為null的情況,我們看看putForNullKey(value)方法:
private V putForNullKey(V value) {
for (Entry<K,V> e = table[0]; e != null; e = e.next) {
if (e.key == null) { //如果有key為null的對象存在,則覆寫掉
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
addEntry(0, null, value, 0); //如果鍵為null的話,則hash值為0
return null;
}
注意:如果key為null的話,hash值為0,對象存儲在數組中索引為0的位置。即table[0]
我們再回去看看put方法中第4行,它是通過key的hashCode值計算hash碼,下面是計算hash碼的函數:
//計算hash值的方法 通過鍵的hashCode來計算
static int hash(int h) {
// This function ensures that hashCodes that differ only by
// constant multiples at each bit position have a bounded
// number of collisions (approximately 8 at default load factor).
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
得到hash碼之後就會通過hash碼去計算出應該存儲在數組中的索引,計算索引的函數如下:
static int indexFor(int h, int length) { //根據hash值和數組長度算出索引值
return h & (length-1); //這裡不能随便算取,用hash&(length-1)是有原因的,這樣可以確定算出來的索引是在數組大小範圍内,不會超出
}
這個我們要重點說下,我們一般對哈希表的散列很自然地會想到用hash值對length取模(即除法散列法),Hashtable中也是這樣實作的,這種方法基本能保證元素在哈希表中散列的比較均勻,但取模會用到除法運算,效率很低,HashMap中則通過h&(length-1)的方法來代替取模,同樣實作了均勻的散列,但效率要高很多,這也是HashMap對Hashtable的一個改進。
接下來,我們分析下為什麼哈希表的容量一定要是2的整數次幂。首先,length為2的整數次幂的話,h&(length-1)就相當于對length取模,這樣便保證了散列的均勻,同時也提升了效率;其次,length為2的整數次幂的話,為偶數,這樣length-1為奇數,奇數的最後一位是1,這樣便保證了h&(length-1)的最後一位可能為0,也可能為1(這取決于h的值),即與後的結果可能為偶數,也可能為奇數,這樣便可以保證散列的均勻性,而如果length為奇數的話,很明顯length-1為偶數,它的最後一位是0,這樣h&(length-1)的最後一位肯定為0,即隻能為偶數,這樣任何hash值都隻會被散列到數組的偶數下标位置上,這便浪費了近一半的空間,是以,length取2的整數次幂,是為了使不同hash值發生碰撞的機率較小,這樣就能使元素在哈希表中均勻地散列。
這看上去很簡單,其實比較有玄機的,我們舉個例子來說明:
假設數組長度分别為15和16,優化後的hash碼分别為8和9,那麼&運算後的結果如下:
h & (table.length-1) hash table.length-1
8 & (15-1): 1000 & 1110 = 1000
9 & (15-1): 1001 & 1110 = 1000
-----------------------------------------------------------------------------------------------------------------------
8 & (16-1): 1000 & 1111 = 1000
9 & (16-1): 1001 & 1111 = 1001
從上面的例子中可以看出:
當它們和15-1(1110)“與”的時候,産生了相同的結果,也就是說它們會定位到數組中的同一個位置上去,這就産生了碰撞,8和9會被放到數組中的同一個位置上形成連結清單,那麼查詢的時候就需要周遊這個連結清單,得到8或者9,這樣就降低了查詢的效率。同時,我們也可以發現,當數組長度為15的時候,hash值會與15-1(1110)進行“與”,那麼 最後一位永遠是0,而0001,0011,0101,1001,1011,0111,1101這幾個位置永遠都不能存放元素了,空間浪費相當大,更糟的是這種情況中,數組可以使用的位置比數組長度小了很多,這意味着進一步增加了碰撞的幾率,減慢了查詢的效率!
而當數組長度為16時,即為2的n次方時,2n-1得到的二進制數的每個位上的值都為1,這使得在低位上&時,得到的和原hash的低位相同,加之hash(int h)方法對key的hashCode的進一步優化,加入了高位計算,就使得隻有相同的hash值的兩個值才會被放到數組中的同一個位置上形成連結清單。
是以說,當數組長度為2的n次幂的時候,不同的key算得得index相同的幾率較小,那麼資料在數組上分布就比較均勻,也就是說碰撞的幾率小,相對的,查詢的時候就不用周遊某個位置上的連結清單,這樣查詢效率也就較高了。
根據上面 put 方法的源代碼可以看出,當程式試圖将一個key-value對放入HashMap中時,程式首先根據該 key 的 hashCode() 傳回值決定該 Entry 的存儲位置:
- 如果兩個 Entry 的 key 的 hashCode() 傳回值相同,那它們的存儲位置相同。
- 如果這兩個 Entry 的 key 通過 equals 比較傳回 true,新添加 Entry 的 value 将覆寫集合中原有 Entry 的 value,但key不會覆寫。
- 如果這兩個 Entry 的 key 通過 equals 比較傳回 false,新添加的 Entry 将與集合中原有 Entry 形成 Entry 鍊,而且新添加的 Entry 位于 Entry 鍊的頭部——
具體說明繼續看 addEntry() 方法的說明。
void addEntry(int hash, K key, V value, int bucketIndex) {
Entry<K,V> e = table[bucketIndex]; //如果要加入的位置有值,将該位置原先的值設定為新entry的next,也就是新entry連結清單的下一個節點
table[bucketIndex] = new Entry<>(hash, key, value, e);
if (size++ >= threshold) //如果大于臨界值就擴容
resize(2 * table.length); //以2的倍數擴容
}
參數bucketIndex就是indexFor函數計算出來的索引值,第2行代碼是取得數組中索引為bucketIndex的Entry對象,第3行就是用hash、key、value建構一個新的Entry對象放到索引為bucketIndex的位置,并且将該位置原先的對象設定為新對象的next構成連結清單。
第4行和第5行就是判斷put後size是否達到了臨界值threshold,如果達到了臨界值就要進行擴容,HashMap擴容是擴為原來的兩倍。
resize()方法如下:
重新調整HashMap的大小,newCapacity是調整後的機關
void resize(int newCapacity) {
Entry[] oldTable = table;
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return;
}
Entry[] newTable = new Entry[newCapacity];
transfer(newTable);//用來将原先table的元素全部移到newTable裡面
table = newTable; //再将newTable指派給table
threshold = (int)(newCapacity * loadFactor);//重新計算臨界值
}
建立了一個HashMap的底層數組,上面代碼中第10行為調用transfer方法,将HashMap的全部元素添加到新的HashMap中,并重新計算元素在新的數組中的索引位置
當HashMap中的元素越來越多的時候,hash沖突的幾率也就越來越高,因為數組的長度是固定的。是以為了提高查詢的效率,就要對HashMap的數組進行擴容,數組擴容這個操作也會出現在ArrayList中,這是一個常用的操作,而在HashMap數組擴容之後,最消耗性能的點就出現了:原數組中的資料必須重新計算其在新數組中的位置,并放進去,這就是resize。
那麼HashMap什麼時候進行擴容呢?當HashMap中的元素個數超過數組大小*loadFactor時,就會進行數組擴容,loadFactor的預設值為0.75,這是一個折中的取值。也就是說,預設情況下,數組大小為16,那麼當HashMap中元素個數超過16*0.75=12的時候,就把數組的大小擴充為 2*16=32,即擴大一倍,然後重新計算每個元素在數組中的位置,擴容是需要進行數組複制的,複制數組是非常消耗性能的操作,是以如果我們已經預知HashMap中元素的個數,那麼預設元素的個數能夠有效的提高HashMap的性能。
5、資料讀取
public V get(Object key) {
if (key == null)
return getForNullKey();
int hash = hash(key.hashCode());
for (Entry<K,V> e = table[indexFor(hash, table.length)];
e != null;
e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k)))
return e.value;
}
return null;
}
有了上面存儲時的hash算法作為基礎,了解起來這段代碼就很容易了。從上面的源代碼中可以看出:從HashMap中get元素時,首先計算key的hashCode,找到數組中對應位置的某一進制素,然後通過key的equals方法在對應位置的連結清單中找到需要的元素。
歸納起來簡單地說,HashMap 在底層将 key-value 當成一個整體進行處理,這個整體就是一個 Entry 對象。HashMap 底層采用一個 Entry[] 數組來儲存所有的 key-value 對,當需要存儲一個 Entry 對象時,會根據hash算法來決定其在數組中的存儲位置,在根據equals方法決定其在該數組位置上的連結清單中的存儲位置;當需要取出一個Entry時,也會根據hash算法找到其在數組中的存儲位置,再根據equals方法從該位置上的連結清單中取出該Entry。
6、HashMap的性能參數:
HashMap 包含如下幾個構造器:
HashMap():建構一個初始容量為 16,負載因子為 0.75 的 HashMap。
HashMap(int initialCapacity):建構一個初始容量為 initialCapacity,負載因子為 0.75 的 HashMap。
HashMap(int initialCapacity, float loadFactor):以指定初始容量、指定的負載因子建立一個 HashMap。
HashMap的基礎構造器HashMap(int initialCapacity, float loadFactor)帶有兩個參數,它們是初始容量initialCapacity和加載因子loadFactor。
initialCapacity:HashMap的最大容量,即為底層數組的長度。
loadFactor:負載因子loadFactor定義為:散清單的實際元素數目(n)/ 散清單的容量(m)。
負載因子衡量的是一個散清單的空間的使用程度,負載因子越大表示散清單的裝填程度越高,反之愈小。對于使用連結清單法的散清單來說,查找一個元素的平均時間是O(1+a),是以如果負載因子越大,對空間的利用更充分,然而後果是查找效率的降低;如果負載因子太小,那麼散清單的資料将過于稀疏,對空間造成嚴重浪費。
HashMap的實作中,通過threshold字段來判斷HashMap的最大容量:
threshold = (int)(capacity * loadFactor);
結合負載因子的定義公式可知,threshold就是在此loadFactor和capacity對應下允許的最大元素數目,超過這個數目就重新resize,以降低實際的負載因子。預設的的負載因子0.75是對空間和時間效率的一個平衡選擇。當容量超出此最大容量時, resize後的HashMap容量是容量的兩倍:
if (size++ >= threshold)
resize(2 * table.length);
7、Fail-Fast機制:
我們知道java.util.HashMap不是線程安全的,是以如果在使用疊代器的過程中有其他線程修改了map,那麼将抛出ConcurrentModificationException,這就是所謂fail-fast政策。
這一政策在源碼中的實作是通過modCount域,modCount顧名思義就是修改次數,對HashMap内容的修改都将增加這個值,那麼在疊代器初始化過程中會将這個值賦給疊代器的expectedModCount。
private abstract class HashIterator<E> implements Iterator<E> {
Entry<K,V> next; // next entry to return
int expectedModCount; // For fast-fail
int index; // current slot
Entry<K,V> current; // current entry
HashIterator() {
expectedModCount = modCount;
if (size > 0) { // advance to first entry
Entry[] t = table;
while (index < t.length && (next = t[index++]) == null)
;
}
}
public final boolean hasNext() {
return next != null;
}
final Entry<K,V> nextEntry() {
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
Entry<K,V> e = next;
if (e == null)
throw new NoSuchElementException();
if ((next = e.next) == null) {
Entry[] t = table;
while (index < t.length && (next = t[index++]) == null)
;
}
current = e;
return e;
}
public void remove() {
if (current == null)
throw new IllegalStateException();
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
Object k = current.key;
current = null;
HashMap.this.removeEntryForKey(k);
expectedModCount = modCount;
}
}
在疊代過程中,判斷modCount跟expectedModCount是否相等,如果不相等就表示已經有其他線程修改了Map:
注意到modCount聲明為volatile,保證線程之間修改的可見性。
final Entry<K,V> nextEntry() {
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
在HashMap的API中指出:
由所有HashMap類的“collection 視圖方法”所傳回的疊代器都是快速失敗的:在疊代器建立之後,如果從結構上對映射進行修改,除非通過疊代器本身的 remove 方法,其他任何時間任何方式的修改,疊代器都将抛出 ConcurrentModificationException。是以,面對并發的修改,疊代器很快就會完全失敗,而不冒在将來不确定的時間發生任意不确定行為的風險。
注意,疊代器的快速失敗行為不能得到保證,一般來說,存在非同步的并發修改時,不可能作出任何堅決的保證。快速失敗疊代器盡最大努力抛出 ConcurrentModificationException。是以,編寫依賴于此異常的程式的做法是錯誤的,正确做法是:疊代器的快速失敗行為應該僅用于檢測程式錯誤
Map map = Collections.synchronizedMap(new HashMap());

/** Entry是單向連結清單。
* 它是 “HashMap鍊式存儲法”對應的連結清單。
*它實作了Map.Entry 接口,即實作getKey(), getValue(), setValue(V value), equals(Object o), hashCode()這些函數
**/
static class Entry<K,V> implements Map.Entry<K,V> {
final K key;
V value;
// 指向下一個節點
Entry<K,V> next;
final int hash;
// 構造函數。
// 輸入參數包括"哈希值(h)", "鍵(k)", "值(v)", "下一節點(n)"
Entry(int h, K k, V v, Entry<K,V> n) {
value = v;
next = n;
key = k;
hash = h;
}
public final K getKey() {
return key;
}
public final V getValue() {
return value;
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
// 判斷兩個Entry是否相等
// 若兩個Entry的“key”和“value”都相等,則傳回true。
// 否則,傳回false
public final boolean equals(Object o) {
if (!(o instanceof Map.Entry))
return false;
Map.Entry e = (Map.Entry)o;
Object k1 = getKey();
Object k2 = e.getKey();
if (k1 == k2 || (k1 != null && k1.equals(k2))) {
Object v1 = getValue();
Object v2 = e.getValue();
if (v1 == v2 || (v1 != null && v1.equals(v2)))
return true;
}
return false;
}
// 實作hashCode()
public final int hashCode() {
return (key==null ? 0 : key.hashCode()) ^
(value==null ? 0 : value.hashCode());
}
public final String toString() {
return getKey() + "=" + getValue();
}
// 當向HashMap中添加元素時,繪調用recordAccess()。
// 這裡不做任何處理
void recordAccess(HashMap<K,V> m) {
}
// 當從HashMap中删除元素時,繪調用recordRemoval()。
// 這裡不做任何處理
void recordRemoval(HashMap<K,V> m) {
}
}
transient Entry[] table;//存儲元素的實體數組
transient int size;//存放元素的個數
int threshold; //臨界值 當實際大小超過臨界值時,會進行擴容threshold = 加載因子*容量
final float loadFactor; //加載因子
transient int modCount;//被修改的次數
public HashMap(int initialCapacity, float loadFactor) {
//確定數字合法
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
// Find a power of 2 >= initialCapacity
int capacity = 1; //初始容量
while (capacity < initialCapacity) //確定容量為2的n次幂,使capacity為大于initialCapacity的最小的2的n次幂
capacity <<= 1;
this.loadFactor = loadFactor;
threshold = (int)(capacity * loadFactor);
table = new Entry[capacity];
init();
}
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR;
threshold = (int)(DEFAULT_INITIAL_CAPACITY * DEFAULT_LOAD_FACTOR);
table = new Entry[DEFAULT_INITIAL_CAPACITY];
init();
}
public V put(K key, V value) {
// 若“key為null”,則将該鍵值對添加到table[0]中。
if (key == null)
return putForNullKey(value);
// 若“key不為null”,則計算該key的哈希值,然後将其添加到該哈希值對應的連結清單中。
int hash = hash(key.hashCode());
//搜尋指定hash值在對應table中的索引
int i = indexFor(hash, table.length);
// 循環周遊Entry數組,若“該key”對應的鍵值對已經存在,則用新的value取代舊的value。然後退出!
for (Entry<K,V> e = table[i]; e != null; e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { //如果key相同則覆寫并傳回舊值
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
//修改次數+1
modCount++;
//将key-value添加到table[i]處
addEntry(hash, key, value, i);
return null;
}
private V putForNullKey(V value) {
for (Entry<K,V> e = table[0]; e != null; e = e.next) {
if (e.key == null) { //如果有key為null的對象存在,則覆寫掉
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
addEntry(0, null, value, 0); //如果鍵為null的話,則hash值為0
return null;
}
//計算hash值的方法 通過鍵的hashCode來計算
static int hash(int h) {
// This function ensures that hashCodes that differ only by
// constant multiples at each bit position have a bounded
// number of collisions (approximately 8 at default load factor).
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
static int indexFor(int h, int length) { //根據hash值和數組長度算出索引值
return h & (length-1); //這裡不能随便算取,用hash&(length-1)是有原因的,這樣可以確定算出來的索引是在數組大小範圍内,不會超出
}
h & (table.length-1) hash table.length-1
8 & (15-1): 1000 & 1110 = 1000
9 & (15-1): 1001 & 1110 = 1000
-----------------------------------------------------------------------------------------------------------------------
8 & (16-1): 1000 & 1111 = 1000
9 & (16-1): 1001 & 1111 = 1001
void addEntry(int hash, K key, V value, int bucketIndex) {
Entry<K,V> e = table[bucketIndex]; //如果要加入的位置有值,将該位置原先的值設定為新entry的next,也就是新entry連結清單的下一個節點
table[bucketIndex] = new Entry<>(hash, key, value, e);
if (size++ >= threshold) //如果大于臨界值就擴容
resize(2 * table.length); //以2的倍數擴容
}
void resize(int newCapacity) {
Entry[] oldTable = table;
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return;
}
Entry[] newTable = new Entry[newCapacity];
transfer(newTable);//用來将原先table的元素全部移到newTable裡面
table = newTable; //再将newTable指派給table
threshold = (int)(newCapacity * loadFactor);//重新計算臨界值
}
public V get(Object key) {
if (key == null)
return getForNullKey();
int hash = hash(key.hashCode());
for (Entry<K,V> e = table[indexFor(hash, table.length)];
e != null;
e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k)))
return e.value;
}
return null;
}
threshold = (int)(capacity * loadFactor);
if (size++ >= threshold)
resize(2 * table.length);
private abstract class HashIterator<E> implements Iterator<E> {
Entry<K,V> next; // next entry to return
int expectedModCount; // For fast-fail
int index; // current slot
Entry<K,V> current; // current entry
HashIterator() {
expectedModCount = modCount;
if (size > 0) { // advance to first entry
Entry[] t = table;
while (index < t.length && (next = t[index++]) == null)
;
}
}
public final boolean hasNext() {
return next != null;
}
final Entry<K,V> nextEntry() {
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
Entry<K,V> e = next;
if (e == null)
throw new NoSuchElementException();
if ((next = e.next) == null) {
Entry[] t = table;
while (index < t.length && (next = t[index++]) == null)
;
}
current = e;
return e;
}
public void remove() {
if (current == null)
throw new IllegalStateException();
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
Object k = current.key;
current = null;
HashMap.this.removeEntryForKey(k);
expectedModCount = modCount;
}
}
final Entry<K,V> nextEntry() {
if (modCount != expectedModCount)
throw new ConcurrentModificationException();