下面以HashMap為例子,深入對Map的實作機制進行了解,在這個過程中,請打開jdk源碼。
Hash算法
HashMap使用Hash算法,是以在解剖HashMap之間,需要先簡單的了解Hash算法,Hash算法一般也成為雜湊演算法,通過雜湊演算法将任意的值轉化成固定的長度輸出,該輸出就是散列值,這是一種壓縮映射,也就是,散列值的空間遠遠小于輸入的值空間。
簡單的說,hash算法的意義在于提供了一種快速存取資料的方法,它用一種算法建立鍵值與真實值之間的對應關系,(每一個真實值隻能有一個鍵值,但是一個鍵值可以對應多個真實值),這樣可以快速在數組等裡面存取資料。
下面我們建立一個HashMap,然後往裡面放入12對key-value,這個HashMap的預設數組長度為16,我們的key分别存放在該數組的格子中,每個格子下面存放的元素又是以連結清單的方式存放元素。
public static void main(String[] args) {
Map map = new HashMap();
map.put("What", "chenyz");
map.put("You", "chenyz");
map.put("Don't", "chenyz");
map.put("Know", "chenyz");
map.put("About", "chenyz");
map.put("Geo", "chenyz");
map.put("APIs", "chenyz");
map.put("Can't", "chenyz");
map.put("Hurt", "chenyz");
map.put("you", "chenyz");
map.put("google", "chenyz");
map.put("map", "chenyz");
map.put("hello", "chenyz");
}
當我們新添加一個元素時,首先我們通過Hash算法計算出這個元素的Hash值的hashcode,通過這個hashcode的值,我們就可以計算出這個新元素應該存放在這個hash表的哪個格子裡面,如果這個格子中已經存在元素,那麼就把新的元素加入到已經存在格子元素的連結清單中。
運作上面的程式,我們對HashMap源碼進行一點修改,列印出每個key對象的hash值
What-->hash值:8
You-->hash值:3
Don't-->hash值:7
Know-->hash值:13
About-->hash值:11
Geo-->hash值:12
APIs-->hash值:1
Can't-->hash值:7
Hurt-->hash值:1
you-->hash值:10
google-->hash值:3
map-->hash值:8
hello-->hash值:0
計算出來的Hash值分别代表該key應該存放在Hash表中對應數字的格子中,如果該格子已經有元素存在,那麼該key就以連結清單的方式依次放入格子中
從上表可以看出,Hash表是線性表和連結清單的綜合所得,根據資料結構的定義,可以得出粗劣的結論,Hash算法的存取速度要比數組差一些,但是比起單純的連結清單,在查找和存取方面卻要好多。
如果要查找一個元素時,同樣的方式,通過Hash函數計算出這個元素的Hash值hashcode,然後通過這個hashcode值,直接找到跟這個hash值相對應的線性格子,進如該格子後,對這個格子存放的連結清單元素逐個進行比較,直到找到對應的hash值。
在簡單了解完Hash算法後,我們打開HashMap源碼
初始化HashMap
下面我們看看Map map = new HashMap();這段代碼究竟做了什麼,發生了什麼資料結構的變化。
HashMap中幾個重要的屬性
transient Entry[] table;
用來儲存key-value的對象Entry數組,也就是Hash表
transient int size;
傳回HashMap的鍵值對個數
final float loadFactor;
負載因子,用來決定Entry數組是否擴容的因子,HashMap預設是0.75f
int threshold;
重構因子,(capacity * load factor)負載因子與Entry[]數組容積的乘值
public class HashMap<K,V>
extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable
{
int threshold;
final float loadFactor;
transient Entry[] table;
static final float DEFAULT_LOAD_FACTOR = 0.75f;
static final int DEFAULT_INITIAL_CAPACITY = 16;
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
// Find a power of 2 >= initialCapacity
int capacity = 1;
while (capacity < initialCapacity)
capacity <<= 1;
this.loadFactor = loadFactor;
threshold = (int)(capacity * loadFactor);
table = new Entry[capacity];
init();
以public HashMap(int initialCapacity, float loadFactor)構造函數為例,另外兩個構造函數實際上也是以同種方式來建構HashMap.
首先是要确定hashMap的初始化的長度,這裡使用的政策是循環查出一個大于initialCapacity的2的次方的數,例如initialCapacity的值是10,那麼大于10的數是2的4次方,也就是16,capacity的值被賦予了16,那麼實際上table數組的長度是16,之是以采用這樣的政策來建構Hash表的長度,是因為2的次方運算對于計算機來說是有相當的效率。
loadFactor,被稱為負載因子,HashMap的預設負載因子是0.75f
threshold,接下來是重構因子,由負載因子和容量的乘機組成,它表示當HashMap元素被存放了多少個之後,需要對HashMap進行重構。
通過這一系列的計算和定義後,初始化Entry[] table;
put(key,value)
接下來看一對key-value是如何被存放到HashMap中:put(key,value)
public V put(K key, V value) {
if (key == null)
return putForNullKey(value);
int hash = hash(key.hashCode());
int i = indexFor(hash, table.length);
System.out.println(key+"-->hash值:"+i);//這就是剛才程式列印出來的key對應hash值
for (Entry<K,V> e = table[i]; e != null; e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
addEntry(hash, key, value, i);
return null;
static int hash(int h) {
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
static int indexFor(int h, int length) {
return h & (length-1);
這裡是整個hash的關鍵,請打開源碼檢視一步一步檢視。
hash(key.hashCode()) 計算出key的hash碼 //對于hash()的算法,這裡有一篇分析很透徹的文章<HashMap hash方法分析>
indexFor(hash, table.length) 通過一個與算法計算出來,該key應在存放在Hash表的哪個格子中。
for (Entry<K,V> e = table[i]; e != null; e = e.next) 然後再周遊table[i]格中的連結清單,判斷是否已經存在一樣的key,如果存在一樣的key值,那麼就用新的value覆寫舊的value,并把舊的value值傳回。
addEntry(hash, key, value, i) 如果經過周遊連結清單沒有發現同樣的key,那麼進行addEntry函數的操作,增加目前key到hash表中的第i個格子中的連結清單中
void addEntry(int hash, K key, V value, int bucketIndex) {
Entry<K,V> e = table[bucketIndex];
table[bucketIndex] = new Entry<K,V>(hash, key, value, e);
if (size++ >= threshold)
resize(2 * table.length);
Entry<K,V> e = table[bucketIndex]; 建立一個Entry對象來存放鍵值(ps:Entry對象是一個連結清單對象)
table[bucketIndex] = new Entry<K,V>(hash, key, value, e); 将Entry對象添加到連結清單中
if (size++ >= threshold) resize(2 * table.length); 最後将size進行自增,判斷size值是否大于重構因子,如果大于那麼就是用resize進行擴容重構。
void resize(int newCapacity) {
Entry[] oldTable = table;
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return;
Entry[] newTable = new Entry[newCapacity];
transfer(newTable);
table = newTable;
threshold = (int)(newCapacity * loadFactor);
這裡為什麼是否需要擴容重構,其實是涉及到負載因子的性能問題
loadFactor負載因子
上面說過loadFactor是一個hashMap的決定性屬性,HashSet和HashMap的預設負載因子都是0.75,它表示,如果哈希表的容量超過3/4時,将自動成倍的增加哈希表的容量,這個值是權衡了時間和空間的成本,如果負載因子較高,雖然會減少對記憶體空間的需求,但也會增加查找資料的時間開銷,無論是put()和get()都涉及到對資料進行查找的動作,是以負載因子是不适宜設定過高
get(key)
接下來看看get(key)做了什麼
public V get(Object key) {
return getForNullKey();
for (Entry<K,V> e = table[indexFor(hash, table.length)];
e != null;
e = e.next) {
if (e.hash == hash && ((k = e.key) == key || key.equals(k)))
return e.value;
這些動作似乎是跟put(key,value)相識,通過hash算法擷取key的hash碼,再通過indexFor定位出該key存在于table的哪一個下表,擷取該下标然後對下标中的連結清單進行周遊比對,如果有符合就直接傳回該key的value值。
keySet()
這裡還涉及另一個問題,上面說了HashMap是跟set沒有任何親屬關系,但map也一樣實作了keySet接口,下面譜析一下keySet在hashMap中是如何實作的,這裡給出部分代碼,請結合源碼檢視
public K next() {
return nextEntry().getKey();
final Entry<K,V> nextEntry() {
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
Entry<K,V> e = next;
if (e == null)
throw new NoSuchElementException();
if ((next = e.next) == null) {
Entry[] t = table;
while (index < t.length && (next = t[index++]) == null)
;
current = e;
return e;
代碼很簡單,就是對每個格子裡面的連結清單進行周遊,也正是這個原因,當我們依次将key值put進hashMap中,但在使用map.entrySet().iterator()進行周遊時候卻不是put時候的順序。
擴容
在前面說到put函數的時候,已經提過了擴容的問題
if (size++ >= threshold)
resize(2 * table.length);
這裡一個是否擴容的判斷,當資料達到了threshold所謂的重構因子,而不是HashMap的最大容量,就進行擴容。
void transfer(Entry[] newTable) {
Entry[] table;
int newCapacity = newTable.length;
for (int j = 0; j < src.length; j++) {
Entry<K,V> e = src[j];
if (e != null) {
src[j] = null;
do {
Entry<K,V> next = e.next;
int i = indexFor(e.hash, newCapacity);
e.next = newTable[i];
newTable[i] = e;
e = next;
} while (e != null);
transfer方法實際上是将所有的元素重新進行一些hash,這是因為容量變化了,每個元素相對應的hash值也會不一樣。
使用HashMap
1.不要再高并發中使用HashMap,HashMap是線程不安全,如果被多個線程共享之後,将可能發生不可預知的問題。
2.如果資料大小事固定的,最好在初始化的時候就給HashMap一個合理的容量值,如果使用new HashMap()預設構造函數,重構因子的值是16*0.75=12,當HashMap的容量超過了12後,就會進行一系列的擴容運算,重建一個原來成倍的數組,并且對原來存在的元素進行重新的hash運算,如果你的資料是有成千上萬的,那麼你的成千上萬的資料也要跟這你的擴容不斷的hash,這将産生高額的記憶體和cpu的大量開銷。
當然啦,HashMap的函數還有很多,不過都是基于table的連結清單進行操作,當然也就是hash算法,Map & hashMap在平時我們的應用非常多,最重要的是我們要對每句代碼中每塊資料結構變化心中有數