天天看点

拆行解码 Java 集合源码之 Hashtable

Java 集合源码解析系列:

  • 拆行解码 Java 集合源码之总览
  • 拆行解码 Java 集合源码之 Collection 的三大体系
  • 拆行解码 Java 集合源码之迭代器
  • 拆行解码 Java 集合源码之 ArrayList
  • 拆行解码 Java 集合源码之 LinkedList
  • 拆行解码 Java 集合源码之 HashMap
  • 拆行解码 Java 集合源码之 Hashtable
  • 拆行解码 Java 集合源码之 LinkedHashMap
  • 拆行解码 Java 集合源码之 PriorityQueue
  • 拆行解码 Java 集合源码之 ArrayDeque

特性

  • 键值都不可以为 null;
  • 重要且影响性能的参数:初始容量和负载因子。
    • 容量是哈希表中存储桶的数量,初始容量只是创建哈希表时的容量。
    • 负载因子是在自动增加哈希表容量之前允许哈希表元素与全部容量的占比。默认是 0.75。
  • 是线程同步的,具备一定的线程安全的。需要高并发的话,还是建议 ConcurrentHashMap。
  • 只有链表结构,不会树化的。

构造函数

  • 初始容量设置时,至少大于0。(如果值为 0,会自动设置为 1)。
  • 默认容量 11,默认负载因子 0.75。
public Hashtable(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal Capacity: "+
                                               initialCapacity);
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal Load: "+loadFactor);

        if (initialCapacity==0)
            initialCapacity = 1;
        this.loadFactor = loadFactor;
        table = new Entry<?,?>[initialCapacity];
        threshold = (int)Math.min(initialCapacity * loadFactor, MAX_ARRAY_SIZE + 1);
    }

    public Hashtable(int initialCapacity) {
        this(initialCapacity, 0.75f);
    }

    public Hashtable() {
        this(11, 0.75f);
    }

    public Hashtable(Map<? extends K, ? extends V> t) {
        this(Math.max(2*t.size(), 11), 0.75f);
        putAll(t);
    }
           

Put

public synchronized V put(K key, V value) {
        // Make sure the value is not null
        if (value == null) {
            throw new NullPointerException();
        }

        // Makes sure the key is not already in the hashtable.
        Entry<?,?> tab[] = table;
        // 直接获取 key 的 hashcode, 而不是再通过扰动函数
        int hash = key.hashCode();
        // (hash & 0x7FFFFFFF) 确保正数
        // 由于tab.length 一般都是素数或奇数, 直接取余即可
        int index = (hash & 0x7FFFFFFF) % tab.length;
        @SuppressWarnings("unchecked")
        Entry<K,V> entry = (Entry<K,V>)tab[index];
        for(; entry != null ; entry = entry.next) {
            // 链表遍历
            if ((entry.hash == hash) && entry.key.equals(key)) {
                V old = entry.value;
                entry.value = value;
                return old;
            }
        }
        // 新增结点
        addEntry(hash, key, value, index);
        return null;
    }
    
    private void addEntry(int hash, K key, V value, int index) {
        Entry<?,?> tab[] = table;
        if (count >= threshold) {
            // 先扩容, 后 put
            rehash();

            tab = table;
            hash = key.hashCode();
            index = (hash & 0x7FFFFFFF) % tab.length;
        }

        // Creates the new entry.
        @SuppressWarnings("unchecked")
        Entry<K,V> e = (Entry<K,V>) tab[index];
        // 头插法, 新节点放在数组上
        tab[index] = new Entry<>(hash, key, value, e);
        count++;
        modCount++;
    }
           

扩容

扩容是 2 * old + 1。

头插法,因为是线程同步的,倒也不担心成环的问题。

protected void rehash() {
        int oldCapacity = table.length;
        Entry<?,?>[] oldMap = table;

        // overflow-conscious code
        // 扩容是 2 * old + 1
        int newCapacity = (oldCapacity << 1) + 1;
        if (newCapacity - MAX_ARRAY_SIZE > 0) {
            if (oldCapacity == MAX_ARRAY_SIZE)
                // Keep running with MAX_ARRAY_SIZE buckets
                return;
            newCapacity = MAX_ARRAY_SIZE;
        }
        Entry<?,?>[] newMap = new Entry<?,?>[newCapacity];

        modCount++;
        threshold = (int)Math.min(newCapacity * loadFactor, MAX_ARRAY_SIZE + 1);
        table = newMap;

        for (int i = oldCapacity ; i-- > 0 ;) {
            for (Entry<K,V> old = (Entry<K,V>)oldMap[i] ; old != null ; ) {
                Entry<K,V> e = old;
                old = old.next;
                
                int index = (e.hash & 0x7FFFFFFF) % newCapacity;
                e.next = (Entry<K,V>)newMap[index];
                // 头插法
                newMap[index] = e;
            }
        }
    }
           

继续阅读