Java集合源码分析(九)——HashSet

简介

HashSet就是一个集合,里面不能有重复的元素,元素也是无序的。
HashSet其实就是调用了HashMap实现的,所以,它也不是线程安全的。
HashSet通过iterator()返回的迭代器是fail-fast的。

源码分析

由于HashSet的源码很短也很容易理解,这里就不再选取分析了。


package java.util;

import java.io.InvalidObjectException;

public class HashSet<E>
    extends AbstractSet<E>
    implements Set<E>, Cloneable, java.io.Serializable
{
    static final long serialVersionUID = -5024744406713321676L;
	// 内部的HashMap,后面的操作都是对它的调用
    private transient HashMap<E,Object> map;
	// 用于插入HashMap时的固定值
    private static final Object PRESENT = new Object();

	// 默认构造
    public HashSet() {
        map = new HashMap<>();
    }
	// 填入集合的构造
    public HashSet(Collection<? extends E> c) {
    	// 这里为什么需要在原来的容量和16中取最大值呢?看总结
        map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));
        addAll(c);
    }
	// 初始化容量和加载因子的构造
    public HashSet(int initialCapacity, float loadFactor) {
        map = new HashMap<>(initialCapacity, loadFactor);
    }
	// 初始化容量的构造
    public HashSet(int initialCapacity) {
        map = new HashMap<>(initialCapacity);
    }
	// 采用LinkedHashMap来实现
    HashSet(int initialCapacity, float loadFactor, boolean dummy) {
        map = new LinkedHashMap<>(initialCapacity, loadFactor);
    }
	// 获取迭代器
    public Iterator<E> iterator() {
        return map.keySet().iterator();
    }

    public int size() {
        return map.size();
    }
    
    public boolean isEmpty() {
        return map.isEmpty();
    }

    public boolean contains(Object o) {
        return map.containsKey(o);
    }
	// 添加元素,这里添加的值就是上面定义的默认值
    public boolean add(E e) {
        return map.put(e, PRESENT)==null;
    }
	// 删除元素
    public boolean remove(Object o) {
        return map.remove(o)==PRESENT;
    }

    public void clear() {
        map.clear();
    }

	// 克隆函数,直接用map的clone函数,将原来的map克隆到新的map
    @SuppressWarnings("unchecked")
    public Object clone() {
        try {
            HashSet<E> newSet = (HashSet<E>) super.clone();
            newSet.map = (HashMap<E, Object>) map.clone();
            return newSet;
        } catch (CloneNotSupportedException e) {
            throw new InternalError(e);
        }
    }

	// 将set输出为序列化
    private void writeObject(java.io.ObjectOutputStream s)
        throws java.io.IOException {
        // Write out any hidden serialization magic
        s.defaultWriteObject();

        // Write out HashMap capacity and load factor
        s.writeInt(map.capacity());
        s.writeFloat(map.loadFactor());

        // Write out size
        s.writeInt(map.size());

        // Write out all elements in the proper order.
        for (E e : map.keySet())
            s.writeObject(e);
    }

	// 将输入写入set
    private void readObject(java.io.ObjectInputStream s)
        throws java.io.IOException, ClassNotFoundException {
        // Read in any hidden serialization magic
        s.defaultReadObject();

        // Read capacity and verify non-negative.
        int capacity = s.readInt();
        if (capacity < 0) {
            throw new InvalidObjectException("Illegal capacity: " +
                                             capacity);
        }

        // Read load factor and verify positive and non NaN.
        float loadFactor = s.readFloat();
        if (loadFactor <= 0 || Float.isNaN(loadFactor)) {
            throw new InvalidObjectException("Illegal load factor: " +
                                             loadFactor);
        }

        // Read size and verify non-negative.
        int size = s.readInt();
        if (size < 0) {
            throw new InvalidObjectException("Illegal size: " +
                                             size);
        }

        // 计算容量
        capacity = (int) Math.min(size * Math.min(1 / loadFactor, 4.0f),
                HashMap.MAXIMUM_CAPACITY);

        // 创建一个新的内部map
        map = (((HashSet<?>)this) instanceof LinkedHashSet ?
               new LinkedHashMap<E,Object>(capacity, loadFactor) :
               new HashMap<E,Object>(capacity, loadFactor));

        // 依次写入集合元素
        for (int i=0; i<size; i++) {
            @SuppressWarnings("unchecked")
                E e = (E) s.readObject();
            map.put(e, PRESENT);
        }
    }

	// 实现了分割迭代,多线程用
    public Spliterator<E> spliterator() {
        return new HashMap.KeySpliterator<E,Object>(map, 0, -1, 0, 0);
    }
}

总结

HashSet内部都是对HashMap的调用,不同的Key值,相同的value值。
可以通过迭代器和for-each方法对其进行遍历。

为什么在初始化的时候有map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));

  • 首先HashMap的默认初始容量是16,如果填入集合的大小经过变换之后还小于默认初始容量,那么就直接使用默认初始容量。
  • HashMap的默认加载因子就是0.75,当HashMap的“阈值”(阈值=HashMap总的大小*加载因子) < “HashMap实际大小”时,就会将容量翻倍,所以 c.size()/.75f) + 1 计算出来的正好是总的空间大小。
原文地址:https://www.cnblogs.com/lippon/p/14117599.html