哈希表即散列表(Hash table),是根据关键码值(Key value)而直接进行访问的数据结构。也就是说,它通过把关键码值映射到表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做散列函数,存放记录的数组叫做散列表(哈希表)。处理哈希冲突的方式有开放地址法,链地址法,再散列法,公共溢出区法等
HashMap是Java JDK中系统类库中所提供的一种容器,它是基于哈希表的Map接口的实现,系统类库中的HashMap处理哈希冲突的方式是采用链地址法,即数组+链表的形式,更具体一点是数组+链表/红黑树的形式,对于数组来说,它在内存空间中是连续的,占用的内存比较多,每当我们添加或删除一个元素的时候时间复杂度比较大,查询容易。对于链表,它在内存空间中是分散的,占用的内存也是分散的,添加删除一个元素的时候时间复杂度比较小,但查询难。所以综合二者的特性HashMap达到了既查询容易,插入删除也容易的数据结构。
HashMap的简易数据结构图:
1.实现类及接口以及成员变量
public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable {//实现类以及接口
private static final long serialVersionUID = 362498820763181265L;
//默认的初始容量为1左移4位即16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
//最大容量为2的30次方
static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认的加载因子为0.75f
static final float DEFAULT_LOAD_FACTOR = 0.75f;
static final int TREEIFY_THRESHOLD = 8;
static final int UNTREEIFY_THRESHOLD = 6;
static final int MIN_TREEIFY_CAPACITY = 64;
2.构造函数
//构造一个初始容量为initialCapacity,负载因子为loadFactor的空的HashMap
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)//如果用户自定义初始容量小于0就抛出一个异常
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)//如果用户自定义的初始容量大于成员变量中的最大初始容量就用最大容量作为初始容量
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))//同样负载因子也不允许小于0,或者当负载因子不是数字时,就抛出异常
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
//构造一个初始容量为initialCapacity,负载因子为0.75的空HashMap
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
//无参构造方法,构造一个空HashMap初始容量为16,负载因子为0.75
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
//构造一个能容下指定Map且负载因子为0.75的HashMap
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
3.put方法
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//先判断数组table是否为空或长度为0
if ((tab = table) == null || (n = tab.length) == 0)
//是的话就用resize()方法扩容
n = (tab = resize()).length;
//计算要插入元素的下标索引,系统类库所提供的哈希算法是(n-1)&hash
//源码中的hash计算方式为(key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16)
if ((p = tab[i = (n - 1) & hash]) == null)
//如果此位置是空直接插入到此位置上
tab[i] = newNode(hash, key, value, null);
//否则就是数组此位置上已经有元素了,必须链接到相应位置上,此时又分链接到链表和红黑树上两种情况
else {
Node<K,V> e; K k;
//这是在干嘛我好像还没看懂
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//链接到红黑树上
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
//否则就是链接到后面的链表上
else {
//遍历链表
for (int binCount = 0; ; ++binCount) {
//遍历到末尾也没有找到K相同的节点就尾插
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
//插入新节点后也要判断节点数是否达到链表的上限需要转为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//e不为空替换value值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
4.resize( )方法
final Node<K,V>[] resize() {
//保存当前table
Node<K,V>[] oldTab = table;
//保存当前table容量
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//保存当前阈值
int oldThr = threshold;
//初始化新的table容量和阈值并且都为0
int newCap, newThr = 0;
if (oldCap > 0) {
//如果旧table容量已经大于了最大容量
if (oldCap >= MAXIMUM_CAPACITY) {
//令阈值等于最大整形数
threshold = Integer.MAX_VALUE;
return oldTab;
}
//如果新table容量为旧table容量2倍扩容后依然小于table最大容量并且旧table容量大于等于默认容量(16),那么设立新table的阈值为旧table阈值的2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
//后面的英文注释是系统类库中标注的意思是执行此if语句时用户已经传入了容量
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
//调用无参构造,也就是新table长度为16
newCap = DEFAULT_INITIAL_CAPACITY;
//并且设置它的阈值为16*0.75=12
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
//创建新的table数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
//旧table数组不为空说明是在进行扩容操作,开始元素转移
if (oldTab != null) {
//遍历旧的table
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
//如果旧table此位置不为空就代表要转移此位置上的元素
if ((e = oldTab[j]) != null) {
//先置空释放掉此位置
oldTab[j] = null;
//如果元素无后续节点说明不存在哈希冲突
if (e.next == null)
//计算新的索引下标
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
HashMap类中默认容量DEFAULT_INITIAL_CAPACITY为16(即2的3次幂),而最大容量MAXIMUM_CAPACITY为2的30次幂,resize( )中的扩容方式也是2倍方式进行扩容,也就是说HashMap中table数组的长度必须是2的一定次幂,而为什么table数组无论是默认长度还是扩容后长度必须满足2的次幂而不能是其他方式比如2倍减1方式扩容是与其所采用的hash算法有关的
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
源码中的hash算法是调用Object类中的hashCode( )方法,再把所得到的hashCode值与16进行异或运算和无符号右移运算去得到hash值即散列码,然后在put方法中索引下标 index=tab[i = (n - 1) & hash],即把hash值与数组长度减1进行与运算
默认容量16其二进制码为10000,数组长度减1为15二进制码为01111,在&运算时如果用10000每次大概率得到的是000000,因为&运算两个都为1的时候才能得到1,二16的二进制码中本身就已经多数为0了,所以每次进行下标索引的运算时很容易就会发生散列冲突,但是相比length-1即15因为本身其二进制已经多数为1再次进行&运算时所得到的索引码就会比较均匀,大大减少了哈希冲突
1.HashMap与Hashtable:
1)HashMap默认数组大小是16并且数组大小一定是2的次幂,扩容方式是2倍方式扩容;Hashtable默认数组大小是11,扩容方式是2倍减1;
2)HashMap允许有空键值,而Hashtable不允许;
3)Hashtable所使用的是hash算法是int index = (hash & 0x7FFFFFFF) % tab.length;而HashMap中所使用的hash算法是Object类中的hashCode;
4)Hashtable的方法是线程安全的,而HashMap不支持线程同步;
总体而言HashMap的效率更高
LinkedHashMap和TreeMap:
LinkedHashMap底层结构为一个双向链表可以保持顺序,即可以按键入顺序输出;
TreeMap底层结构是基于红黑树实现的,它能把存入的键进行排序按自然顺序输出