Map源码剖析
HashMap&LinkedHashMap&Hashtable
hashMap默认的阈值是0.75
HashMap put操作
put操作涉及3种结构,普通node节点,链表节点,红黑树节点,针对第三种,红黑树节点,我们后续单独去学习,这里不多做扩散
- final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
- boolean evict) {
- Node<K,V>[] tab; Node<K,V> p; int n, i;
- if ((tab = table) == null || (n = tab.length) == 0) {
- // 初始化哈希数组,或者对哈希数组扩容,返回新的哈希数组
- tab = resize();
- n = tab.length;
- }
- // 相当于取余
- i = (n - 1) & hash;
- p = tab[i];
- if (p == null) {
- // 直接放普通元素
- tab[i] = newNode(hash, key, value, null);
- } else {
- Node<K,V> e; K k;
- if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) {
- // 存在同位元素,也就是出现了hash碰撞
- e = p;
- } else if (p instanceof TreeNode) {
- // 如果当前位置已经是红黑树节点,那么就put红黑色
- e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
- } else {
- // 遍历哈希槽后面链接的其他元素(binCount统计的是插入新元素之前遍历过的元素数量)
- // 这里就是链表类型
- for (int binCount = 0; ; ++binCount) {
- // 后继节点为空
- if ((e = p.next) == null) {
- // 拼接到后继节点上
- p.next = newNode(hash, key, value, null);
- /**
- * 哈希槽(链)上的元素数量增加到TREEIFY_THRESHOLD后,这些元素进入波动期,即将从链表转换为红黑树
- * 注意这个TREEIFY_THRESHOLD 是8,为什么是8??
- * 每次遍历一个链表,平均查找的时间复杂度是 O(n),n 是链表的长度。由于红黑树有自平衡的特点,可以防止不平衡情况的发生,
- * 所以可以始终将查找的时间复杂度控制在 O(log(n))。
- * 最初链表还不是很长,所以可能 O(n) 和 O(log(n)) 的区别不大,但是如果链表越来越长,那么这种区别便会有所体现。所以为了提升查找性能,需要把链表转化为红黑树的形式。
- * 链表查询的时候使用二分查询,平均查找长度为n/2,长度为8的时候,为4,而6/2 = 3
- * 而如果是红黑树,那么就是log(n) ,长度为8时候,log(8) = 3, log(6) =
- * 这个时候我们发现超过8这个阈值之后,链表的查询效率会越来越不如红黑树
- */
- if (binCount >= TREEIFY_THRESHOLD - 1) {
- // -1 for 1st
- treeifyBin(tab, hash);
- }
- break;
- }
- // 判断链表中的后继原始是否hash碰撞,如果发生了hash碰撞break
- if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
- break;
- p = e;
- }
- }
- // 如果存在同位元素(在HashMap中占据相同位置的元素)
- if (e != null) { // existing mapping for key
- V oldValue = e.value;
- // 判断是否需要进行覆盖取值,因为key相同,那么直接取代,否则什么也不操作
- if (!onlyIfAbsent || oldValue == null) {
- e.value = value;
- }
- afterNodeAccess(e);
- return oldValue;
- }
- }
- ++modCount;
- if (++size > threshold)
- resize();
- afterNodeInsertion(evict);
- return null;
- }
复制代码 总结关键信息:- 哈希槽(链)上的元素数量增加到TREEIFY_THRESHOLD后,这些元素进入波动期,即将从链表转换为红黑树
- 注意这个TREEIFY_THRESHOLD 是8,为什么是8??
- 每次遍历一个链表,平均查找的时间复杂度是 O(n),n 是链表的长度。由于红黑树有自平衡的特点,可以防止不平衡情况的发生,
- 所以可以始终将查找的时间复杂度控制在 O(log(n))。
- 最初链表还不是很长,所以可能 O(n) 和 O(log(n)) 的区别不大,但是如果链表越来越长,那么这种区别便会有所体现。所以为了提升查找性能,需要把链表转化为红黑树的形式。
- 链表查询的时候使用二分查询,平均查找长度为n/2,长度为8的时候,为4,而6/2 = 3
- 而如果是红黑树,那么就是log(n) ,长度为8时候,log(8) = 3, log(6) =
- 这个时候我们发现超过8这个阈值之后,链表的查询效率会越来越不如红黑树
复制代码 HashMap get,remove操作
除了红黑树的查找比较特殊,其余的链表查找就是暴力搜索,只是平均下来找到一个元素的话是n/2- final Node<K,V> removeNode(int hash, Object key, Object value,
- boolean matchValue, boolean movable) {
- Node<K,V>[] tab = table;
- Node<K,V> p;
- int n, index;
- if (tab != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) {
- Node<K,V> node = null, e; K k; V v;
- if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) {
- // 找到节点,并且是首节点
- node = p;
- } else if ((e = p.next) != null) {
- if (p instanceof TreeNode) {
- node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
- } else {
- // 链表查询,暴力搜索
- do {
- if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) {
- node = e;
- break;
- }
- p = e;
- } while ((e = e.next) != null);
- }
- }
- // 移除节点,可能只需要匹配hash和key就行,也可能还要匹配value,这取决于matchValue参数
- if (node != null && (!matchValue || (v = node.value) == value ||
- (value != null && value.equals(v)))) {
- if (node instanceof TreeNode) {
- // 移除红黑树节点
- ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
- } else if (node == p) {
- // 移除首节点为后继节点
- tab[index] = node.next;
- } else {
- // 链表断开
- p.next = node.next;
- }
- ++modCount;
- --size;
- afterNodeRemoval(node);
- return node;
- }
- }
- return null;
- }
复制代码 HashMap扩容
链表拆分,进入新的容器
这里有个知识点:如何使用位运算进行取模
a % b == a & (b - 1)
我们拆分链表的思路也是这样:比如原来长度为8的链表,也就是 x % 8 = x & (8 - 1) = x & 0111 也就是取后三位,那么扩容之后重新排序的话,容量扩大一倍,也就是16,那么这个时候就是 x % 16 = x & (16 - 1) = x & 1111 这个时候我们发现和之前的区别就是最高位由原来的0变为1,如果还在后三位范围内,那么新容量中的位置是不会变的
 - final Node<K,V>[] resize() {
- Node<K,V>[] oldTab = table;
- int oldCap = (oldTab == null) ? 0 : oldTab.length;
- // 旧阈值
- int oldThr = threshold;
- int newCap, newThr = 0;
- if (oldCap > 0) {
- // 判断旧容量是否已经超过最大值
- if (oldCap >= MAXIMUM_CAPACITY) {
- // 如果已经达到1 << 30;,那么直接设置为Integer.MAX_VALUE; 0x7fffffff
- threshold = Integer.MAX_VALUE;
- return oldTab;
- } else {
- // mod by xiaof 尝试将哈希表数组容量加倍,注意这里是左移,也就是说*2
- newCap = oldCap << 1;
- // 如果容量成功加倍(没有达到上限),则将阈值也加倍
- if (newCap < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) {
- newThr = oldThr << 1;
- }
- }
- // else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
- // oldCap >= DEFAULT_INITIAL_CAPACITY) {
- // newThr = oldThr << 1; // double threshold
- // }
- } else if (oldThr > 0) {
- // initial capacity was placed in threshold
- newCap = oldThr;
- } else { // zero initial threshold signifies using defaults
- // 如果实例化HashMap时没有指定初始容量,则使用默认的容量与阈值
- newCap = DEFAULT_INITIAL_CAPACITY;
- newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
- }
- /*
- * 至此,如果newThr==0,则可能有以下两种情形:
- * 1.哈希数组已经初始化,且哈希数组的容量还未超出最大容量,
- * 但是,在执行了加倍操作后,哈希数组的容量达到了上限
- * 2.哈希数组还未初始化,但在实例化HashMap时指定了初始容量
- */
- if (newThr == 0) {
- float ft = (float)newCap * loadFactor;
- // 如果新容量小于最大允许容量,并且新容量*装载因子之后还是小于最大容量,那么说明不需要扩容,那么直接使用ft作为新的阈值容量
- // 如果新容量已经超过最大容量了,那么就直接返回最大允许的容量
- newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
- (int)ft : Integer.MAX_VALUE);
- }
- // 更新阈值
- threshold = newThr;
- // 新的容器对象,创建容量为新的newCap
- @SuppressWarnings({"rawtypes","unchecked"})
- Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
- table = newTab;
- if (oldTab != null) {
- // 遍历原来的数据,准备转移到新的容器上
- for (int j = 0; j < oldCap; ++j) {
- // 获取旧容器对象
- Node<K,V> e = oldTab[j];
- if (e != null) {
- // 把原来的数组中的指针设置为空
- oldTab[j] = null;
- if (e.next == null) {
- // 重新计算hash索引位置,计算hash位置的方式防止数组越界的话,那么就设置hashcode & 长度 - 1
- newTab[e.hash & (newCap - 1)] = e;
- } else if (e instanceof TreeNode) {
- // 红黑树,这里是对红黑树进行拆分
- ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
- } else { // preserve order
- // lo对应的链表是数据不会动的
- Node<K,V> loHead = null, loTail = null;
- // hi对应的链表标识是需要去新容器新的位置的
- Node<K,V> hiHead = null, hiTail = null;
- Node<K,V> next;
- // 这个是链表的情况下进行拆分
- // 因为num % 2^n == num & (2^n - 1),容量大小一定是2的N次方
- do {
- next = e.next;
- // 注意:e.hash & oldCap,注意这里是对老的容量oldCap进行计算这一步就是前面说的判断多出的这一位是否为1
- // 因为新的是老的2倍,新节点位置是否需要发生改变,取决于最高位是否为0
- // 若与原容量做与运算,结果为0,表示将这个节点放入到新数组中,下标不变
- // 由于原来的是2的倍数,那么取余肯定是和一个0111111的对象进行&操作,而不减一那就是10000000进行&操作,正好是最高位
- if ((e.hash & oldCap) == 0) {
- // 最高位为0,那么位置不需要改变,本身就在原来容量范围内的数据
- // 直接加入lotail,并判断是否需要初始化lotail
- if (loTail == null) {
- loHead = e;
- } else {
- loTail.next = e;
- }
- loTail = e;
- } else {
- // 最高位是1,那么就需要进行切换位置
- if (hiTail == null) {
- hiHead = e;
- } else {
- hiTail.next = e;
- }
- hiTail = e;
- }
- } while ((e = next) != null);
- if (loTail != null) {
- loTail.next = null;
- newTab[j] = loHead;
- }
- if (hiTail != null) {
- hiTail.next = null;
- newTab[j + oldCap] = hiHead;
- }
- }
- }
- }
- }
- // 最后返回最新的容器对象
- return newTab;
- }
复制代码 afterNodeInsertion在linkedhashmap中作用不大- Node<K,V> newNode(int hash, K key, V value, Node<K,V> e) {
- // 这里创建了linkedhashmap对象
- LinkedHashMap.Entry<K,V> p = new LinkedHashMap.Entry<K,V>(hash, key, value, e);
- // 创建完成之后,就添加到链表中连接起来
- linkNodeLast(p);
- return p;
- }
- private void linkNodeLast(LinkedHashMap.Entry<K,V> p) {
- LinkedHashMap.Entry<K,V> last = tail;
- tail = p;
- if (last == null)
- head = p;
- else {
- p.before = last;
- last.after = p;
- }
- }
复制代码 综上:linkedhashmap相对hashmap其实就是多加了一个链表把所有的数据关联起来,只有在遍历的时候才能体现出来有序,其他的操作是没有差别的
关于hashtable
首先hashtable是线程安全的,因为它所有的函数都加上了synchronized
链表头插法,没有红黑树的转换
初始化容量的时候默认是11,是奇数,而hashmap全都是2的幂次方
hashtable允许key为null
rehash函数
<blockquote>常用的hash函数是选一个数m取模(余数),这个数在课本中推荐m是素数,但是经常见到选择m=2n,因为对2n求余数更快,并认为在key分布均匀的情况下,key%m也是在[0,m-1]区间均匀分布的。但实际上,key%m的分布同m是有关的。
证明如下: key%m = key - xm,即key减掉m的某个倍数x,剩下比m小的部分就是key除以m的余数。显然,x等于key/m的整数部分,以floor(key/m)表示。假设key和m有公约数g,即key=ag, m=bg, 则 key - xm = key - floor(key/m)m = key - floor(a/b)m。由于0 [] newMap = new Entry[newCapacity]; modCount++; threshold = (int)Math.min(newCapacity * loadFactor, MAX_ARRAY_SIZE + 1); table = newMap; // 重新把旧的原始转移到新数组上 for (int i = oldCapacity ; i-- > 0 ;) { for (Entry old = (Entry)oldMap ; old != null ; ) { Entry e = old; old = old.next; // 这里因为容量是奇数,那么就需要使用%取余,而不是位运算 -》 a & (b - 1) int index = (e.hash & 0x7FFFFFFF) % newCapacity; e.next = (Entry)newMap[index]; newMap[index] = e; } }}[/code]参考
https://www.cnblogs.com/tuyang1129/p/12368842.html -- 链表拆分
https://www.cnblogs.com/lyhc/p/10743550.html - linkedhashmap
http://zhaox.github.io/algorithm/2015/06/29/hash
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
|