JAVA 8 主要新特性 ----------------(二)版本中数据结构的修改浅析

一、版本中数据结构的修改浅析
1、HashMap、HashSet、ConcurrentHashMap的数据结构发生变化

(1)HashMap简介(结构:哈希表+链表)

HashMap存储的数据是无序的,结构哈希表加链表的存储方式,key不能重复,哈希表就是数组,存储的数组都是entry,初始大小默认是16,HashMap底层使用哈希算法原理:当创建一个对象,想要加入到HashMap,会默认调用底层的一个方法hashCode()。

HashMap算出索引值,会上对应的链表中找是否有对象,如果没有对象,没有直接添加,如果有对象,通过equals比较两个对象,如果内容一样,将视为重复元素,后边的将前边的覆盖掉.内容不一样,JDK1.7中,不一样的时候生成一个链表,后加入的跟前边的生成链表,称为"碰撞","碰撞"过多的时候,下次添加就会更多个值进行equals,效率会极低.如何避免?无法避免。
         如果不采用上述方式,就需要每次添加都equals比较,并且还要比较下一次添加的值,效率会大大降低。

         HashMap具有加载因子,是0.75,当哈希表达到75%的时候,就会进行扩容,扩容是原来长度的2倍.一旦扩容,发生碰撞的元素就会进行重新排序.将元素放到新的位置上去,以解决"碰撞"问题.
         HashMap把Key和Value封装到entry对象中,还是无法避免碰撞问题。
  (2)Java8中HashMap的数据结构发生变化(结构:数组+链表+红黑树)

新版设计:

            当HashMap中的某一个链表的长度大于8,并且元素总容量大于64的时候,链表就会变为二叉树中的红黑树.
         优势:除了添加,其他的效率都提高了.1.8前添加的重复元素直接添加在链表最后,1.8中需要跟红黑树的子节点进行比较,最后找到合理的位置添加.
  查询提速,原来是遍历整个链表,挨个比较查询值.
        现在二叉树节点比较查询,查询的节点数目减少。
  (3)HashSet也会更新,因为HashSet的底层就是HashMap。
  (4)ConcurrentHashMap简述
         锁分段(锁分离)机制1.8以前
  也进行了更改,以往HashMap线程不安全的处理方案是加锁,但是效率极低,1.8以前,它有个默认并发级别是16,每个段都是线程安全的,在每个段中对应着一个HashMap,意味着一次能有16个线程访问HashMap.
         无锁算法1.8以后
     1.8前存在问题:并发级别段的大小不好控制,过大浪费资源,过小操作不便.
     1.8中取消了并发级别段,采用了CAS算法,其实是一个底层硬件的算法,底层硬件对于并发的一个支持,效率比锁的高,CAS算法又称为无锁算法。
  (5)JVM支持的内存结构发生改变
          JVM拥有两块虚拟的内存空间,一部分称之为栈,一部分称之为堆.还有一部分为方法区.
          方法区是属于堆内存的,堆内存分为垃圾回收区和永久区,方法区属于永久区的一部分.
         JVM分类(不同厂商):
                Oracle-Sun Hotspot 
                Oracle(自己生产的) JRocket
                IBM   J9
                Alibaba(国产) Taobao
         1.8以前只有Hotspot的版本有永久区,其他厂商独立分区.(永久区存储类加载信息)
         1.8以后JVM变化:
              1.8中删除了JVm中的永久区.独立分出一片区域叫做MetaSpace(元空间),元空间采用物理内存,服务器内存空间多大,MetaSpace就有多大.OOM错误发生概率降低.(除非一个无限创建的类加载),由于垃圾回收机制改为元空间将要满的时候才垃圾回收,垃圾回收运行的次数减少了,效率提高了.
              永久区中调优属性PermGenSize和MaxPermGenSize,改为MetaSpaceSize和MaxMetaSpaceSize

注:

哈希算法:

哈希算法是将hashCode()生成的值,进行一个运算(哈希算法运算),运算成对应的数组的索引值,这就是哈希算法.

上一篇:Deep Learning 25:读论文“Network in Network”——ICLR 2014


下一篇:基于Web实现网络拓扑图