• Java常见数据结构


    HashMap深入浅出

    HashMap数据结构

      HashMap的本质就是一个数组加链表,数组默认长度是16,存储的元素达到总长度的75%就会扩容一倍。map.put(key,val),实际上就是根据hash散列对数组长度取模,来均匀的打到每一个下标上,填满数组每个下标位。但世事不可能这么完美,可能两个元素经过hash取模后下标会一样,为了避免hash冲突,hashmap就维护了一个链接的数据结构,相同下标的元素存到一个链表中。但是这样get(key)的时候会有一个问题,如果仅仅只是get数组上的元素速度会很快,但是get链表上的元素就会非常耗时,假使链表的深度为n,那么get所需的时间复杂度就是O(N),所以jdk1.8的时候做了一个优化,就是在原有的数据结构中加了一个红黑树,当链表的长度>=8时,会转成红黑树。

      

    为何初始容量要是2的整数次幂

    /**
     * The default initial capacity - MUST be a power of two.
     */
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
    
      这是jdk8中的初始容量,同时告诉我们默认的初始容量-必须是2的幂。可是我们创建  HashMap<String,String> map = new HashMap<String,String>(7); 也不会报错啊。实际上在初始化时,通过下面的代码它会初始化成一个大于我们值,且最接近它的一个2的幂次方。比如我们指定的7,那么它的初始值就是8,我们指定17那么初始值就是32。
    
    /**
     * Returns a power of two size for the given target capacity.
     */
    static final int tableSizeFor(int cap) {
        int n = cap - 1;
        n |= n >>> 1;
        n |= n >>> 2;
        n |= n >>> 4;
        n |= n >>> 8;
        n |= n >>> 16;
        return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
    }
        
    那么问题就来了,为什么jdk8非要转一下呢?就用默认值难道不香吗?
        其实我们在put(key,value)的时候点进去开一下源码就知道了,它其实是通过位与运算来计算出下标的,这样的效率比取模更高。当然这和初始长度为什么是2的整次幂没关系,但如果长度不是2的整数次幂的话,位与运算和取模运算的出来的下标就会不一样,所以这也是jdk8的高明之处。
    static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }
    /**
     * Returns index for hash code h.
     */
    static int indexFor(int h, int length) {
        return h & (length - 1);
    }

     HashMap的加载因子

        加载因子为什么是0.75?这里面其实就涉及到 时间复杂度和空间复杂度的平衡。因为loadfactor为1的话,这意味着一定要把整个数组填满才扩容,正常情况下是很难填满的,肯定会有很多hash碰撞,导致链表太长。如果loadfactor为0.5的话,数组填充一半就扩容,又会对空间利用率不高。所以取一个折中值0.75

    JDK8对hashmap数据结构的优化

       /**
         * nodes in bins follows a Poisson distribution
         * (http://en.wikipedia.org/wiki/Poisson_distribution) with a
         * parameter of about 0.5 on average for the default resizing
         * threshold of 0.75, although with a large variance because of
         * resizing granularity. Ignoring variance, the expected
         * occurrences of list size k are (exp(-0.5) * pow(0.5, k) /
         * factorial(k)).
         The first values are:
         *
         * 0:    0.60653066
         * 1:    0.30326533
         * 2:    0.07581633
         * 3:    0.01263606
         * 4:    0.00157952
         * 5:    0.00015795
         * 6:    0.00001316
         * 7:    0.00000094
         * 8:    0.00000006
         * more: less than 1 in ten million
         */
      当我们的链表长度达到8时,就会转换为红黑树的结构。源码的注释里也说了,这是根据"泊松分布"概率学得出来的一个结论,计算公式就是   (exp(-0.5) * pow(0.5, k) /* factorial(k)) ,而一个链表深度想要达到8的深度,它的概率只有0.00000006,所以这个红黑树对于整个hashmap数据结构的性能提升没有特别大。很多博客都说加载因子是为了满足做泊松分布,这其实是错误的,它们没有半毛钱的关系。

     HashMap线程安全问题

    【1.】 put的时候,导致数据不一致问题。
    1. 线程1计算好了桶的索引坐标,希望插入一个key-value对到HashMap中,但此时cpu时间片耗尽了,进入阻塞状态。
    2. 线程2开始正在执行put操作,假使它的桶索引恰好和线程1是一样的,并数据插入成功。
    3. 线程1现在被唤醒了再次运行,他还是持有的之前的链表头,继续往计算好的地方插入数据。
    4. 最后就覆盖了线程2插入的记录,导致了线程2插入的记录就凭空消失了。
    
    【2.】 扩容时形成环形链表,导致后续遍历时出现死循环,CPU过高。
    比如我现在有一个map,初始长度为2,扩容阈值为0.5。此时散列地址0处有元素A和B,这时候要添加元素C,C的散列值为1,由于超过了临界值就会进行扩容,
    HashMap<String,String> map = new HashMap<String,String>(2,0.5f);
    map.put("A","A");
    map.put("B","B");
    在多线程条件下,会出现条件竞争,模拟过程如下:

      (1) 线程1读取到hashmap情况正准备扩容 (我们for(Entry<K,V> e : table)  实际就是遍历这个链表,e的指针指向Ae.next指向的就是B) 此时线程2介入

      

      (2) 线程2读取hashmap,进行扩容。(同样的线程2e指针指向Ae.next指向BnewTable[i]假如i=2,待它循环完之后,AB的元素的位子就反过来了)

      

      (3) 线程1继续执行(循环完之后Anext是指向B的,而由于另一条线程Bnext又是指向A由此,环形链表出现:B.next=A; A.next=B )

      

    ArrayList与LinkedList

    数组数据结构

      数组是一种线性表数据结构,开辟了一组连续内存来存储同一类型的数据。每一个节点主要存储数据信息和下标信息。比如现在有一个数组String[] arr = new String[3],里面顺序添加了a、b、c 3个元素;我现在想要在第2个地方添加一个 d 元素,那么就需要重新调整第2个和后面所有元素的角标。但是访问第 2 个元素 直接通过下标就能访问到了。所以说数组的特点是:高效的随机访问,低效的新增和删除。

     为什么数组下标要从0开始

    这个主要从两个方面说起:
      1. C语言的下标是从0开始,所以后面的高级语言都沿用了这一个特性。
      2. 根据下标访问元素会更快。
        假如我们现在有一个数组 int [] a = new int [10]。
        计算机给它分配的连续空间为100~139,内存起始值baseAddress=100;因为存的是int类型,所以dataTypeSize=4
       那么我们访问一个元素的寻址公式就是:a[i] = baseAddress + i * dataTypeSize
       而如果下标从1开始的话,寻址公式就为 a[i] = baseAddress + (i-1)*dataTypeSize
       对比可以发现:下标从1开始,那么寻址时需要多计算一下,性能会下降一点。

        

    链表数据结构

      链表是一个零散的内存结构。每一个节点除了存储数据本身信息,还会记录其他数据内存地址的指针域。如果计算机还剩100mb的内存,我们可以用它来创建一个100mb的链表、却无法创建100mb的数组。我们新增节点只需要其中一个节点指向新节点就好、不用做大规模的调整;而我们访问一个节点时,由于内存地址时无序的,只能通过遍历每个节点,来找到指定元素。所以说数组的特点是:低效的随机访问,高效的新增和删除。

    常见的几种链表类型

       单链表:单链表就是通过指针域把零散内存串起来。每一个节点都指向下一个节点的地址。只有头节点和尾节点不一样。头节点还记录了链表的基地址,而尾节点最后指向的null。

        循环链表:循环链表和单链表一样,只有一个方向。但是尾节点的指针域时指向头节点的。

      双向列表:相比于单链表,更加的占用内存,但是支持双向遍历,更具备灵活性。

      双向循环列表:同样的尾节点指向头节点。

    ArrayList与LinkedList比较

      1. ArrayList基于数组实现,LinkedList基于双向链表实现。所以前者查询快、后者编辑快。
      2. LinkedList比ArrayList占内存,前者要存两个引用地址,后者只需要存下标。

    如何保证线程安全

    1. 直接 synchronized 锁住变量,在jvm层面获取到锁标识才能操作对象。
    2. 使用 Collections 的线程安全api,所有的操作都是被 synchronized 加持的。
    List<Object> list = Collections.synchronizedList(new ArrayList<>());

    3. CopyOnWriteArrayList创建对象,它是用 ReentrantLock 来保证线程安全的
    CopyOnWriteArrayList<Object> objects = new CopyOnWriteArrayList<>();

     

  • 相关阅读:
    4. ConcurrentHashMap 锁分段机制
    3. 原子变量-CAS算法
    2. 原子变量
    1. volatale 关键字 -内存可见性
    6.8 全局查询日志
    js实现数字分页
    拆箱和装箱
    string与stringbuilder的区别
    C#之out与ref的共性与区别以及用法
    asp.net操作xml(增删查改)
  • 原文地址:https://www.cnblogs.com/wlwl/p/11954343.html
Copyright © 2020-2023  润新知