• PolarDB阿里初赛问题记录 PolarDB 阿里 中间件 比赛 性能 工程手册


    Contents

    这篇纯碎是碎碎念记录。

    每个value都是4KB,总共最多会写6400W个value,算下来就是64 * 1000 * 1000 * 4 * 1024 Bytes ≈ 256G。
    
    每个value存储到文件中的时候,需要知道它在文件中的位置,这个位置是一个长整型,8 Bytes。Key也是8 Bytes。这两个值要放在一起,以便我们能在内存中构建起一对一的索引。而它们的存储所耗的最大空间是(8 + 8) * 64 * 1000 * 1000 Bytes ≈ 1G。
    
    Key和Value还需要落盘,所以它们也需要大约1GB的磁盘空间。
    

    以上是大佬写的,我的初始实现是magic2 + key8 + magic2 + pos4落盘

    感觉浪费了四个magic位,不过这四位只会存盘不会存到内存。
    4*8的整型数值存储为是2GB地址空间[带符号位,可以删除扩充到4GB],然后2GB*4096位的长度,实际上可以存8T的磁盘,如果删除符号位可以存16T磁盘,应对测试环境的6400W条数据没有问题,灵位内存用key8+pos4,可以相对减少内存占用。
    

    测试流程

    1. 写入64W数据,读取64W数据
    2. 重启进程,读取64W数据
    3. 重启进程,读取64W数据过程中kill -9进程,然后再行重启读取64W

    测试过程发现

    • 1 失败 1成功 2 成功 1成功 2 成功 1成功 2 成功
    • 1 成功 1失败 2 失败 1失败 2 失败 1失败 2 失败
    • 初次操作,使用<byte[], Integer>组装concurrenthashmap,但是调整一直出错,自己的测试有毛病,提交测试之后还通过正确性测试。
    1. 以上两项测试的原因在于,同内存写入的时候,进行读取的操作,key值的内存数值一样,所以在第一次1里面成功。但是进程重启之后,byte[]的hashcode是会随着进程的不同而变化的,所以找不到key,进行get时候会报空。
    2. 没有覆盖的问题:我在写入key的时候,如果是覆盖性操作,就将值写入到oldPosition位置,但是发现连续进行1的测试流程时候,值并未覆盖到oldPosition,文件同样会增长,key数量也会增长,并未进行覆盖key操作。经过调试,发现byte[]的操作太过风骚,从文件读取出来的byte[]和测试生成的byte[]的来源不一样,所以hashcode不一样,同时也用到equal操作,于是也要重写equal操作,使用Array.equal代替。
    3. 发现byte[]直接写入hashmap会读取不到,对于基础类型数值,hashcode值每次jvm进程中数值都不一样,这影响key的分布和查找
      于是使用bytebuffer,正确性检查没问题,不过超时,主要是因为性能太差,byte[]与bytebuffer的转换过程不能忍受
    4. 回归使用byte[],解决了hashcode的问题[仿照bytebuffer重写hash]之后,发现equal函数也不一样,会调用原生的==进行判断,于是改用array.equal进行判断
    5. byte[]还是出问题,写入6400w的阶段总是读取校验出错,打印出数量不够6400W,总是差300-400个,然后发现,hashcode函数有问题,,重写,检验了3亿个hash值,确定不会重复之后提交,总算通过,最后成绩243.44秒,最好排35名,最差到55名

    并发问题

    Exception in thread "Thread-45" java.lang.ClassCastException: java.util.HashMap$Node cannot be cast to java.util.HashMap$TreeNode
        at java.util.HashMap$TreeNode.moveRootToFront(HashMap.java:1832)
        at java.util.HashMap$TreeNode.putTreeVal(HashMap.java:2012)
        at java.util.HashMap.putVal(HashMap.java:638)
        at java.util.HashMap.put(HashMap.java:612)
        at org.lee.MappedPageSource.lambda$initKeys$0(RaceConcurrentHashMap.java:1362)
        at java.lang.Thread.run(Thread.java:882)
    

    多线程加载key-index文件的过程中,多线程put到一个hashmap会引发上述问题,多个线程修改同一映射,使用同步锁,顺序put解决

    key-index文件是否需要顺序加载

    不需要,因为key-pos内存的键值覆盖会直接覆盖value的pos位置,这样,一个键值映射的value文件位置是不变的,所以key-index文件中,不存在相同key的数据块。

    key的覆盖和value的覆盖

    目前使用洁净的文件策略,由于mappedbyteBuffer的分配尽量以大数据块为主,所以存在kill -9情况下没有进行truncate的问题

    1. 对于正常结束,调用truncat进行keyfile和valueFile的截断
    2. 强制退出情况下,下次初始化时候,加载key文件,对非MAGIC开始的字节,进行一刀 大专栏  PolarDB阿里初赛问题记录 PolarDB 阿里 中间件 比赛 性能 工程手册切,后续字节被truncate,相应的后续value文件被截断,正确初始化count数量,便于下次写value的时候,写入count自增的地址

    mappedbyteBuffer的回收

    请求的操作无法在使用用户映射区域打开的文件上执行 java nio
    

    使用mappedbyteBuffer的缓存之后,尝试去关闭,报错,原来还在读的地方使用了buffer没有及时关闭导致的问题。

    int long溢出问题

    public byte[] readValue(int address) {
        if(address % 50000 == 0 && System.currentTimeMillis()%5000==0)
          log.info("{}", address);
        long pos = address<<VALUE_BIT;
        byte[] result = new byte[1<<VALUE_BIT];
        long size= 0;
        try {
          size= raf.length();
          raf.seek(pos);
          raf.read(result);
        } catch (Exception e) {
          log.info("ADDRESS={} POS={} len={}", address, pos, size);
          e.printStackTrace();
        }
        return result;
      }
    

    这里数量增长之后偶尔在seek操作时报错,java.io.IOException: Negative seek offset
    因为存在内存中的position是int整型,映射文件position是乘以地址块4K(右移12),所以这里传参用整型,但是问题在于<<12之后是int这时候就会溢出了显示pos是一个负数。最后类型申明改为long就不会溢出了。【后来改用filechaanel进行pos位置的直接读取】

    测试结果

    640W的数据,调整了 initialCapacity 值之后,不会引起rehash操作,这个比较耗时

    Connected to the target VM, address: '127.0.0.1:53096', transport: 'socket'
    13:37:30,512 INFO  org.lee.MappedPageSource.initKeys(RaceConcurrentHashMap.java:1343) - 0
    13:37:30,556 INFO  org.lee.disk.App.test(App.java:30) - start write
    13:40:46,510 INFO  org.lee.disk.App.test(App.java:35) - write elapsed 3115 ms
    13:43:34,460 INFO  org.lee.disk.App.test(App.java:43) - detach assert read elapsed 363903 ms
    

    性能问题

    https://blog.csdn.net/keketrtr/article/details/74448127
    使用jvisualvm的插件GC进行判断,设置参数平截图,减少GC问题
    以下是四张图,表示顺序写入+顺序读取640W次数的过程

    增加jvm参数

    -server -Xms1536m -Xmx1536m -XX:MaxDirectMemorySize=512m -XX:MaxMetaspaceSize=300m -XX:NewRatio=1 -XX:+UseConcMarkSweepGC -XX:+UseParNewGC -XX:-UseBiasedLocking

    无参数,使用intellij默认

    只增加内存大小

    -server -Xms1876m -Xmx1876m -XX:MaxDirectMemorySize=512m -XX:MaxMetaspaceSize=300m -XX:NewRatio=1 -XX:+UseConcMarkSweepGC -XX:+UseParNewGC -XX:-UseBiasedLocking

    订版本

    -server -Xms1876m -Xmx1876m -XX:MaxDirectMemorySize=512m -XX:MaxMetaspaceSize=128m -XX:NewRatio=1 -XX:+UseConcMarkSweepGC -XX:+UseParNewGC -XX:-UseBiasedLocking

    线上环境和线下环境的区别

    线上64CPU, ssd云盘,它的IO性能和CPU性能和本地机器没有任何可比性,于是本地640W写入过程中,速度改善的方法,在线上可能速度变慢。
    最后经过总结,云盘SSD的IO通道能同时支持大写文件的并发写入读取,由于IO足够,写入的时候如果是多文件写入,可以减少文件写入锁带来的占用问题,而线下环境中,IO性能差劲,单文件的写入效果远胜于多文件的写入。对于读取性能,线上环境直接使用CPU缓存进行二进制的读取,不使用缓存的方式远胜于使用内存缓存MappedByteBuffer的方式,而线下环境中,如果使用内存缓存,读取的性能会更好,这里主要差别在于64核CPU的计算和缓存速度与本地CPU的不同。

  • 相关阅读:
    【转载】C/C++预处理器
    【转载】C/C++内存管理详解
    Spring知识点整理
    Hibernate知识点整理
    MyBatis知识点整理
    数据可视化(三)- Seaborn简易入门
    数据可视化(二)
    数据可视化(一)-Matplotlib简易入门
    Pandas之容易让人混淆的行选择和列选择
    Pandas简易入门(四)
  • 原文地址:https://www.cnblogs.com/lijianming180/p/12371144.html
Copyright © 2020-2023  润新知