• 面试官:1亿条数据批量插入 MySQL,哪种方式最快?


    这几天研究mysql优化中查询效率时,发现测试的数据太少(10万级别),利用 EXPLAIN 比较不同的 SQL 语句,不能够得到比较有效的测评数据,大多模棱两可,不敢通过这些数据下定论。

    所以通过随机生成人的姓名、年龄、性别、电话、email、地址 ,向mysql数据库大量插入数据,便于用大量的数据测试 SQL 语句优化效率。、在生成过程中发现使用不同的方法,效率天差万别。

    1、先上Mysql数据库,随机生成的人员数据图。分别是ID、姓名、性别、年龄、Email、电话、住址。

    下图一共三千三百万数据:

    在数据量在亿级别时,别点下面按钮,会导致Navicat持续加载这亿级别的数据,导致电脑死机。~觉着自己电脑配置不错的可以去试试,可能会有惊喜

    2、本次测评一共通过三种策略,五种情况,进行大批量数据插入测试

    策略分别是:

    • Mybatis 轻量级框架插入(无事务)

    • 采用JDBC直接处理(开启事务、无事务)

    • 采用JDBC批处理(开启事务、无事务)

    测试结果:

    Mybatis轻量级插入 -> JDBC直接处理 -> JDBC 批处理。

    JDBC 批处理,效率最高

    第一种策略测试:

    2.1 Mybatis 轻量级框架插入(无事务)

    Mybatis是一个轻量级框架,它比hibernate轻便、效率高。

    但是处理大批量的数据插入操作时,需要过程中实现一个ORM的转换,本次测试存在实例,以及未开启事务,导致mybatis效率很一般。

    这里实验内容是:

    • 利用Spring框架生成mapper实例、创建人物实例对象

    • 循环更改该实例对象属性、并插入。

    1. //代码内无事务
    2.  private long begin = 33112001;//起始id
    3.     private long end = begin+100000;//每次循环插入的数据量
    4.     private String url = "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&characterEncoding=UTF-8";
    5.     private String user = "root";
    6.     private String password = "0203";
    7.     
    8.     
    9. @org.junit.Test
    10.     public void insertBigData2()
    11.     {
    12.         //加载Spring,以及得到PersonMapper实例对象。这里创建的时间并不对最后结果产生很大的影响
    13.         ApplicationContext context = new ClassPathXmlApplicationContext("applicationContext.xml");
    14.         PersonMapper pMapper = (PersonMapper) context.getBean("personMapper");
    15.         //创建一个人实例
    16.         Person person = new Person();
    17.         //计开始时间
    18.         long bTime = System.currentTimeMillis();
    19.         //开始循环,循环次数500W次。
    20.         for(int i=0;i<5000000;i++)
    21.         {
    22.             //为person赋值
    23.             person.setId(i);
    24.             person.setName(RandomValue.getChineseName());
    25.             person.setSex(RandomValue.name_sex);
    26.             person.setAge(RandomValue.getNum(1100));
    27.             person.setEmail(RandomValue.getEmail(4,15));
    28.             person.setTel(RandomValue.getTel());
    29.             person.setAddress(RandomValue.getRoad());
    30.             //执行插入语句
    31.             pMapper.insert(person);
    32.             begin++;
    33.         }
    34.         //计结束时间
    35.         long eTime = System.currentTimeMillis();
    36.         System.out.println("插入500W条数据耗时:"+(eTime-bTime));
    37.     }

    本想测试插入五百万条数据,但是实际运行过程中太慢,中途不得不终止程序。最后得到52W数据,大约耗时两首歌的时间(7~9分钟)。随后,利用mybatis向mysql插入10000数据。

    结果如下:

    利用mybatis插入 一万 条数据耗时:28613,即28.6秒

    第二种策略测试:

    2.2 采用JDBC直接处理(开启事务、关闭事务)

    采用JDBC直接处理的策略,这里的实验内容分为开启事务、未开启事务是两种,过程均如下:

    • 利用PreparedStatment预编译

    • 循环,插入对应数据,并存入

    事务对于插入数据有多大的影响呢?看下面的实验结果:

    1. //该代码为开启事务
    2.  private long begin = 33112001;//起始id
    3.     private long end = begin+100000;//每次循环插入的数据量
    4.     private String url = "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&amp;characterEncoding=UTF-8";
    5.     private String user = "root";
    6.     private String password = "0203";
    7.  
    8.  
    9. @org.junit.Test
    10.     public void insertBigData3() {
    11.         //定义连接、statement对象
    12.         Connection conn = null;
    13.         PreparedStatement pstm = null;
    14.         try {
    15.             //加载jdbc驱动
    16.             Class.forName("com.mysql.jdbc.Driver");
    17.             //连接mysql
    18.             conn = DriverManager.getConnection(url, user, password);
    19.              //将自动提交关闭
    20.              conn.setAutoCommit(false);
    21.             //编写sql
    22.             String sql = "INSERT INTO person VALUES (?,?,?,?,?,?,?)";
    23.             //预编译sql
    24.             pstm = conn.prepareStatement(sql);
    25.             //开始总计时
    26.             long bTime1 = System.currentTimeMillis();
    27.             
    28.             //循环10次,每次一万数据,一共10万
    29.             for(int i=0;i<10;i++) {
    30.                 //开启分段计时,计1W数据耗时
    31.                 long bTime = System.currentTimeMillis();
    32.                 //开始循环
    33.                 while (begin < end) {
    34.                     //赋值
    35.                     pstm.setLong(1, begin);
    36.                     pstm.setString(2, RandomValue.getChineseName());
    37.                     pstm.setString(3, RandomValue.name_sex);
    38.                     pstm.setInt(4, RandomValue.getNum(1100));
    39.                     pstm.setString(5, RandomValue.getEmail(415));
    40.                     pstm.setString(6, RandomValue.getTel());
    41.                     pstm.setString(7, RandomValue.getRoad());
    42.                     //执行sql
    43.                     pstm.execute();
    44.                     begin++;
    45.                 }
    46.                 //提交事务
    47.                 conn.commit();
    48.                 //边界值自增10W
    49.                 end += 10000;
    50.                 //关闭分段计时
    51.                 long eTime = System.currentTimeMillis();
    52.                 //输出
    53.                 System.out.println("成功插入1W条数据耗时:"+(eTime-bTime));
    54.             }
    55.             //关闭总计时
    56.             long eTime1 = System.currentTimeMillis();
    57.             //输出
    58.             System.out.println("插入10W数据共耗时:"+(eTime1-bTime1));
    59.         } catch (SQLException e) {
    60.             e.printStackTrace();
    61.         } catch (ClassNotFoundException e1) {
    62.             e1.printStackTrace();
    63.         }
    64.     }

    1、我们首先利用上述代码测试无事务状态下,插入10W条数据需要耗时多少。

    如图:

    1. 成功插入1W条数据耗时:21603
    2. 成功插入1W条数据耗时:20537
    3. 成功插入1W条数据耗时:20470
    4. 成功插入1W条数据耗时:21160
    5. 成功插入1W条数据耗时:23270
    6. 成功插入1W条数据耗时:21230
    7. 成功插入1W条数据耗时:20372
    8. 成功插入1W条数据耗时:22608
    9. 成功插入1W条数据耗时:20361
    10. 成功插入1W条数据耗时:20494
    11. 插入10W数据共耗时:212106

    实验结论如下:

    在未开启事务的情况下,平均每 21.2 秒插入 一万 数据。

    接着我们测试开启事务后,插入十万条数据耗时,如图:

    1. 成功插入1W条数据耗时:4938
    2. 成功插入1W条数据耗时:3518
    3. 成功插入1W条数据耗时:3713
    4. 成功插入1W条数据耗时:3883
    5. 成功插入1W条数据耗时:3872
    6. 成功插入1W条数据耗时:3873
    7. 成功插入1W条数据耗时:3863
    8. 成功插入1W条数据耗时:3819
    9. 成功插入1W条数据耗时:3933
    10. 成功插入1W条数据耗时:3811
    11. 插入10W数据共耗时:39255

    实验结论如下:

    开启事务后,平均每 3.9 秒插入 一万 数据

    第三种策略测试:

    2.3 采用JDBC批处理(开启事务、无事务)

    采用JDBC批处理时需要注意一下几点:

    1、在URL连接时需要开启批处理、以及预编译

    1. String url = “jdbc:mysql://localhost:3306/User?rewriteBatched
    2. -Statements=true&useServerPrepStmts=false”;

    2、PreparedStatement预处理sql语句必须放在循环体外

    代码如下:

    1. private long begin = 33112001;//起始id
    2. private long end = begin+100000;//每次循环插入的数据量
    3. private String url = "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&amp;characterEncoding=UTF-8";
    4. private String user = "root";
    5. private String password = "0203";
    6. @org.junit.Test
    7. public void insertBigData() {
    8.     //定义连接、statement对象
    9.     Connection conn = null;
    10.     PreparedStatement pstm = null;
    11.     try {
    12.         //加载jdbc驱动
    13.         Class.forName("com.mysql.jdbc.Driver");
    14.         //连接mysql
    15.         conn = DriverManager.getConnection(url, user, password);
    16.   //将自动提交关闭
    17.   // conn.setAutoCommit(false);
    18.         //编写sql
    19.         String sql = "INSERT INTO person VALUES (?,?,?,?,?,?,?)";
    20.         //预编译sql
    21.         pstm = conn.prepareStatement(sql);
    22.         //开始总计时
    23.         long bTime1 = System.currentTimeMillis();
    24.         //循环10次,每次十万数据,一共1000万
    25.         for(int i=0;i<10;i++) {
    26.             //开启分段计时,计1W数据耗时
    27.             long bTime = System.currentTimeMillis();
    28.             //开始循环
    29.             while (begin < end) {
    30.                 //赋值
    31.                 pstm.setLong(1, begin);
    32.                 pstm.setString(2, RandomValue.getChineseName());
    33.                 pstm.setString(3, RandomValue.name_sex);
    34.                 pstm.setInt(4, RandomValue.getNum(1100));
    35.                 pstm.setString(5, RandomValue.getEmail(415));
    36.                 pstm.setString(6, RandomValue.getTel());
    37.                 pstm.setString(7, RandomValue.getRoad());
    38.                 //添加到同一个批处理中
    39.                 pstm.addBatch();
    40.                 begin++;
    41.             }
    42.             //执行批处理
    43.             pstm.executeBatch();
    44.            //提交事务
    45.   //        conn.commit();
    46.             //边界值自增10W
    47.             end += 100000;
    48.             //关闭分段计时
    49.             long eTime = System.currentTimeMillis();
    50.             //输出
    51.             System.out.println("成功插入10W条数据耗时:"+(eTime-bTime));
    52.         }
    53.         //关闭总计时
    54.         long eTime1 = System.currentTimeMillis();
    55.         //输出
    56.         System.out.println("插入100W数据共耗时:"+(eTime1-bTime1));
    57.     } catch (SQLException e) {
    58.         e.printStackTrace();
    59.     } catch (ClassNotFoundException e1) {
    60.         e1.printStackTrace();
    61.     }
    62. }

    首先开始测试

    无事务,每次循环插入10W条数据,循环10次,一共100W条数据。

    结果如下图:

    1. 成功插入10W条数据耗时:3832
    2. 成功插入10W条数据耗时:1770
    3. 成功插入10W条数据耗时:2628
    4. 成功插入10W条数据耗时:2140
    5. 成功插入10W条数据耗时:2148
    6. 成功插入10W条数据耗时:1757
    7. 成功插入10W条数据耗时:1767
    8. 成功插入10W条数据耗时:1832
    9. 成功插入10W条数据耗时:1830
    10. 成功插入10W条数据耗时:2031
    11. 插入100W数据共耗时:21737

    实验结果:

    使用JDBC批处理,未开启事务下,平均每 2.1 秒插入 十万 条数据

    接着测试

    开启事务,每次循环插入10W条数据,循环10次,一共100W条数据。

    结果如下图:

    1. 成功插入10W条数据耗时:3482
    2. 成功插入10W条数据耗时:1776
    3. 成功插入10W条数据耗时:1979
    4. 成功插入10W条数据耗时:1730
    5. 成功插入10W条数据耗时:1643
    6. 成功插入10W条数据耗时:1665
    7. 成功插入10W条数据耗时:1622
    8. 成功插入10W条数据耗时:1624
    9. 成功插入10W条数据耗时:1779
    10. 成功插入10W条数据耗时:1698
    11. 插入100W数据共耗时:19003

    实验结果:

    使用JDBC批处理,开启事务,平均每 1.9 秒插入 十万 条数据

    3 总结

    能够看到,在开启事务下 JDBC直接处理 和 JDBC批处理 均耗时更短。

    • Mybatis 轻量级框架插入 , mybatis在我这次实验被黑的可惨了,哈哈。实际开启事务以后,差距不会这么大(差距10倍)。大家有兴趣的可以接着去测试

    • JDBC直接处理,在本次实验,开启事务和关闭事务,耗时差距5倍左右,并且这个倍数会随着数据量的增大而增大。因为在未开启事务时,更新10000条数据,就得访问数据库10000次。导致每次操作都需要操作一次数据库。

    • JDBC批处理,在本次实验,开启事务与关闭事务,耗时差距很微小(后面会增加测试,加大这个数值的差距)。但是能够看到开启事务以后,速度还是有提升。

    结论:设计到大量单条数据的插入,使用JDBC批处理和事务混合速度最快

    实测使用批处理+事务混合插入1亿条数据耗时:174756毫秒

    4 补充

    JDBC批处理事务,开启和关闭事务,测评插入20次,一次50W数据,一共一千万数据耗时:

    1、开启事务(数据太长不全贴了)

    插入1000W数据共耗时:197654

    2、关闭事务(数据太长不全贴了)

    插入1000W数据共耗时:200540

    还是没很大的差距~

    借用:

    分别是:

    • 不用批处理,不用事务;

    • 只用批处理,不用事务;

    • 只用事务,不用批处理;

    • 既用事务,也用批处理;(很明显,这个最快,所以建议在处理大批量的数据时,同时使用批处理和事务)

     敬请期待我的下一篇文章,谢谢。

    更多java进阶资料,面试资料,关注公众号

    来源:https://blog.csdn.net/qq_19007169/article/details/124835249
  • 相关阅读:
    vue 组件传值
    ES6 解构赋值
    JS filter的使用
    FormData实现文件上传
    vue+element 表格导出Excel文件
    vue2.0 element-ui中input的@keyup.native.enter='onQuery'回车查询刷新整个表单的解决办法
    vue2.0 element-ui中el-upload的before-upload方法返回false时submit()不生效解决方法
    JavaScript正则表达式检验手机号码、邮箱、ip地址等
    Vue 2.0 pagination分页组件
    angular环境
  • 原文地址:https://www.cnblogs.com/konglxblog/p/16729383.html
Copyright © 2020-2023  润新知