• 绝对干货,教你4分钟插入1000万条数据到mysql数据库表,快快进来


    https://www.365yg.com/a6564230987025220110#mid=6796898310

    我用到的数据库为,mysql数据库5.7版本的

    1.首先自己准备好数据库表

    其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下:

    com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_allowed_packet’ variable.

    出现上面的错误是因为数据库表的 max_allowed_packet这个配置没配置足够大,因为默认的为4M的,后来我调为100M就没报错了

    set global max_allowed_packet = 100*1024*1024*
    记住,设置好后重新登录数据库才能看的设置后的值
    show VARIABLES like '%max_allowed_packet%'
    Java的jdbc代码如下:

     1 package com.mysql;
     2 
     3 import java.sql.Connection;
     4 import java.sql.DriverManager;
     5 import java.sql.PreparedStatement;
     6 import java.sql.SQLException;
     7 import java.util.Date;
     8 
     9 public class InsertTest {
    10 
    11     public static void main(String[] args) throws ClassNotFoundException, SQLException {
    12         final String url = "jdbc:mysql://127.0.0.1/test?useUnicode=true&useJDBCCompliantTimezoneShift=true&useLegacyDatetimeCode=false&serverTimezone=UTC";
    13         final String name = "com.mysql.jdbc.Driver";
    14         final String user = "root";
    15         final String password = "root";
    16         Connection conn = null;
    17         Class.forName(name);//指定连接类型
    18         conn = DriverManager.getConnection(url, user, password);//获取连接
    19         if (conn != null) {
    20             System.out.println("获取连接成功");
    21             insert(conn);
    22         } else {
    23             System.out.println("获取连接失败");
    24         }
    25 
    26     }
    27 
    28     public static void insert(Connection conn) {
    29         // 开始时间
    30         Long begin = new Date().getTime();
    31         // sql前缀
    32         String prefix = "INSERT INTO t_teacher (name, age) VALUES ";
    33         try {
    34             // 保存sql后缀
    35             StringBuffer suffix = new StringBuffer();
    36             // 设置事务为非自动提交
    37             conn.setAutoCommit(false);
    38             // 比起st,pst会更好些
    39             PreparedStatement pst = (PreparedStatement) conn.prepareStatement(" ");//准备执行语句
    40             // 外层循环,总提交事务次数
    41             for (int i = 1; i <= 100; i++) {
    42                 suffix = new StringBuffer();
    43                 // 第j次提交步长
    44                 for (int j = 1; j <= 100000; j++) {
    45                     // 构建SQL后缀
    46                     suffix.append("('" + "cxx" + j + "'," + j + "),");
    47                 }
    48                 // 构建完整SQL
    49                 String sql = prefix + suffix.substring(0, suffix.length() - 1);
    50                 // 添加执行SQL
    51                 pst.addBatch(sql);
    52                 // 执行操作
    53                 pst.executeBatch();
    54                 // 提交事务
    55                 conn.commit();
    56                 // 清空上一次添加的数据
    57                 suffix = new StringBuffer();
    58             }
    59             // 头等连接
    60             pst.close();
    61             conn.close();
    62         } catch (SQLException e) {
    63             e.printStackTrace();
    64         }
    65         // 结束时间
    66         Long end = new Date().getTime();
    67         // 耗时
    68         System.out.println("1000万条数据插入花费时间 : " + (end - begin) / 1000 + " s");
    69         System.out.println("插入完成");
    70     }
    71 }

      结果:
     

    哈哈,1000万条数据288秒完成,是不是感觉超级牛逼,我每次插入10万条数据就提交一次事务,如果是一条一条差的话估计要好几个小时,网上有人试过时间浪费在数据库的连接上了,
    后来我想测试插入100万条数据时候数据库引擎的差别
    首先把代码中最外层的循环i=100改为i=10;
    1.数据库引擎为MyISAM时:27s,这个我忘了截图了。因为我后来测试InnoDB的时候我换了一个表来测试,因为我发现改不了数据库表的引擎。。。。所以只能换一个表来测试
    1.数据库引擎为InnoDB时:

     用了77秒,比MyISAW慢了3倍左右,估计要是1000万条数据的时候更慢吧。。。
  • 相关阅读:
    函数与导数部分的题型梳理
    构造函数习题1
    破解构造函数问题
    函数的值域
    函数的定义域
    高三数学微课堂
    Redux Todos Example
    Linux下查看Nginx安装目录、版本号信息及当前运行的配置文件
    antd的Tree控件实现点击展开功能
    Redux Counter example
  • 原文地址:https://www.cnblogs.com/cxxjohnson/p/9155411.html
Copyright © 2020-2023  润新知