• 批量往数据库导入数据遇到的问题总结


      项目开发中,有个功能需要往数据库批量插入数据,刚开始没考虑那么多,就一条一条数据循环插入数据库,数据量少的时候,效率还可以,但是当数据量达到上千甚至几百时,这个方法效率就不行了,得等段时间才全部插入成功,用户体验度非常不好,果断pass掉该方法。

      接着换令一种方法,那就是拼接insert字符串,即"Insert into TableName Values(' ',' ',' '),(' ',' ',' ');",刚开始还比较happy,插入速度很快,效率很高,可是当数据过千后,问题出现了,报错了提示“INSERT 语句中行值表达式的数目超出了 1000 行值的最大允许值。”,我去,一次只能批量插入1000条数据,这也太坑了吧!要想继续用这种方法,就必须循环数据,每次插入1000条,这样得加各种判断比较繁琐,懒得加就继续pass。

      就这样兜兜转转找到了第三种方法,使用SqlBulkCopy类批量添加数据,经过查资料发现这个方法真是NB,百万级的数据插入数据库只用了十几秒甚至几秒,这效率简直要上天呀!于是果断用这个方法。下面是SqlBulkCopy类的简单用法:

     public void BatchInsert(List<AdCarSerialEntity> list)
            {
                DataTable dt = DataFormat.ListToDataTable<AdCarSerialEntity>(list);
    
                using (SqlBulkCopy bulkCopy = new SqlBulkCopy(WebConfig.DealerRW, SqlBulkCopyOptions.KeepIdentity))
                {
                    //每一批次中的行数
                    bulkCopy.BatchSize = 100000;
                    //超时之前操作完成所允许的秒数
                    bulkCopy.BulkCopyTimeout = 1800;
    
                    //将DataTable表名作为待导入库中的目标表名 
                    bulkCopy.DestinationTableName = "AdCarSerials";
    
                    //将数据集合和目标服务器库表中的字段对应  
                    for (int i = 1; i < dt.Columns.Count; i++)
                    {
                        //列映射定义数据源中的列和目标表中的列之间的关系
                        bulkCopy.ColumnMappings.Add(dt.Columns[i].ColumnName, dt.Columns[i].ColumnName);
                    }
                    //将DataTable数据上传到数据表中
                    bulkCopy.WriteToServer(dt);
                }
            }
    

      这个方法不仅效率快,而且数据源不限,只要将数据加载到DataTable实例或者DataRow数组中都可以将数据批量插入数据库。

      就这样批量插入的问题愉快的解决了,以后再也不用担心上万级数据的批量插入效率问题了~~~

  • 相关阅读:
    算法——基础
    递归函数
    docker常用命令
    vue——计算属性和侦听器
    vue——指令系统
    vue——介绍和使用
    webpack、babel模块、模块化
    Nodejs介绍及npm工具使用
    ECMAScript 6简介
    easyui(入门)
  • 原文地址:https://www.cnblogs.com/zcz527/p/5391858.html
Copyright © 2020-2023  润新知