项目开发中,有个功能需要往数据库批量插入数据,刚开始没考虑那么多,就一条一条数据循环插入数据库,数据量少的时候,效率还可以,但是当数据量达到上千甚至几百时,这个方法效率就不行了,得等段时间才全部插入成功,用户体验度非常不好,果断pass掉该方法。
接着换令一种方法,那就是拼接insert字符串,即"Insert into TableName Values(' ',' ',' '),(' ',' ',' ');",刚开始还比较happy,插入速度很快,效率很高,可是当数据过千后,问题出现了,报错了提示“INSERT 语句中行值表达式的数目超出了 1000 行值的最大允许值。”,我去,一次只能批量插入1000条数据,这也太坑了吧!要想继续用这种方法,就必须循环数据,每次插入1000条,这样得加各种判断比较繁琐,懒得加就继续pass。
就这样兜兜转转找到了第三种方法,使用SqlBulkCopy类批量添加数据,经过查资料发现这个方法真是NB,百万级的数据插入数据库只用了十几秒甚至几秒,这效率简直要上天呀!于是果断用这个方法。下面是SqlBulkCopy类的简单用法:
public void BatchInsert(List<AdCarSerialEntity> list) { DataTable dt = DataFormat.ListToDataTable<AdCarSerialEntity>(list); using (SqlBulkCopy bulkCopy = new SqlBulkCopy(WebConfig.DealerRW, SqlBulkCopyOptions.KeepIdentity)) { //每一批次中的行数 bulkCopy.BatchSize = 100000; //超时之前操作完成所允许的秒数 bulkCopy.BulkCopyTimeout = 1800; //将DataTable表名作为待导入库中的目标表名 bulkCopy.DestinationTableName = "AdCarSerials"; //将数据集合和目标服务器库表中的字段对应 for (int i = 1; i < dt.Columns.Count; i++) { //列映射定义数据源中的列和目标表中的列之间的关系 bulkCopy.ColumnMappings.Add(dt.Columns[i].ColumnName, dt.Columns[i].ColumnName); } //将DataTable数据上传到数据表中 bulkCopy.WriteToServer(dt); } }
这个方法不仅效率快,而且数据源不限,只要将数据加载到DataTable实例或者DataRow数组中都可以将数据批量插入数据库。
就这样批量插入的问题愉快的解决了,以后再也不用担心上万级数据的批量插入效率问题了~~~