博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
批量往数据库导入数据遇到的问题总结
阅读量:6261 次
发布时间:2019-06-22

本文共 1553 字,大约阅读时间需要 5 分钟。

  项目开发中,有个功能需要往数据库批量插入数据,刚开始没考虑那么多,就一条一条数据循环插入数据库,数据量少的时候,效率还可以,但是当数据量达到上千甚至几百时,这个方法效率就不行了,得等段时间才全部插入成功,用户体验度非常不好,果断pass掉该方法。

  接着换令一种方法,那就是拼接insert字符串,即"Insert into TableName Values(' ',' ',' '),(' ',' ',' ');",刚开始还比较happy,插入速度很快,效率很高,可是当数据过千后,问题出现了,报错了提示“INSERT 语句中行值表达式的数目超出了 1000 行值的最大允许值。”,我去,一次只能批量插入1000条数据,这也太坑了吧!要想继续用这种方法,就必须循环数据,每次插入1000条,这样得加各种判断比较繁琐,懒得加就继续pass。

  就这样兜兜转转找到了第三种方法,使用SqlBulkCopy类批量添加数据,经过查资料发现这个方法真是NB,百万级的数据插入数据库只用了十几秒甚至几秒,这效率简直要上天呀!于是果断用这个方法。下面是SqlBulkCopy类的简单用法:

public void BatchInsert(List
list) { DataTable dt = DataFormat.ListToDataTable
(list); using (SqlBulkCopy bulkCopy = new SqlBulkCopy(WebConfig.DealerRW, SqlBulkCopyOptions.KeepIdentity)) { //每一批次中的行数 bulkCopy.BatchSize = 100000; //超时之前操作完成所允许的秒数 bulkCopy.BulkCopyTimeout = 1800; //将DataTable表名作为待导入库中的目标表名 bulkCopy.DestinationTableName = "AdCarSerials"; //将数据集合和目标服务器库表中的字段对应 for (int i = 1; i < dt.Columns.Count; i++) { //列映射定义数据源中的列和目标表中的列之间的关系 bulkCopy.ColumnMappings.Add(dt.Columns[i].ColumnName, dt.Columns[i].ColumnName); } //将DataTable数据上传到数据表中 bulkCopy.WriteToServer(dt); } }

  这个方法不仅效率快,而且数据源不限,只要将数据加载到DataTable实例或者DataRow数组中都可以将数据批量插入数据库。

  就这样批量插入的问题愉快的解决了,以后再也不用担心上万级数据的批量插入效率问题了~~~

转载于:https://www.cnblogs.com/zcz527/p/5391858.html

你可能感兴趣的文章
zstack虚拟机找不到硬盘信息
查看>>
Outlook客户端和Exchange服务器连接问题排错常用工具——Office配置扫描
查看>>
登录信息提示
查看>>
EXCHANGE2003系列总结-7:OWA下修改密码
查看>>
Zabbix安装图解教程
查看>>
oracle数据类型
查看>>
MSSQL sum()计算expression转化为数据类型int时发生算术溢出错误解决
查看>>
oracle 11g rac 笔记(VMware 和esxi主机都可以使用)
查看>>
golang钉钉群机器人订阅自定义主题百度新闻
查看>>
Backend-as-a-Service (BaaS) for Efficient Software Development
查看>>
php的curl获取https加密协议请求返回json数据进行信息获取
查看>>
检查HP服务器硬盘状态脚本
查看>>
Java基础之函数
查看>>
NAT负载均衡_ftp
查看>>
kafka集群搭建
查看>>
Mongodb大数据语法大全
查看>>
Linux的简单SHELL
查看>>
bat清理日志文件
查看>>
python——“破解”私有属性
查看>>
httpclient请求域名自定义域名指向ip
查看>>