最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
当前位置: 首页 - 科技 - 知识百科 - 正文

SqlCommandBuilder类批量更新excel或者CSV数据的方法

来源:动视网 责编:小采 时间:2020-11-27 22:38:05
文档

SqlCommandBuilder类批量更新excel或者CSV数据的方法

SqlCommandBuilder类批量更新excel或者CSV数据的方法:当你批量操作数据的时候,常常会使用到update table1 from table2的这种方式,这种方式是最简洁的。 但当你从excel或者CSV文件更新海量数据时,再使用这种方法,那性能是不是好?字符串拼接又何其之多,大数据是不是需要分组更新? 我不想去检测各种方法的速
推荐度:
导读SqlCommandBuilder类批量更新excel或者CSV数据的方法:当你批量操作数据的时候,常常会使用到update table1 from table2的这种方式,这种方式是最简洁的。 但当你从excel或者CSV文件更新海量数据时,再使用这种方法,那性能是不是好?字符串拼接又何其之多,大数据是不是需要分组更新? 我不想去检测各种方法的速


当你批量操作数据的时候,常常会使用到update table1 from table2的这种方式,这种方式是最简洁的。
但当你从excel或者CSV文件更新海量数据时,再使用这种方法,那性能是不是好?字符串拼接又何其之多,大数据是不是需要分组更新?
我不想去检测各种方法的速度,因为我个人比较认可以下方式,欢迎大家批评与指正。
我需要使用到的类主要是SqlCommandBuilder。

/// <param name="table">准备更新的DataTable新数据</param>
 /// <param name="TableName">对应要更新的数据库表名</param>
 /// <param name="primaryKeyName">对应要更新的数据库表的主键名</param>
 /// <param name="columnsName">对应要更新的列的列名集合</param>
 /// <param name="limitColumns">需要在SQL的WHERE条件中限定的条件字符串,可为空。</param>
 /// <param name="onceUpdateNumber">每次往返处理的行数</param>
 /// <returns>返回更新的行数</returns>
 public static int Update(DataTable table, string TableName, string primaryKeyName, string[] columnsName, string limitWhere,int onceUpdateNumber)
 {
 if (string.IsNullOrEmpty(TableName)) return 0;
 if (string.IsNullOrEmpty(primaryKeyName)) return 0;
 if (columnsName == null || columnsName.Length <= 0) return 0;
 DataSet ds = new DataSet();
 ds.Tables.Add(table);
 int result = 0;
 using (SqlConnection sqlconn = new SqlConnection(SqlHelper.ConnString))
 {
 sqlconn.Open();

 //使用加强读写锁事务 
 SqlTransaction tran = sqlconn.BeginTransaction(IsolationLevel.ReadCommitted);
 try
 {
 foreach (DataRow dr in ds.Tables[0].Rows)
 {
 //所有行设为修改状态 
 dr.SetModified();
 }
 //为Adapter定位目标表 
 SqlCommand cmd = new SqlCommand(string.Format("select * from {0} where {1}", TableName,limitWhere), sqlconn, tran);
 SqlDataAdapter da = new SqlDataAdapter(cmd);
 SqlCommandBuilder sqlCmdBuilder = new SqlCommandBuilder(da);
 da.AcceptChangesDuringUpdate = false;
 string columnsUpdateSql = "";
 SqlParameter[] paras = new SqlParameter[columnsName.Length];
 //需要更新的列设置参数是,参数名为"@+列名"
 for (int i = 0; i < columnsName.Length; i++)
 {
 //此处拼接要更新的列名及其参数值
 columnsUpdateSql += ("[" + columnsName[i] + "]" + "=@" + columnsName[i] + ",");
 paras[i] = new SqlParameter("@" + columnsName[i], columnsName[i]);
 }
 if (!string.IsNullOrEmpty(columnsUpdateSql))
 {
 //此处去掉拼接处最后一个","
 columnsUpdateSql = columnsUpdateSql.Remove(columnsUpdateSql.Length - 1);
 }
 //此处生成where条件语句
 string limitSql = ("[" + primaryKeyName + "]" + "=@" + primaryKeyName);
 SqlCommand updateCmd = new SqlCommand(string.Format(" UPDATE [{0}] SET {1} WHERE {2} ", TableName, columnsUpdateSql, limitSql));
 //不修改源DataTable 
 updateCmd.UpdatedRowSource = UpdateRowSource.None;
 da.UpdateCommand = updateCmd;
 da.UpdateCommand.Parameters.AddRange(paras);
 da.UpdateCommand.Parameters.Add("@" + primaryKeyName, primaryKeyName);
 //每次往返处理的行数
 da.UpdateBatchSize = onceUpdateNumber;
 result = da.Update(ds,TableName);
 ds.AcceptChanges();
 tran.Commit();

 }
 catch
 {
 tran.Rollback();
 }
 finally
 {
 sqlconn.Dispose();
 sqlconn.Close();
 }


 }
 return result;
 }

注: 此方法调用时要传入的参数,包括主键名和列名都应与数据库实际的名称相对应。
你可以不传入限定的where条件,如果传入,只需传入:Name="chamy" or Name="jundy",不需加入“where”等字符,不可以在此处传入主键的限定,你只需要在主键名这个参数上传入名称即可。

文档

SqlCommandBuilder类批量更新excel或者CSV数据的方法

SqlCommandBuilder类批量更新excel或者CSV数据的方法:当你批量操作数据的时候,常常会使用到update table1 from table2的这种方式,这种方式是最简洁的。 但当你从excel或者CSV文件更新海量数据时,再使用这种方法,那性能是不是好?字符串拼接又何其之多,大数据是不是需要分组更新? 我不想去检测各种方法的速
推荐度:
标签: 批量 update 数据的
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题
Top