• SQL Server中删除重复数据的几个方法


    SQL Server中删除重复数据的几个方法

         数据库的使用过程中由于程序方面的问题有时候会碰到重复数据,重复数据导致了数据库部分设置不能正确设置……

         方法一

    Sql代码 复制代码
    1. declare @max integer,@id integer  
    2. declare cur_rows cursor local for select 主字段,count(*) from 表名 group by 主字段 having count(*) > 1   
    3. open cur_rows   
    4. fetch cur_rows into @id,@max  
    5. while @@fetch_status=0   
    6. begin  
    7. select @max = @max -1   
    8. set rowcount @max  
    9. delete from 表名 where 主字段 = @id   
    10. fetch cur_rows into @id,@max  
    11. end  
    12. close cur_rows   
    13. set rowcount 0  
     

         方法二

          有两个意义上的重复记录,一是完全重复的记录,也即所有字段均重复的记录,二是部分关键字段重复的记录,比如Name字段重复,而其他字段不一定重复或都重复可以忽略。

          1、对于第一种重复,比较容易解决,使用

    Sql代码 复制代码
    1. select distinct * from tableName  

           就可以得到无重复记录的结果集。

           如果该表需要删除重复的记录(重复记录保留1条),可以按以下方法删除

    Sql代码 复制代码
    1. select distinct * into #Tmp from tableName   
    2. drop table tableName   
    3. select * into tableName from #Tmp   
    4. drop table #Tmp  

           发生这种重复的原因是表设计不周产生的,增加唯一索引列即可解决。

           2、这类重复问题通常要求保留重复记录中的第一条记录,操作方法如下

              假设有重复的字段为Name,Address,要求得到这两个字段唯一的结果集

    Sql代码 复制代码
    1. select identity(int,1,1) as autoID, * into #Tmp from tableName   
    2. select min(autoID) as autoID into #Tmp2 from #Tmp group by Name,autoID   
    3. select * from #Tmp where autoID in(select autoID from #tmp2)  

              最后一个select即得到了Name,Address不重复的结果集(但多了一个autoID字段,实际写时可以写在select子句中省去此列)

  • 相关阅读:
    flink on yarn部分源码解析 (FLIP-6 new mode)
    flink on yarn部分源码解析
    flink window的early计算
    【flink training】 打车热点区域实时统计PopularPlaces
    troubshooting-sqoop 导出 TiDB表数据报com.mysql.jdbc.exceptions.jdbc4.CommunicationsException: Communications link failure
    Hive2.0常用函数(对编辑器很无语😓)
    Hive正则表达式
    troubleshooting-Container 'PHYSICAL' memory limit
    Hive-查询结果导入到 MySQL
    Hive-复制表
  • 原文地址:https://www.cnblogs.com/bicabo/p/1684949.html
Copyright © 2020-2023  润新知