• 关于sql多表去重问题


    很多人新手对于数据库distinct 的用法有误解接下来我们看一段代码:

       数据表:table  id name

       1 a
       2 b
       3 c
       4 c
       5 b

      我们使用distinct来去重name是这样:

     select distinct name from table 结果为:

         a

         b

        c

     可是一般数据库去重都是需要不止一个字段接下来看这个:

      select distinct name, id from table 多了个id效果会怎样呢

       1 a
       2 b
       3 c
       4 c
       5 b

      结果并不是我们想象的一样去重了接下来我们继续:

      select *, count(distinct name) from table group by name 这条sql 就不一样了效果如下

       1 a 1

       2 b 1

       3 c 1

      看到效果了吧,只是后面多了一个count 查出来的数据这个不影响,是可以用的.

      

    2.Sql去重语句

     

    海量数据(百万以上),其中有些全部字段都相同,有些部分字段相同,怎样高效去除重复?

    如果要删除手机(mobilePhone),电话(officePhone),邮件(email)同时都相同的数据,以前一直使用这条语句进行去重:

    1 delete from 表 where id not in
    2 (select max(id) from 表 group by mobilePhone,officePhone,email )
    3 or
    4 delete from 表 where id not in
    5 (select min(id) from 表 group by mobilePhone,officePhone,email )

    其中下面这条会稍快些。上面这条数据对于100万以内的数据效率还可以,重复数1/5的情况下几分钟到几十分钟不等,但是如果数据量达到300万以上,效率骤降,如果重复数据再多点的话,常常会几十小时跑不完,有时候会锁表跑一夜都跑不完。无奈只得重新寻找新的可行方法,今天终于有所收获:

    1 //查询出唯一数据的ID,并把他们导入临时表tmp中
    2 select min(id) as mid into tmp from 表 group by mobilePhone,officePhone,email
    3  
    4 //查询出去重后的数据并插入finally表中
    5 insert into finally select (除ID以外的字段) from customers_1 where id in (select mid from tmp)

    效率对比:用delete方法对500万数据去重(1/2重复)约4小时。4小时,很长的时间。

    用临时表插入对500万数据去重(1/2重复)不到10分钟。

    SQL语句去掉重复记录,获取重复记录

    按照某几个字段名称查找表中存在这几个字段的重复数据并按照插入的时间先后进行删除,条件取决于order by 和row_num。

    方法一按照多条件重复处理:

      delete tmp from(
      select row_num = row_number() over(partition by 字段,字段 order by 时间 desc)
          from 表 where 时间> getdate()-1
      ) tmp
      where row_num > 1

    方法二按照单一条件进行去重:

      delete from 表 where 主键ID not in(
      select max(主键ID) from 表 group by 需要去重的字段 having count(需要去重的字段)>=1
      )

    注意:为提高效率如上两个方法都可以使用临时表, not in 中的表可以先提取临时表#tmp,

    然后采用not exists来执行,为避免数量过大,可批量用Top控制删除量

      delete top(2) from 
              where  not exists (select 主键ID

      sql 去重具体方式就先写这一种,第二种博客看到的,后期待续.各位大神别喷.

      

    Sql去重语句

     

    海量数据(百万以上),其中有些全部字段都相同,有些部分字段相同,怎样高效去除重复?

    如果要删除手机(mobilePhone),电话(officePhone),邮件(email)同时都相同的数据,以前一直使用这条语句进行去重:

      delete from 表 where id not in
      (select max(id) from 表 group by mobilePhone,officePhone,email )
      or
      delete from 表 where id not in
      (select min(id) from 表 group by mobilePhone,officePhone,email )

    其中下面这条会稍快些。上面这条数据对于100万以内的数据效率还可以,重复数1/5的情况下几分钟到几十分钟不等,但是如果数据量达到300万以上,效率骤降,如果重复数据再多点的话,常常会几十小时跑不完,有时候会锁表跑一夜都跑不完。无奈只得重新寻找新的可行方法,今天终于有所收获:

      //查询出唯一数据的ID,并把他们导入临时表tmp中
      select min(id) as mid into tmp from 表 group by mobilePhone,officePhone,email
     
      //查询出去重后的数据并插入finally表中
      insert into finally select (除ID以外的字段) from customers_1 where id in (select mid from tmp)

    效率对比:用delete方法对500万数据去重(1/2重复)约4小时。4小时,很长的时间。

    用临时表插入对500万数据去重(1/2重复)不到10分钟。

    SQL语句去掉重复记录,获取重复记录

    按照某几个字段名称查找表中存在这几个字段的重复数据并按照插入的时间先后进行删除,条件取决于order by 和row_num。

    方法一按照多条件重复处理:

      delete tmp from(
      select row_num = row_number() over(partition by 字段,字段 order by 时间 desc)
          from 表 where 时间> getdate()-1
      ) tmp
      where row_num > 1

    方法二按照单一条件进行去重:

      delete from 表 where 主键ID not in(
      select max(主键ID) from 表 group by 需要去重的字段 having count(需要去重的字段)>=1
      )

    注意:为提高效率如上两个方法都可以使用临时表, not in 中的表可以先提取临时表#tmp,

    然后采用not exists来执行,为避免数量过大,可批量用Top控制删除量

      delete top(2) from 
              where  not exists (select 主键ID
     
  • 相关阅读:
    云区域(region),可用区(AZ),跨区域数据复制(Cross-region replication)与灾备(Disaster Recovery)(部分1)
    云区域(region),可用区(AZ),跨区域数据复制(Cross-region replication)与灾备(Disaster Recovery)(部分2)
    VLAN 模式下的 OpenStack 管理 vSphere 集群方案
    理解Kubernetes(2): 应用的各种访问方式
    理解Kubernetes(1):手工搭建Kubernetes测试环境
    2017这一年(内空)
    eKing Cloud基础云平台演进之路
    《重新定义公司
    使用 Kafka 和 ELK 搭建测试日志系统(1)
    [译] OpenStack Pike 版本中的 53 个新功能盘点
  • 原文地址:https://www.cnblogs.com/tjlboke/p/7525438.html
Copyright © 2020-2023  润新知