• mysql 如何分批 读取数据


    遇到问题: 数据库里的数据要都跑一遍,全拿出来会卡爆缓存,还有一种是跑一个删一个。不行数据还要呢,或则复制一份,跑一个删一个。还是不行麻烦。
    理想状况:可以分批次取,一次取多少,记录下当前值。以后可以从当前值 ,接着取。

    `limit n,m`,表示起始值为n,然后取出m个记录。如果batch size为25,那么可以:
    `limit 25`,`limit 25,25`,limit`50,25` ... 依次下去,默认按照表的主键id升序排列,每次记录最大的已处理记录的主键id(这里基于了一个假设,此表是自增主键)
    
    如果此表没有新增记录,以上方法肯定没问题,但是如果此表有多个事务并发写入,可能会导致大id记录先于小id记录(两个事务)被处理,导致这部分小id记录永远也不会被处理到。
    
    问题中使用`post_date`其实也会有这个问题,无法保证`post_date`小的数据记录一定先于`post_date`大的记录先入库。insert时间早,id小的记录并不一定早于id大的记录插入至数据库。此完全取决于事务的提交时间。
    

    具体使用过程

    import multiprocessing
    
    def func(start, end):
        ip_list = MySql.xxxxxxxx(start, end)  # 126000
        print(ip_list)
    
        token, c = get_token()
    
        for ip in ip_list:
            # time.sleep(random.random()*10)
            get_tuan_info(token, c, ip)
    
    
    if __name__ == "__main__":
        pool = multiprocessing.Pool(processes=10)  # 创建4个进程
        results = []
        for msg in range(0, 10000, 1000):
            msg += 0
            results.append(pool.apply_async(func, (msg, 1000)))
        pool.close()  # 关闭进程池,表示不能再往进程池中添加进程,需要在join之前调用
        pool.join()  # 等待进程池中的所有进程执行完毕
    
  • 相关阅读:
    The nineteenth day
    The eighteen day
    弱读下
    弱读上
    失爆 爆破音
    连读
    The seventeenth day
    The sixteenth day
    React 官方脚手架 create-react-app快速生成新项目
    pc端引入微信公众号文章
  • 原文地址:https://www.cnblogs.com/wzbk/p/15090021.html
Copyright © 2020-2023  润新知