• Python 下载大文件,哪种方式速度更快


    转载:Python 下载大文件,哪种方式速度更快 (qq.com)

    方法一

    使用以下流式代码,无论下载文件的大小如何,Python 内存占用都不会增加:

    def download_file(url):
        local_filename = url.split('/')[-1]
        # 注意传入参数 stream=True
        with requests.get(url, stream=True) as r:
            r.raise_for_status()
            with open(local_filename, 'wb') as f:
                for chunk in r.iter_content(chunk_size=8192): 
                    f.write(chunk)
        return local_filename

    如果你有对 chunk 编码的需求,那就不该传入 chunk_size 参数,且应该有 if 判断。

    def download_file(url):
        local_filename = url.split('/')[-1]
        # 注意传入参数 stream=True
        with requests.get(url, stream=True) as r:
            r.raise_for_status()
            with open(local_filename, 'w') as f:
                for chunk in r.iter_content(): 
                    if chunk:
                        f.write(chunk.decode("utf-8"))
        return local_filename

    iter_content[1] 函数本身也可以解码,只需要传入参数 decode_unicode = True 即可。

    请注意,使用 iter_content 返回的字节数并不完全是 chunk_size,它是一个通常更大的随机数,并且预计在每次迭代中都会有所不同。

    方法二

    使用 Response.raw[2] 和 shutil.copyfileobj[3]

    import requests
    import shutil

    def download_file(url):
        local_filename = url.split('/')[-1]
        with requests.get(url, stream=True) as r:
            with open(local_filename, 'wb') as f:
                shutil.copyfileobj(r.raw, f)

        return local_filename

    这将文件流式传输到磁盘而不使用过多的内存,并且代码更简单。

    注意:根据文档,Response.raw 不会解码,因此如果需要可以手动替换 r.raw.read 方法

    response.raw.read = functools.partial(response.raw.read, decode_content=True)

    速度

    方法二更快。方法一如果 2-3 MB/s 的话,方法二可以达到近 40 MB/s

  • 相关阅读:
    Python——数据结构——字典
    Python——print()函数
    Python数据结构——序列总结
    elasticsearch全文检索java
    elasticsearch单例模式连接 java
    【转载】信号中断 与 慢系统调用
    设计模式——状态模式(C++实现)
    设计模式——观察者模式(C++实现)
    C++调用C方法
    设计模式——外观模式(C++实现)
  • 原文地址:https://www.cnblogs.com/testzcy/p/16629811.html
Copyright © 2020-2023  润新知