• requests 中的参数 stream


    这个参数不常用,不过很巧妙的一个参数.

    当下载大的文件的时候,建议使用strea模式.

    默认情况下是stream=Ffalse,他会立即开始下载文件并存放到内存当中,倘若文件过大就会导致内存不足的情况.

    当把get函数的stream参数设置成True时,它不会立即开始下载,当你使用iter_content或iter_lines遍历内容或访问内容属性时才开始下载。需要注意一点:文件没有下载之前,它也需要保持连接。这里就用到了另一个巧妙的库了: contextlib.closing

    • iter_content:一块一块的遍历要下载的内容
    • iter_lines:一行一行的遍历要下载的内容

    使用上面两个函数下载大文件可以防止占用过多的内存,因为每次只下载小部分数据。

    示例代码:

    r = requests.get(url_file, stream=True)
    f = open("file_path", "wb")
    for chunk in r.iter_content(chunk_size=512):    # 按照块的大小读取
    # for chunk in r.iter_lines():    # 按照一行一行的读取
        if chunk:
            f.write(chunk)

    更详细的介绍:

    抓取一批URL,并获取对应URL的<title>标签中的文字,忽略对应URL网站的封禁问题,这个任务并不是一个特别麻烦的事情。然后实际跑起来,却发现流量打的很高,超过10Mb/s。

    经过排查发现,是因为很多URL,实际是下载链接,会触发文件下载,这些URL对应的html中根本不会包含<title>标签,那么处理逻辑就很清晰了,先拿到headers,取出Content-Type,判断是否是
    text/html,如果不是,则该Response的body体,就没有必要读取了。

    这样的话,只有headers头被下载了,body中的数据还没有被下载,这样就能避免不必要的流量开销,只有当你使用r.content 的时候,所有body内容才会被下载

    实时上还可以使用Response.iter_content() Response.iter_lines()
    Response.raw()来自己决定要读取多少数据

    最后要注意的是,使用stream=True以后需要自己执行Response的
    关闭操作

    好,那么看下我改进后的程序

    import logging
    import threading
    import redis
    import requests
    from lxml.html import fromstring
    
    r = redis.Redis(host='127.0.0.1', port=6379, db=10)
    logging.basicConfig(level=logging.INFO,
                        format='%(asctime)s %(name)-12s %(levelname)-8s %(message)s',
                        filename='all.log',
                        filemode='w')
    def extract(url):
        logger = logging.getLogger()
        try:
            res = requests.get(url, stream=True, timeout=0.5)
            ctype = res.headers['Content-Type']
            ctype = ctype.lower()
            if ctype.find('text/html') == -1:
                res.close()
                return None
    
            doc = fromstring(res.content)
            res.close()
            item_list  = doc.xpath('//head/title')
            if item_list:
                res = item_list[0].text_content()
                res = unicode(res)
                logger.info('title = %s', res)
                return res
        except:
            return None
        return None

    经过测试,带宽开销确实大幅下降了。为requests点个赞,设计者想的太周到了,既允许从hign level去使用它,也可以回到low level去精细化的管理控制连接。

    默认情况下requests对URL的访问是阻塞式的,可以通过使用
    1)grequests
    2)requests-futures
    来实现非阻塞式的访问

    参考连接:

     nul1 | https://www.cnblogs.com/nul1/p/9172068.html

    萌叔 | http://vearne.cc/archives/120
  • 相关阅读:
    Linux下的lds链接脚本简介
    Fedora下载地址
    SkyEye的使用
    shell变量详解
    Linux shell 脚本攻略之正则表达式入门
    Linux shell 脚本攻略之统计文件的行数、单词数和字符数
    Linux shell 脚本攻略之创建不可修改文件
    Linux shell 脚本攻略之生成任意大小的文件
    Linux shell 脚本攻略之批量重命名
    Linux shell 脚本攻略之文件查找与文件列表
  • 原文地址:https://www.cnblogs.com/yuanyongqiang/p/12609860.html
Copyright © 2020-2023  润新知