• urllib -- ProxyHandler处理器(代理设置)


    import  urllib.request
    import random
    import ssl

    proxy_list = [
    {"https" : "196.61.27.58:53281"},
    {"http" : "121.232.144.81:9000"}
    ]

    # 随机选择一个代理
    proxy = random.choice(proxy_list)

    # 构建两个代理Handler,一个有 代理ip,一个没有代理ip
    httpproxy_handler = urllib.request.ProxyHandler(proxy)
    nullproxy_handler = urllib.request.ProxyHandler()

    # 使用私密代理
    # httpproxy_handler = urllib2.ProxyHandler({'http':"用户名:密码@2175.9.179.50:80"})

    # 定义一个代理开关
    proxySwitch = True

    # 通过urllib.request.build_opener()方法使用代理对象Handler,并创建opener对象
    # 根据代理开关是否打开,使用不同的代理模式
    if proxySwitch:
    opener = urllib.request.build_opener(httpproxy_handler)
    else:
    opener = urllib.request.build_opener(nullproxy_handler)

    request = urllib.request.Request("http://www.baidu.com/")

    # 1. 如果这么写,只有使用opener.open()方法发送请求才使用自定义的代理,而urlopen()则不使用自定义代理。
    # response = opener.open(request)

    # 2. 构建全局的opener,之后的所有请求都可以用urlopen()方法去发送,都将使用自定义代理。
    urllib.request.install_opener(opener)
    response = urllib.request.urlopen(request,context=ssl._create_unverified_context())

    print(response.read().decode('utf-8'))

    """
    urllib.error.URLError: <urlopen error [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。>
    HTTPS 请求验证SSL证书,就像web浏览器一样,如果网站的SSL证书是经过CA认证的,则能够正常访问
    导入Python SSL处理模块
    import ssl
    2. 表示忽略未经核实的SSL证书认证
    context = ssl._create_unverified_context()

    urlopen()方法里 指明添加 context 参数
    response = urllib.request.urlopen(request, context = context)
    """
  • 相关阅读:
    pip源配置
    Linux:supervisor命令的使用
    uWSGI+Nginx+Flask在Linux下的部署
    MongoDB的使用[转]
    用python获取服务器硬件信息[转]
    python:virtualenv的使用
    Django笔记:常见故障排除
    常用资源网站链接
    Scrapy笔记:持久化,Feed exports的使用
    Scrapy笔记:使用代理ip
  • 原文地址:https://www.cnblogs.com/AndyChen2015/p/7418504.html
Copyright © 2020-2023  润新知