• 【转】python使用urllib2抓取网页


    1、使用python的库urllib2,用到urlopen和Request方法。

    2、方法urlopen原形

    urllib2.urlopen(url[, data][, timeout])

    其中:

    url表示目标网页地址,可以是字符串,也可以是请求对象Request

    data表示post方式提交给目标服务器的参数

    timeout表示超时时间设置

    改方法返回一个类似文件的对象,有geturl()、info()、read()方法其中geturl()返回连接地址,info()返回网页信息。

    要获取网页内容可以使用read()方法,read也可以带参数,表示读取内容的大小(字节)。

    1. >>> import urllib2  
    2. >>> socket = urllib2.urlopen("http://www.baidu.com")  
    3. >>> content = socket.read()  
    4. >>> socket.close()  

    这样,网页的内容(content)就爬下来了,但是有些网站禁止爬虫,如果直接请求会出现以下错误:

    urllib2.HTTPError: HTTP Error 403: Forbidden

    解决方法是可以在请求加上头信息,伪装成浏览器的访问行为,需要用到Request方法:

    3、方法Request原型

    urllib2.Request(url[, data][, headers][, origin_req_host][, unverifiable])

    其中:

    url表示目标网页地址,可以是字符串,也可以是请求对象Request

    data表示post方式提交给目标服务器的参数

    headers表示用户标识,是一个字典类型的数据,有些不允许脚本的抓取,所以需要用户代理,像火狐浏览器的代理就是类似:Mozilla/5.0 (X11; U; Linux i686)Gecko/20071127 Firefox/2.0.0.11 浏览器的标准UA格式为:浏览器标识 (操作系统标识; 加密等级标识; 浏览器语言) 渲染引擎标识 版本信息 ,headers默认是Python-urllib/2.6

    origin_req_host表示请求方的主机域名或者ip地址

    unverifiable还没搞懂。。。

    看一个例子:

    1. >>> headers = {'User-Agent':'Mozilla/5.0 (X11; U; Linux i686)Gecko/20071127 Firefox/2.0.0.11'}  
    2. >>> req = urllib2.Request(url="http://blog.csdn.net/deqingguo",headers=headers)  
    3. >>> socket = urllib2.urlopen(req) 
    4. >>> content = socket.read()  

    5.  

       

      >>> socket.close()  

  • 相关阅读:
    docker: Error response from daemon: Get https://registry-1.docker.io/v2/: net/http: request canceled (Client.Timeout exceeded while awaiting headers).
    docker load error: open /var/lib/docker/tmp/docker-import-347673752/bin/json: no such file or directory
    redis设置允许远程连接
    redis 连接字符串,设置密码
    abp + angular 项目 图标字体注意事项
    abp + angular 前端使用 hash ,登录界面不跳转问题
    abp 后台项目在IIS 中运行
    cmder 常用快捷键
    CentOS7安装RabbitMQ
    linux 检测服务器端口工具
  • 原文地址:https://www.cnblogs.com/sunada2005/p/3099168.html
Copyright © 2020-2023  润新知