• Python网络爬虫(Get、Post抓取方式)


    简单的抓取网页

    import urllib.request   
    url="http://google.cn/"  
    response=urllib.request.urlopen(url)    #返回文件对象
    page=response.read()

    直接将URL保存为本地文件

    import urllib.request  
    url="http://www.xxxx.com/1.jpg"
    urllib.request.urlretrieve(url,r"d:	emp1.jpg")

    POST方式

    import urllib.parse  
    import urllib.request  
    
    url="http://liuxin-blog.appspot.com/messageboard/add" 
    
    values={"content":"命令行发出网页请求测试"}  
    data=urllib.parse.urlencode(values) 
    
    #创建请求对象  
    req=urllib.request.Request(url,data) 
    #获得服务器返回的数据  
    response=urllib.request.urlopen(req) 
    #处理数据  
    page=response.read()  

    GET方式

    import urllib.parse  
    import urllib.request  
    
    url="http://www.google.cn/webhp" 
    
    values={"rls":"ig"}  
    data=urllib.parse.urlencode(values)  
    
    theurl=url+"?"+data 
    #创建请求对象  
    req=urllib.request.Request(theurl) 
    #获得服务器返回的数据  
    response=urllib.request.urlopen(req) 
    #处理数据  
    page=response.read()  

    有2个常用的方法,geturl(),info()

    geturl()的设置是为了辨别是否有服务器端的网址重定向,而info()则包含了一系列的信息。
    

    中文问题的处理,会用到 encode()编码 dencode()解码

  • 相关阅读:
    Tomcat原理与实践
    Spring Boot入门与实践
    Docker安装及使用
    JDK源码解析——集合(一)数组 ArrayList
    浅谈mysql底层索引
    微信小程序全局配置知识点
    uniapp全屏高度
    npm node-sass报错
    微信小程序接口配置问题
    微信小程序的设计流程
  • 原文地址:https://www.cnblogs.com/shine-yr/p/5214817.html
Copyright © 2020-2023  润新知