• 爬虫笔记(一)


    爬虫基本分为几步:

    1、找到RUL

      URL不一定是网址,最准确的是打开网页抓包工具(网页按F12)

    2、查看网页是get还是post请求。

    get请求用requests.get(),post请求用requests.post();此方法的返回值是网页response的类型。常见的有json、test等格式。还是需要通过抓包工具(同上),找到Content-Type,就是返回格式。

     3、以requests.get()为例,requests.get()中有三个参数(目前所接触到的),requests.get(url,params,headers)

    url是请求的网页;params是网页参数,动态抓取需要用到;headers是利用UA伪装,模拟浏览器发起请求,不同的浏览器UA不一样,还是用抓包工具查看,

     4、解析返回内容。如果网页返回的是json格式,利用responses.json()将json转成字典,可查;如果是text格式,直接.test()就可以。

    5、利用python文件功能,保存数据。

    with open('./sogou.html','w',encoding='utf-8') as op:
    op.write(page_test)

    这种文件打开办法,不用open之后再close,方便很多。

  • 相关阅读:
    LinuxPerformance
    MySQL事务
    vi字体太暗的配置
    几种语言的日期格式,Oracle,Java,MySQL,Python
    Oracle RAC JDBC connection string
    docker问题解决
    elasticesearch弱密码漏洞
    apt源更新
    android学习笔记二:Intent
    mars android视频学习笔记一:Activity生命周期
  • 原文地址:https://www.cnblogs.com/lgwdx/p/14215240.html
Copyright © 2020-2023  润新知