• 1.requests模块的基本使用.ipynb


    - 什么是requests模块?
    - Python中封装好的一个基于网络请求的模块。
    - requests模块的作用?
    - 用来模拟浏览器发请求
    - requests模块的环境安装:
    - pip install requests
    - requests模块的编码流程:
    - 1.指定url
    - 2.发起请求
    - 3.获取响应数据
    - 4.持久化存储
    #爬取搜狗首页的页面源码数据
    import requests
    #1.指定url
    url = 'https://www.sogou.com/'
    #2.请求发送get:get返回值是一个响应对象
    response = requests.get(url=url)
    #3.获取响应数据
    page_text = response.text #返回的是字符串形式的响应数据
    #4.持久化存储
    with open('sogou.html','w',encoding='utf-8') as fp:
    fp.write(page_text)
    #实现一个简易的网页采集器
    #需要让url携带的参数动态化
    url = 'https://www.sogou.com/web'
    #实现参数动态化
    wd = input('enter a key:')
    params = {
    'query':wd
    }
    #在请求中需要将请求参数对应的字典作用到params这个get方法的参数中
    response = requests.get(url=url,params=params)

    page_text = response.text
    fileName = wd+'.html'
    with open(fileName,'w',encoding='utf-8') as fp:
    fp.write(page_text)
    - 上述代码执行后发现:
    - 1.出现了乱码
    - 2.数据量级不对
    #解决乱码

    url = 'https://www.sogou.com/web'
    #实现参数动态化
    wd = input('enter a key:')
    params = {
    'query':wd
    }
    #在请求中需要将请求参数对应的字典作用到params这个get方法的参数中
    response = requests.get(url=url,params=params)
    response.encoding = 'utf-8' #修改响应数据的编码格式
    page_text = response.text
    fileName = wd+'.html'
    with open(fileName,'w',encoding='utf-8') as fp:
    fp.write(page_text)
    - UA检测:门户网站通过检测请求载体的身份标识判定改请求是否为爬虫发起的请求
    - UA伪装:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36
    #解决UA检测
    url = 'https://www.sogou.com/web'
    #实现参数动态化
    wd = input('enter a key:')
    params = {
    'query':wd
    }
    headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'
    }
    #在请求中需要将请求参数对应的字典作用到params这个get方法的参数中
    response = requests.get(url=url,params=params,headers=headers)
    response.encoding = 'utf-8' #修改响应数据的编码格式
    page_text = response.text
    fileName = wd+'.html'
    with open(fileName,'w',encoding='utf-8') as fp:
    fp.write(page_text)
    #爬取的是豆瓣电影中电影的详情数据https://movie.douban.com/typerank?type_name=%E7%88%B1%E6%83%85&type=13&interval_id=100:90&action=
    #分析:当滚动条被滑动到页面底部的时候,当前页面发生了局部刷新(ajax的请求)
    - 动态加载的页面数据
    - 是通过另一个单独的请求请求到的数据
    url = 'https://movie.douban.com/j/chart/top_list'
    start = input('您想从第几部电影开始获取:')
    limit = input('您想获取多少电影数据:')
    dic = {
    'type': '13',
    'interval_id': '100:90',
    'action': '',
    'start': start,
    'limit': limit,
    }
    response = requests.get(url=url,params=dic,headers=headers)
    page_text = response.json() #json()返回的是序列化好的实例对象
    for dic in page_text:
    print(dic['title']+':'+dic['score'])
    #肯德基餐厅查询http://www.kfc.com.cn/kfccda/storelist/index.aspx
    url = 'http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword'
    for page in range(1, 5):
    data = {
    'cname': '',
    'pid': '',
    'keyword': '西安',
    'pageIndex': str(page),
    'pageSize': '10',
    }
    response = requests.post(url=url, headers=headers, data=data)
    print(response.json())
    - 需求
    - 爬取药监总局中相关企业的详情信息http://125.35.6.84:81/xk/
    - 需求分析
    - 如何检测页面中是否存在动态加载的数据?
    - 基于抓包工具实现
    - 先捕获网站请求后所有的数据包
    - 在数据包中定位到地址栏所对应请求的数据包,在response选项卡对应的数据中进行局部搜索(页面中的某一组内容)
    - 可以搜索到:爬取的数据不是动态加载的
    - 没有搜索到:爬取的数据是动态加载的
    - 如何定位动态加载的数据在哪个数据包中呢?
    - 进行全局搜索
    import requests

    headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36"
    }
    url = "http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsList"
    for page in range(1, 6):
    print("正在爬取第{}页数据:".format(page))
    data = {
    "on": "true",
    "page": str(page),
    "pageSize": "15",
    "productName": "",
    "conditionType": "1",
    "applyname": "",
    "applysn": "",
    }
    company_data = requests.post(url, headers=headers, data=data).json()
    for dic in company_data["list"]:
    _id = dic["ID"]
    detail_url = "http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById"
    data = {
    "id": _id
    }
    detail_data = requests.post(url=detail_url, data=data, headers=headers).json()
    print(detail_data)
    # print(detail_data["businessPerson"], detail_data["certStr"])
  • 相关阅读:
    redis缓存分页数据ID
    Kafka学习之(六)搭建kafka集群
    高并发下,php使用uniqid函数生成唯一标识符的四种方案(本博客也有雪花算法的方式,在【算法组】)
    Kafka学习之(五)搭建kafka集群之Zookeeper集群搭建
    Centos 更改系统时间
    Js删除字符串中的指定字符串
    Jquery 给Js动态新添加的元素 绑定的点击事件
    PHP 常用的header头部定义汇总
    来了解一下Ajax是什么?Ajax的原理?Ajax与传统Web比较?Ajax的优缺点?Ajax的Post与Get比较
    phpstorm常用快捷键(自备不全)
  • 原文地址:https://www.cnblogs.com/zhang-da/p/12305258.html
Copyright © 2020-2023  润新知