• python3爬取微博评论并存为xlsx


    python3爬取微博评论并存为xlsx
    **
    由于微博电脑端的网页版页面比较复杂,我们可以访问手机端的微博网站,网址为:https://m.weibo.cn/
    一、访问微博网站,找到热门推荐链接
    我们打开微博网站后看见热门页,按F12查看网页结构后只能看见如下图短短的几个文章。

    然后我们将滚动条向下滚动,发现新的文章会在底部加载,原来微博的热门文章加载方式是Ajax加载的,那我们就不能在网页源码中找标签了,我们点击如下图所示的network标签,找找请求地址。

    我们查看请求返回值后发现下图的请求返回的是一个json格式的数据。

    其实这就是热门文章存放的地址。在headers中找到gRequest请求的链接,是:https://m.weibo.cn/api/container/getIndex?containerid=102803&openApp=0
    二、requests请求获取json数据
    我们利用requests获取目标地址返回的json数据,并对其进行打印:

    response = requests.get(self.con_url, headers=self.headers)
    data = json.loads(response.text)
    pprint.pprint(data)
    1
    2
    3
    使用pprint来输出,可以按json格式输出获得的结果,这样方便查看,如下图:

    三、提取文章信息
    文章的所有信息都存放在我们获取的json数据中,接下来我们只要根据键去取对应的值即可:

    data1 = data['data']['cards']
    # pprint.pprint(data1)
    for card_group in data1:
    try:
    for mblog in card_group['card_group']:
    pprint.pprint(mblog['mblog']['id'])
    link_list.append(mblog['mblog']['id'])
    # pprint.pprint(card_group['card_group'])
    except:
    pprint.pprint(card_group['mblog']['id'])
    link_list.append(card_group['mblog']['id'])
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    我们获取了文章的id可以根据文章的id访问文章的详细信息。
    四、访问文章详情,获取用户评论及信息
    对文章的地址进行拼接,获取评论区用户信息及评论内容。

    datas = {} # 存放用户ID以及评论内容
    ID = [] # 存放用户ID
    comment = [] # 存放用户评论
    name = [] # 存放用户名

    for link in links:
    url = self.urlhead + link + self.urlend + link + '&max_id_type=0'
    print(url)
    response = requests.get(url, headers=self.headers)
    try:
    details = json.loads(response.text)['data']['data']
    except:
    print('ok--------------')
    # print(details)
    for content in details:
    user_id = content['user']['id']
    text = content['text']
    user_name = content['user']['screen_name']
    # print(user_id)
    # print(text)
    ID.append(user_id)
    comment.append(text)
    name.append(user_name)

    datas['用户ID'] = ID
    datas['昵称'] = name
    datas['评论'] = comment
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    将获取的用户信息存为字典。
    五、将用户信息存入Excel表格

    def save_datas(self, datas):
    datas = DataFrame(datas) # 将字典转换为DataFrame对象
    datas.to_excel('pinglun/datas.xlsx', encoding='utf-8')
    print('数据写入成功')
    1
    2
    3
    4
    源码如下:

    import requests
    import json
    import pprint
    from pandas import DataFrame

    class WeiboSpider:
    def __init__(self):
    self.headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) "
    "Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0"
    }
    self.con_url = 'https://m.weibo.cn/api/container/getIndex?containerid=102803&openApp=0'
    self.urlhead = 'https://m.weibo.cn/comments/hotflow?id='
    self.urlend = '&mid='

    def get_link(self):
    link_list = []
    response = requests.get(self.con_url, headers=self.headers)
    data = json.loads(response.text)
    data1 = data['data']['cards']
    # pprint.pprint(data1)
    for card_group in data1:
    try:
    for mblog in card_group['card_group']:
    pprint.pprint(mblog['mblog']['id'])
    link_list.append(mblog['mblog']['id'])
    # pprint.pprint(card_group['card_group'])
    except:
    pprint.pprint(card_group['mblog']['id'])
    link_list.append(card_group['mblog']['id'])
    self.load_page(link_list)

    def load_page(self, links):
    datas = {} # 存放用户ID以及评论内容
    ID = [] # 存放用户ID
    comment = [] # 存放用户评论
    name = [] # 存放用户名

    for link in links:
    url = self.urlhead + link + self.urlend + link + '&max_id_type=0'
    print(url)
    response = requests.get(url, headers=self.headers)
    try:
    details = json.loads(response.text)['data']['data']
    except:
    print('ok--------------')
    # print(details)
    for content in details:
    user_id = content['user']['id']
    text = content['text']
    user_name = content['user']['screen_name']
    # print(user_id)
    # print(text)
    ID.append(user_id)
    comment.append(text)
    name.append(user_name)

    datas['用户ID'] = ID
    datas['昵称'] = name
    datas['评论'] = comment
    self.save_datas(datas)
    def save_datas(self, datas):
    datas = DataFrame(datas) # 将字典转换为DataFrame对象
    datas.to_excel('pinglun/datas.xlsx', encoding='utf-8')
    print('数据写入成功')

    if __name__ == '__main__':
    crawl = WeiboSpider(http://www.my516.com)
    crawl.get_link()
    --------------------- 

  • 相关阅读:
    sklearn Pipeline 和Ploynomial
    python PCA
    python numpy 包积累
    python 画图
    Sklearn——逻辑回归
    R语言链接数据库
    R语言清空环境所有变量
    wordpress调用文件
    WordPress时间日期函数常用代码
    如何使WordPress博客添加多个sidebar侧边栏
  • 原文地址:https://www.cnblogs.com/hyhy904/p/11007512.html
Copyright © 2020-2023  润新知