• 爬虫实战系列(一):爬取某网站图片


    这里爬取的目标为jiandan网上的用户分享的随手拍的图片,链接为:http://jandan.net/ooxx

    首先,经分析后发现该板块的图片是异步加载的,通过requests库难以获取。因此,利用selenium动态获取目标内容的源代码,再用BeautifulSoup库解析保存即可。

    1、首先打开目标链接,煎蛋分析下网站,然后决定用什么方式去获取内容

    禁止加载JavaScript后,图片则无法显示,并且在XHR里面没有任何内容

    基于此,我们发现,该板块内容只有图片是异步加载 的,但图片又是我们想要爬取的,这时用requests库去获取内容的话会比较困难,因此,我们可以用selenium库来获取目标内容。

    2.selenium简单入门

    1)什么是selenium

    Selenium 是一个用于浏览器自动化测试的框架,可以用来爬取任何网页上看到的数据。

    2)selenium的下载和安装

    在终端输入pip install selenium ——> 下载Chromdriver,解压后放在…GoogleChromeApplication ——> 将该目录添加至环境变量

    3)使用代码测试

    from selenium import webdriver #导入包
    
    driver = webdriver.Chrome()  #打开Chrome浏览器
    driver.get('http://www.baidu.com')  #输入url,打开百度首页

    如上所示,这段代码可以自动打开百度首页,说明OK

     3、开始爬取图片

     1 # 导入必要的包
     2 from selenium import webdriver
     3 from bs4 import BeautifulSoup
     4 import requests
     5 
     6 # 打开谷歌浏览器
     7 driver = webdriver.Chrome()
     8 # 输入url,打开煎蛋网首页
     9 driver.get('http://jandan.net')
    10 # 初始化一个引用计数,用于后面的图片简单命名
    11 index = 1
    12 
    13 # 定义爬虫方法
    14 def getImage(link_texts):
    15     # 将index置为全局变量
    16     global index
    17     # 通过点击的动作执行翻页
    18     for i in link_texts:
    19         # 模拟点击
    20         driver.find_element_by_link_text(i).click()
    21         # 解析网页
    22         html = BeautifulSoup(driver.page_source, 'html.parser')
    23         # 获取原图的url链接
    24         links = html.find_all('a', {'class': 'view_img_link'})
    25         # 遍历当页获得的所有原图链接
    26         for link in links:
    27             # 将原图存至当前目录下的jdimg 文件夹,以index命名,后缀名为图片原名的后三位,即jpg或者gif
    28             with open('jdimg/{}.{}'.format(index, link.get('href')[len(link.get('href'))-3: len(link.get('href'))]), 'wb') as jpg:
    29                 jpg.write(requests.get("http:" + link.get('href')).content)
    30             print("正在爬取第%s张图片" % index)
    31             index += 1
    32 # 定义主函数     
    33 def main():
    34     # 将准备执行的浏览或翻页动作的关键字存入数组
    35     link_texts = [u'随手拍', u'下一页', u'下一页', u'下一页', u'下一页']
    36     #开始爬取
    37     getImage(link_texts)
    38 
    39 main()

    执行后:

     打开文件夹jdimg后,可以看到,图片爬取成功:

  • 相关阅读:
    nyoj112-指数运算
    nyoj51-管闲事的小明
    nyoj29-求置转换问题
    nyoj24-素数 距离问题
    nyoj22-素数求和问题
    nyoj23-取石子(一)
    nyoj4-ASCII码排序
    nyoj169-素数
    并查集:CDOJ1593-老司机破阵 (假的并查集拆除)
    线段树: CDOJ1598-加帕里公园的friends(区间合并,单点更新)
  • 原文地址:https://www.cnblogs.com/m-chen/p/10136958.html
Copyright © 2020-2023  润新知