• Python爬虫 | 批量爬取今日头条街拍美图


    01

    前言

    上篇文章我们爬取了今日头条街拍美图,心情相当愉悦,今天这篇文章我们使用Selenium来爬取当当网的畅销图书排行。正所谓书中自有黄金屋,书中自有颜如玉,我们通过读书学习来提高自身的才华,自然能有荣华富贵,也自然少不了漂亮小姐姐。

    02

    准备工作

    在爬取数据前,我们需要安装Selenium库以及Chrome浏览器,并配置好ChromeDriver。

    03

    Selenium

    Selenium是一个自动化测试工具,利用它可以驱动浏览器执行特定的动作,如点击、下拉等操作,同时还可以获得浏览器当前呈现的页面的源代码,做到可见即可爬。对于一些JavaScript动态渲染的页面来说,这种爬取方式非常有效。

    Selenium库的安装比较简单一行代码就行:

    
    
    pip install selenium
    
    
    

    也可以到PyPI下载(https://pypi.python.org/pypi/selenium/#downloads)对应的wheel文件,然后进入到wheel文件目录,使用pip安装:

    
    
    pip install .........whl
    
    
    

    安装验证,进入Python命令行交互模式,如下图:

    这样Selenium就安装完毕了。

    04

    ChromeDriver安装

    首先我们先查看Chrome的版本:点击Chrome菜单“帮助”--->“关于Google Chrome”,即可查看Chrome的版本号,如下图:

    打开ChromeDriver的官方网站,根据自身Chrome浏览器版本下载ChromeDriver并安装:

    注意:ChromeDriver和Chrome浏览器一定要对应,否则可能无法正常工作。

    ChromeDriver的环境变量配置,直接将chromedriver.exe文件拖到Python的Scripts目录下。

    到这来,准备工作就完成了,下面我们正式开始抓取当当网的畅销图书排行。

    05

    实战演练

    首先,我们进入当当网的畅销图书网页,我们要利用Selenium抓取图书信息并用pyquery解析得到图书的排名、图片、名称、价格、评论等信息。如下图:

    进入开发者工具中的Network,查看Request URL,如下图所示:

    在页面下方,有个分页导航,我们点击下一页,观察Request URL的变化:

    
    
    http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1        #第1页  
    http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-2        #第2页  
    http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-23        #第23页  
    http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-page        #第n页
    
    
    

    我们发现该URL只有最后面的那个数字发生变化,所以我们构造的URL就非常简单了,那个page就是翻页的关键字。

    06

    首页爬取

    首先我们先声明chrome浏览器对应,webdriver支持主流的浏览器,比如说:谷歌浏览器、火狐浏览器、IE浏览器等等。通过WebDriverWait()方法,指定最长等待时间,当规定时间内没加载出来就抛出异常。通过page参数来进行翻页。

    代码如下:

    browser=webdriver.Chrome()
    wait=WebDriverWait(browser,10)
    def index_page(page):
        print('正在爬取第',page,'页')
        try:
            url='http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-'+str(page)
            browser.get(url)
            get_booklist()
        except TimeoutException:
            index_page(page)
    

    07

    解析商品列表

    接下来,我们就可以实现get_booklist()方法来解析商品列表了,这里我们直接调用page_source获取页面源代码,然后用pyquery进行解析,实现代码如下:

    def get_booklist():
        html=browser.page_source
        doc=pq(html)
        items=doc('.bang_list li').items()
        for item in items:
            book={
                '排名':item.find('.list_num').text(),
                '书名':item.find('.name').text(),
                '图片':item.find('.pic img').attr('src'),
                '评论数':item.find('.star a').text(),
                '推荐':item.find('.tuijian').text(),
                '作者':item.find('.publisher_info a').text(),
                '日期':item.find('.publisher_info span').text(),
                '原价':item.find('.price_r').text().replace('¥',''),
                '折扣':item.find('.price_s',).text(),
                '电子书':item.find('.price_e').text().replace('电子书:','').replace('¥','')
            }
            saving_book(book)
    
    

    08

    保存数据

    接下来,我们将书本信息保存为csv格式,实现代码如下:

    with open('data.csv','a',newline='',)as csvfile:
        writer=csv.writer(csvfile)
        writer.writerow(['排名','书名','图片','评论数','推荐','作者','原价','折扣','电子书'])
    def saving_book(book):
        with open('data.csv', 'a', newline='')as csfile:
            writer = csv.writer(csfile)
            writer.writerow([book.get('排名'), book.get('书名'), book.get('图片'), book.get('评论数'), book.get('推荐'), book.get('作者'),book.get('原价'),book.get('折扣'),book.get('电子书')])
    

    09

    遍历每页

    刚才我们所定义的index_page()方法需要接收参数page,page代表页码,这里我们实现页码遍历即可,实现代码如下:

    if __name__ == '__main__':
        for page in range(1,3):
            index_page(page)
    

    这里我们只遍历2页,感兴趣的可以遍历多页。

    10

    结果展示

    好了,关于Python爬虫——Selenium爬取当当畅销图书排行讲到这里了,感谢观看!我们下篇文章再见!

    -------------------******************************** End -------------------************************************

    往期精彩文章推荐:

    欢迎各位大佬点击链接加入群聊【helloworld开发者社区】:https://jq.qq.com/?_wv=1027&k=mBlk6nzX进群交流IT技术热点。

    本文转自 https://mp.weixin.qq.com/s/wU3bo7PH86HnsEnikuU6Wg,如有侵权,请联系删除。

  • 相关阅读:
    SQL 表连接
    SQL 时间日期函数
    SQL 转换函数
    25 -2 正则爬虫例子
    25 -1 正则 re模块 (findall、search、match、sub、subn、split、compile、finditer)
    25 python 常用模块
    24- 1 模块
    23-8 python模块定义
    23-5 面试题:1000个员工,我们认为名字和年龄相等,就为同一个人
    23-4 __eq__方法
  • 原文地址:https://www.cnblogs.com/start1225/p/14980655.html
Copyright © 2020-2023  润新知