• python获取动态网站上面的动态加载的数据(selenium+Firefox)


    最近突然想到以前爬取百度学术上的参考文献,大家可以看一下以前我的写的博客:http://www.cnblogs.com/ybf-yyj/p/7351493.html,但是如果利用这个方法,太痛苦了,需要人工来复制粘贴,所以这里来介绍用selenium来实现这个功能,贴上代码:

    #-*- coding:utf-8 -*-
    from selenium import webdriver
    import time
    from bs4 import BeautifulSoup
    #拼接url
    titlename='Application of biosorption for the removal of organic pollutants: a review'
    url_name=titlename.split(' ')
    url='http://xueshu.baidu.com/s?wd='+'+'.join(url_name)
    #打开Firefox
    diver=webdriver.Firefox()
    diver.get(url)
    #防止引用太多,不断click,直到参考文献下不存在‘加载更多’
    try:
    
        for i in range(0,50):
            # 等待网站加载完成
            time.sleep(0.2)
            diver.find_elements_by_class_name('request_situ')[1].click()
    except:
        print '********************************************************'
    #等到加载完成获取网页源码
    time.sleep(10)
    #使用BeautifulSoup获取参考文献
    soup=BeautifulSoup(diver.page_source,'lxml')
    items=soup.find('div',{'class':'con_reference'}).find_all('li')
    for i in items:
        print i.find('a').get_text()
    #关闭网页
    diver.close()

    注意:

        代码中红色标注,本人因为这个错误,弄了半天

        本人遇到一个问题,每次第一次爬取,click事件不响应,利用断点查看发现又可以了,后面就都可以了,这个我要不知道为什么会这样

        chrome浏览器click事件也执行不了

    如果大家不想看到浏览器出现,可以使用diver=webdriver.PhantomJS()替代diver=webdriver.Firefox()

    以上的基础在于安装了PhantomJS、geckodriver.exe

  • 相关阅读:
    用X++读取文本文件(txt文件)的例子
    找出整个AX系统使用某个扩展类型的所有表和字段
    关于代码操作AOT
    检查所有表Relations是否为unknown
    strSplit分隔文本以container返回
    POJ 1850, Code
    用匈牙利算法求二分图的最大匹配(转载)
    POJ 2533, Longest Ordered Subsequence
    POJ 1159, Palindrome
    POJ 3252, Round Numbers
  • 原文地址:https://www.cnblogs.com/ybf-yyj/p/7710464.html
Copyright © 2020-2023  润新知