• selenium抓取动态网页数据


    1.selenium抓取动态网页数据基础介绍

    1.1 什么是AJAX

      AJAX(Asynchronouse JavaScript And XML:异步JavaScript和XML)通过在后台与服务器进行少量数据交换,Ajax 可以使网页实现异步更新,这意味着可以在不重新加载整个网页的情况下,对网页的某部分进行局部更新。传统的网页(不使用Ajax)如果需要更新内容,必须重载整个网页页面。

      因为传统的网页在传输数据格式方面,使用的是XML语法,因此叫做AJAX,其实现在数据交互基本上都是使用JSON。使用AJAX加载的数据,即使使用了JS将数据渲染到了浏览器中,在右键->查看网页源代码还是不能看到通过ajax加载的数据,只能看到使用这个url加载的html代码。

    1.2 获取ajax数据的方式

      法1:直接分析ajax调用的接口。然后通过代码请求这个接口。

      法2:使用Selenium+chromedriver模拟浏览器行为获取数据。

    方式优点缺点
    分析接口 直接可以请求到数据。不需要做一些解析工作。代码量少,性能高。 分析接口比较复杂,特别是一些通过js混淆的接口,要有一定的js功底。容易被发现是爬虫。
    selenium 直接模拟浏览器的行为。浏览器能请求到的,使用selenium也能请求到。爬虫更稳定。 代码量多。性能低。

    1.3 Selenium+chromedriver获取动态数据

      Selenium相当于是一个机器人。可以模拟人类在浏览器上的一些行为,自动处理浏览器上的一些行为,比如点击,填充数据,删除cookie等。chromedriver是一个驱动Chrome浏览器的驱动程序,使用他才可以驱动浏览器。当然针对不同的浏览器有不同的driver。以下列出了不同浏览器及其对应的driver:

    1. Chrome:https://sites.google.com/a/chromium.org/chromedriver/downloads
    2. Firefox:https://github.com/mozilla/geckodriver/releases
    3. Edge:https://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/
    4. Safari:https://webkit.org/blog/6900/webdriver-support-in-safari-10/

    1.4 安装Selenium和chromedriver

    1. 安装SeleniumSelenium有很多语言的版本,有java、ruby、python等。我们下载python版本的就可以了。
       pip install selenium
      
    2. 安装chromedriver:下载完成后,放到不需要权限的纯英文目录下就可以了。

    1.5 快速入门

      现在以一个简单的获取百度首页的例子来讲下Seleniumchromedriver如何快速入门:

    from selenium import webdriver
    
    # chromedriver的绝对路径
    driver_path = r'D:ProgramAppchromedriverchromedriver.exe'
    
    # 初始化一个driver,并且指定chromedriver的路径
    driver = webdriver.Chrome(executable_path=driver_path)
    # 请求网页
    driver.get("https://www.baidu.com/")
    # 通过page_source获取网页源代码
    print(driver.page_source)

    1.6 selenium常用操作

    #-*-coding = utf-8 -*-
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    # chromedriver的绝对路径
    driver_path = r'D:ProgramAppchromedriverchromedriver.exe'
    # 初始化一个driver,并且指定chromedriver的路径
    driver = webdriver.Chrome(executable_path=driver_path)
    # 请求网页
    driver.get("https://www.baidu.com/")
    # 通过page_source获取网页源代码
    print(driver.page_source)
    
    selenium常用操作
    
    1.关闭页面:
    driver.close():关闭当前页面。
    driver.quit():退出整个浏览器。
    
    2.定位元素:
    a)find_element_by_id:根据id来查找某个元素。等价于:
     submitTag = driver.find_element_by_id('su')
     submitTag1 = driver.find_element(By.ID,'su')
    b)find_element_by_class_name:根据类名查找元素。 等价于:
     submitTag = driver.find_element_by_class_name('su')
     submitTag1 = driver.find_element(By.CLASS_NAME,'su')
    c)find_element_by_name:根据name属性的值来查找元素。等价于:
     submitTag = driver.find_element_by_name('email')
     submitTag1 = driver.find_element(By.NAME,'email')
    d)find_element_by_tag_name:根据标签名来查找元素。等价于:
     submitTag = driver.find_element_by_tag_name('div')
     submitTag1 = driver.find_element(By.TAG_NAME,'div')
    e)find_element_by_xpath:根据xpath语法来获取元素。等价于:
     submitTag = driver.find_element_by_xpath('//div')
     submitTag1 = driver.find_element(By.XPATH,'//div')
    f)find_element_by_css_selector:根据css选择器选择元素。等价于:
     submitTag = driver.find_element_by_css_selector('//div')
     submitTag1 = driver.find_element(By.CSS_SELECTOR,'//div')
    要注意,find_element是获取第一个满足条件的元素。find_elements是获取所有满足条件的元素。
    
    3.操作表单元素:
    a)操作输入框:分为两步。第一步:找到这个元素。第二步:使用send_keys(value),将数据填充进去。示例代码如下:
    
     inputTag = driver.find_element_by_id('kw')
     inputTag.send_keys('python')
    使用clear方法可以清除输入框中的内容。示例代码如下:
    
     inputTag.clear()
    b)操作checkbox:因为要选中checkbox标签,在网页中是通过鼠标点击的。因此想要选中checkbox标签,那么先选中这个标签,然后执行click事件。示例代码如下:
    
     rememberTag = driver.find_element_by_name("rememberMe")
     rememberTag.click()
    c)选择select:select元素不能直接点击。因为点击后还需要选中元素。这时候selenium就专门为select标签提供了一个类selenium.webdriver.support.ui.Select。将获取到的元素当成参数传到这个类中,创建这个对象。以后就可以使用这个对象进行选择了。示例代码如下:
    
     from selenium.webdriver.support.ui import Select
     # 选中这个标签,然后使用Select创建对象
     selectTag = Select(driver.find_element_by_name("jumpMenu"))
     # 根据索引选择
     selectTag.select_by_index(1)
     # 根据值选择
     selectTag.select_by_value("http://www.95yueba.com")
     # 根据可视的文本选择
     selectTag.select_by_visible_text("95秀客户端")
     # 取消选中所有选项
     selectTag.deselect_all()
    
    d)操作按钮:操作按钮有很多种方式。比如单击、右击、双击等。这里讲一个最常用的。就是点击。直接调用click函数就可以了。示例代码如下:
    
     inputTag = driver.find_element_by_id('su')
     inputTag.click()
    
    4.行为链:
    有时候在页面中的操作可能要有很多步,那么这时候可以使用鼠标行为链类ActionChains来完成。比如现在要将鼠标移动到某个元素上并执行点击事件。那么示例代码如下:
    
    inputTag = driver.find_element_by_id('kw')
    submitTag = driver.find_element_by_id('su')
    
    actions = ActionChains(driver)
    actions.move_to_element(inputTag)
    actions.send_keys_to_element(inputTag,'python')
    actions.move_to_element(submitTag)
    actions.click(submitTag)
    actions.perform()
    
    还有更多的鼠标相关的操作:
    click_and_hold(element):点击但不松开鼠标。
    context_click(element):右键点击。
    double_click(element):双击。 
    更多方法请参考:http://selenium-python.readthedocs.io/api.html
    常用操作1
    #-*-coding = utf-8 -*-
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    # chromedriver的绝对路径
    driver_path = r'E:studychromedriverchromedriver.exe'
    # 初始化一个driver,并且指定chromedriver的路径
    driver = webdriver.Chrome(executable_path=driver_path)
    # 请求网页
    driver.get("https://www.baidu.com/")
    # 通过page_source获取网页源代码
    print(driver.page_source)
    # 5.Cookie操作:
    # a)获取所有的cookie:
    for cookie in driver.get_cookies():
        print(cookie)
    # b)根据cookie的key获取value:
    #value = driver.get_cookie(key)
    print(driver.get_cookie('PSTM'))
    # c)删除所有的cookie:
    driver.delete_all_cookies()
    # d)删除某个cookie:
    #driver.delete_cookie(key)
    
    # 6页面等待:
    # 现在的网页越来越多采用了 Ajax 技术,这样程序便不能确定何时某个元素完全加载出来了。如果实际页面等待时间过长导致某个dom元素还没出来,但是你的代码直接使用了这个WebElement,那么就会抛出NullPointer的异常。为了解决这个问题。所以 Selenium 提供了两种等待方式:一种是隐式等待、一种是显式等待。
    
    # a)隐式等待:调用driver.implicitly_wait。那么在获取不可用的元素之前,会先等待10秒中的时间。示例代码如下:
    
    driver = webdriver.Chrome(executable_path=driver_path)
    driver.implicitly_wait(10)
    # 请求网页
    driver.get("https://www.douban.com/")
    
    # b)显示等待:显示等待是表明某个条件成立后才执行获取元素的操作。也可以在等待的时候指定一个最大的时间,如果超过这个时间那么就抛出一个异常。显示等待应该使用selenium.webdriver.support.excepted_conditions期望的条件和selenium.webdriver.support.ui.WebDriverWait来配合完成。示例代码如下:
    
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support.ui import WebDriverWait
    from selenium.webdriver.support import expected_conditions as EC
    
    driver = webdriver.Firefox()
    driver.get("http://somedomain/url_that_delays_loading")
    try:
        element = WebDriverWait(driver, 10).until(
             EC.presence_of_element_located((By.ID, "myDynamicElement"))
    )
    finally:
        driver.quit()
    # 一些其他的等待条件:
    # presence_of_element_located:某个元素已经加载完毕了。
    # presence_of_all_emement_located:网页中所有满足条件的元素都加载完毕了。
    # element_to_be_cliable:某个元素是可以点击了。
    # 更多条件请参考:http://selenium-python.readthedocs.io/waits.html
    常用操作2
    7.页面切换
    有时候窗口中有很多子tab页面。这时候肯定是需要进行切换的。selenium提供了一个叫做switch_to_window来进行切换,具体切换到哪个页面,可以从driver.window_handles中找到。示例代码如下:
    
    # 打开一个新的页面
    driver.execute_script("window.open('https://www.douban.com/')")
    print(driver.window_handles)
    # 切换到这个新的页面中
    driver.switch_to_window(self.driver.window_handles[1])
    print(driver.current_url)
    #注意
    #虽然在浏览器窗口中切换到了新的页面,但是driver中还没有切换
    #如果想要在代码中切换到新的界面,那么应该使用driver.switch_to_window来切换到指定的窗口
    #从driver.window_handles中取出具体第几个窗口
    #driver.window_handles是一个列表,里面装的都是窗口句柄,它会按照打开的页面顺序来存储窗口的句柄。
    
    8.设置代理ip
    有时候频繁爬取一些网页。服务器发现你是爬虫后会封掉你的ip地址。这时候我们可以更改代理ip。更改代理ip,不同的浏览器有不同的实现方式。这里以Chrome浏览器为例来讲解:
    
    from selenium import webdriver
    
    options = webdriver.ChromeOptions()
    options.add_argument("--proxy-server=http://110.73.2.248:8123")
    driver_path = r"D:ProgramAppchromedriverchromedriver.exe"
    driver = webdriver.Chrome(executable_path=driver_path,chrome_options=options)
    
    driver.get('http://httpbin.org/ip')
    
    9. WebElement元素
    from selenium.webdriver.remote.webelement import WebElement类是每个获取出来的元素的所属类。
    有一些常用的属性:
    
    get_attribute:这个标签的某个属性的值。
    screentshot:获取当前页面的截图。这个方法只能在driver上使用。
    driver的对象类,也是继承自WebElement。
    常用操作3

     1.7 爬取拉钩网职位信息

    import requests
    from lxml import etree
    import time
    import re
    
    
    headers = {
        "Accept":"application/json, text/javascript, */*; q=0.01",
        "Accept-Encoding":"gzip, deflate, br",
        "Accept-Language":"zh-CN,zh;q=0.9",
        "Connection":"keep-alive",
        "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36",
        "Referer":"https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput=",
        "Origin":"https://www.lagou.com",
        "Host":"www.lagou.com",
        "Content-Type":"application/x-www-form-urlencoded; charset=UTF-8",
        "Cookie":"_ga=GA1.2.1602115737.1553064534; user_trace_token=20190320144853-39b1375a-4adc-11e9-a253-525400f775ce; LGUID=20190320144853-39b13f88-4adc-11e9-a253-525400f775ce; WEBTJ-ID=20190408120043-169fb1afd63488-06179b118ca307-7a1437-2073600-169fb1afd648ed; _gid=GA1.2.1826141825.1554696044; sensorsdata2015jssdkcross=%7B%22distinct_id%22%3A%22169fb1bb2c41ea-04951e55adc96a-7a1437-2073600-169fb1bb2c58d0%22%2C%22%24device_id%22%3A%22169fb1bb2c41ea-04951e55adc96a-7a1437-2073600-169fb1bb2c58d0%22%7D; sajssdk_2015_cross_new_user=1; _putrc=4C5D2603888320CA; JSESSIONID=ABAAABAAADEAAFIB00F5DDE71D51610901CB9E0031812BA; login=true; unick=%E4%BC%8D%E6%99%93%E4%B8%BD; showExpriedIndex=1; showExpriedCompanyHome=1; showExpriedMyPublish=1; hasDeliver=49; gate_login_token=7b04a40da89145a1fbc90a3d719616d28c8b0a303344ac37; index_location_city=%E6%88%90%E9%83%BD; X_MIDDLE_TOKEN=1221e6b5040722dc86f5ceb557e11965; _gat=1; LGSID=20190408151935-a9976fbf-59ce-11e9-8cc8-5254005c3644; PRE_UTM=m_cf_cpc_baidu_pc; PRE_HOST=www.baidu.com; PRE_SITE=https%3A%2F%2Fwww.baidu.com%2Fbaidu.php%3Fsc.Ks000001qLT2daZnZWIez3ktR_jhHue3tONZubxU9mivhxeuj-Fxrjg6NnVcKTp-GYJ_YRvrc9_yOJ4uV-IEpfnPazPz7ctjve1qlDokCDfHYo9PV0uDfTmN1OunNUcCRU-sJuR8RZz60PAXzfKybAdvuCxUedbt8aWtTjAdCCuO298TwT8zN1-T5EG3kgkOweg0DHGIbvP55IZbr6.DY_NR2Ar5Od663rj6tJQrGvKD7ZZKNfYYmcgpIQC8xxKfYt_U_DY2yP5Qjo4mTT5QX1BsT8rZoG4XL6mEukmryZZjzsLTJplePXO-8zNqrw5Q9tSMj_qTr1x9tqvZul3xg1sSxW9qx-9LdoDkY4QPSl81_4pqO24rM-8dQjPakb3dS5iC0.U1Yk0ZDqs2v4VnL30ZKGm1Yk0Zfqs2v4VnL30A-V5HcsP0KM5gK1n6KdpHdBmy-bIykV0ZKGujYzr0KWpyfqnWcv0AdY5HDsnHIxnH0krNtknjc1g1nsnHNxn1msnfKopHYs0ZFY5HDLn6K-pyfq0AFG5HcsP0KVm1Y3nHDYP1fsrjuxnH0snNtkg1Dsn-ts0Z7spyfqn0Kkmv-b5H00ThIYmyTqn0K9mWYsg100ugFM5H00TZ0qPWm1PHm1rj640A4vTjYsQW0snj0snj0s0AdYTjYs0AwbUL0qn0KzpWYs0Aw-IWdsmsKhIjYs0ZKC5H00ULnqn0KBI1Ykn0K8IjYs0ZPl5fK9TdqGuAnqTZnVUhC0IZN15Hnkn1fknHT4P1DvPHR1PW61P100ThNkIjYkPHRYP10LrHTkPjTY0ZPGujd9rAwBmhuWrj0snjDzrj0Y0AP1UHYsPbm3wWTsrH0srjwarDcz0A7W5HD0TA3qn0KkUgfqn0KkUgnqn0KlIjYs0AdWgvuzUvYqn7tsg1Kxn7ts0Aw9UMNBuNqsUA78pyw15HKxn7tsg1nkrjm4nNts0ZK9I7qhUA7M5H00uAPGujYknjT1P1fkrjcY0ANYpyfqQHD0mgPsmvnqn0KdTA-8mvnqn0KkUymqn0KhmLNY5H00uMGC5H00uh7Y5H00XMK_Ignqn0K9uAu_myTqnfK_uhnqn0KEIjYs0AqzTZfqnanscznsc100mLFW5HRdPj0Y%26word%3D%25E6%258B%2589%25E5%258B%25BE%25E7%25BD%2591%26ck%3D1701.10.72.227.558.354.602.254%26shh%3Dwww.baidu.com%26sht%3D62095104_19_oem_dg%26us%3D1.0.1.0.1.301.0%26bc%3D110101; PRE_LAND=https%3A%2F%2Fwww.lagou.com%2Flp%2Fhtml%2Fcommon.html%3Futm_source%3Dm_cf_cpc_baidu_pc%26m_kw%3Dbaidu_cpc_cd_e110f9_d2162e_%25E6%258B%2589%25E5%258B%25BE%25E7%25BD%2591; Hm_lvt_4233e74dff0ae5bd0a3d81c6ccf756e6=1553064535,1554696044,1554707975; TG-TRACK-CODE=index_search; SEARCH_ID=16b25888bc6f489f981996ef505d6930; X_HTTP_TOKEN=3704e5535eab672a10080745514b2c7fac0430c282; Hm_lpvt_4233e74dff0ae5bd0a3d81c6ccf756e6=1554708001; LGRID=20190408152002-b9743b5b-59ce-11e9-9a84-525400f775ce",
        "X-Anit-Forge-Code":"0" ,
        "X-Anit-Forge-Token":'',
        "X-Requested-With":'XMLHttpRequest'
    }
    
    def get_detail_page_url():
        datas =[]
        url = 'https://www.lagou.com/jobs/positionAjax.json'
        form_data = {
            "first":"faise",
            "pn":1,
            "kd":"python"
        }
        params = {
            'city':'成都',
            'needAddtionalResult':'false'
        }
        for pn in range(1,14):
            form_data['pn'] = pn
            response = requests.request(method='post',url=url,headers=headers,params = params,data = form_data)
            result = response.json()
            result_list = result['content']['positionResult']['result']
            for position in result_list:
                position_id = position['positionId']
                detail_url = 'https://www.lagou.com/jobs/%s.html'%position_id
                data = parse_detail_page(detail_url)
                datas.append(data)
                time.sleep(2)
        return datas
    
    def parse_detail_page(url):
        resonse = requests.request(method='get',url=url,headers = headers)
        text = resonse.text
        html = etree.fromstring(text,parser=etree.HTMLParser())
        position_name = html.xpath('//span[@class="name"]/text()')[0].strip()
        detail_list = html.xpath('//dd[@class="job_request"]//span')
        salary = detail_list[0].xpath('text()')[0].strip()
        city = detail_list[1].xpath('text()')[0].strip()
        city = re.sub(r'[s/]','',city)
        work_years = detail_list[2].xpath('text()')[0].strip()
        work_years = re.sub(r'[s/]','',work_years)
        education = detail_list[3].xpath('text()')[0].strip()
        education = re.sub(r'[s/]','',education)
        job_details = ''.join(html.xpath('//div[@class="job-detail"]//p//text()'))
        data = {
           "position_name":position_name,
            "salay":salary,
            "city":city,
            "work_years":work_years,
            "education":education,
            "job_details":job_details
    
        }
        return data
    
    
    
    def main():
        datas = get_detail_page_url()
        print(datas)
    
    if __name__ == '__main__':
        main()
    直接直接分析ajax调用的接口爬取
    from selenium import webdriver
    from selenium.webdriver.support.ui import WebDriverWait
    from selenium.webdriver.support import expected_conditions as EC
    from selenium.webdriver.common.by import By
    
    from lxml import etree
    import re
    import time
    
    class Lagouspider(object):
        driver_path = r'E:studychromedriverchromedriver.exe'
        def __init__(self):
            self.driver = webdriver.Chrome(executable_path=Lagouspider.driver_path)
            self.url = 'https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput='
            self.positions = []
    
        def run(self):
            while True:
                self.driver.get(self.url)
                source = self.driver.page_source
                WebDriverWait(driver=self.driver,timeout=10).until(EC.presence_of_element_located((By.XPATH,'//div[@class="pager_container"]/span[last()]')))
                self.parse_list_page(source)
                next_btn = self.driver.find_element_by_xpath('//div[@class="pager_container"]/span[last()]')
                if "pager_next_disabled"  in next_btn.get_attribute('class'):
                    break
                else:
                    next_btn.click()
                time.sleep(1)
    
        def parse_list_page(self,source):
            html = etree.HTML(source)
            links = html.xpath('//a[@class="position_link"]/@href')
            for link in links:
                self.request_detail_page(link)
                time.sleep(1)
    
        def request_detail_page(self,url):
            self.driver.execute_script("window.open('%s')"%url)
            self.driver.switch_to.window(self.driver.window_handles[1])
            WebDriverWait(self.driver,timeout=10).until(EC.presence_of_element_located((By.XPATH,'//span[@class="name"]')))
            source = self.driver.page_source
            self.parse_detail_page(source)
            #关闭当前详情页
            self.driver.close()
            #切换回职位列表页
            self.driver.switch_to.window(self.driver.window_handles[0])
    
        def parse_detail_page(self,source):
            html = etree.HTML(source)
            position_name = html.xpath('//span[@class="name"]/text()')[0].strip()
            detail_list = html.xpath('//dd[@class="job_request"]//span')
            salary = detail_list[0].xpath('text()')[0].strip()
            city = detail_list[1].xpath('text()')[0].strip()
            city = re.sub(r'[s/]', '', city)
            work_years = detail_list[2].xpath('text()')[0].strip()
            work_years = re.sub(r'[s/]', '', work_years)
            education = detail_list[3].xpath('text()')[0].strip()
            education = re.sub(r'[s/]', '', education)
            desc = ''.join(html.xpath('//dd[@class="job_bt"]//text()')).strip()
            data = {
                "name": position_name,
                "salay": salary,
                "city": city,
                "work_years": work_years,
                "education": education,
                "desc": desc
            }
            print(data)
            print('+'*40)
            self.positions.append(data)
    
    if __name__ == '__main__':
        spider = Lagouspider()
        spider.run()
    selenium结合lxml爬取

    >>>>>>>待续

  • 相关阅读:
    一、单一职责原则
    四、接口隔离原则
    彼得·林奇的25条黄金规则
    程序员的四个境界
    VS2008开发.NET 2.0的项目时,可用的C#3.0语言特性一览表
    Linq试用问题总结
    SQL Server 2000中修改数据库COLLATE一例
    SQL Tip:将SP生成的结果集Insert到另一Table中
    OOAD读书笔记(一):什么是好的软件?
    成功创业的8个关键点
  • 原文地址:https://www.cnblogs.com/wuxunyan/p/10655016.html
Copyright © 2020-2023  润新知