• selenium模块的基本使用


    一、selenium库与requests库的区别

    - selenium请求库:
            - 本质上是一个自动化测试模块; ---> 主要用于测试 UI界面
    
            - selenium除了可以做自动化测试,还可以做爬虫;
    
    
            *******
            - selenium可以帮我们打开(驱动)浏览器,然后往目标网站发送请求,获取响应数据;
                - 本质上是通过python代码取代人为 操作浏览器;
    
            *******
            - selenium对比requests请求库:
                - selenium:
                    - 优点:
                        - 不需要分详细分析目标网站的请求流程;
                        - 可以帮我们做 绕过 登录滑动认证;
                        - 可以通过python代码执行js
    
                    - 缺点:
                        - 爬虫效率低;
    
                - requests:
                    - 优点:
                        - 爬虫效率高;  模拟浏览器,可能只需要获取一个user-agent即可, 无需等待cssjs视频等文件的加载;
    
                    - 缺点:
                        - 每一个网站都需要,详细分析请求流程,分析的时间非常耗时;
    

    二、介绍

    selenium最初是一个测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题

    selenium本质是通过驱动浏览器,完全模拟浏览器的操作,比如跳转、输入、点击、下拉等,来拿到网页渲染之后的结果,可支持多种浏览器

    from selenium import webdriver
    browser=webdriver.Chrome()
    browser=webdriver.Firefox()
    browser=webdriver.PhantomJS()  #无窗口浏览器
    browser=webdriver.Safari()
    browser=webdriver.Edge() 
    

    三、安装

    selenium+chromedriver使用

     1 #安装:selenium+chromedriver
     2 pip3 install selenium
     3 下载chromdriver.exe放到python安装路径的scripts目录中即可,
     4 国内镜像网站地址:http://npm.taobao.org/mirrors/chromedriver
     5 最新的版本去官网找:https://sites.google.com/a/chromium.org/chromedriver/downloads
    
    注意: 	若selenium驱动无法使用,可能是浏览器驱动版本与浏览器版本不相符;
    		 selenium3默认支持的webdriver是Firfox,而Firefox需要安装geckodriver
    		 下载链接:https://github.com/mozilla/geckodriver/releases
    
    
    from selenium import webdriver
    from selenium import webdriver
    driver=webdriver.Chrome() # 弹出浏览器
    driver.get('https://www.baidu.com')
    # # webdriver.Chrome('谷歌浏览器的驱动路径')  # 指向谷歌浏览器驱动
    # # webdriver.Firefox('火狐浏览器的驱动路径')  # 指向火狐浏览器驱动
    

    四、基本使用

    使用步骤:

    from selenium import webdriver
    import time
    # # 1.通过谷歌浏览器驱动,打开谷歌浏览器
    # # 打开浏览器方式一
    driver = webdriver.Chrome(executable_path=r'C:Users15614Desktopchromedriver.exe')
    #
    # # 打开浏览器方式二  推荐
    driver = webdriver.Chrome()
    
    print(driver)
    
    # 2.往目标网站发送请求
    driver.get('https://www.baidu.com/')
    
    # 3.获取数据
    # 根据id查找input输入框
    input_tag = driver.find_element_by_id('kw')
    print(input_tag)
    # 4.在输入框输入内容
    input_tag.send_keys('python')
    
    time.sleep(10)
    
    # 关闭浏览器,回收资源
    driver.close()
    

    自动在百度输入内容,并搜索:

    from selenium import webdriver
    from selenium.webdriver.common.keys import Keys  # 键盘按键操作
    import time
    
    # 实现百度自动输入内容并搜索
    driver = webdriver.Chrome()
    # print(driver)
    try:
        # 2.往目标网站发送请求
        driver.get('https://www.baidu.com/')
    
        time.sleep(0.1)
    
        # 等待元素加载的两种方式:
        # 一 隐式等待,等待所有标签元素加载
        driver.implicitly_wait(10)
    
        # 3.获取数据
        # 根据id查找百度的input输入框
        input_tag = driver.find_element_by_id('kw')
        # print(input_tag)
    
        # 往百度输入输入python
        input_tag.send_keys('python')
    
        # 点击百度一下的按钮
        submit_button = driver.find_element_by_id('su')
        submit_button.click()
        # input_tag.send_keys(Keys.ENTER)  # 按回车
    
    
        # 二 显式等待, 等待某一个元素加载10s  (了解)
        # WebDriverWait('驱动对象', '等待的时间')
        # wait = WebDriverWait(driver, 10)
        # wait.until()
    
        time.sleep(5)
    
    except Exception as e:
        print(e)
    finally:
        driver.close()  # 关闭浏览器
    

    五、选择器

    1.基本使用

    所有方法:

        '''
        *********
        - find_element: 找第一个
        - find_elements: 找所有
    
        driver.find_element_by_id()    id
        driver.find_element_by_class_name()  class属性必须唯一
        driver.find_element_by_css_selector()   #id   .class
        driver.find_element_by_link_text()  文本
        driver.find_element_by_name()   name属性必须唯一 
        driver.find_element_by_partial_link_text()  局部文本
        driver.find_element_by_tag_name()  # 了解
    
        driver.find_element_by_xpath()   xpath解析语法
        '''
    
    # 强调:
    	from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
        # 1、上述均可以改写成find_element(By.ID,'kw')的形式
        # 2、find_elements_by_xxx的形式是查找到多个元素,结果为列表
    

    以模拟百度登录为示例:

    from selenium import webdriver
    import time
    driver = webdriver.Chrome()
    
    try:
        # 1. 发送请求
        driver.get('https://www.baidu.com')
    
        # 2.隐式等待
        driver.implicitly_wait(10)
    
        # 3.查找标签
        # 根据登录文本查找登录a标签,并点击登录
        # bd_login = driver.find_element_by_link_text('登录')
        bd_login = driver.find_element_by_partial_link_text('登') # 局部文本
        # 点击
        bd_login.click()
    
        # 4.查找用户名与密码登录按钮并点击
        # 根据id查找该按钮标签
        user_pwd_button = driver.find_element_by_id('TANGRAM__PSP_10__footerULoginBtn')
        user_pwd_button.click()
    
        # 5.根据name属性选择器查找用户名输入框并输入  (name属性必须唯一)
        user_input = driver.find_element_by_name('userName')
        user_input.send_keys('tomjoy')
    
        time.sleep(1)
        # 6.根据class属性选择器查找密码输入框并输入  (class属性必须唯一)
        pwd_input = driver.find_element_by_class_name('pass-text-input-password')
        pwd_input.send_keys('2020')
    
        # 7.根据id查找确认登录按钮,并点击
        summit_login = driver.find_element_by_id('TANGRAM__PSP_10__submit')
        summit_login.click()
    
        time.sleep(5)
    finally:
        driver.close()
    

    2.xpath

    #官网链接:http://selenium-python.readthedocs.io/locating-elements.html
    from selenium import webdriver
    from selenium.webdriver import ActionChains
    from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
    from selenium.webdriver.common.keys import Keys #键盘按键操作
    from selenium.webdriver.support import expected_conditions as EC
    from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素
    import time
    
    driver=webdriver.PhantomJS()
    driver.get('https://doc.scrapy.org/en/latest/_static/selectors-sample1.html')
    # wait=WebDriverWait(driver,3)
    driver.implicitly_wait(3) #使用隐式等待
    
    try:
        # find_element_by_xpath
        #//与/
        # driver.find_element_by_xpath('//body/a')  # 开头的//代表从整篇文档中寻找,body之后的/代表body的儿子,这一行找不到就会报错了
    
        driver.find_element_by_xpath('//body//a')  # 开头的//代表从整篇文档中寻找,body之后的//代表body的子子孙孙
        driver.find_element_by_css_selector('body a')
    
        #取第n个
        res1=driver.find_elements_by_xpath('//body//a[1]') #取第一个a标签
        print(res1[0].text)
    
        #按照属性查找,下述三者查找效果一样
        res1=driver.find_element_by_xpath('//a[5]')
        res2=driver.find_element_by_xpath('//a[@href="image5.html"]')
        res3=driver.find_element_by_xpath('//a[contains(@href,"image5")]') #模糊查找
        print('==>', res1.text)
        print('==>',res2.text)
        print('==>',res3.text)
    
    
        #其他
        res1=driver.find_element_by_xpath('/html/body/div/a')
        print(res1.text)
    
        res2=driver.find_element_by_xpath('//a[img/@src="image3_thumb.jpg"]') #找到子标签img的src属性为image3_thumb.jpg的a标签
        print(res2.tag_name,res2.text)
    
        res3 = driver.find_element_by_xpath("//input[@name='continue'][@type='button']") #查看属性name为continue且属性type为button的input标签
        res4 = driver.find_element_by_xpath("//*[@name='continue'][@type='button']") #查看属性name为continue且属性type为button的所有标签
        
        
        time.sleep(5)
    
    finally:
        driver.close()
    

    例子:

    doc='''
    <html>
     <head>
      <base href='http://example.com/' />
      <title>Example website</title>
     </head>
     <body>
      <div id='images'>
       <a href='image1.html'>Name: My image 1 <br /><img src='image1_thumb.jpg' /></a>
       <a href='image2.html'>Name: My image 2 <br /><img src='image2_thumb.jpg' /></a>
       <a href='image3.html'>Name: My image 3 <br /><img src='image3_thumb.jpg' /></a>
       <a href='image4.html'>Name: My image 4 <br /><img src='image4_thumb.jpg' /></a>
       <a href='image5.html' class='li li-item' name='items'>Name: My image 5 <br /><img src='image5_thumb.jpg' /></a>
       <a href='image6.html' name='items'><span><h5>test</h5></span>Name: My image 6 <br /><img src='image6_thumb.jpg' /></a>
      </div>
     </body>
    </html>
    '''
    from lxml import etree
    
    html=etree.HTML(doc)
    # html=etree.parse('search.html',etree.HTMLParser())
    # 1 所有节点
    # a=html.xpath('//*')
    # 2 指定节点(结果为列表)
    # a=html.xpath('//head')
    # 3 子节点,子孙节点
    # a=html.xpath('//div/a')
    # a=html.xpath('//body/a') #无数据
    # a=html.xpath('//body//a')
    # 4 父节点
    # a=html.xpath('//body//a[@href="image1.html"]/..')
    # a=html.xpath('//body//a[1]/..')
    # 也可以这样
    # a=html.xpath('//body//a[1]/parent::*')
    # 5 属性匹配
    # a=html.xpath('//body//a[@href="image1.html"]')
    
    # 6 文本获取
    # a=html.xpath('//body//a[@href="image1.html"]/text()')
    
    # 7 属性获取
    # a=html.xpath('//body//a/@href')
    # # 注意从1 开始取(不是从0)
    # a=html.xpath('//body//a[1]/@href')
    # 8 属性多值匹配
    #  a 标签有多个class类,直接匹配就不可以了,需要用contains
    # a=html.xpath('//body//a[@class="li"]')
    # a=html.xpath('//body//a[contains(@class,"li")]')
    # a=html.xpath('//body//a[contains(@class,"li")]/text()')
    # 9 多属性匹配
    # a=html.xpath('//body//a[contains(@class,"li") or @name="items"]')
    # a=html.xpath('//body//a[contains(@class,"li") and @name="items"]/text()')
    # # a=html.xpath('//body//a[contains(@class,"li")]/text()')
    # 10 按序选择
    # a=html.xpath('//a[2]/text()')
    # a=html.xpath('//a[2]/@href')
    # 取最后一个
    # a=html.xpath('//a[last()]/@href')
    # 位置小于3的
    # a=html.xpath('//a[position()<3]/@href')
    # 倒数第二个
    # a=html.xpath('//a[last()-2]/@href')
    # 11 节点轴选择
    # ancestor:祖先节点
    # 使用了* 获取所有祖先节点
    # a=html.xpath('//a/ancestor::*')
    # # 获取祖先节点中的div
    # a=html.xpath('//a/ancestor::div')
    # attribute:属性值
    # a=html.xpath('//a[1]/attribute::*')
    # child:直接子节点
    # a=html.xpath('//a[1]/child::*')
    # descendant:所有子孙节点
    # a=html.xpath('//a[6]/descendant::*')
    # following:当前节点之后所有节点
    # a=html.xpath('//a[1]/following::*')
    # a=html.xpath('//a[1]/following::*[1]/@href')
    # following-sibling:当前节点之后同级节点
    # a=html.xpath('//a[1]/following-sibling::*')
    # a=html.xpath('//a[1]/following-sibling::a')
    # a=html.xpath('//a[1]/following-sibling::*[2]')
    # a=html.xpath('//a[1]/following-sibling::*[2]/@href')
    
    # print(a)
    
    

    六、等待元素被加载

    1、selenium只是模拟浏览器的行为,而浏览器解析页面是需要时间的(执行css,js),一些元素可能需要过一段时间才能加载出来,为了保证能查找到元素,必须等待

    2、等待的方式分两种:
    隐式等待:在browser.get('xxx')前就设置,针对所有元素有效
    显式等待:在browser.get('xxx')之后设置,只针对某个元素有效

    1.隐式等待

    from selenium import webdriver
    from selenium.webdriver import ActionChains
    from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
    from selenium.webdriver.common.keys import Keys #键盘按键操作
    from selenium.webdriver.support import expected_conditions as EC
    from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素
    
    browser=webdriver.Chrome()
    
    #隐式等待:在查找所有元素时,如果尚未被加载,则等10秒
    browser.implicitly_wait(10)
    
    browser.get('https://www.baidu.com')
    
    input_tag=browser.find_element_by_id('kw')
    input_tag.send_keys('靓女')
    input_tag.send_keys(Keys.ENTER)
    
    contents=browser.find_element_by_id('content_left') #没有等待环节而直接查找,找不到则会报错
    print(contents)
    
    browser.close()
    

    2.显式等待

    from selenium import webdriver
    from selenium.webdriver import ActionChains
    from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
    from selenium.webdriver.common.keys import Keys #键盘按键操作
    from selenium.webdriver.support import expected_conditions as EC
    from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素
    
    browser=webdriver.Chrome()
    browser.get('https://www.baidu.com')
    
    input_tag=browser.find_element_by_id('kw')
    input_tag.send_keys('靓女')
    input_tag.send_keys(Keys.ENTER)
    
    
    #显式等待:显式地等待某个元素被加载
    wait=WebDriverWait(browser,10)
    wait.until(EC.presence_of_element_located((By.ID,'content_left')))
    
    contents=browser.find_element(By.CSS_SELECTOR,'#content_left')
    print(contents)
    
    browser.close()
    

    七、元素交互操作

    1.点击与清空

    点击: 标签对象.click
      清空: 标签对象.clear
    
    from selenium import webdriver
    from selenium.webdriver.common.keys import Keys
    from selenium.webdriver import ActionChains
    import time
    
    driver = webdriver.Chrome()
    
    try:
        driver.get('https://www.baidu.com/')
        driver.implicitly_wait(10)
    
        input_tag = driver.find_element_by_id('kw')
        input_tag.send_keys('美女')
    
        input_tag.send_keys(Keys.ENTER)  # 回车
    
        time.sleep(2)
    
        # 再次找到input输入框,让鼠标悬浮在里面,清空输入框内容,重新输入即可
        input_tag = driver.find_element_by_id('kw')
        input_tag.clear()
        input_tag.send_keys('帅哥')
        input_tag.send_keys(Keys.ENTER)
        input_tag.clear()
    
        time.sleep(20)
    finally:
        driver.close()
    

    2.动作链(Action Chains)

    
    from selenium import webdriver
    from selenium.webdriver.common.keys import Keys
    from selenium.webdriver import ActionChains
    import time
    '''
    - Action Chains: 动作链
        - 调用动作链类可以得到一个对象,对象中有方法可以帮你做  拖拽图片等操作
        
    '''
    driver = webdriver.Chrome()
    
    try:
    
        driver.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
        driver.implicitly_wait(3)  # 使用隐式等待
    
        # iframe标签可以继续嵌套html文本
        # 切换到  id为iframeResult 的 iframe标签页面中
        driver.switch_to.frame('iframeResult')
    
        # 需要拖动图片块的 源位置
        source = driver.find_element_by_id('draggable')
        print(source.location)
    
        # 根据id为droppable 属性查找目标块 标签对象 目标位置
        target = driver.find_element_by_id('droppable')
        print(target.location)
    
        # 方式一:基于同一个动作链串行执行
        # actions = ActionChains(driver)
        #
        # # 制作动作链操作
        # # drag_and_drop(source, target): 从source标签位置开始拖拽 到target标签的位置放下
        # actions.drag_and_drop(source, target)
        #
        # # 调用perform() 才执行动作链
        # actions.perform()
    
        # 方式二: 模拟人的行为
    
        # 滑块的距离
        distance = target.location.get('x') - source.location.get('x')
    
        # 注意: 只要是 ActionChains(driver)调用的方法,都需要调用 perform方法来执行
        # 先点击鼠标,按住拖拽的标签
        ActionChains(driver).click_and_hold(source).perform()
    
        number = 0
        while number < distance:
    
            # 循环滑动,每次滑动3
            # 每次移动3格
            ActionChains(driver).move_by_offset(xoffset=20, yoffset=0).perform()
            number += 20
    
        # 移动完毕后,必须释放
        ActionChains(driver).release().perform()
    
        time.sleep(100)
    
    finally:
        driver.close()
    

    3.自己写js代码

    from selenium import webdriver
    
    try:
        browser=webdriver.Chrome()
        browser.get('https://www.baidu.com')
        browser.execute_script('alert("hello world")') #打印警告
    finally:
        browser.close()
    
    # 在交互动作比较难实现的时候可以自己写JS(万能方法)
    

    4.frame标签的切换

    frame标签是html文本里可以再嵌套html文本的标签

    frame相当于一个单独的网页,在父frame里是无法直接查看到子frame的元素的,必须switch_to_frame切到该frame下,才能进一步查找

    from selenium import webdriver
    
    try:
        browser=webdriver.Chrome()
        browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
    
        browser.switch_to.frame('iframeResult') #切换到id为iframeResult的frame
    
        tag1=browser.find_element_by_id('droppable')
        print(tag1)
    
        # tag2=browser.find_element_by_id('textareaCode') #报错,在子frame里无法查看到父frame的元素
        browser.switch_to.parent_frame() #切回父frame,就可以查找到了
        tag2=browser.find_element_by_id('textareaCode')
        print(tag2)
    
    finally:
        browser.close()
    

    八、其他方法

    1.模拟浏览器前进后退

    import time
    from selenium import webdriver
    
    browser=webdriver.Chrome()
    browser.get('https://www.baidu.com')
    browser.get('https://www.taobao.com')
    browser.get('http://www.sina.com.cn/')
    
    browser.back()  # 后退一页
    time.sleep(10)
    browser.forward() # 前进一页
    browser.close()
    

    2.cookies

    from selenium import webdriver
    
    browser=webdriver.Chrome()
    browser.get('https://www.zhihu.com/explore')
    print(browser.get_cookies())
    browser.add_cookie({'name':'xxx','value':'yyy'})  # 设置cookies ,必须设置name,value键
    print(browser.get_cookies())
    
    browser.delete_all_cookies()   # 删除cookies
    print(browser.get_cookies())
    

    3.选项卡管理

    #选项卡管理:切换选项卡,有js的方式windows.open,有windows快捷键:ctrl+t等,最通用的就是js的方式
    import time
    from selenium import webdriver
    
    browser=webdriver.Chrome()
    browser.get('https://www.baidu.com')
    browser.execute_script('window.open()')
    
    print(browser.window_handles) #获取所有的选项卡
    browser.switch_to_window(browser.window_handles[1])
    browser.get('https://www.taobao.com')
    time.sleep(10)
    browser.switch_to_window(browser.window_handles[0])
    browser.get('https://www.sina.com.cn')
    browser.close()
    

    4.异常处理

    from selenium import webdriver
    from selenium.common.exceptions import TimeoutException,NoSuchElementException,NoSuchFrameException
    
    try:
        browser=webdriver.Chrome()
        browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
        browser.switch_to.frame('iframssseResult')
    
    except TimeoutException as e:
        print(e)
    except NoSuchFrameException as e:
        print(e)
    finally:
        browser.close()
    

    九、实战案例

    1.爬取京东商品信息

    from selenium import webdriver
    from selenium.webdriver.common.keys import Keys  # 可以模拟键盘操作
    import time
    
    
    def get_goods(driver, f):
    
        try:
            # 模拟滚轮操作
            number = 1000
            for line in range(10):
                js_code = """
                        window.scrollTo(0, %s)
                """% number
                # execute_script: 该方法可以执行js代码
                driver.execute_script(js_code)
                time.sleep(0.5)
                number += 1000
    
            # js_code = """
            #         window.scrollTo(0, 5500)
            # """
            # driver.execute_script(js_code)
    
            # 执行完js代码后。等待2秒加载数据
            # time.sleep(2)
    
    
            # find_elements ---> [element_obj1, element_obj2, ...]
            goods_list = driver.find_elements_by_class_name('gl-item')
            # print(goods_list)
            print(len(goods_list))
    
    
            for goods in goods_list:
                # 商品名称
                goods_name = goods.find_element_by_css_selector('.p-name em').text
    
                # 商品详情url
                # 第一种方法
                # img_tag = goods.find_element_by_class_name('p-img')
                #         # a_tag = img_tag.find_element_by_tag_name('a')
                #         # # 获取a标签中的属性
                #         # href = a_tag.get_attribute('href')
                #         # print(href)
                # 第二种方法
                a_tag = goods.find_element_by_css_selector('.p-img a')
                # get_attribute:获取标签元素的属性
                goods_url = a_tag.get_attribute('href')
    
    
                # 获取商品图片
                img_tag = goods.find_element_by_css_selector('.p-img a img')
    
                goods_img = img_tag.get_attribute('src')
                print(goods_img)
    
                # 商品价格
                goods_price = goods.find_element_by_css_selector('.p-price i').text
    
                # 商品评价人数
                goods_commit = goods.find_element_by_css_selector('.p-commit a').text
    
                goods_data = f"""
                        商品名称: {goods_name}
                        商品详情: {goods_url}
                        商品图片: {goods_img}
                        商品价格: {goods_price}
                        评论人数: {goods_commit}
                        ---------------------------------------------------------------------
                """
                # print(goods_data)
    
                # 写入文件中
                f.write(goods_data)
    
            # 爬取完当前页,点击下一页继续爬
            next_tag = driver.find_element_by_class_name('pn-next')
            next_tag.click()
    
            # 递归执行爬取当前页所有商品数据
            get_goods(driver, f)
        except Exception as e:
            print(e)
            pass
    
    if __name__ == '__main__':
    
        f = open('jd_goods.txt', 'a', encoding='utf-8')
    
        driver = webdriver.Chrome()
    
        try:
            # 1.发送请求
            driver.get('https://www.jd.com/')
    
            # 2.隐身等待
            driver.implicitly_wait(10)
    
            # 3.根据id找到商品输入框
            input_tag = driver.find_element_by_id('key')
            input_tag.send_keys('AJ1')
            input_tag.send_keys(
                Keys.ENTER    # 调用键盘回车键
            )
    
            get_goods(driver, f)
    
            time.sleep(1000)
        finally:
            driver.close()
    

    注意: 使用selenium爬取商品信息,会导致图片加载不过来就爬取,导致得到的图片是空的,所以使用request

  • 相关阅读:
    Spring AOP 实现原理
    Spring Aop实现方式总结
    Spring Aop重要概念介绍及应用实例结合分析
    Spring Aop
    常见的排序算法
    MINA2.0原理
    Java和Tomcat类加载机制
    Java 8 新特性概述
    Java类加载机制深度分析
    jetty之建立多Connector
  • 原文地址:https://www.cnblogs.com/guapitomjoy/p/12149806.html
Copyright © 2020-2023  润新知