• lxml模块(应用xpath技术)


    一、lxml介绍

      第三方库lxml是第一款表现出高性能特征的python xml库,天生支持Xpath1.0、XSLT1.0、定制元素类,甚至python风格的数据绑定接口。lxml是通过Cpython实现的,构建在两个C库上(libxml2和libxslt),为执行解析、序列化、转换等核心任务提供了主要动力,是爬虫处理网页数据的一件利器。
      lxml对xml和html都有很好的支持,分别使用 lxml.etree 和 lxml.html 两个模块。

    1、安装第三方lxml模块

    # 通过pip直接下载安装
    pip install lxml
    
    # 通过git克隆源码进行下载安装
    git clone https://github.com/lxml/lxml.git   lxml
    

    2、lxml.html和lxml.etree模块

      lxml.html&lxml.etree这两个模块是最常用的HTML文档和XML文档解析模块。
      HTML(HyperText Markup Language)超文本标记语言。
      XML(Extensible Markup Language)可扩展标记语言。

    3、lxml官方文档

      lxml

    二、Xpath语法

    1、选取节点

      Xpath使用路径表达式在XML文档中选取节点。节点是通过沿着路径或者step来选取的。常用的路径表达式如下:

    表达式 描述
    nodename 选取此节点的所有子节点
    / 从根节点选取
    // 从匹配选择的当前节点选择文档的节点,而不考虑它们的位置
    . 选取当前节点
    .. 选取当前节点的父节点
    @ 选取属性

      下面为一些路径表达式及表达式结果:

    路径表达式 结果
    bookstore 选取 bookstore 元素的所有子节点
    /bookstore 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
    bookstore/book 选取属于 bookstore 的子元素的所有 book 元素
    //book 选取所有 book 子元素,而不管它们在文档中的位置。
    bookstore//book 选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。
    //@lang 选取名为 lang 的所有属性。

    2、谓语(Predicates)

      谓语用来查找某个特定的节点或者包含某个指定的值的节点。谓语被嵌在方括号中。
      下面为一些带有谓语的路径表达式,及表达式结果:

    路径表达式 结果
    /bookstore/book[1] 选取属于 bookstore 子元素的第一个 book 元素。
    /bookstore/book[last()] 选取属于 bookstore 子元素的最后一个 book 元素。
    /bookstore/book[last()-1] 选取属于 bookstore 子元素的倒数第二个 book 元素。
    /bookstore/book[position()❤️] 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。
    //title[@lang] 选取所有拥有名为 lang 的属性的 title 元素。
    //title[@lang=’eng’] 选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。
    /bookstore/book[price>35.00] 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。
    /bookstore/book[price>35.00]/title 选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

    3、选取未知节点

      XPath通配符可用来选取未知的XML元素。

    通配符 描述
    * 匹配任何元素节点
    @* 匹配任何属性节点
    node() 匹配任何类型的节点

      下面为一些带有通配符的路径表达式,及表达式结果:

    路径表达式 结果
    /bookstore/* 选取 bookstore 元素的所有子元素。
    //* 选取文档中的所有元素。
    //title[@*] 选取文档中的所有元素。

    4、选取若干路径

      通过在路径表达式中使用“|”运算符,您可以选取若干个路径。
    下面为一些带有"|"运算符的路径表达式,及表达式结果:

    路径表达式 结果
    //book/title //book/price
    //title //price
    /bookstore/book/title //price

    5、Xpath运算符

      下面列出了可用再XPath表达式中运算符:

    运算符 描述 实例 返回值
    计算两个节点集 //book
    + 加法 6 + 4 10
    减法 6 – 4 2
    * 乘法 6 * 4 24
    div 除法 8 div 4 2
    = 等于 price=9.80 如果 price 是 9.80,则返回 true。如果 price 是 9.90,则返回 false。
    != 不等于 price!=9.80 如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false。
    < 小于 price<9.80 如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false。
    <= 小于或等于 price<=9.80 如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false。
    > 大于 price>9.80 如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false。
    >= 大于或等于 price>=9.80 如果 price 是 9.90,则返回 true。如果 price 是 9.70,则返回 false。
    or price=9.80 or price=9.70 如果 price 是 9.80,则返回 true。如果 price 是 9.50,则返回 false。
    and price>9.00 and price<9.90 如果 price 是 9.80,则返回 true。如果 price 是 8.50,则返回 false。
    mod 计算除法的余数 5 mod 2 1

    6、参考文档

    scrapy xpath文档

    三、爬虫中运用XPath

    1、XPath在爬虫中的使用流程

    1. 下载:pip install lxml
    2. 导包:from lxml import etree
    3. 创建etree对象进行指定数据的解析
      • 本地:
    etree=etree.parse('本地文件路径')
    etree.xpath('xpath表达式')
    
    - 网络:
    
    etree=etree.HTML('网络请求到的页面数据')
    etree.xpath('xpath表达式')
    

    2、常用的Xpath表达式

    属性定位:
        #找到class属性值为song的div标签
        //div[@class="song"] 
    层级&索引定位:
        #找到class属性值为tang的div的直系子标签ul下的第二个子标签li下的直系子标签a
        //div[@class="tang"]/ul/li[2]/a
    逻辑运算:
        #找到href属性值为空且class属性值为du的a标签
        //a[@href="" and @class="du"]
    模糊匹配:
        //div[contains(@class, "ng")]
        //div[starts-with(@class, "ta")]
    取文本:
        # /表示获取某个标签下的文本内容
        # //表示获取某个标签下的文本内容和所有子标签下的文本内容
        //div[@class="song"]/p[1]/text()
        //div[@class="tang"]//text()
    取属性:
        //div[@class="tang"]//li[2]/a/@href
    

    3、使用示例

      创建本地html文件来测试Xpath数据解析。

    (1)test.html

    <html lang="en">
    <head>
    	<meta charset="UTF-8" />
    	<title>测试bs4</title>
    </head>
    <body>
    	<div>
    		<p>百里守约</p>
    	</div>
    	<div class="song">
    		<p>李清照</p>
    		<p>王安石</p>
    		<p>苏轼</p>
    		<p>柳宗元</p>
    		<a href="http://www.song.com/" title="赵匡胤" target="_self">
    			<span>this is span</span>
    		宋朝是最强大的王朝,不是军队的强大,而是经济很强大,国民都很有钱</a>
    		<a href="" class="du">总为浮云能蔽日,长安不见使人愁</a>
    		<img src="http://www.baidu.com/meinv.jpg" alt="" />
    	</div>
    	<div class="tang">
    		<ul>
    			<li><a href="http://www.baidu.com" title="qing">清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村</a></li>
    			<li><a href="http://www.163.com" title="qin">秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山</a></li>
    			<li><a href="http://www.126.com" alt="qi">岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君</a></li>
    			<li><a href="http://www.sina.com" class="du">杜甫</a></li>
    			<li><a href="http://www.dudu.com" class="du">杜牧</a></li>
    			<li><b>杜小月</b></li>
    			<li><i>度蜜月</i></li>
    			<li><a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a></li>
    		</ul>
    	</div>
    </body>
    </html>
    

    (2)爬虫脚本文件test.py

    from lxml import etree
    
    # 创建etree对象进行制定数据解析
    tree = etree.parse('./test.html')    # 解析本地文件
    
    # 属性定位:根据指定的属性定位到指定的节点标签
    # tree.xpath('//div[@class="song"]')
    """
    [<Element div at 0x10dbead88>]
    """
    
    # 层级&索引定位
    # tree.xpath('//div[@class="tang"]/ul/li[2]/a')  # 定位到第二个li中的a标签
    """
    [<Element a at 0x10e30ab48>]
    """
    
    # 逻辑定位  //a:整个源码下的a标签   
    # [@href="" and @class="du"] href为空,class属性为du
    # tree.xpath('//a[@href="" and @class="du"]')
    """
    [<Element a at 0x10e2a8e88>]
    """
    
    # 模糊匹配
    # tree.xpath('//div[contains(@class, "ng")]')
    # tree.xpath('//div[starts-with(@class, "ta")]')
    """
    [<Element div at 0x10dbea548>, <Element div at 0x10e392348>]
    [<Element div at 0x10dabd688>]
    """
    
    # 取文本
    # /text()获取当前标签中直系存储的文本数据
    # tree.xpath('//div[@class="song"]/p[1]/text()')    # song的div下的第一个p子标签
    # 输出:['李清照']
    
    # //text()获取tang这个div标签下所有子标签中存储的文本数据
    # tree.xpath('//div[@class="tang"]//text()')
    """
    ['
    		',
     '
    			',
     '清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村',
     '
    			',
     '秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山',
     '
    			',
     '岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君',
     '
    			',
     '杜甫',
     '
    			',
     '杜牧',
     '
    			',
     '杜小月',
     '
    			',
     '度蜜月',
     '
    			',
     '凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘',
     '
    		',
     '
    	']
    """
    
    # 取属性
    tree.xpath('//div[@class="tang"]//li[2]/a/@href')  # 指定a标签对应的href的值
    """
    ['http://www.163.com']
    """
    

    四、XPath插件

      xpath插件的作用:可以直接将xpath表达式作用于浏览器的网页当中。

    1、chrome安装xpath插件

    (1)更多工具-》扩展程序-》开启右上角开发者模式

    img

    (2)将xpath插件拖动到谷歌浏览器拓展程序(更多工具)中,安装成功

    img

    2、插件使用

      开启和关闭xpath插件的快捷键:Ctrl-Shift-X (or Control-Shift-X on OS X), or click the XPath Helper button in the toolbar, to open the XPath Helper console。
      以糗事百科为例使用插件:

    img

      右边方框输出的是xpath表达式输出的结果,这里输出的是div对应的数据值。
      使用完再次点击Control-Shift-X来关闭xpath插件。未来在程序中设计好xpath表达式之后,一定要用xpath插件做一下表达式的验证。

    五、xpath项目演练

      需求:使用xpath对段子网中的段子内容和标题进行解析,持久化存储。
      段子网地址

    1、先用xpath插件验证xpath表达式

      可用如下xpath表达式获取所有的li标签,段子内容和标题都被包含在li标签中。

    img

    2、爬虫代码实现

    import requests
    from lxml import etree
    
    # 1.指定url
    url = 'https://ishuo.cn/joke'
    
    # 2.发起请求
    headers = {
        'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36'
    }
    response = requests.get(url=url, headers=headers)
    
    # 3.获取页面内容
    page_text = response.text
    
    # 4.数据解析
    tree = etree.HTML(page_text)
    # 获取所有的li标签(已经经过了xpath插件验证)
    li_list = tree.xpath('//div[@id="list"]/ul/li')
    # print(li_list)  
    '''
    [<Element li at 0x10e32c248>, <Element li at 0x10e30ae88>,...,<Element li at 0x10ef5bfc8>]
    # 注意:Element类型的对象可以继续调用xpath函数,对该对象表示的局部内容进行指定内容的解析
    '''
    fp = open('./duanzi.txt', 'w', encoding='utf-8')  # 一次打开多次写入
    for li in li_list:
        content = li.xpath('./div[@class="content"]/text()')[0]  # 调用text()函数取得段子内容
        title = li.xpath('./div[@class="info"]/a/text()')[0]   # 获得a标签文本内容
        
        # 5.持久化
        fp.write(title + ":" + content + "
    
    ")  # 段子换行分隔
        print("一条数据写入成功")
    

    (1)li标签内部结构

    <li class="list_li xh-highlight">
        <div class="content">有位非常漂亮的女同事,有天起晚了没有时间化妆便急忙冲到公司。结果那天她被记旷工了……吃惊]</div>
        <div class="info">
            <span class="right tags">...</span>
            <a href="/subject/5898">这个笑话好内涵,你懂了没?</a>
            04月29日0个评论 0人喜欢
        </div>
    </li>
    

    (2)Element类型对象

      Element类型的对象可以继续调用xpath函数,对该对象表示的局部内容进行指定内容的解析。
      只要是通过xpath表达式解析出来的标签类型的对象,对象类型一定是element类型。

    tree = etree.HTML(page_text)
    # 获取所有的li标签(已经经过了xpath插件验证)
    li_list = tree.xpath('//div[@id="list"]/ul/li')
    # print(li_list)  
    """
    [<Element li at 0x10e32c248>, <Element li at 0x10e30ae88>,...,<Element li at 0x10ef5bfc8>]
    # 注意:Element类型的对象可以继续调用xpath函数,对该对象表示的局部内容进行指定内容的解析
    """
    
    for li in li_list:
        content = li.xpath('./div[@class="content"]/text()')[0]  # 调用text()函数取得段子内容
        title = li.xpath('./div[@class="info"]/a/text()')[0]   # 获得a标签文本内容——标题
    

    (3)duanzi.txt文件写入效果

    img

  • 相关阅读:
    使用AD你应该避免的五个错误
    卸载常用组件
    学会批处理,用心学很容易
    VI的用法
    安装Linux版VNC 企业版
    【3】淘宝sdk的下载和安装
    【7】创建一个自己的模板
    【6】网店模板目录及文件介绍
    【11】淘宝sdk的DOM、CSS规范、Widget规范(这个Widget规范差不多就是网页效果)和HTML规范
    【2】认识淘宝sdk模板
  • 原文地址:https://www.cnblogs.com/xiugeng/p/9974999.html
Copyright © 2020-2023  润新知