• 爬虫——BeautifulSoup初识


    BeautifulSoup是一个灵活又方便的网页解析库,处理高效,支持多种解析器。利用它就不用编写正则表达式也能方便的实现网页信息的抓取。

    Quick Start

    直接通过官方文档的例子,大致了解一下

    html_doc = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title"><b>The Dormouse's story</b></p>
    
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    
    <p class="story">...</p>
    """

    给出一段html,我们开始从中捕获一些信息,使用BeautifulSoup解析这段代码,能够得到一个BeautifulSoup的对象:

    from bs4 import BeautifulSoup
    soup = BeautifulSoup(html_doc)
    
    print(soup.prettify())
    # <html>
    #  <head>
    #   <title>
    #    The Dormouse's story
    #   </title>
    #  </head>
    #  <body>
    #   <p class="title">
    #    <b>
    #     The Dormouse's story
    #    </b>
    #   </p>
    #   <p class="story">
    #    Once upon a time there were three little sisters; and their names were
    #    <a class="sister" href="http://example.com/elsie" id="link1">
    #     Elsie
    #    </a>
    #    ,
    #    <a class="sister" href="http://example.com/lacie" id="link2">
    #     Lacie
    #    </a>
    #    and
    #    <a class="sister" href="http://example.com/tillie" id="link2">
    #     Tillie
    #    </a>
    #    ; and they lived at the bottom of a well.
    #   </p>
    #   <p class="story">
    #    ...
    #   </p>
    #  </body>
    # </html>

    几个简单的浏览结构化数据的方法:

    print(soup.title)
    # <title>The Dormouse's story</title>
    print(soup.title.name)
    # title
    print(soup.title.string)
    # The Dormouse's story
    print(soup.title.parent.name)
    # head
    print(soup.p)
    # <p class="title"><b>The Dormouse's story</b></p>
    print(soup.p['class'])
    # ['title']
    print(soup.a)
    # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>
    print(soup.find_all('a'))
    # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
    print(soup.find(id='link3'))
    # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>

    从文档中找到所有<a>标签的链接:

    for link in soup.find_all('a'):
        print(link.get('href'))
    
    # http://example.com/elsie
    # http://example.com/lacie
    # http://example.com/tillie

    从文档中获取所有文字内容:

    print(soup.get_text())
    
    # The Dormouse's story
    # 
    # The Dormouse's story
    # Once upon a time there were three little sisters; and their names # were
    # Elsie,
    # Lacie and
    # Tillie;
    # and they lived at the bottom of a well.
    # ...

     安装解析器

     推荐使用lxml作为解析器,因为效率更高。

     基本用法

     标签选择器

    通过 soup.标签名 我们就可以获得这个标签的内容: print(soup.title) 

    这里有个问题需要注意,通过这种方式获取标签,如果文档中有多个这样的标签,返回的结果是第一个标签的内容,如上面我们通过soup.p获取p标签,而文档中有多个p标签,但是只返回了第一个p标签内容

    获取名称:name

    当我们通过 print(soup.title.name) 的时候就可以获得该title标签的名称,即title

    获取属性:attrs[]

     print(soup.p.attrs['name']) , print(soup.p['name']) 两种方式都可以获取p标签的name属性值。

    获取内容:string

     print(soup.p.string) 

    嵌套选择

    我们直接可以通过下面嵌套的方式获取

     print(soup.head.title.string) 

    子节点和子孙节点

    contents的使用

    print(soup.p.contents)
    # [<b>The Dormouse's story</b>]
    
    print(soup.p.contents[0])
    # <b>The Dormouse's story</b>

    结果是将第一个p标签下的所有子标签存入到了一个列表中。

    children的使用

    通过下面的方式也可以获取p标签下的所有子节点内容和通过contents获取的结果是一样的,但是不同的地方是soup.p.children是一个迭代对象,而不是列表,只能通过循环的方式获取素有的信息

    print(soup.p.children)
    for i,child in enumerate(soup.p.children):
        print(i,'----',child)
    
    # <list_iterator object at 0x000002C1688816A0>
    # 0 ---- <b>The Dormouse's story</b>

    通过contents以及children都是获取子节点。

    descendants的使用

    descendants可以获取子孙节点,获取的结果也是一个迭代器

    print(soup.head.descendants)
    for i,child in enumerate(soup.head.descendants):
        print(i,'----',child)
    
    # <generator object Tag.descendants at 0x000002914B17C4F8>
    # 0 ---- <title>The Dormouse's story</title>
    # 1 ---- The Dormouse's story

    父节点和祖先节点

    通过soup.a.parent就可以获取父节点的信息

    通过list(enumerate(soup.a.parents))可以获取祖先节点,这个方法返回的结果是一个列表,会分别将a标签的父节点的信息存放到列表中,以及父节点的父节点也放到列表中,并且最后还会讲整个文档放到列表中,所有列表的最后一个元素以及倒数第二个元素都是存的整个文档的信息

    兄弟节点

    soup.a.next_siblings 获取后面的兄弟节点
    soup.a.previous_siblings 获取前面的兄弟节点
    soup.a.next_sibling 获取下一个兄弟标签
    souo.a.previous_sinbling 获取上一个兄弟标签

    标准选择器

    find_all

    find_all(name,attrs,recursive,text,**kwargs)
    可以根据标签名,属性,内容查找文档

    name的用法

    html='''
    <div class="panel">
        <div class="panel-heading">
            <h4>Hello</h4>
        </div>
        <div class="panel-body">
            <ul class="list" id="list-1">
                <li class="element">Foo</li>
                <li class="element">Bar</li>
                <li class="element">Jay</li>
            </ul>
            <ul class="list list-small" id="list-2">
                <li class="element">Foo</li>
                <li class="element">Bar</li>
            </ul>
        </div>
    </div>
    '''
    from bs4 import BeautifulSoup
    soup = BeautifulSoup(html, 'lxml')
    print(soup.find_all('ul'))
    print(type(soup.find_all('ul')[0]))

    结果返回的是一个列表的方式:

    # [<ul class="list" id="list-1">
    # <li class="element">Foo</li>
    # <li class="element">Bar</li>
    # <li class="element">Jay</li>
    # </ul>, <ul class="list list-small" id="list-2">
    # <li class="element">Foo</li>
    # <li class="element">Bar</li>
    # </ul>]
    # <class 'bs4.element.Tag'>

    同时我们是可以针对结果再次find_all,从而获取所有的li标签信息

    for ul in soup.find_all('ul'):
        print(ul.find_all('li'))

    attrs

    html='''
    <div class="panel">
        <div class="panel-heading">
            <h4>Hello</h4>
        </div>
        <div class="panel-body">
            <ul class="list" id="list-1" name="elements">
                <li class="element">Foo</li>
                <li class="element">Bar</li>
                <li class="element">Jay</li>
            </ul>
            <ul class="list list-small" id="list-2">
                <li class="element">Foo</li>
                <li class="element">Bar</li>
            </ul>
        </div>
    </div>
    '''
    from bs4 import BeautifulSoup
    soup = BeautifulSoup(html, 'lxml')
    print(soup.find_all(attrs={'id': 'list-1'}))
    print(soup.find_all(attrs={'name': 'elements'}))

    attrs可以传入字典的方式来查找标签,但是这里有个特殊的就是class,因为class在python中是特殊的字段,所以如果想要查找class相关的可以更改attrs={'class_':'element'}或者soup.find_all('',{"class":"element}),特殊的标签属性可以不写attrs,例如id

    text

    html='''
    <div class="panel">
        <div class="panel-heading">
            <h4>Hello</h4>
        </div>
        <div class="panel-body">
            <ul class="list" id="list-1">
                <li class="element">Foo</li>
                <li class="element">Bar</li>
                <li class="element">Jay</li>
            </ul>
            <ul class="list list-small" id="list-2">
                <li class="element">Foo</li>
                <li class="element">Bar</li>
            </ul>
        </div>
    </div>
    '''
    from bs4 import BeautifulSoup
    soup = BeautifulSoup(html, 'lxml')
    print(soup.find_all(text='Foo'))

    结果返回的是查到的所有的text='Foo'的文本:

    ['Foo', 'Foo']

    find

    find(name,attrs,recursive,text,**kwargs)
    find返回的匹配结果的第一个元素

    其他一些类似的用法:
    find_parents()返回所有祖先节点,find_parent()返回直接父节点。
    find_next_siblings()返回后面所有兄弟节点,find_next_sibling()返回后面第一个兄弟节点。
    find_previous_siblings()返回前面所有兄弟节点,find_previous_sibling()返回前面第一个兄弟节点。
    find_all_next()返回节点后所有符合条件的节点, find_next()返回第一个符合条件的节点
    find_all_previous()返回节点后所有符合条件的节点, find_previous()返回第一个符合条件的节点

    css选择器

    通过select()直接传入CSS选择器就可以完成选择
    熟悉前端的人对CSS可能更加了解,其实用法也是一样的
    .表示class #表示id
    标签1,标签2 找到所有的标签1和标签2
    标签1 标签2 找到标签1内部的所有的标签2
    [attr] 可以通过这种方法找到具有某个属性的所有标签
    [atrr=value] 例子[target=_blank]表示查找所有target=_blank的标签

    获取内容

    通过get_text()就可以获取文本内容

    html='''
    <div class="panel">
        <div class="panel-heading">
            <h4>Hello</h4>
        </div>
        <div class="panel-body">
            <ul class="list" id="list-1">
                <li class="element">Foo</li>
                <li class="element">Bar</li>
                <li class="element">Jay</li>
            </ul>
            <ul class="list list-small" id="list-2">
                <li class="element">Foo</li>
                <li class="element">Bar</li>
            </ul>
        </div>
    </div>
    '''
    from bs4 import BeautifulSoup
    soup = BeautifulSoup(html, 'lxml')
    for li in soup.select('li'):
        print(li.get_text())

    获取属性

    获取属性的时候可以通过[属性名]或者attrs[属性名]

    html='''
    <div class="panel">
        <div class="panel-heading">
            <h4>Hello</h4>
        </div>
        <div class="panel-body">
            <ul class="list" id="list-1">
                <li class="element">Foo</li>
                <li class="element">Bar</li>
                <li class="element">Jay</li>
            </ul>
            <ul class="list list-small" id="list-2">
                <li class="element">Foo</li>
                <li class="element">Bar</li>
            </ul>
        </div>
    </div>
    '''
    from bs4 import BeautifulSoup
    soup = BeautifulSoup(html, 'lxml')
    for ul in soup.select('ul'):
        print(ul['id'])
        print(ul.attrs['id'])

    总结

    推荐使用lxml解析库,必要时使用html.parser
    标签选择筛选功能弱但是速度快
    建议使用find()、find_all() 查询匹配单个结果或者多个结果
    如果对CSS选择器熟悉建议使用select()
    记住常用的获取属性和文本值的方法

    参考原文:https://www.cnblogs.com/zhaof/p/6930955.html

    终日不为以思,无益,不如学也
  • 相关阅读:
    【转】有关Managed code和Native code的区别
    【转】wince6.0 vs2005 编译选项详解
    【转】Wince Device Emulator使用介绍Device Emulator 2.0
    Dapper基础增删查改、事务和存储过程
    SharpCompress的压缩文件解压和文件夹压缩
    MVC WebAPI 的基本使用
    prepare for travel 旅行准备
    gossip
    JS笔记(3) 词汇结构(待续。。。)
    Good Points Bad Points
  • 原文地址:https://www.cnblogs.com/lymlike/p/11597780.html
Copyright © 2020-2023  润新知