• BeautifulSoup总结


    1. 参考

    Beautiful Soup 4.2.0 文档

    Beautiful Soup Documentation (4.4.0 英文部分内容有别于4.2.0中文)

    CSS 选择器参考手册

    阮一峰 CSS选择器笔记

    2. 安装

    pip install beautifulsoup4
    pip install lxml
    pip install html5lib

    3. 使用

    3.1将字符串或文件句柄传入BeautifulSoup 的构造方法

    html_doc = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title"><b>The Dormouse's story</b></p>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    <p class="story">...</p>
    """

    from bs4 import BeautifulSoup
    soup = BeautifulSoup(html_doc)


    with open("index.html") as fp:
        soup = BeautifulSoup(fp, 'lxml')

    支持文档类型:html, xml和html5
    默认优先顺序:lxml, html5lib和html.parser,最好显式指定文档解析器
    区别:

     
    BeautifulSoup("<a></p>", "解析器")
         
    lxml
    <html><body><a></a></body></html>
    忽略没有开头的</p>
    补全部分<html>
     推荐,高效,唯一支持xml,需自行安装
    html5lib
    <html><head></head><body><a><p></p></a></body></html>
    没有忽略
    补全所有,包括<head>
     容错性最好,速度慢
    html.parser
    <a></a>
    忽略没有开头的</p>
    不作补全
     内置标准库

    3.2 格式化显示文档树

    print(soup.prettify())

    默认formatter="minimal",专注生成有效的HTML/XML

    formatter=None,方便观察实际显示效果

    In [70]: print(soup.prettify(formatter=None))
    <html>
     <body>
      <p>
       Il a dit <<Sacré bleu!>> #可能生成无效HTML
      </p>
     </body>
    </html>

    3.3 简单用法

    复制代码
     1 In [86]: soup.a    #定位tag
     2 Out[86]: <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>
     3 
     4 In [87]: soup.a.name
     5 Out[87]: 'a'
     6 
     7 In [88]: soup.a.string    #The string argument is new in Beautiful Soup 4.4.0. In earlier versions it was called text
     8 Out[88]: u'Elsie'
     9 
    10 In [89]: soup.a.attrs  #字典属性
    11 Out[89]: {'class': ['sister'], 'href': 'http://example.com/elsie', 'id': 'link1'}
    12 
    13 In [90]: soup.a.get('class')  #在Beautiful Soup中多值属性的返回类型是list,最常见的多值的属性是 class
    14 Out[90]: ['sister']
    15 
    16 In [91]: soup.a['class']
    17 Out[91]: ['sister']
    18 
    19 In [92]: soup.a.get('href')  #一般属性返回字符串,若无return None
    20 Out[92]: 'http://example.com/elsie'
    21 
    22 In [93]: soup.a['href']
    23 Out[93]: 'http://example.com/elsie'
    复制代码

    3.4 主要对象种类

    复制代码
    1 In [100]: type(soup)
    2 Out[100]: bs4.BeautifulSoup
    3 
    4 In [101]: type(soup.a)
    5 Out[101]: bs4.element.Tag
    6 
    7 In [103]: type(soup.a.string)  #可以通过unicode()方法转换成Unicode字符串
    8 Out[103]: bs4.element.NavigableString
    复制代码

    BeautifulSoup 对象表示的是一个文档的全部内容.大部分时候,可以把它当作 Tag 对象,它支持 遍历文档树 和 搜索文档树 中描述的大部分的方法。没有attribute,但有name特殊值为u'[document]'。

    In [120]: isinstance(soup.a.string,unicode)
    Out[120]: True

    In [401]: from bs4 import NavigableString
    In [402]:  isinstance(soup.a.string, NavigableString)
    Out[402]: True

    如果想在Beautiful Soup之外使用 NavigableString 对象,需要调用 unicode() 方法,将该对象转换成普通的Unicode字符串,否则就算Beautiful Soup已方法已经执行结束,该对象的输出也会带有对象的引用地址.这样会浪费内存.

    3.5 遍历文档树(定位tag,提取name,string,attrs{})

    3.5.1 直接定位单个tag

    soup.a    #匹配的第一个tag

    soup.head.title  #相当于 soup.find('head').find('title'), find直接返回第一个结果

    3.5.2 find_all()

    find_all(self, name=None, attrs={}, recursive=True, text=None, limit=None, **kwargs)

    name

    soup.find_all("a") #实际是第一个位置参数name="a",完全匹配,等同soup.select('a')
    soup.find_all(re.compile('^b'))  #name部分匹配开头b: b body

    attrs

    #传入非方法参数名,将被认定为tag的属性

    soup.find_all(id="link2")  #tag的id属性
    soup.find_all(href=re.compile("elsie"))  #tag的href属性

    string/text
    soup.find_all(string=re.compile("sisters"))  #只有一个NavigableSring子节点的tag的string属性 #The string argument is new in Beautiful Soup 4.4.0. In earlier versions it was called text

    混合使用name, attrs和string

    soup.find_all("a", id='link1', string="Elsie", ) #第一个name,再加任意个属性
    soup.find_all("a", "sister")  #name+attrs,只有class_才可以省略关键字!!!

    列表的任一个条件

    soup.find_all(["a", "b"])
    soup.find_all(id=['link1','link2'])  
    soup.find_all(class_=['sister','story'])
    soup.find_all(href=re.compile("elsie|lacie"))  #|或

    特殊属性和通用解决方法

    soup.find_all(class_="sister")  #使用到class关键字,改写为class_ #class_是多值属性,所以class_="strikeout"也能匹配到实际的class="body strikeout"
    soup.find_all(data-foo="value") #HTML5中的 data-* 属性也会报错!!!
    find_all(name=”email”)  #原文<input name=”email”/>’,只会返回空,因为没有name为email的tag
    soup.find_all(attrs={"data-foo": "value"})  #通用解决方法

    其他参数和用法

    soup.find_all("a", limit=2) #限制了返回数量
    soup.html.find_all("title", recursive=False)  #限制只查找直接子节点

    soup.find_all("a") #所有.find_all都可以省略,缩写soup("a")

    3.6 获取所有文本内容

    soup.get_text("|", strip=True) #可以添加分隔符,去除前后空白(含 )

    [text for text in soup.strings] #可以观察到u' ',或通过for循环print(repr(string))
    [text for text in soup.stripped_strings]

    3.7 节点层次关系

     

    soup.a.contents(children) #直接子节点列表(生成器)
    soup.a.descendants #递归循环子孙节点生成器
    soup.a.string #只有一个NavigableString 类型子节点,此类子节点没有contents属性!!!
    soup.a.strings(stripped_strings) #生成器(去除多余空白内容)
    .parent(s)  
    .next_sibling(s)和 .previous_sibling(s) #同父同层   经常出现空白(‘ ’)
    .next_element(s)和.previous_element(s) #按照文档树从外到内解析tag和string

    3.8 CSS selector

    soup.select("title")  #name节点列表


    soup.select("p:nth-of-type(3)")  #p的父元素的第三个p tag,从1开始

    soup.select("html head title")  #通过tag标签逐层查找,可以跳空
    soup.select("head > title")  #直接子标签
    soup.select("p > #link1")   # id=link1

    soup.select(".sister")  #class
    soup.select("#link1")  #id
    soup.select('[href]')  #包含属性
    soup.select('[href="http://example.com/elsie"]')  #属性value完全匹配
    soup.select('[href*=".com/el"]')  #部分匹配
    soup.select('[href$="tillie"]')  #结尾匹配

    soup.select("a.sister")  #以上都可以搭配name一起使用
    soup.select("#link1,#link2")  #列表任意一个

    i.select('span, div'):  #列表,先遍历span,再遍历div!!!

    复制代码
    # 代理IP http://www.goubanjia.com/free/gngn/index1.shtml
    # 106.39.160.135:8888 正确
    # 39.160.1358888106.    错误     
    # <td class="ip">
        # <div style="display:inline-block;">10</div>
        # <div style="display:inline-block;">6.</div>
        # <p style="display: none;">39</p>
        # <span>39</span>
        # ...
        # :
        # <span class="port HBBAE">8888</span></td>        
    
    # <p style="display: none;">39</p> 为干扰项
    
    for i in soup.select('tbody tr td.ip'):
        rst = ''
        # for k in i.select('span, div'):  #先遍历span,再遍历div!!!      
            # rst += k.text
        # print rst
        for j in  i.contents:
            if j.name in ['span', 'div']:  #网页源代码部分hide干扰数字
                rst += j.text
            if j == ':':
                rst += ':'
        ip, port =  rst.split(':')
    复制代码

     
    soup.select_one(".sister")  #匹配的第一个

    soup.select("#link1 ~ a")  #id=link1的所有兄弟,且满足后半部分的 a
    soup.select("#link1 + a")  #id=link1的第一个兄弟,依旧是list

     4. 其他

    https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/#id85

  • 相关阅读:
    docker nginx无法连通php
    docker查看ip
    使用docker-compose部署nginx
    docker启动服务---------------nginx+php
    docker下安装kafka和kafka-manager
    docker启动服务---------------kafka+zookeeper
    docker将镜像推送到阿里云
    Docker常用命令
    docker-compose编写示例
    docker启动服务
  • 原文地址:https://www.cnblogs.com/lincappu/p/12883722.html
Copyright © 2020-2023  润新知