• Python开发简单爬虫


    简单爬虫架构

    动态运行流程

    URL管理器的作用

    URL管理器的3种实现方式

    网页下载器的作用

    Python网页下载器的种类

    urllib2下载网页的3种方法

    网页解析器的作用

    Python的几种网页解析器

    结构化解析依赖DOM树

    Beautiful Soup语法

    代码举例:

    1.创建Beautiful Soup对象

    1 from bs4 import BeautifulSoup
    2 
    3 soup = BeautifulSoup(
    4     html_doc,               #HTML文档字符串
    5     'heml.parser',          #HTML解析器
    6     from_encoding='utf-8'   #HTML文档的编码
    7 )

    2.find_all find方法的使用

    3.访问节点信息

    4.Beautiful Soup处理html文档举例

     1 from bs4 import BeautifulSoup
     2 import re
     3 
     4 html_doc = """
     5 <html><head><title>The Dormouse's story</title></head>
     6 <body>
     7 <p class="title"><b>The Dormouse's story</b></p>
     8 
     9 <p class="story">Once upon a time there were three little sisters; and their names were
    10 <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
    11 <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    12 <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    13 and they lived at the bottom of a well.</p>
    14 
    15 <p class="story">...</p>
    16 """
    17 
    18 soup = BeautifulSoup(
    19     html_doc,               #HTML文档字符串
    20     'html.parser',          #HTML解析器
    21     from_encoding='utf-8'   #HTML文档的编码
    22 )
    23 
    24 print('获取所有的连接')
    25 links = soup.find_all('a')
    26 for link in links:
    27     print(link.name,link['href'],link.get_text())
    28 
    29 print('获取tillie的连接')
    30 link_node = soup.find('a',href='http://example.com/tillie')
    31 print(link_node.name,link_node['href'],link_node.get_text())
    32 
    33 print('正则表达式匹配')
    34 link_node2 = soup.find('a',href=re.compile(r'lsi'))
    35 print(link_node2.name,link_node2['href'],link_node2.get_text())
    36 
    37 print('获取P段落文字')
    38 p_node = soup.find('p',class_='title')
    39 print(p_node.name,p_node.get_text())

    控制台输出:

     1 获取所有的连接
     2 a http://example.com/elsie Elsie
     3 a http://example.com/lacie Lacie
     4 a http://example.com/tillie Tillie
     5 获取tillie的连接
     6 a http://example.com/tillie Tillie
     7 正则表达式匹配
     8 a http://example.com/elsie Elsie
     9 获取P段落文字
    10 p The Dormouse's story

    更高级的爬虫还会涉及到“需登陆、验证码、Ajax、服务器防爬虫、多线程、分布式”等情况

  • 相关阅读:
    三、git管理修改
    二、git版本回退
    一、git创建版本库及提交
    24格栅格系统
    vue项目报错webpackJsonp is not defined
    vue登录注册及token验证
    react native踩坑之旅
    js判断数组是否有重复值
    react native环境搭建(含错误处理)
    python Token加密解密方式
  • 原文地址:https://www.cnblogs.com/ailiailan/p/9129521.html
Copyright © 2020-2023  润新知