• Python 爬虫实例(爬百度百科词条)


      爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索。常见的爬虫框架有Scrapy等。

      自定义爬虫程序一般包含:URL管理器、网页下载器、网页解析器、输出处理器。

      以下我写了一个爬取百度百科词条的实例。

    爬虫主程序入口

    from crawler_test.html_downloader import UrlDownLoader
    from crawler_test.html_outer import HtmlOuter
    from crawler_test.html_parser import HtmlParser
    from crawler_test.url_manager import UrlManager
    
    # 爬虫主程序入口
    class MainCrawler():
        def __init__(self):
            # 初始值,实例化四大处理器:url管理器,下载器,解析器,输出器
            self.urls = UrlManager()
            self.downloader = UrlDownLoader()
            self.parser = HtmlParser()
            self.outer = HtmlOuter()
    
        # 开始爬虫方法
        def start_craw(self, main_url):
            print('爬虫开始...')
            count = 1
            self.urls.add_new_url(main_url)
            while self.urls.has_new_url():
                try:
                    new_url = self.urls.get_new_url()
                    print('爬虫%d,%s' % (count, new_url))
                    html_cont = self.downloader.down_load(new_url)
                    new_urls, new_data = self.parser.parse(new_url, html_cont)
    
                    # 将解析出的url放入url管理器,解析出的数据放入输出器中
                    self.urls.add_new_urls(new_urls)
                    self.outer.conllect_data(new_data)
    
                    if count >= 10:  # 控制爬取的数量
                        break
                    count += 1
                except:
                    print('爬虫失败一条')
    
            self.outer.output()
            print('爬虫结束。')
    
    
    if __name__ == '__main__':
        main_url = 'https://baike.baidu.com/item/Python/407313'
        mc = MainCrawler()
        mc.start_craw(main_url)

    URL管理器

    # URL管理器
    class UrlManager():
        def __init__(self):
            self.new_urls = set()  # 待爬取
            self.old_urls = set()  # 已爬取
    
        # 添加一个新的url
        def add_new_url(self, url):
            if url is None:
                return
            elif url not in self.new_urls and url not in self.old_urls:
                self.new_urls.add(url)
    
        # 批量添加url
        def add_new_urls(self, urls):
            if urls is None or len(urls) == 0:
                return
            else:
                for url in urls:
                    self.add_new_url(url)
    
        # 判断是否有url
        def has_new_url(self):
            return len(self.new_urls) != 0
    
        # 从待爬取的集合中获取一个url
        def get_new_url(self):
            new_url = self.new_urls.pop()
            self.old_urls.add(new_url)
            return new_url

    网页下载器

    
    
    from urllib import request
    
    # 网页下载器
    class UrlDownLoader():
        def down_load(self, url):
            if url is None:
                return None
            else:            
                with request.urlopen(url) as rp:                 # 发请求,打开网页
                    if rp.status != 200:
                        return None
                    else:
                        return rp.read()                        # 读取网页内容

    网页解析器

    import re
    from urllib import request
    from bs4 import BeautifulSoup
    
    # 网页解析器,使用BeautifulSoup
    class HtmlParser():
    
        # 每个词条中,可以有多个超链接
        # main_url指url公共部分,如“https://baike.baidu.com/”
        def _get_new_url(self, main_url, soup):
            # baike.baidu.com/
            # <a target="_blank" href="/item/%E8%AE%A1%E7%AE%97%E6%9C%BA%E7%A8%8B%E5%BA%8F%E8%AE%BE%E8%AE%A1%E8%AF%AD%E8%A8%80">计算机程序设计语言</a>
            new_urls = set()
    
            # 解析出main_url之后的url部分
            child_urls = soup.find_all('a', href=re.compile(r'/item/(\%w{2})+'))
            for child_url in child_urls:
                new_url = child_url['href']
    
                # 再拼接成完整的url
                full_url = request.urljoin(main_url, new_url)
                new_urls.add(full_url)
            return new_urls
    
        # 每个词条中,只有一个描述内容,解析出数据(词条,内容)
        def _get_new_data(self, main_url, soup):
            new_datas = {}
            new_datas['url'] = main_url
            # <dd class="lemmaWgt-lemmaTitle-title"><h1>计算机程序设计语言</h1>...
            new_datas['title'] = soup.find('dd', class_='lemmaWgt-lemmaTitle-title').find('h1').get_text()
            # class="lemma-summary" label-module="lemmaSummary"...
            new_datas['content'] = soup.find('div', attrs={'label-module': 'lemmaSummary'},
                                             class_='lemma-summary').get_text()
            return new_datas
    
        # 解析出url和数据(词条,内容)
        def parse(self, main_url, html_cont):
            if main_url is None or html_cont is None:
                return
            soup = BeautifulSoup(html_cont, 'lxml', from_encoding='utf-8')
            new_url = self._get_new_url(main_url, soup)
            new_data = self._get_new_data(main_url, soup)
            return new_url, new_data

    输出处理器

    # 输出器
    class HtmlOuter():
        def __init__(self):
            self.datas = []
    
        # 先收集数据
        def conllect_data(self, data):
            if data is None:
                return
            self.datas.append(data)
            return self.datas
    
        # 输出为HTML
        def output(self, file='output_html.html'):
            with open(file, 'w', encoding='utf-8') as fh:
                fh.write('<html>')
                fh.write('<head>')
                fh.write('<meta charset="utf-8"></meta>')
                fh.write('<title>爬虫数据结果</title>')
                fh.write('</head>')
                fh.write('<body>')
    
                fh.write(
                    '<table style="border-collapse:collapse; border:1px solid gray; 80%; word-wrap:break-word; margin:20px auto;">')
                fh.write('<tr>')
                fh.write('<th style="border:1px solid black; 35%;">URL</th>')
                fh.write('<th style="border:1px solid black; 15%;">词条</th>')
                fh.write('<th style="border:1px solid black; 50%;">内容</th>')
                fh.write('</tr>')
                for data in self.datas:
                    fh.write('<tr>')
                    fh.write('<td style="border:1px solid black">{0}</td>'.format(data['url']))
                    fh.write('<td style="border:1px solid black">{0}</td>'.format(data['title']))
                    fh.write('<td style="border:1px solid black">{0}</td>'.format(data['content']))
                    fh.write('</tr>')
                fh.write('</table>')
    
                fh.write('</body>')
                fh.write('</html>')

    效果(部分):  

      至此,转载请注明出处。

  • 相关阅读:
    jquery插件layer
    获取订单的product_id 和订单的数量
    Python psutil模块
    Linuc bazaar命令
    分布式版本控制系统
    launchpad, jira, github
    C/C++ 经典面试题汇总
    Windows Cmder
    Reddit指南
    Linux xclip命令
  • 原文地址:https://www.cnblogs.com/wcwnina/p/8619084.html
Copyright © 2020-2023  润新知