• python爬虫实战1


    转载于:http://blog.csdn.net/dongnanyanhai/article/details/5552431

    首先推荐一个网站:中医世家,这个网站上有很多关于中医的资料,光是提供的中医书籍就有317Mb,全都是CHM格式,资料非常全面。
      正因为这个网站有这么多的好东西,但是我又懒得一本书一本书的下载,所以,我就……用Python直接解析了几个书籍下载页面的地址,把所有的书籍的下载地址都弄到手,顺便还下载了,呵呵呵,省得一个页面一个页面的打开!
     

    #!/usr/bin/env python
    #coding=utf-8
    #这段代码是用来下载“中医世家”网站上的书籍的,很不好意思了!
    import urllib2,urllib,os
    from BeautifulSoup import BeautifulSoup
    #定义书籍链接列表
    mainbooklink = ["http://www.zysj.com.cn/lilunshuji/1index.html",
            "http://www.zysj.com.cn/lilunshuji/5index.html",
            "http://www.zysj.com.cn/lilunshuji/20index.html",
            "http://www.zysj.com.cn/lilunshuji/25index.html"]
    bookdir = [u"d://book//中医教材//",u"d://book//中医著作//",u"d://book//实用手册//",
                u"d://book//西医备考//"]
    chmname = [] #chm电子书中文名字
    chmbooklink = [] #对应chm的下载地址
    #该函数实现获取一个地址后马上下载该书籍
    def getbooklink(url):
        #检测url地址——暂时略了!
        
        #获取url地址的网页,并使用BeautifulSoup进行解析
        page = urllib2.urlopen(url)
        soup = BeautifulSoup(page)
        
        #处理url,取得其前部地址,用以确定下面得到的地址的完全地址
        #urllen = len(url)
        
        
        for i in soup('li'):
            #print i.a.string.encode('gb2312'),i.a['href']
            chmfilename = i.a.string
            bookfilelink = "http://www.zysj.com.cn"+i.a['href']
            
            page = urllib2.urlopen(bookfilelink)
            soup =BeautifulSoup(page)
            ti = u"下载电子书:"+chmfilename+".chm"
            for k in soup('a',title = ti):
                chmname.append(chmfilename+'.chm')
                downlink = "http://www.zysj.com.cn"+k['href']
                chmbooklink.append(downlink)
                print chmfilename.encode('gb2312')+'.chm',downlink
    def downbook(filename,url,dirn):
        #urllib.urlretrieve(url, filename)
        if not os.path.exists(bookdir(dirn)):
            os.makedirs(bookdir(dirn))
            
        print "开始下载:".decode('utf-8').encode('gb2312'),filename.encode('gb2312')
        filename = bookdir[dirn]+filename
        urllib.urlretrieve(url,filename)
        print "下载完成!".decode('utf-8').encode('gb2312')
    
    if __name__=="__main__":
        dirn = 0
        for i in mainbooklink:
            getbooklink(i)
            for j in range(0,len(chmname)):
                downbook(chmname[j],chmbooklink[j],dirn)
            chmname = []
            chmbooklink = []
            dirn = dirn+1
        
        
        
    """
    这一小段代码是用来学习查找字符串里面出现的某个字符的呃位置,我把所有的位置都取出来了,接下来想怎样就能怎样了!
    a ="http://www.zysj.com.cn/lilunshuji/1index.html"
    b = 0
    c = len(a)
    while 1:
        b = a.find('/',b,c)
        print b
        b = b + 1
        if b == 0:
            break
    """

    这段代码中缺了对空格的检测,所以好几部关于中医的字典是没有被解析出来的,只能手工下了,不多!

  • 相关阅读:
    程序猿和产品狗
    编写一个友元函数,求两个日期之间相差的天数
    集合的模拟实现(类模板)
    友元很简单2016final
    攻防世界-parallel-comparator-200
    web-GXYCTF2019 StrongestMind
    破解010Editor
    2020第三届江西省高校网络安全技能大赛线下解题赛部分wp
    pwn-EasyHeap(House of spirit)
    web-2020 ciscn littlegame(原型链污染)
  • 原文地址:https://www.cnblogs.com/youxin/p/3190425.html
Copyright © 2020-2023  润新知