• 爬虫大作业


    # -*- coding: utf-8 -*-    #解决编码问题
    import urllib
    import urllib2
    import re
    import os
    import time
    
    page = 1
    url = 'http://www.qiushibaike.com/text/page/4/?s=4970196'     #爬取的目标网站
    user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
    headers = { 'User-Agent' : user_agent }
    try:
        request = urllib2.Request(url,headers = headers)
        response = urllib2.urlopen(request)
        # print response.read()
        content = response.read().decode('utf-8')  #解决编码问题
        pattern = re.compile(r'<div.*?class="content".*?<span>(.*?)</span>.*?</div>',re.S)  #第一个参数是匹配要爬取的内容,这里使用正则去匹配
        items = re.findall(pattern,content)   
        f=open(r'.article.txt','ab')       #txt文件路径
        nowTimes = time.strftime('%Y-%m-%d %H:%M:%S',time.localtime(time.time()))    #获取当前时间
        f.write('时间:{}
    
    '.format(nowTimes),);   #txt文件中写入时间
        for i in items:
            i.encode('utf-8')
            agent_info = u''.join(i).encode('utf-8').strip()
            f.writelines('段子:%s%s
    '%(str(agent_info),os.linesep))   #分行存入
            # f.write('%s'%str(agent_info))
        f.close()   
    
        # print items
    
    except urllib2.URLError, e:
        if hasattr(e,"code"):
            print e.code
        if hasattr(e,"reason"):
            print e.reason


    
    

    总结:在完成本次大作业时,遇到了很多的困难,在生成词云的时候本来想用python的wordCloud包来进行生成不过弄了半天还是失败了.最后就用了网站上的词云生成器
  • 相关阅读:
    vuejs 实战 双向数据绑定
    ubuntu16安装cuda,cudnn,gpu版opencv
    ubuntu编译安装nginx并且配置流服务器
    安装使用mongodb
    c++ 编译安装ffmpeg
    apache2 日志文件太大的解决方案
    sql注入
    制作自己的电子词典
    python传递可变参数
    工厂模式
  • 原文地址:https://www.cnblogs.com/kookkook/p/4384104.html
Copyright © 2020-2023  润新知