• CSV文件模块的使用


    ---恢复内容开始---

    1、CSV模块使用流程

       1、导入模块

         impport CSV

       2、打开文件(xxx.csv)

        with open('xxx.csv','a',encoding='utf-8')  as  f:

          1、a和 a+   ‘追加’功能

            a  追加写

            a+ 追加写读(先写后读)

          2、r 和 r+   

           r 只读

           r+读写,先读后写

         

           3、w,w+

            w 只写

            w+写读 先写后读

      3、初始化写入对象

        writer = csv.wirter()

      4、写入数据    

        writer.writerow(['孙悟空', '兰陵王'])

        

    案例:

      猫眼电影top10榜单的爬取

      1、网址:url

      2、目标:爬取自己想要的文件

      3、保存本地:csv文件

      4、步骤

        1、找url规律

         第一页:https://maoyan.com/board/4?offset=0

         第4页:https://maoyan.com/board/4?offset=30

         第n页:offset=(n-1)*10

        2、写正则表达式

          '<div class="movie-item-info".*?title="(.*?)".*?class="star">(.* ?)</p>.*?class="releasetime">(.*?)</p>',re.S

    练习:爬取猫王top10信息

    from urllib import request
    import re
    import time
    import csv
    
    
    class MaoyanSpider(object):
         def __init__(self):
            self.headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1"}
            self.page = 1
            # 用来计数
    
         def get_page(self, url):
            req = request.Request(url, headers=self.headers)
            res = request.urlopen(req)
            html = res.read().decode('utf-8')
            # 直接调用解析函数
            self.parse_page(html)
    
         def parse_page(self,html):
             p=re.compile('<div class="movie-item-info">.*?title="(.*?)".*?class="star">(.*?)</p>.*?class="releasetime">(.*?)</p>',re.S)
             #p=re.compile('<div class="movie-item-info">.*?title="(.*?)".*?class="star">(.* ?)</p>.*?class="releasetime">(.*?)</p>',re.S)
             r_list = p.findall(html)
             # 直接调用保存函数
             # r_list:[('霸王别姬','张国荣','1993'),(),()]
             self.write_csv(r_list)
    
        # 保存数据函数
         def   write_csv(self,r_list):
             with open('猫眼电影top10.csv','a') as f:
                writer = csv.writer(f)
                # 依次写入每个电影信息
                for r_t in r_list:
                    film = [
                        r_t[0].strip(),
                        r_t[1].strip(),
                        r_t[2].strip()
                        ]
                    writer.writerow(film)
    
    
        #主函数
         def work_om(self):
             for pn in range(0,41,10):
                url = 'https://maoyan.com/board/4?offset=%s'%str(pn)
    
                self.get_page(url)
                print('第%d页爬取成功'%self.page)
                self.page += 1
                time.sleep(4)
    
    if __name__ =='__main__':
        begin = time.time()
        spider = MaoyanSpider()
        spider.work_om()
        end = time.time()
        print("执行时间%.2f"%(end - begin))
    

      

    运行截图:

    ---恢复内容结束---

  • 相关阅读:
    使用 mysql_random_data_load 生成随机数据
    TeamViewer 运行 AlterID 时候报错Cloud not create a fake UUID
    1.6 在WHERE子句中引用取别名的列
    本地登录多实例mysql ,默认登录数据库问题
    统计前10位的占用空间较大的目录
    Oracle查看用户权限
    [LeetCode]Binary Tree Preorder Traversal
    [LeetCode]Insertion Sort List
    [LeetCode]Implement strStr()
    [LeetCode]Remove Element
  • 原文地址:https://www.cnblogs.com/followlqc/p/11083285.html
Copyright © 2020-2023  润新知