• python爬虫的一些心得


    爬虫用于从网上得到目标数据,根据需要对其予以利用,加以分析,得到想要的实验成果。现在讲一讲我这两天学到的东西。

    第一,爬虫的算法结构,包括以下几个方面:

    (1)读取网络数据

    (2)将获取的数据解析为目标格式,进而筛选出想要的数据

    (3)将有用数据存于本地数据库中

    第二,具体实施方案

    (1)读取网络数据,需要用到urllib和urllib2两个库,和需要爬取数据的资源定位符URL。

    通过url,将网页所有数据
    1
    request = urllib2.request(url) 2 response = urllib2.response(request) 3 html = response.read()
    关于url的动态变化
    1
    url="http://wsbs.bjepb.gov.cn/air2008/Air1.aspx?time=" 2 i=0 3 for tim in range(1364774400,1365206400,86400): 4 i=i+1 5 if(i%180==0): 6 time.sleep(15) 7 ltime=time.localtime(tim) 8 timeStr=time.strftime("%Y-%m-%d", ltime) 9 url="http://wsbs.bjepb.gov.cn/air2008/Air1.aspx?time=" 10 url=url+timeStr 11 print url

    (2)利用BeautifulSoup将获取的数据解析为目标格式,进而筛选出想要的数据

    1 soup = BeautifulSoup(html,"html.parser")
    2 trs = soup.find("table",id="DaliyReportControl1_DataGridDataDic")
    3 length = len(trs.contents)

    (3)利用Access,分三步:建立数据库连接 --> 打开一张表 --> 存储数据

     1 import win32com.client
     2 ##建立数据库连接
     3 conn = win32com.client.Dispatch(r'ADODB.Connection')   
     4 DSN = 'PROVIDER=Microsoft.Jet.OLEDB.4.0;DATA SOURCE=D:/test.mdb;'   
     5 conn.Open(DSN)
     6 ##打开一个记录集
     7 rs = win32com.client.Dispatch(r'ADODB.Recordset')   
     8 rs_name = 'aircondition'#表名   
     9 rs.Open('[' + rs_name + ']', conn, 1, 3)
    10 print rs.RecordCount
    *************
    conn.Close()
     1 for x in range(2,length-1):
     2       if(len(trs.contents[x].contents)==8):
     3          rs.AddNew()   
     4          rs.Fields('Station').Value=trs.contents[x].contents[2].string
     5          rs.Fields('AQI').Value=trs.contents[x].contents[3].string
     6          rs.Fields('Pollutants').Value=trs.contents[x].contents[4].string
     7          rs.Fields('Grade').Value=trs.contents[x].contents[5].string
     8          rs.Fields('Air_quality').Value=trs.contents[x].contents[6].string
     9          rs.Fields('updatedate').Value=timeStr
    10          rs.Update()
    11 ##         print str(x) + "***********8"
    12 ##         print trs.contents[x].contents[0].string + "," + trs.contents[x].contents[1].string + "," + trs.contents[x].contents[2].string + "," + trs.contents[x].contents[3].string + "," + trs.contents[x].contents[4].string + "," + trs.contents[x].contents[5].string + "," + trs.contents[x].contents[6].string + "," + trs.contents[x].contents[7].string 
    13       elif(len(trs.contents[x].contents)==7):
    14          rs.AddNew()   
    15          rs.Fields('Station').Value=trs.contents[x].contents[1].string
    16          rs.Fields('AQI').Value=trs.contents[x].contents[2].string
    17          rs.Fields('Pollutants').Value=trs.contents[x].contents[3].string
    18          rs.Fields('Grade').Value=trs.contents[x].contents[4].string
    19          rs.Fields('Air_quality').Value=trs.contents[x].contents[5].string
    20          rs.Fields('updatedate').Value=timeStr
    21          rs.Update()
    22 ##         print str(x) + "*******" + "7"
    23 ##         print trs.contents[x].contents[0].string + "," + trs.contents[x].contents[1].string +"," + trs.contents[x].contents[2].string + "," + trs.contents[x].contents[3].string + "," + trs.contents[x].contents[4].string + "," + trs.contents[x].contents[5].string + "," + trs.contents[x].contents[6].string 
    24    print "**************"+str(i)+"***********" + str(timeStr)+"**************"
      

    时间关系,并没有很仔细的归纳。以后有机会再整理吧。

  • 相关阅读:
    CV类数据集高速下载
    pytorch和tensorflow的爱恨情仇之参数初始化
    pytorch和tensorflow的爱恨情仇之定义可训练的参数
    同时打乱数据集和标签的几种方式
    pytorch和tensorflow的爱恨情仇之张量
    解决pip安装pytorch缓慢问题(直接使用命令)
    pytorch和tensorflow的爱恨情仇之基本数据类型
    完美解决xxx网盘上传和下载慢问题
    大学生运动情况调研计划
    dockerFile解析
  • 原文地址:https://www.cnblogs.com/xujingbo/p/4908026.html
Copyright © 2020-2023  润新知