简单研究一下一直播视频爬取。
原理非常的简单,代码也比较容易。
我所研究的是视频,也就是直播的回放,并不是实时的直播,但我简单看了一下,实时直播虽然要复杂一些但工作原理也差不多,由于没有需求我就没有写代码了。
1.视频是ts格式的视频文件流,比如0.ts 1.ts 2.ts 一直到视频结束的xxx.ts
2.所有视频文件的列表在index.m3u8的GET请求中
3.请求的URL在html中有给出,视频流是由CDN节点分发的。
4.弹幕的话在get_playback_event的GET请求中,其请求的的方法是每隔3个ts请求一次(我没有仔细看他是每隔3个ts请求一次还是以计时的方式请求),这样一来也导致了这个网站的一个bug,视频快进后,弹幕却不变仍然按之前的速度走。弹幕请求返回的是json格式的数据
由于我并不需要弹幕,所以没有写弹幕的代码,其他代码如下。我们只需要输入视频的播放地址,运行程序即可以自动下载。
最后我们会得到众多的ts文件,其可以直接在播放器中播放,将这些文件合并为一个,我们只需要在cmd中运行以下程序即可,当然我们可以直接用python来运行cmd命令。
程序代码:
#-*- coding:utf-8 -*- import requests,re,urllib2,chardet,os from multiprocessing.dummy import Pool def urllink(link): #网页HTML获取以及编码转换 while 1: try: print '正在打开',link html_1 = urllib2.urlopen(link, timeout=15).read() print '打开成功',link break except: print '失败重试',link encoding_dict = chardet.detect(html_1) web_encoding = encoding_dict['encoding'] if web_encoding == 'utf-8' or web_encoding == 'UTF-8': html = html_1 else : html = html_1.decode('gbk','ignore').encode('utf-8') return html def download(j): url='https://%s%s'%(link,str(j))+'.ts' for l in range(20): try: retu = requests.get(url, stream=True) print str(j).zfill(5)+' 下载完成' break except: print u'%s文件,正在重试第%d次' % (str(j).zfill(5),l + 1) picpath = unicode(r'C:Users LOMODesktopmxy\%s' % str(j).zfill(5) + '.ts', 'utf-8') file = open(picpath, 'wb') for chunk in retu.iter_content(chunk_size=1024 * 8): if chunk: file.write(chunk) file.flush() file.close() if __name__=="__main__": url=raw_input('请输入视频地址:') html=urllink(url) link=re.search('play_url:"http://(.*?)index.m3u8',html,re.S).group(1) m3u8='https://'+link+'index.m3u8' list=requests.get(m3u8).text count=int(re.findall('(.*?).ts',list.split(' ')[-2],re.S)[0]) print '共计:',count list=[i for i in range(count+1)] pool = Pool(4) pool.map(download, list) pool.close() pool.join() print '全部下载完成,正在合并' os.system(r'copy/b C:Users LOMODesktopmxy*.ts C:Users LOMODesktopmxy ew.ts') print '合并完成'