BeautifulSoup
Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间.
在本节的笔记中,笔者将会分享两次示例,来帮助大家熟悉BeautifulSoup库的使用,好的,闲话不说,我们来看一下示例。
如何去定位元素
下面我们来爬取一个网页,然后提取里面一些简单的数据
import requests
from bs4 import BeautifulSoup as bs
url = "http://china.huanqiu.com/article/2016-07/9132061.html?from=bdwz"
response = bs(requests.get(url).content,'html.parser')
#获取页面内,h1标签的文章标题
print("这篇文章的标题是:",response.h1.string)
#使用find方法,寻找页面内name=source的content的内容
print ("这篇文章的类型是:",response.find(attrs= {'name':'source'})['content'])
#从find_all返回的列表中,查找content字段
for content in response.find_all('meta',{'name':'source'}):
print("这篇文章的类型是:",content['content'])
我们来解读一下上面这段代码:
1、导入requests库
2、导入BeautifulSoup库的bs4方法命名为bs
3、将目标地址赋予url
4、使用bs对爬取到的web页面的二进制数据进行html的解析
(这里使用的是requests.get().content返回的是爬取到的页面的二进制数据,之前我也是用的requests.get().text,但是会有乱码,具体原因不是很清楚。不过有前辈讲是因为requests.get().text 是将爬取到的内容进行默认的转译,而win的系统总是会出莫名其妙的问题)
5、打印,爬取到的页面中的h1标签的页面标题(页面标签麻烦自行百度html页面标签)
6、使用find方法,搜索爬取到的内容里,name=source的内容,打印content对应的数据
7、从find_all返回的列表中,寻找name=source的content字段的数据并打印。
(之前我是有尝试过使用find_all这个方法的,但是没有成功,因为我忽略了find_all方法返回的实际上是一个列表)