看看User-Agent:
我们以baidu为例子:https://www.baidu.com/
我们F12打开谷歌自带的开发者工具进行查看
我们可以看到request Headers 这就是我们的请求头
里面的有如下的信息(这里列举和补充一些重要的信息):
Accept
Accept-encoding
Connection
Cookie
Host
user-agent
补充:
Referer
这些参数代表的意思可以查阅资料
也就是说我们的爬虫带着这些重要的头部信息向服务器提交url 服务器会认为我们是用户在操作
这就是一个模拟用户的行为过程
代码实例:
# 一个header header = { 'Accept':'', 'Accept-encoding':'', 'Connection':'', 'Cookie':'', 'Host':'', 'user-agent':'', }
这里头部里的值都是空,正常情况里面都是有值的
结束