robotparser 模块,用于解析网站的 robots.txt 文件,robots.txt 文件是用于指定搜索引擎爬虫的访问权限的,此模块在 python3 中重命名为 urllib.robotparser。------------------好像自己写爬虫并不会去考虑这个文件
1、模块对象
1.1 RobotFileParser 对象
1.1.1 初始化构建类:RobotFileParser(url=''),读取解析网站的 robots.txt 文件
参数设置:
url:设置目标网站
1.1.2 实例方法
set_url(url):设置 url 指向网站的 robots.txt 文件
read():读取网站的 robots.txt 文件,并将其传入解析器
parse(lines):解析 lines 里的信息
can_fetch(useragent, url):判断指定 useragent 能否访问指定 url
mtime():返回 robots.txt 文件最后一次获取时间
modified():将 robots.txt 文件最后获取时间改为当前时间