来自攻防世界
robots
[原理]
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
[目标]
掌握robots协议的知识
[环境]
windows
[工具]
扫目录脚本dirsearch(项目地址:https://github.com/maurosoria/dirsearch
)
[步骤]
1.根据提示robots,可以直接想到robots.txt,
2.或通过扫目录也可以扫到: python dirsearch.py -u http://10.10.10.175:32793/ -e *
3.访问http://111.198.29.45:33982/robots.txt
发现f1ag_1s_h3re.php
4.访问http://111.198.29.45:33982/f1ag_1s_h3re.php
得到flag,如图所示