来自攻防世界

robots

[原理]

robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。

[目标]

掌握robots协议的知识

[环境]

windows

[工具]

扫目录脚本dirsearch(项目地址:https://github.com/maurosoria/dirsearch)

[步骤]

1.根据提示robots,可以直接想到robots.txt,

2.或通过扫目录也可以扫到: python dirsearch.py -u http://10.10.10.175:32793/ -e *

攻防世界 robots题-LMLPHP

3.访问http://111.198.29.45:33982/robots.txt发现f1ag_1s_h3re.php

4.访问http://111.198.29.45:33982/f1ag_1s_h3re.php得到flag,如图所示

05-11 20:22