robots.txt 文件泄漏
漏洞简述
Robots 协议也称作爬虫协议、机器人协议,它的全名叫作网络爬虫排除标准( Robots Exclusion Protocol),用来告诉爬虫和搜索引擎哪些页面可以抓取,哪些不可以抓取。Robots协议是网站国际互联网界通行的道德规范,其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯,如果robots.txt文件编辑的太过详细,反而会泄露网站的敏感目录或者文件,比如网站后台路径,从而得知其使用的系统类型,从而有针对性地进行利用。
漏洞实例
1、检测形式多样,工具爬虫扫描得到敏感文件的路径,从而找到robots文件;
2、手工挖掘,直接在域名后输入/robots.txt进行查看。
3、利用搜索引擎进行搜索:inurl: /robots.txt

漏洞修复
Last updated
Was this helpful?