想问一下各位大佬,挖漏洞,URL都是怎么采集的?
怎么采集URL?采集了以后就批量扫注入吗?用什么工具好?
我在一年前就感觉这样出不了几个洞了,这种显而易见的sql注入越来越少了。
google baidu 等搜索引擎,爬虫,都是比较好的方式,
针对web 页面内容进行分析,也能采集URL,
采集之后需要分析之后,才能批量扫注入,不过这会被喷脚本小子,题主还是自己的分析的好,自己来挖漏洞,工具只是外在,web方面的工具不多,精通掌握就好。
1. 主动扫描
使用爬虫,目录爆破等工具
2. 被动收集
在浏览网页的时候被动的抓取和此域名相关的url
3. 谷歌百度
Python搜索引擎爬虫
感觉子域名被前辈们测得差不多了。
可以去测公众号和小程序。
如果单纯收集url只能想到这些:
1.子域名爆破(subDomain,teemo等工具)
2.ssl证书,备案相关信息(whois,站长之家?)
3.使用脚本生成基于icon的hash(之后上shodan搜索,百度shodan语法)
4.动手点点点,留心友链和跳转
5.搜索引擎上找相关产品和业务,扩大范围
6.c段扫描(masscan nmap扫常用埠,有可能找歪,需要自己推测地址空间大小)
7.maltego(一个强大的信息收集工具,api都填上才靠谱)
8.搜索引擎语法(site:http://xxx.com)
9.github(直接搜域名看code板块,可能都有人给你整理好了^O^)
推荐阅读: