怎么采集URL?采集了以后就批量扫注入吗?用什么工具好?


我在一年前就感觉这样出不了几个洞了,这种显而易见的sql注入越来越少了。


google baidu 等搜索引擎,爬虫,都是比较好的方式,

针对web 页面内容进行分析,也能采集URL,

采集之后需要分析之后,才能批量扫注入,不过这会被喷脚本小子,题主还是自己的分析的好,自己来挖漏洞,工具只是外在,web方面的工具不多,精通掌握就好。


1. 主动扫描

使用爬虫,目录爆破等工具

2. 被动收集

在浏览网页的时候被动的抓取和此域名相关的url

3. 谷歌百度


Python搜索引擎爬虫


感觉子域名被前辈们测得差不多了。

可以去测公众号和小程序。


如果单纯收集url只能想到这些:

1.子域名爆破(subDomain,teemo等工具)

2.ssl证书,备案相关信息(whois,站长之家?)

3.使用脚本生成基于icon的hash(之后上shodan搜索,百度shodan语法)

4.动手点点点,留心友链和跳转

5.搜索引擎上找相关产品和业务,扩大范围

6.c段扫描(masscan nmap扫常用埠,有可能找歪,需要自己推测地址空间大小)

7.maltego(一个强大的信息收集工具,api都填上才靠谱)

8.搜索引擎语法(site:http://xxx.com)

9.github(直接搜域名看code板块,可能都有人给你整理好了^O^)


推荐阅读:
相关文章