怎麼採集URL?採集了以後就批量掃注入嗎?用什麼工具好?


我在一年前就感覺這樣出不了幾個洞了,這種顯而易見的sql注入越來越少了。


google baidu 等搜索引擎,爬蟲,都是比較好的方式,

針對web 頁面內容進行分析,也能採集URL,

採集之後需要分析之後,才能批量掃注入,不過這會被噴腳本小子,題主還是自己的分析的好,自己來挖漏洞,工具只是外在,web方面的工具不多,精通掌握就好。


1. 主動掃描

使用爬蟲,目錄爆破等工具

2. 被動收集

在瀏覽網頁的時候被動的抓取和此域名相關的url

3. 谷歌百度


Python搜索引擎爬蟲


感覺子域名被前輩們測得差不多了。

可以去測公眾號和小程序。


如果單純收集url只能想到這些:

1.子域名爆破(subDomain,teemo等工具)

2.ssl證書,備案相關信息(whois,站長之家?)

3.使用腳本生成基於icon的hash(之後上shodan搜索,百度shodan語法)

4.動手點點點,留心友鏈和跳轉

5.搜索引擎上找相關產品和業務,擴大範圍

6.c段掃描(masscan nmap掃常用埠,有可能找歪,需要自己推測地址空間大小)

7.maltego(一個強大的信息收集工具,api都填上才靠譜)

8.搜索引擎語法(site:http://xxx.com)

9.github(直接搜域名看code板塊,可能都有人給你整理好了^O^)


推薦閱讀:
相关文章