Another:影子php
(主要记录一下平时渗透的一些小流程和一些小经验)html
工欲善其事,必先利其器前端
一个好的工具可以省下不少时间,因此一个工具集合,能够快速的完成渗透测试python
自带工具git
nslookup 获取到的ip有多条时,就能够判断是否为CDN,多半为假IPgithub
历史解析记录中可能会存在网站真实IPweb
在线工具 http://toolbar.netcraft.com/ http://viewdns.info/
经过订阅网站订阅邮件功能,让网站给本身发送邮件,经过查看邮件源代码来获取网站真实IPsql
有些网站都会有网站信息测试页面没有删除json
例如:PHPinfo.phppython3.x
不要以为不会存在phpinfo这种文件,某某po主站上彷佛就存在phpinfo文件,在某天大佬群中看到的,还吃了一次瓜,真香!
来获取网站真实IP地址
Github上面的信息泄露等
在线工具: https://www.shodan.io/ https://fofa.so/
多地Ping,企业使用CDN的时候可能只对国内的进行CDN,能够尝试全球Ping
在线工具推荐:站长工具
使用过的人应该都知道这个工具的强大,爆破速度快,准确率高,内置字典丰富
Github: https://github.com/lijiejie/subDomainsBrute/
扫描速度快,多线程高并发,
笔者在使用的时候有个小bug,域名在使用泛解析的时候,爆破就会出现问题,多是本地环境的问题,最后须要将爆破的结构手动进行title获取而后手动筛选
当时写的一个title的小脚本
有个BUG,没有自动识别https仍是http的功能,大佬能够加一下这个功能,而后让小影子看看,嘿嘿嘿
#coding:utf-8 import requests import os import sys import getopt import re reload(sys) sys.setdefaultencoding('GBK') def title(url): file = open(url) headers = { 'Host': 'www.starsnowsec.com', 'Connection': 'close', 'Cache-Control': 'max-age=0', 'Upgrade-Insecure-Requests': '1', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36', 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9', 'Sec-Fetch-Site': 'none', 'Sec-Fetch-Mode': 'navigate', 'Sec-Fetch-User': '?1', 'Sec-Fetch-Dest': 'document', 'Accept-Encoding': 'gzip, deflate', 'Accept-Language': 'zh-CN,zh;q=0.9', 'Cookie': '', } try: for line in file: line = line.strip('\n') url = 'https://' + line r = requests.get(url,headers=headers) if r.status_code == 200: title = re.findall('<title>(.+)</title>',r.text) result = '[*]URL:' + str(url) + ' +title:' + str(title[0]) f = open('result.txt','a+') f.write(result+'\n') f.close() print result pass # do something # with open(url, "r") as f: #打开文件 # data = f.read() #读取文件 # print data # print "1" else: print "-" * 40 print r.text pass except: print "error!" pass def main(): # 读取命令行选项,若没有该选项则显示用法 try: # opts:一个列表,列表的每一个元素为键值对 # args:其实就是sys.argv[1:] # sys.argv[1:]:只处理第二个及之后的参数 # "ts:h":选项的简写,有冒号的表示后面必须接这个选项的值(如 -s hello) # ["help", "test1", "say"] :固然也能够详细地写出来,不过要两条横杠(--) opts, args = getopt.getopt(sys.argv[1:], "u:h",["url", "help"]) # print opts # 具体处理命令行参数 for o,v in opts: if o in ("-h","--help"): usage() elif o in ("-u", "--url"): title(v) # 经测试--是不能带后继值的 # except getopt.GetoptError as err: # print str(err) print 'Error!' main()
# 安装 pip install r3con1z3r # 使用 r3con1z3r -d domain.com
使用结果
r3con1z3r 会对HTTP Header,Route,Whois,DNS,IP,端口,内链爬取进行收集
优势:使用简单,界面简洁,准确率高
缺点:笔者在使用的时候,速度过慢,还要挂代理
Github git clone https://github.com/shmilylty/OneForAll.git Gitee git clone https://gitee.com/shmilylty/OneForAll.git
👍功能特性
censys_api
,certspotter
,crtsh
,entrust
,google
,spyse_api
)axfr
,检查跨域策略文件cdx
,检查HTTPS证书cert
,检查内容安全策略csp
,检查robots文件robots
,检查sitemap文件sitemap
,利用NSEC记录遍历DNS域dnssec
,后续会添加NSEC3记录等模块)archivecrawl
,commoncrawl
,此模块还在调试,该模块还有待添加和完善)binaryedge_api
, bufferover
, cebaidu
, chinaz
, chinaz_api
, circl_api
, cloudflare
, dnsdb_api
, dnsdumpster
, hackertarget
, ip138
, ipv4info_api
, netcraft
, passivedns_api
, ptrarchive
, qianxun
, rapiddns
, riddler
, robtex
, securitytrails_api
, sitedossier
, threatcrowd
, wzpc
, ximcx
)srv
,以及经过查询域名的DNS记录中的MX,NS,SOA,TXT记录来收集子域)alienvault
, riskiq_api
,threatbook_api
,threatminer
,virustotal
,virustotal_api
该模块还有待添加和完善)ask
, baidu
, bing
, bing_api
, duckduckgo
, exalead
, fofa_api
, gitee
, github
, github_api
, google
, google_api
, shodan_api
, so
, sogou
, yahoo
, yandex
, zoomeye_api
),在搜索模块中除特殊搜索引擎,通用的搜索引擎都支持自动排除搜索,全量搜索,递归搜索。rst
, csv
, tsv
, json
, yaml
, html
, xls
, xlsx
, dbf
, latex
, ods
。https://phpinfo.me/domain/ 子域名爆破
提及来目录扫描,绝大部分人都是知道御剑的,而且也是使用过的,很少说什么,推荐
Tips: 能够尝试多收集几款不同的御剑,不一样的御剑的结果也是不同的(相同状况下)
笔者这里是有四种
https://github.com/7kbstorm/7kbscan-WebPathBrute
7kb大佬的WebPathBrute
界面简洁,功能强大,
如下是悬剑中WebPathBrute的工具介绍原话:
1、先说说并发线程数吧,虽然默认是20 可是加大也无妨看你本身的各个参数设置和机器网络等配置了。 2、超时时间本身视状况而定 也没必要多介绍了。 3、这个随机xff头和xr头 套用百度上一段话 能懂得天然懂得 不懂得也无所谓 不多能遇见须要用到的这种状况 勾选后每次访问都会随机生成这两个IP值 若是线程开的大 可能比较耗cpu。 一、X-Forwarded-For是用于记录代理信息的,每通过一级代理X-Forwarded-For是用于记录代理信息的,每通过一级代理(匿名代理除外),代理服务器都会把此次请求的来源IP追加在X-Forwarded-For中,来自4.4.4.4的一个请求,header包含这样一行 X-Forwarded-For: 1.1.1.1, 2.2.2.2, 3.3.3.3 表明 请求由1.1.1.1发出,通过三层代理,第一层是2.2.2.2,第二层是3.3.3.3,而本次请求的来源IP4.4.4.4是第三层代理 二、X-Real-IP,通常只记录真实发出请求的客户端IP,上面的例子,若是配置了X-Read-IP,将会是X-Real-IP: 1.1.1.1 4、自定义User Agent头这个没必要解释了吧。 5、自定义错误页面关键字 这个针对修改了错误页面的网站的功能 你们经常使用 因此我也不在这里多啰嗦了。 6、http访问方法 HEAD GET POST 三种方式,head请求扫描速度最快 可是准确率不如如下两种,post请求是为某些状况绕过waf使用的。 7、延时扫描功能 勾选效果是: 单线程扫描、默认每隔2秒访问一次。适用于某些存在CCwaf的网站 免于频繁访问被认为是CC攻击。(默认两秒已经能过云锁以及安全狗的默认CC设置) 8、扫描类型 分别对应同目录下多个txt文件 自定义对应的文件是custom.txt,后缀格式为".xxx",如不须要后缀能够不填 直接将字典内容修改成"111.svn"此类便可。 9、状态码我也很少解释了 10、双击表格内某行即调用系统默认浏览器打开当前行Url 右键可复制Url内容。 十一 批量导入的Url与填写的Url都须要以 http:// https://开头的格式。
轻量级,功能强大,速度快
使用 python3.x 运行
Install
git clone https://github.com/maurosoria/dirsearch.git cd dirsearch python3 dirsearch.py -u <URL> -e <EXTENSION>
Usage: dirsearch.py [-u|--url] target [-e|--extensions] extensions [options] 更多使用方法 dirsearch.py -h, --help
轻量级,使用方便
很少说
配置简单,扫描快速,界面简洁
速度很是快(取决于网络还有电脑性能)
应该都据说过Masscan,笔者就很少说了
界面是我用过中UI最好看的一个
这界面,爱了爱了~~
这个也不用我多说,挂上代理,点到哪里,挖到那里
用了都说真香
报告简洁,功能强大
生成的报告以下
目前全世界最多人使用的系统漏洞扫描与分析软件
也不用多说
这个也不用多说
还有可下载的插件市场
笔者尚未用过,不过是悬剑里推荐的,应该不错!
笔者第一开始时候用的工具都是流光,明小子啊D一类的(脚本小子),而后那个时候都是带后门的,把电脑搞得一团糟,想一想就想笑,哈哈哈哈
小的时候我垃圾(脚本小子),原本以为长大了就厉害了,没想到越长大越废物(仍是脚本小子),呜呜呜呜呜~~~
没必要多说,功能强大,笔者最喜欢一把梭
nc被称为瑞士军刀,强大之处不用多说
CobaltStrike
这种东西也不用多说,就说一个CS后渗透插件
Github: https://github.com/DeEpinGh0st/Erebus
学安全没有个bp感受都说不出去 基本都是破解版 哈哈哈哈
和burpsuite同样,抓取数据包
笔者更喜欢使用BurpSuite一点,Fiddler没有过多地使用过
不用笔者多说,Wireshark,我愿称你为数据分析第一
很是轻巧的一款工具
不过笔者并无用过几回
追求轻便的大佬能够尝试一下
# -*- coding: UTF-8 -*- import requests import re from bs4 import BeautifulSoup as bs def main(): for i in range(0,100,10): expp=("/") # print(i) url='https://www.baidu.com/s?wd=inurl admin.php&pn=%s'%(str(i)) headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:60.0) Gecko/20100101 Firefox/60.0'} r=requests.get(url=url,headers=headers) soup=bs(r.content,'lxml') urls=soup.find_all(name='a',attrs={'data-click':re.compile(('.')),'class':None}) for url in urls: r_get_url=requests.get(url=url['href'],headers=headers,timeout=4) if r_get_url.status_code==200: url_para= r_get_url.url url_index_tmp=url_para.split('/') url_index=url_index_tmp[0]+'//'+url_index_tmp[2] with open('cs.txt') as f: if url_index not in f.read():#这里是一个去重的判断,判断网址是否已经在文本中,若是不存在则打开txt并写入咱们拼接的exp连接。 print(url_index) f2=open("cs.txt",'a+') f2.write(url_index+expp+'\n') f2.close() if __name__ == '__main__': f2=open('cs.txt','w') f2.close() main()
有须要能够自行在Github'上面搜索,或者本身写个小脚本
(Tips:别忘告终果去重!)
Fofa采集
ZoomEye采集
工具在github上面都是有的,笔者也很少bb
好用程度不用多说
我的比较喜欢这个版本的火狐+这个hackbar
很清楚,显示了前端的那些库,语言,框架,版本等
代理工具
右键直接换代理,方便Burpsuite来回切换
前端小爬虫,用来爬取内链和外链连接
不用多说
我用的火狐是 Pentest Box 里面的
www.pentestbox.com
里面携带的插件挺齐全
有兴趣的能够尝试下载玩玩,有两个版本,一个是带metasploit,一个不带,能够随意选择
里面的环境还有工具基本经常使用的都已经下载好了,也有更新功能等
下载功能等