xray+rad 自动化edusrc
最近挖洞效率低下,学习了下扫描器
1.爬取漏洞平台上各大学校的网址

写了个小爬虫,有些会爬到百度百科里面,但是不影响,后面加个判断就好了。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38
| import requests import os from lxml import etree allpage = 199 all_school = dict()
handers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.99 Safari/537.36 Edg/97.0.1072.76'} print("开始获取学校名称和网址") for page in range(1,allpage): url = f'https://src.sjtu.edu.cn/rank/firm/?page={page}' page_text = requests.get(url,headers=handers).text tree = etree.HTML(page_text) content = tree.xpath(f'//tr[@class="row"]//a//text()') index = 1 for item in content: try: response = requests.get(url=f'https://cn.bing.com/search?q={item}', headers=handers).text tree2 = etree.HTML(response) content2 = tree2.xpath(f'/html/body/div[1]/main/ol/li[1]/div[1]/h2/a/@href') all_school[item]=content2[0] print(item + f' {content2[0]} '+f'第{page}/{allpage}页----{index/15*100}%') index += 1 except: print(f"{item}出错啦!") index += 1
with open('./学校网址.txt',mode='w',encoding='utf-8') as fp: for key in all_school.keys(): fp.write(f'{key} {all_school[key]}\n')
with open('url.txt',mode='w',encoding='utf-8') as fp2: for value in all_school.values(): fp2.write(f'{value}\n')
|
2.用xray和rad联动扫描url
工具是别人的
xray的被动扫描能力很强,但是主动扫描就弱了点,而rad的爬虫功能很强,所以将两种结合起来就能取长补短。但是它们两者不能进行批量检测。所以写了个脚本让两者结合进行批量检测。
首先将xray与rad所在文件夹加入到环境变量中,环境变量——用户变量——path——编辑

使用的是python3,安装依赖库
pip install pypiwin32
pip isntall requests
注意,系统需要装有chrome浏览器
之后将要扫描的目标放在url.txt文件中,一个目标一行。接着点击xray批量自动检测.bat
启动后如下,输入xray扫描后的漏洞文件名,然后rad框中输入任意的数字

过程如下

如果扫描出漏洞后会自动弹出浏览器漏洞报告
靶场测试

超!完美!
链接:https://pan.baidu.com/s/14pENeqIq-zAIvPgA92n9sw
提取码:flag{Favorite anime characters}