0%

xray+rad 自动化edusrc

xray+rad 自动化edusrc

最近挖洞效率低下,学习了下扫描器

1.爬取漏洞平台上各大学校的网址

image-20220208144944272

写了个小爬虫,有些会爬到百度百科里面,但是不影响,后面加个判断就好了。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
import requests
import os
from lxml import etree
allpage = 199
all_school = dict()
#获取学校名字
handers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.99 Safari/537.36 Edg/97.0.1072.76'}
print("开始获取学校名称和网址")
for page in range(1,allpage):
#获取学校名称
url = f'https://src.sjtu.edu.cn/rank/firm/?page={page}'
page_text = requests.get(url,headers=handers).text
tree = etree.HTML(page_text)
content = tree.xpath(f'//tr[@class="row"]//a//text()')
#定义一个进度条用的东西
index = 1
#从bing上获取学校官网
for item in content:
try:
response = requests.get(url=f'https://cn.bing.com/search?q={item}', headers=handers).text
tree2 = etree.HTML(response)
content2 = tree2.xpath(f'/html/body/div[1]/main/ol/li[1]/div[1]/h2/a/@href')
#把结果存入字典
all_school[item]=content2[0]
print(item + f' {content2[0]} '+f'第{page}/{allpage}页----{index/15*100}%')
index += 1
except:
print(f"{item}出错啦!")
index += 1
#持久化存储
with open('./学校网址.txt',mode='w',encoding='utf-8') as fp:
for key in all_school.keys():
fp.write(f'{key} {all_school[key]}\n')
#单独存储url方便扫描
with open('url.txt',mode='w',encoding='utf-8') as fp2:
for value in all_school.values():
fp2.write(f'{value}\n')

2.用xray和rad联动扫描url

工具是别人的

xray的被动扫描能力很强,但是主动扫描就弱了点,而rad的爬虫功能很强,所以将两种结合起来就能取长补短。但是它们两者不能进行批量检测。所以写了个脚本让两者结合进行批量检测。

首先将xray与rad所在文件夹加入到环境变量中,环境变量——用户变量——path——编辑

image

使用的是python3,安装依赖库
pip install pypiwin32
pip isntall requests

注意,系统需要装有chrome浏览器
之后将要扫描的目标放在url.txt文件中,一个目标一行。接着点击xray批量自动检测.bat

启动后如下,输入xray扫描后的漏洞文件名,然后rad框中输入任意的数字 

image

过程如下 

image

 如果扫描出漏洞后会自动弹出浏览器漏洞报告

靶场测试

image-20220208162054937

超!完美!

链接:https://pan.baidu.com/s/14pENeqIq-zAIvPgA92n9sw
提取码:flag{Favorite anime characters}