【Python】SqlmapAPI调用实现自动化SQL注入安全检测

文章目录

应用案例:前期通过信息收集拿到大量的URL地址,这个时候可以配置sqlmapAP接口进行批量的SQL注入检测 (SRC挖掘)

查看sqlmapapi使用方法

python 复制代码
python sqlmapapi.py -h

启动sqlmapapi 的web服务:

任务流程:

1.创建新任务记录任务ID          @get("/task/new"))
2.设置任务ID扫描信息           @post("/option/<taskid>/set")
3.开始扫描对应ID任务           @post ("/scan/<taskid>/start")
4.读取扫描状态判断结果          @get("/scan/<taskid>/status")
5.如果结束删除ID并获取结果      @get ("/task/<taskid>/delete")
6.扫描结果查看				@get("/scan/<taskid>/data")		

简单使用

  • 1.创建新任务记录任务ID
python 复制代码
import requests

# 1.创建新任务记录任务ID
task_new_url='http://127.0.0.1:8775/task/new'
response=requests.get(url=task_new_url)
print(response.json())
  • 2.设置任务ID扫描信息
python 复制代码
import requests
import json
# 1.创建新任务记录任务ID
task_new_url = 'http://127.0.0.1:8775/task/new'
response = requests.get(url=task_new_url)
taskid = response.json()['taskid']

# 2.设置任务ID扫描信息
data={
    'url':'http://192.168.8.3/sqli-labs-master/Less-2/?id=1'
}
headers={
    'Content-Type':'application/json'
}
task_set_url='http://127.0.0.1:8775/option/'+taskid+'/set'
task_set_response=requests.post(url=task_set_url,data=json.dumps(data),headers=headers)
print(task_set_response.content.decode('utf-8'))
  • 3.开始扫描对应ID任务
python 复制代码
import requests
import json

# 1.创建新任务记录任务ID
task_new_url = 'http://127.0.0.1:8775/task/new'
response = requests.get(url=task_new_url)
taskid = response.json()['taskid']

# 2.设置任务ID扫描信息
data = {
    'url': 'http://192.168.8.3/sqli-labs-master/Less-2/?id=1'
}
headers = {
    'Content-Type': 'application/json'
}
task_set_url = 'http://127.0.0.1:8775/option/' + taskid + '/set'
task_set_response = requests.post(url=task_set_url, data=json.dumps(data), headers=headers)
# print(task_set_response.content.decode('utf-8'))

##### 3.开始扫描对应ID任务
task_start_url='http://127.0.0.1:8775/scan/'+taskid+'/start'
task_start_data=requests.post(task_start_url,data=json.dumps(data),headers=headers)
print(task_start_data.content.decode('utf-8'))

这边任务id和上面不一样是因为我重启了服务

  • 获取扫描状态
python 复制代码
import requests
import json

# 1.创建新任务记录任务ID
task_new_url = 'http://127.0.0.1:8775/task/new'
response = requests.get(url=task_new_url)
taskid = response.json()['taskid']

# 2.设置任务ID扫描信息
data = {
    'url': 'http://192.168.8.3/sqli-labs-master/Less-2/?id=1'
}
headers = {
    'Content-Type': 'application/json'
}
task_set_url = 'http://127.0.0.1:8775/option/' + taskid + '/set'
task_set_response = requests.post(url=task_set_url, data=json.dumps(data), headers=headers)
# print(task_set_response.content.decode('utf-8'))

# 3.开始扫描对应ID任务
task_start_url = 'http://127.0.0.1:8775/scan/' + taskid + '/start'
task_start_data = requests.post(task_start_url, data=json.dumps(data), headers=headers)
# print(task_start_data.content.decode('utf-8'))

# 4.读取扫描状态判断结果
task_scan_url = 'http://127.0.0.1:8775/scan/' + taskid + '/status'
task_scan_data = requests.get(task_scan_url)
print(task_scan_data.content.decode('utf-8'))
  • 查看结果

查看扫描结果是get请求,所以可以在浏览器中查看结果

上述代码,在每运行一次都会创建一个任务ID,所以需要进行代码优化

优化

python 复制代码
import time

import requests, json


# 创建任务

def sqlmapapi(url):
    # 创建任务id
    task_new_url = 'http://127.0.0.1:8775/task/new'
    response = requests.get(url=task_new_url)
    taskid = response.json()['taskid']
    if 'success' in response.content.decode('utf-8'):
        print('sqlmapapi task create success !')
        data = {
            'url': url
        }
        headers = {
            'Content-Type': 'application/json'
        }
        # 设置 任务
        task_set_url = 'http://127.0.0.1:8775/option/' + taskid + '/set'
        task_set_response = requests.post(url=task_set_url, data=json.dumps(data), headers=headers)
        if 'success' in task_set_response.content.decode('utf-8'):
            print('sqlmapapi task set success !')
            # 扫描任务
            task_start_url = 'http://127.0.0.1:8775/scan/' + taskid + '/start'
            task_start_data = requests.post(task_start_url, data=json.dumps(data), headers=headers)
            if 'success' in task_start_data.content.decode('utf-8'):
                print('sqlmapapi task start success !')
                # 获取扫描状态
                while True:
                    task_status_url = 'http://127.0.0.1:8775/scan/' + taskid + '/status'
                    task_status_data = requests.get(task_status_url)
                    if 'running' in task_status_data.content.decode('utf-8'):
                        print('sqlmapapi task scan running .....')
                    else:
                        # 查看扫描结果
                        task_data_url = 'http://127.0.0.1:8775/scan/' + taskid + '/data'
                
                        task_data = requests.get(task_data_url)
                        print(task_data.content.decode('utf-8'))

                        break
                time.sleep(3)


if __name__ == '__main__':
    # url='http://192.168.8.3/sqli-labs-master/Less-2/?id=1'
    for url in open('url.txt'):
        url = url.replace('\n', '')
        sqlmapapi(url)
相关推荐
数据小小爬虫5 分钟前
Python爬虫获取AliExpress商品详情
开发语言·爬虫·python
小爬虫程序猿6 分钟前
利用Python爬虫速卖通按关键字搜索AliExpress商品
开发语言·爬虫·python
Eiceblue25 分钟前
使用Python获取PDF文本和图片的精确位置
开发语言·python·pdf
我叫czc27 分钟前
【Python高级353】python实现多线程版本的TCP服务器
服务器·python·tcp/ip
爱数学的程序猿32 分钟前
Python入门:6.深入解析Python中的序列
android·服务器·python
comli_cn1 小时前
使用清华源安装python包
开发语言·python
赵谨言1 小时前
基于python 微信小程序的医院就诊小程序
经验分享·python·毕业设计
1.01^10001 小时前
[1111].集成开发工具Pycharm安装与使用
python·pycharm
HEX9CF1 小时前
【Django】测试带有 CSRF 验证的 POST 表单 API 报错:Forbidden (CSRF cookie not set.)
python·django·csrf
深度学习机器2 小时前
LangGraph:基于图结构的大模型智能体开发框架
人工智能·python·深度学习