渗透信息收集爬虫工具 Katana 使用指南

文章目录

  • [1 简介](#1 简介)
  • [2 下载](#2 下载)
  • [3 基础使用](#3 基础使用)
    • [3.1 Windows](#3.1 Windows)
    • [3.2 Linux](#3.2 Linux)
  • [4 联动使用](#4 联动使用)
  • [5 总结](#5 总结)

⚠️本博文所涉安全渗透测试技术、方法及案例,仅用于网络安全技术研究与合规性交流,旨在提升读者的安全防护意识与技术能力。任何个人或组织在使用相关内容前,必须获得目标网络 / 系统所有者的明确且书面授权,严禁用于未经授权的网络探测、漏洞利用、数据获取等非法行为。

1 简介

Katana是ProjectDiscovery团队开发的一款高性能Web路径爬取工具,专为渗透测试、安全评估等场景设计,能够高效发现目标URL下的隐藏路径、端点及相关资源,具备轻量、灵活、可扩展的特性,可适配Windows、Linux等多操作系统环境。

官方 GitHub 地址:https://github.com/projectdiscovery/katana

2 下载

推荐使用二进制下载,不需要安装 Go 语言环境。

官方地址:https://github.com/projectdiscovery/katana/releases

3 基础使用

3.1 Windows

shell 复制代码
# 带请求体扫描:指定目标URL,并携带JSESSIONID请求头进行路径爬取
katana.exe -u http://xxx/path -H JSESSIONID=DA6E2BAE7D967A7E21C7C848AE8EF912
# -u:指定待爬取的目标URL;-H:添加自定义HTTP请求头(格式为"键=值")

# 自定义爬取规则扫描:指定目标URL和请求头,配置爬取并发、速率、延迟并调用系统Chrome浏览器渲染爬取
katana.exe -u http://xxx/path -H JSESSIONID=DA6E2BAE7D967A7E21C7C848AE8EF912 -hl -rl 10 -delay 3 -system-chrome
# -hl:启用HTTP请求头日志记录,留存爬取过程中的请求头信息;
# -rl 10:设置请求速率限制,限制为每秒发送10个请求;
# -delay 3:设置每次请求的间隔延迟,单位为秒;
# -system-chrome:调用系统已安装的Chrome浏览器进行动态渲染爬取(首次使用会自动下载chromium)

3.2 Linux

shell 复制代码
# 查看详细参数:输出katana所有可用参数及对应的功能说明
./katana --h

# 存为纯文本文件(推荐,便于后续传给nuclei等工具):指定目标URL,静默模式爬取并将结果输出到指定文本文件
./katana -u https://example.com -silent -o katana_result.txt
# -silent:启用静默模式,仅输出爬取到的有效路径/端点,不显示额外日志、进度等信息;
# -o katana_result.txt:将爬取结果输出到指定的文本文件中(覆盖写入)

4 联动使用

信息收集阶段可以将 katana 与 subfinder、httpx 进行联动,这三个工具都是 ProjectDiscovery 组织开发的,可形成"子域名发现-存活检测-路径爬取"的完整信息收集链路。

shell 复制代码
# 子域名发现→存活检测→路径爬取联动:先通过subfinder获取目标域名的子域名,去重后经httpx检测存活URL,再由katana进行深度为2的路径爬取
subfinder -d 目标域名 -silent | sort -u | httpx -silent | katana -silent -depth 2
# subfinder -d 目标域名:指定待枚举子域名的根域名;
# sort -u:对subfinder输出的子域名列表去重;
# httpx -silent:静默模式下检测URL是否存活(可访问);
# katana -depth 2:设置爬取深度为2层,仅爬取目标URL下2层内的嵌套路径

# 带JSON解析的联动爬取:子域名发现→存活检测后,katana启用JSON内容解析、深度2爬取并输出结果到文件
subfinder -d example.com -silent | sort -u | httpx -silent | katana -silent -jc -depth 2 -o result.txt
# -jc:启用JSON响应内容解析,从目标返回的JSON数据中提取URL/路径信息;
# -o result.txt:将最终爬取结果输出到result.txt文件中

还可以联动 ProjectDiscovery 组织的 nuclei 工具,不过不太推荐,因为 nuclei 覆盖的漏洞检测范围较广,需精准筛选适配的模板,否则易产生大量无效扫描结果。

5 总结

Katana作为专业化的Web路径爬取工具,凭借灵活的参数配置和与ProjectDiscovery生态工具的良好兼容性,成为安全从业者信息收集阶段的核心工具。其多平台适配、动态渲染爬取及自定义速率/延迟等特性,既满足常规路径发现需求,也能适配不同网络环境下的爬取策略;联动场景下可与subfinder、httpx形成闭环的信息收集流程,大幅提升信息收集的效率与覆盖面,仅在联动nuclei时需注意模板的精准选用,以保障检测效果。

相关推荐
搂着猫睡的小鱼鱼13 小时前
Ozon 商品页数据解析与提取 API
爬虫·php
深蓝电商API14 小时前
住宅代理与数据中心代理在爬虫中的选择
爬虫·python
csdn_aspnet15 小时前
Libvio.link爬虫技术深度解析:反爬机制破解与高效数据抓取
爬虫·反爬·libvio
0思必得017 小时前
[Web自动化] Selenium处理滚动条
前端·爬虫·python·selenium·自动化
vx_biyesheji000118 小时前
豆瓣电影推荐系统 | Python Django 协同过滤 Echarts可视化 深度学习 大数据 毕业设计源码
大数据·爬虫·python·深度学习·django·毕业设计·echarts
枷锁—sha19 小时前
【SRC】SQL注入快速判定与应对策略(一)
网络·数据库·sql·安全·网络安全·系统安全
深蓝电商API19 小时前
爬虫IP封禁后的自动切换与检测机制
爬虫·python
喵手21 小时前
Python爬虫实战:公共自行车站点智能采集系统 - 从零构建生产级爬虫的完整实战(附CSV导出 + SQLite持久化存储)!
爬虫·python·爬虫实战·零基础python爬虫教学·采集公共自行车站点·公共自行车站点智能采集系统·采集公共自行车站点导出csv
喵手21 小时前
Python爬虫实战:地图 POI + 行政区反查实战 - 商圈热力数据准备完整方案(附CSV导出 + SQLite持久化存储)!
爬虫·python·爬虫实战·零基础python爬虫教学·地区poi·行政区反查·商圈热力数据采集
芷栀夏21 小时前
从 CANN 开源项目看现代爬虫架构的演进:轻量、智能与统一
人工智能·爬虫·架构·开源·cann