爬取目标网站的域名和子域名【网站子域扫描工具01】

使用 Python 的 requests 库发送 HTTP 请求,并使用 Beautiful Soup或者正则表达式来解析响应,从中提取出域名和子域名信息。

1.简单示例(Beautiful Soup)

这是一个简单的示例代码,演示如何使用 requests 和 BeautifulSoup 来获取网页中的链接:

下面是带有注释的代码,解释了每一步具体在做什么:

python 复制代码
import requests  # 导入发送 HTTP 请求的库
from bs4 import BeautifulSoup  # 导入用于解析 HTML 的库

# 定义一个函数,用于获取目标网站的子域名
def get_subdomains(url):
    # 发送一个 GET 请求到目标网站,并获取响应内容
    response = requests.get(url)
    
    # 使用 BeautifulSoup 解析响应的 HTML 内容
    soup = BeautifulSoup(response.text, 'html.parser')
    
    subdomains = set()  # 创建一个集合,用于存储提取出的子域名
    
    # 遍历所有带有 href 属性的链接
    for link in soup.find_all('a'):
        href = link.get('href')  # 获取链接的地址
        if href and href.startswith('http'):  # 如果链接以 http 开头(避免处理相对链接)
            domain = href.split('/')[2]  # 提取链接中的域名部分作为子域名
            subdomains.add(domain)  # 将提取到的子域名加入集合中
    
    return subdomains  # 返回提取到的子域名集合

target_url = 'http://www.baidu.com'  # 设置目标网站的 URL
subdomains = get_subdomains(target_url)  # 调用函数获取子域名
print(subdomains)  # 打印提取到的子域名集合

在这个示例中,我们首先发送了一个 GET 请求到目标网站,然后用 BeautifulSoup 解析响应的 HTML 内容,提取出所有带有 href 属性的链接,并从中提取出域名部分作为子域名。最后将提取到的子域名放入集合中并返回。

2.简单示例(正则表达式)

以下是一个简单的示例代码:

python 复制代码
import requests
import re

def get_subdomains(url):
    response = requests.get(url)  # 发送GET请求获取网页内容
    html_content = response.text  # 获取网页HTML内容

    # 使用正则表达式从HTML内容中提取子域名
    subdomains = re.findall(r'(https?://\w+\.\w+\.\w+)', html_content)

    return subdomains

target_url = 'http://www.baidu.com'
subdomains = get_subdomains(target_url)
print(subdomains)

在这个示例中,我们使用了requests库发送了一个GET请求到目标网站,并获取了网页的HTML内容。接着,我们使用了正则表达式来从HTML内容中提取出子域名。

3.小结

这只是一个简单的示例,实际情况可能更加复杂,需要考虑不同网页结构、链接格式等问题。

相关推荐
曲幽1 小时前
数据库实战:FastAPI + SQLAlchemy 2.0 + Alembic 从零搭建,踩坑实录
python·fastapi·web·sqlalchemy·db·asyncio·alembic
用户8356290780516 小时前
Python 实现 PowerPoint 形状动画设置
后端·python
ponponon7 小时前
时代的眼泪,nameko 和 eventlet 停止维护后的项目自救,升级和替代之路
python
Flittly7 小时前
【从零手写 ClaudeCode:learn-claude-code 项目实战笔记】(5)Skills (技能加载)
python·agent
敏编程8 小时前
一天一个Python库:pyarrow - 大规模数据处理的利器
python
Flittly10 小时前
【从零手写 ClaudeCode:learn-claude-code 项目实战笔记】(4)Subagents (子智能体)
python·agent
明月_清风16 小时前
Python 装饰器前传:如果不懂“闭包”,你只是在复刻代码
后端·python
明月_清风16 小时前
打破“死亡环联”:深挖 Python 分代回收与垃圾回收(GC)机制
后端·python
ZhengEnCi1 天前
08c. 检索算法与策略-混合检索
后端·python·算法
明月_清风2 天前
Python 内存手术刀:sys.getrefcount 与引用计数的生死时速
后端·python